Global
NXP, 업계 최초 보안 트라이 라디오 디바이스 발표
와이파이 6, 블루투스 5.2, 802.15.4를 지원하는 업계 최초 모놀리식 트라이 라디오 제품군

NXP반도체는 업계 최초로 와이파이6, 블루투스 5.2, 802.15.4 프로토콜을 지원하는 보안 트라이 라디오 디바이스 IW612를 발표했다. IW612는 NXP의 새로운 트라이 라디오 제품군으로, 스마트 홈, 자동차, 산업 부문의 원활한 보안 연결을 가능하게 하고 새롭고 획기적인 매터 연결 프로토콜을 지원한다.
IW612를 통해 소비자는 단일 프로토콜 에코시스템의 제약에서 벗어나 서로 다른 에코시스템과 무선 네트워크 기술 간의 상호 운용을 원활히 할 수 있다. 또한 개발자는 하나의 디바이스에서 3개의 라디오를 동시에 지원하는 NXP의 최첨단 공존 기능을 통해 비용과 개발 시간을 줄일 수 있다.
제한적인 상호 운용성은 IoT가 현 시점 직면한 주요 과제 중 하나로, 소비자가 여러 회사의 스마트 홈 제품을 함께 사용하는 데 걸림돌이 될 수 있다. 매터는 NXP를 포함한 업계 선두 업체들의 컨소시엄이 설계한 최신 표준화된 IoT 연결 프로토콜로서, 제조업체나 무선 기술에 상관없이 디바이스가 통신하는 방식을 통합해 이와 같은 문제를 해결한다. 해당 프로토콜은 보다 많은 개체 간의 연결을 더 많이 생성해 제조업체의 개발을 단순화하고 소비자의 호환성을 향상시킨다.
상호 운용성의 새로운 시대를 위해 IW612는 강력한 무선 성능을 제공하고 고성능 RF 프런트 엔드를 통합해 업계 최고의 연결 라디오 3개를 최초로 단일 디바이스에 통합한다. 이러한 기술 조합은 개발 시간을 크게 단축하고, 설계를 단순화하며, 비용을 절감시켜 스마트 홈에서의 진정한 상호 운용성을 실현한다. 고도로 통합된 솔루션은 오늘날 개발자들이 직면한 하드웨어 공존 문제를 극복하는 동시에 IoT로 인해 끊임없이 증가하는 보안 위협을 방지할 수 있도록 돕는 고급 보안 프로토콜을 지원한다.
IW612는 오랜 역사를 자랑하는 NXP의 리더십을 바탕으로 스마트 기기가 직면한 지속적인 보안 위협에 대응할 수 있는 보안 솔루션을 제공한다. IW612는 지속적인 보호를 위해 보안 부팅, 디버그, 무선 펌웨어 업데이트와 더불어 WPA3 보안 및 하드웨어 암호화 엔진을 제공한다.
래리 올리바스(Larry Olivas) NXP반도체 무선 연결 솔루션 총괄 겸 부사장은 “개발자는 IW612를 통해 하나의 기기에서 다양한 무선 연결 프로토콜을 활용함으로써 스마트 홈, 산업, 자동차 분야에서 사용하기 쉽고 안전한 제품을 만들 수 있다. 이제 도어락과 스마트 스피커부터 차량 내 엔터테인먼트와 텔레매틱스에 이르기까지 트라이 라디오 솔루션을 통해 매터를 비롯한 여러 기술과 에코시스템을 처리할 수 있다. 이는 개발자에게 보다 비용 효율적인 솔루션을 제공하는 동시에 소비자의 실행을 단순화할 수 있다”고 말했다.
조나단 콜린스(Jonathan Collins) ABI 리서치 디렉터는 “상호 운용성은 수년 간 스마트 홈 시장의 핵심 과제였지만, 매터 지원 기기가 이를 바꿀 수 있다. 새로운 모놀리식 디바이스를 통해 NXP는 개발자가 스마트 홈 애플리케이션을 위해 매터 지원 연결 프로토콜을 활용하고 매터를 더 빠르게 적용할 수 있도록 한다. 이를 통해 스마트 디바이스를 더 쉽게 연결하고 상호 운용 디바이스의 선택의 폭을 넓힘으로써 소비자에게 향상된 사용성을 제공할 수 있다”고 말했다.
IW612는 통합 와이파이 6 라디오를 사용해 클라우드에 스레드 또는 블루투스 디바이스를 연결해야 하는 스마트 홈의 경계 라우터, 브리지, 게이트웨이에 이상적인 솔루션이다. 또한 IW612는 와이파이와 스레드 중 무엇을 사용하든 매터 디바이스 간 통신을 가능하게 한다. 이를 통해 와이파이 매터(Matter-over-Wi-Fi) 제품은 원활한 상호 운용성을 위해 스레드 매터 디바이스를 제어 및 모니터링할 수 있으며 그 반대도 가능하다.
• 트라이 라디오 통합
– 와이파이6로 네트워크 혼잡 감소, 범위 확장, 견고성 제고, 전력 절감
– 오디오(A2DP, LE 오디오), 음성 및 네트워크 커미셔닝을 위한 블루투스 5.2
– 스레드 메쉬 네트워킹과 함께 매터에 적합한 802.15.4
• 내외부 멀티 라디오 작동을 위한 향상된 공존성
• IoT 공격에 대한 보호를 위한 강력한 보안
• NXP의 광범위한 마이크로프로세서 및 마이크로컨트롤러 포트폴리오에 대한 사전 검증된 연결
• LNA, 고출력 PA, 스위치를 포함한 통합 RF 프런트엔드 시스템 비용 절감, 재료 및 설치 공간 감소
IW612는 현재 샘플링 중이며, CES 2022에서 시연을 제공했다.
Global
온세미, 자동차 부문 성장성 확장으로 4분기 21억 360만 달러 매출 달성
온세미는 지난 4분기 21억 360억 달러 매출을 달성했으며, 연간 기준 매출 83억 달러로 예상치를 상회했다. 이는 각각 전년 동기 대비 14%, 24% 성장한 수치다.
2022 회계연도 기준 매출 83억 달러, 전년 대비 24% 증가
온세미(ONsemi)가 2022 회계연도 연간 및 4분기 실적을 발표했다. 온세미는 지난 4분기 21억 360억 달러 매출을 달성했으며, 연간 기준 매출 83억 달러로 예상치를 상회했다. 이는 각각 전년 동기 대비 14%, 24% 성장한 수치다.
특히 주목되는 부분은 4분기 자동차 부문 매출이 9억 8,900만 달러를 기록했다. 이는 전년 동기 대비로 54%의 큰 폭 성장세를 보여준다.
온세미 CEO인 Hassane El-Khoury는 “온세미는 2022년 탁월한 성과를 달성했다. 2022년 매출은 24% 증가했다. 비일반회계기준 영업이익은 차량 전기화, 첨단 운전자 지원 시스템(ADAS), 대체 에너지, 산업 자동화 등 세간의 메가 트렌드에 초점을 맞추어 매출보다 4배 수준으로 성장했다.”고 말했다.
Global
엔비디아, 대규모 언어 모델 AI 플랫폼 ‘네모 메가트론’ 프레임워크 업데이트 발표
엔비디아 AI 플랫폼 네모 메가트론, A100 GPU 사용한 컨테이너형 프레임워크

엔비디아(CEO 젠슨 황)가 대규모 언어 모델(LLM)의 크기와 복잡성이 지속적으로 급증함에 따라 최대 30%의 훈련 속도 향상을 제공하는 네모 메가트론(NeMo Megatron) 프레임워크의 업데이트를 발표했다.
이번 업데이트는 두 가지 선구적인 기술과 여러 GPU에서 LLM 훈련을 최적화하고 확장하는 하이퍼 파라미터(hyper parameter) 도구를 포함한다. 이를 통해 엔비디아 AI 플랫폼으로 모델을 훈련하고 구축할 수 있는 새로운 기능을 제공한다.
1,760억 개의 파라미터(parameter)를 가진 세계 최대 오픈 사이언스, 오픈 액세스 다국어 언어 모델인 블룸(BLOOM)은 최근 엔비디아 AI 플랫폼에서 훈련돼 46개 언어와 13개 프로그래밍 언어로 텍스트 생성을 가능하게 했다. 또한 엔비디아 AI 플랫폼은 5,300억 개의 파라미터를 포함하는 가장 강력한 변환기 언어 모델인 메가트론-튜링 NLG 모델(MT-NLG)을 지원한다.
LLM의 최신 발전
LLM은 텍스트에서 학습하는 최대 수조 개의 파라미터를 포함하는 오늘날 가장 중요한 첨단 기술 중 하나다. 하지만 이를 개발하려면 심층적인 기술 전문 지식, 분산된 인프라, 전체 스택 접근 방식이 필요해 비용과 시간이 많이 든다.
그러나 실시간 콘텐츠 생성, 텍스트 요약, 고객 서비스 챗봇, 대화형 AI 인터페이스를 위한 질문과 답변을 발전시키는 데 있어 큰 이점을 갖는다.
AI 커뮤니티는 LLM을 발전시키기 위해 메가트론(Megatron)-LM, 에이펙스(Apex), 그리고 기타 GPU 가속 라이브러리를 포함하는 엔비디아 AI 플랫폼을 기반으로 하는 마이크로소프트 딥스피드(Microsoft DeepSpeed), Colossal-AI, 허깅 페이스 빅사이언스(Hugging Face BigScience), 페어스케일(Fairscale) 같은 도구의 혁신을 이어가고 있다.
엔비디아는 오늘날 엔비디아 AI 플랫폼에 대한 새로운 최적화를 통해 스택 전체에서 기존의 많은 문제점을 해결하며, AI 커뮤니티와 협력해 모든 사람이 LLM의 기능에 액세스할 수 있기를 기대하고 있다.
LLM 구축 시간 단축
네모 메가트론의 최신 업데이트는 220억에서 1조 파라미터에 이르는 크기의 GPT-3 모델 훈련 속도를 30% 향상시킨다. 이는 1,024개의 엔비디아 A100 GPU를 사용해 1,750억 개의 파라미터 모델에 대한 훈련을 24일 만에 수행하도록 한다. 즉, 결과 도출 시간을 10일 또는 GPU 컴퓨팅 시간으로 약 250,000 시간 단축할 수 있다.
네모 메가트론은 빠르고 효율적이며 사용하기 쉬운 엔드 투 엔드 컨테이너형 프레임워크이다. 데이터 수집, 대규모 모델 훈련, 업계 표준 벤치마크에 대한 모델 평가, 지연 시간(레이턴시)과 처리량 성능에 대한 최첨단 추론이 가능하다.
이를 통해 LLM 훈련과 추론을 다양한 GPU 클러스터 구성에서 쉽게 재현할 수 있다. 현재 얼리 액세스 고객에게 엔비디아 DGX 슈퍼POD(SuperPOD), 엔비디아 DGX 파운드리(Foundry), 마이크로소프트 애저(Microsoft Azure) 클라우드 플랫폼을 제공한다. 또한 다른 클라우드 플랫폼에 대한 지원도 제공될 예정이다.
더불어 사용자에게 엔비디아 가속 인프라의 실습 랩 카탈로그에 대한 단기 액세스를 제공하는 무료 프로그램인 엔비디아 런치패드(LaunchPad)에서 기능을 체험할 수 있다.
LLM 훈련 속도를 높이는 두 가지 새로운 기술
LLM 훈련을 최적화하고 확장하는 업데이트에 포함된 두 가지 새로운 기술은 시퀀스 병렬화(SP)와 선택적 활성화 재계산(SAR)이다.
시퀀스 병렬화(SP)는 이전에 병렬화 되지 않은 변환기 레이어의 영역이 시퀀스 차원을 따라 독립적이라는 점을 인식해 텐서 수준 모델 병렬화를 확장한다.
시퀀스 차원을 따라 이러한 레이어를 분할함으로써 텐서 병렬 장치 전반에 걸쳐 컴퓨팅 및 가장 중요한 활성화 메모리를 분산할 수 있다. 활성화가 분산되므로 재계산 대신 역방향 패스에 대해 더 많은 활성화를 저장할 수 있다.

선택적 활성화 재계산은 다른 활성화가 재계산하는 데 다른 수의 작업이 필요하다는 점을 인식한다. 이를 통해 메모리 제약으로 인해 활성화의 전부가 아닌 일부를 재계산해야 하는 경우를 개선한다.
전체 변환기 레이어를 검사하고 재계산하는 대신, 상당한 양의 메모리를 차지하지만 재계산하는 데 계산 비용이 많이 들지 않는 각 변환기 레이어의 부분만 검사하고 재계산할 수 있다.
훈련과 추론을 위한 새로운 하이퍼 파라미터 도구
분산된 인프라에서 LLM 모델 구성을 찾는 과정에는 시간이 많이 소요된다. 네모 메가트론은 코드 변경 없이 최적의 훈련과 추론 구성을 자동으로 찾는 하이퍼 파라미터 도구를 도입한다. LLM은 처음부터 추론을 위해 수렴하도록 훈련되어 효율적인 모델 구성을 검색하는데 시간을 낭비하지 않는다.
데이터 병렬화, 텐서 병렬화, 파이프라인 병렬화, 시퀀스 병렬화, 마이크로 배치 크기, 활성화 체크포인트 레이어 수(선택적 활성화 재계산 포함)와 같은 고유한 파라미터에 대한 경험적 그리드 검색을 사용하여 처리량이 가장 우수한 구성을 찾는다.
NGC의 컨테이너에 대한 엔비디아 테스트의 하이퍼 파라미터 도구를 사용하면 24시간 이내에 175B GPT-3 모델에 대한 최적의 훈련 구성에 도달한다. 전체 활성화 재계산을 사용하는 일반적인 구성과 비교할 때 처리 속도가 20-30% 향상됐다. 더불어 최신 기술을 사용해 파라미터가 20B 이상인 모델의 처리 속도를 추가로 10-20% 향상시킨다.
-
Products10개월 ago
에머슨, 수소 연료 전지 수명 연장과 효율 극대화 제공
-
News2년 ago
유니버설 로봇, “국내 자동차, 전기전자 산업에 집중할 것”
-
Global2년 ago
온세미-이모션3D, 혁신적인 운전자 및 탑승자 모니터링 시스템 설계 함께한다
-
Global2년 ago
인피니언, 혁신적인 소스-다운 기술을 적용한 OptiMOS™ 전력 MOSFET 출시
-
Products2년 ago
DELO의 UV 접착제, 증강 현실 HUD의 홀로그래픽 포일 통합성 향상
-
Policy2년 ago
충전소에서 직접 생산한 전기로 전기차를 충전한다
-
Features2년 ago
클로봇, 국립암센터 자율주행 로봇 기반 의료보조 서비스 시작
-
EnglishNews2년 ago
NIO selects high-efficiency SiC traction power modules from onsemi