이전 세대 대비 평균 1.9배 향상된 성능 기록...최신 AI 워크로드에 최적화해 인텔이 자사 최신 서버용 CPU인 ‘인텔 제온 6 P-코어’의 AI 성능을 MLCommons의 공식 벤치마크인 MLPerf 추론 v5.0을 통해 입증했다. 이번 결과는 AI 시스템의 핵심 컴퓨팅 플랫폼으로서 CPU의 중요성이 다시 한번 부각되는 계기가 됐다. MLPerf는 AI 분야에서 권위 있는 성능 평가 지표 중 하나로, 인텔은 해당 벤치마크의 최신 버전에서 주요 여섯 가지 테스트 항목을 기반으로 AI 성능을 측정했다. 그 결과, 제온 6는 이전 세대 대비 평균 1.9배 향상된 성능을 기록하며 최신 AI 워크로드에 최적화한 CPU임을 증명했다. 카린 엡시츠 시갈 인텔 데이터센터 및 AI 그룹 부사장은 “인텔 제온 6는 고성능과 에너지 효율의 균형을 동시에 달성한 제품”이라며 “세대별 성능 향상이 꾸준히 이어지며 AI 시스템에서 CPU의 역할이 강화하고 있다”고 말했다. 특히 인텔은 이번 MLPerf 추론 벤치마크에서 서버용 CPU 성능 결과를 제출한 유일한 반도체 기업이라는 점에서도 주목받았다. 이는 인텔이 AI용 CPU 시장에서 독자적인 입지를 강화하고 있다는 방증이다.
MI300X GPU 32개 활용한 4노드 구성에서 H100 기반 시스템 대비 24% 높은 성능 보여 망고부스트가 글로벌 AI 성능 평가 벤치마크인 MLPerf Inference v5.0에서 새로운 추론 성능 기록을 달성하며, AI 인프라 솔루션 경쟁력을 입증했다. 망고부스트는 AMD Instinct MI300X GPU 기반의 추론 최적화 소프트웨어 ‘Mango LLMBoost’로 Llama2-70B 모델의 오프라인 시나리오에서 역대 최고 TPS(초당 토큰 처리량)를 기록했다. 이번 결과는 MI300X GPU 32개를 활용한 4노드 구성에서 나왔으며, NVIDIA H100 기반 시스템 대비 24% 높은 성능을 보여주며 AI 인프라 시장에 새로운 대안을 제시했다. 특히 비용 대비 성능비에서 2.8배의 경쟁력을 보이며, 특정 하드웨어에 의존하지 않고 고성능·고효율 AI 추론을 구현할 수 있는 가능성을 입증했다. 망고부스트의 Mango LLMBoost는 서버 시나리오에서 9만3039 TPS, 오프라인 시나리오에서 10만3182 TPS를 달성했다. 이는 이전 최고 기록인 8만2749 TPS를 크게 웃도는 수치다. 하드웨어 가격 또한 MI300X가 H100 대비 최대
박성현 대표 "언어모델과 비전모델 모두에서 글로벌 경쟁력 입증" 리벨리온은 6일 가장 공신력 있다고 평가받는 AI 반도체 기술력 검증 엠엘퍼프(MLPerf) 벤치마크에서 엔비디아와 퀄컴 등 세계 정상급 업체를 크게 앞서는 세계 최고 성적을 받았다고 밝혔다. 리벨리온은 국내 최초로 엠엘퍼프 언어모델 분야(BERT)에 제출한 자사 AI 반도체 '아톰' 성능이 퀄컴의 최신 AI 반도체 '클라우드 AI100', 엔비디아 동급 GPU 'A2·T4'보다 1.5∼2배 이상 앞섰다고 밝혔다. 엠엘퍼프 언어모델은 지금까지 엔비디아, 퀄컴, 구글 등 글로벌 빅테크만 참여해온 온 분야로, GPT 시리즈와 같은 트랜스포머 계열 성능을 입증한다. 리벨리온은 언어모델과 더불어 주요 테스트 분야인 비전모델 싱글스트림 처리 속도에서 퀄컴 AI 반도체 대비 1.4배 이상, 엔비디아의 동급 GPU 대비 3배 이상의 결과를 냈다고 밝혔다. 박성현 리벨리온 대표는 "언어모델과 비전모델 모두에서 글로벌 경쟁력을 입증한 것이 가장 큰 차별점"이라며 "언어모델과 비전모델을 포함해 다양한 AI 알고리즘을 모두 가속하는 아키텍처가 AI 반도체 설계의 진수"라고 설명했다. 박 대표는 "챗GPT가 인공지능
성능과 함께 전력 대비 효율성도 최상위권 증명해 사피온이 첫 상용화 인공지능 반도체 칩 ‘X220’이 최근 개최된 글로벌 인공지능 반도체 성능 테스트(벤치마크) 대회인 ‘엠엘퍼프(MLPerf)’에서 획기적인 인공지능 처리 속도와 독보적인 효율성을 인정받았다고 밝혔다. 사피온 X220은 시장을 장악하고 있는 엔비디아의 최신 GPU 'A2' 상회하는 처리 성능을 기록하는 등 세계 최고 성능을 입증 받았다. X220-Compact와 X220-Enterprise는 데이터 센터용 고성능 AI 서비스 성능을 측정하는 MLPerf의 데이터센터 추론 벤치마크에서 엔비디아 A2 와 대비해 각각 2.3배, 4.6배 높은 성능을 달성했다. 사피온은 절대 성능뿐 아니라, 전력 대비 효율성 측면에서도 뛰어남을 증명했다. 전력소모 당(최대전력소모 기준) 성능 측면에서도 엔비디아 A2 와 대비해 X220-Compact은 2.2배, X220-Enterprise는 2.0배 높은 효율성을 달성했다. 특히 이번 MLPerf 벤치마크 결과가 놀라운 것은 사피온 X220이 가격 경쟁력을 높이기 위해 선단 공정을 사용하지 않고 28nm 공정을 사용한 2020년 출시 제품임에도 불구하고, 7nm 등
ResNet-50 모델의 경우, 가우디2는 엔비디아 A100-80G 제품 대비 학습 시간 36% 단축 인텔은 자사 2세대 하바나 가우디2 딥러닝 프로세서와 엔비디아 A100의 AI 총 학습 시간(이하 TTT) 성능을 MLPerf 산업 벤치마크 상에서 측정한 결과, 하바나 가우디2 딥러닝 프로세서의 성능이 월등했다고 밝혔다. 인텔은 지난 5월 인텔 비전에서 발표한 가우디 2 프로세서가 비전(ResNet-50) 및 언어(BERT) 부문에서 뛰어난 TTT를 기록했다고 밝혔다. 산드라 리베라(Sandra Rivera) 인텔 수석부사장 겸 데이터센터 및 AI 그룹 총괄은 “인텔은 비전 및 언어 모델 모두에서 동급 최고의 성능을 제공해 고객에 가치를 제공하고 AI 딥러닝 솔루션 개발을 가속화하도록 지원할 것”이라고 말했다. 인텔 데이터 센터 팀은 하바나 랩스의 가우디 플랫폼을 활용해 딥러닝 프로세서 기술에 중점을 뒀으며, 데이터 과학자 및 머신러닝 엔지니어가 학습을 가속화하도록 지원했다. 아울러, 단 몇 줄의 코드로 새로운 모델을 구축하거나 기존 모델을 이전해 생산성을 높이고 운영 비용을 절감하도록 구현했다. 하바나 가우디2는 1세대 가우디 제품 대비 TTT 부문에 있