마이크로소프트가 차세대 AI 추론 가속기 ‘마이아 200(Maia 200)’을 공개했다. 마이아 200은 대규모 AI 토큰 생성의 경제성을 개선하기 위해 설계된 추론 전용 가속기로 애저 환경에서 AI 모델을 보다 빠르고 효율적으로 구동하는 것을 목표로 한다. 마이크로소프트는 칩 설계부터 데이터 센터까지 아우르는 엔드투엔드 통합 구조를 통해 차세대 AI 인프라의 핵심 구성 요소로 마이아 200을 제시했다. 마이아 200은 TSMC의 3나노미터 공정을 기반으로 제작됐다. 1,400억 개 이상의 트랜지스터를 집적했으며 초당 7TB 대역폭을 제공하는 216GB HBM3e 메모리 시스템과 네이티브 FP8·FP4 텐서 코어를 결합해 대규모 모델 추론에 최적화된 구조를 갖췄다. 데이터 이동 엔진과 메모리 하위 시스템을 전면 재설계해 토큰 처리 병목을 줄이고 추론 효율을 높인 점도 특징이다. 성능 지표에서도 기존 가속기 대비 우위를 강조했다. 마이아 200은 FP4 기준으로 3세대 아마존 트레이니움 대비 3배 높은 처리량을 기록했으며 FP8 기준에서도 구글 7세대 TPU를 상회하는 성능을 보였다. 마이크로소프트는 이를 통해 자사 최신 세대 하드웨어 대비 달러당 성능을 30
양사, 800V 고전압 DC 전력 분배 아키텍처 공동 개발 중인 것으로 알려져 텍사스 인스트루먼트(TI)와 엔비디아가 차세대 AI 데이터 센터의 전력 한계를 돌파하기 위한 협력에 나섰다. 양사는 데이터 센터 서버를 위한 800V 고전압 DC 전력 분배 시스템 개발에 협력하고 있다고 밝혔다. 이번 협력은 AI 데이터 센터의 전력 수요가 급격히 증가하는 상황에서 확장성과 효율성 모두를 높일 수 있는 새로운 전력 아키텍처를 제시하려는 시도다. AI 도입 확산과 함께 데이터 센터의 랙당 전력 소비는 기존 100kW 수준에서 1MW 이상으로 빠르게 증가할 것으로 예상된다. 문제는 기존 48V 분배 시스템으로는 1MW 전력 공급에 204kg의 구리가 필요하다는 점이다. 이는 물리적 한계로 인해 대규모 컴퓨팅 수요를 지속적으로 지원하는 데 심각한 제약이 될 수 있다. TI와 엔비디아는 이 문제를 해결하기 위해 800V 고전압 DC 전력 분배 아키텍처를 공동 개발 중이다. 이 아키텍처는 높은 전력 밀도와 뛰어난 변환 효율을 제공하며, 전원 공급 장치의 크기, 무게, 시스템 복잡성을 최소화해 데이터 센터의 효율적 확장을 지원한다. 특히 고전압 시스템 특성상 구리 사용량을 획