GB200 NVL72, 고속 연산과 대용량 처리 환경이 필요한 차세대 워크로드에 최적화 엔비디아와 코어위브가 차세대 AI 모델 훈련과 추론의 속도를 대폭 끌어올릴 ‘GB200 NVL72’ 시스템을 상용화하며 본격적인 서비스에 돌입했다. 이번 발표를 통해 코어위브는 엔비디아 그레이스 블랙웰 아키텍처를 기반으로 한 AI 슈퍼컴퓨팅 시스템을 가장 먼저 온라인 상에서 고객에게 제공한 클라우드 서비스 기업으로 이름을 올렸다. GB200 NVL72는 총 72개의 블랙웰 GPU와 36개의 그레이스 CPU를 NV링크로 연결한 랙 스케일의 고성능 AI 컴퓨팅 플랫폼이다. 이는 AI 에이전트, 대규모 언어 모델, 영상 생성 모델 등 고속 연산과 대용량 처리 환경이 필요한 차세대 워크로드에 최적화한 설계로, 단일 인스턴스에서 최대 11만 개 GPU까지 확장이 가능한 네트워크 환경도 함께 제공한다. 이미 코히어, IBM, 미스트랄 AI 등 글로벌 AI 기업들이 GB200 NVL72를 기반으로 자사 모델을 훈련하고 추론하며 성능 향상 효과를 입증하고 있다. 코히어는 자사의 AI 플랫폼 ‘노스(North)’에서 블랙웰 기반 환경으로 전환한 후 1000억 개 파라미터 모델 훈련에서 기
엔비디아가 미국 새너제이에서 GTC 2025(GPU Technology Conference 2025)를 열고 AI 추론을 위한 새로운 패러다임을 제시했다. 엔비디아는 GTC 2025에서 차세대 AI 가속화 솔루션 ‘블랙웰 울트라 AI 팩토리 플랫폼’과 오픈소스 AI 추론 소프트웨어 ‘다이나모(Dynamo)’를 공개했다. 이번 발표에는 AI 추론 및 컴퓨팅 성능의 한계를 극복하는 기술적 혁신이 포함됐다. 블랙웰 울트라는 엔비디아 블랙웰 AI 팩토리 플랫폼의 차세대 버전으로, AI 모델의 추론과 훈련을 더욱 정교하게 수행할 수 있도록 설계됐다. 특히 ‘테스트 타임 스케일링(Test-Time Scaling, TTS)’을 적용해 AI 추론의 정확도를 향상시키고, 복잡한 문제 해결 능력을 개선했다. 이 플랫폼은 최신 AI 칩인 ‘GB300 NVL72’를 기반으로 기존 GB200 NVL72 대비 1.5배 높은 AI 성능을 제공하며, 엔비디아 호퍼 아키텍처 대비 AI 팩토리의 수익 기회를 50배 증가시킬 것으로 기대된다. 이를 통해 에이전틱 AI, 물리 AI, 대규모 언어 모델(LLM) 등 다양한 AI 응용 분야에서 활용될 수 있다. 엔비디아 젠슨 황 CEO는 “AI는
SK텔레콤이 AI 분야 필수 인프라로 손꼽히는 AI 데이터센터(Data Center, 이하 DC) 사업에 본격적으로 나선다. SK텔레콤(이하 SKT)은 AI DC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 그래픽 처리장치(GPU)의 안정적 확보를 위해 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다고 21일 밝혔다. AI 엔지니어가 설립한 람다는 엔비디아로부터 최신 GPU를 공급 받아 클라우드 서비스를 제공 중이다. 현재 전세계 데이터센터 서버용 GPU 시장은 엔비디아가 독점하고 있어 AI 사업을 추진 중인 빅테크부터 스타트업에 이르기까지 GPU 확보에 많은 공을 쏟고 있다. SKT가 추진 중인 AI DC는 기존 데이터센터가 데이터의 안정적 저장을 위한 물리적 공간을 제공하는 것과 다르게 AI 학습과 추론 등에 필수적인 GPU 서버와 안정적 운영을 위한 전력 공급, 열효율 관리를 위한 냉각시스템을 제공하는 새로운 사업 영역이다. SKT는 유영상 사장이 직접 지난해 12월 서울을 방문한 람다 창업자 겸 CEO인 스티븐 발라반을 만난 데 이어 1월에도 람다의 미국 산호세 본사를 방문해 협상을 진행하는 등 람다 투자를 통한 AI DC 경쟁력