라마 3.1 405B 사전 훈련 항목에서도 제출된 결과가 엔비디아 플랫폼에서 실행돼 엔비디아가 자사의 최신 블랙웰 아키텍처 기반 AI 플랫폼으로 'MLPerf 트레이닝 v5.0' 벤치마크 전 항목에서 최고 성능을 기록했다고 밝혔다. MLPerf는 인공지능(AI) 성능 평가를 위한 대표적 벤치마크로, 엔비디아는 이번 12번째 라운드에서 모든 항목에 결과를 제출해 광범위한 AI 워크로드에서 높은 성능과 범용성을 입증했다. 특히, 최신 LLM(대규모 언어 모델) 중심 테스트인 라마 3.1 405B 사전 훈련 항목에서도 제출된 모든 결과가 엔비디아 플랫폼에서 실행되며 주목을 받았다. 엔비디아는 이번 벤치마크를 위해 블랙웰 플랫폼 기반의 AI 슈퍼컴퓨터 두 대를 활용했다. 티케(Tyche)는 엔비디아 GB200 NVL72 랙 스케일 시스템으로, 닉스(Nyx)는 DGX B200 시스템으로 구성됐다. 또한, 코어위브와 IBM과 협력해 총 2496개의 블랙웰 GPU와 1248개의 그레이스 CPU를 사용한 테스트 결과도 제출했다. 블랙웰 아키텍처는 이전 세대 대비 성능을 크게 향상시켰다. 라마 3.1 405B 사전 훈련에서는 동일 규모 시스템 기준으로 2.2배, 라마 2 7
종가 기준으로, 지난 1월 이후 약 4개월만에 시총 1위에 재탈환 엔비디아가 약 4개월 만에 다시 세계 시가총액 1위 자리에 올랐다. 4일(현지시간) 뉴욕 증시에서 엔비디아 주가는 전일 대비 2.8% 오른 141.22달러(약 19만4700원)로 마감했다. 이는 2월 20일 이후 처음으로 140달러를 넘어선 기록이며, 1월 24일 이후 가장 높은 종가다. 이날 엔비디아의 시가총액은 3조4440억 달러로, 0.22% 상승에 그친 마이크로소프트(3조4410억 달러)를 제치고 1위를 탈환했다. 종가 기준으로 시총 1위에 오른 것은 지난 1월 이후 약 4개월 만이다. 최근 엔비디아는 시장의 기대를 웃도는 실적을 발표하며 주가 상승세를 이어가고 있다. 2-4월 분기 매출은 440억6000만 달러, 주당 순이익은 0.96달러로, 월가 예상치였던 매출 433억1000만 달러, 주당 순이익 0.93달러를 상회했다. 다만 5-7월 분기 예상 매출은 450억 달러로 시장 전망치 459억 달러에 소폭 미치지 못했다. 엔비디아는 중국 시장에 대한 수출 규제 영향을 인정하면서도, H20 칩 수출 제한이 없었다면 다음 분기 매출 전망이 약 80억 달러 더 높았을 것이라고 설명했다. 이
에퀴닉스(Equinix)가 토탈 인포메이션 매니지먼트(Total Information Management, TIM)로부터 필리핀 마닐라에 위치한 3개의 데이터센터를 인수했다고 밝혔다. 디지털 인프라, 전자상거래, 디지털 미디어와 콘텐츠 등 다양한 디지털 거래를 포괄하는 필리핀의 디지털 경제 규모는 2024년 450억 달러에 달하며, 이는 국가 GDP의 8.5%에 이른다. 디지털 인구의 증가, 클라우드 확산의 발전 및 국가 광대역 계획과 디지털 필리핀 캠페인 등 정부 정책은 국가의 고성능 디지털 인프라와 AI 등의 첨단 기술에 대한 수요를 가속화하고 있다. 에퀴닉스는 전 세계적으로 2000개 이상의 네트워크를 호스팅하며 각 시장에서 주요 클라우드 서비스 공급자로 직접 연결되는 온램프에서 약 40%의 시장 점유율을 확보하고 있다. 최근 인수한 데이터센터는 마닐라에 위치한 네 개의 핵심 인터넷 익스체인지(IX)와 더불어 선도적인 네트워크 서비스 공급자를 호스팅한다. 에퀴닉스의 네트워크 에코시스템은 필리핀에 진출한 기업에게 다양한 연결 선택지를 제공한다. 에퀴닉스의 필리핀 진출은 엔비디아와 HPE 같은 AI 산업 선두기업들과의 전략적 파트너십을 바탕으로, 현지 기업
엔비디아 인셉션 프로그램 선정으로 기술 도약 기반 마련해 GPU 최적화 및 컨설팅 역량 고도화 지원받아...로봇 핸드 및 솔루션 개발 박차 테솔로가 글로벌 컴퓨팅 기술 업체 엔비디아(NVIDIA)의 인공지능(AI)·컴퓨팅 분야 스타트업 지원 프로그램 ‘인셉션(Inception)’ 회원사로 등재됐다. 인셉션 프로그램은 GPU 최적화 지원, 기술 컨설팅, 글로벌 생태계 연계 등 대상 스타트업에게 다각적인 지원을 제공한다. 테솔로는 이번 프로그램 참여를 통해 기술력을 한층 더 끌어올리고, 글로벌 시장에서 경쟁력을 강화할 기회를 얻게 됐다. 이번 선정은 테솔로의 로봇 핸드 기술이 미래 로봇 산업을 이끌 잠재력을 엔비디아로부터 공식적으로 인정받았다는 점에서 큰 의미를 가진다. 테솔로는 이번 엔비디아 프로그램 참여를 발판 삼아, 주력 제품인 로봇 핸드와 그리퍼 제품군을 고도화하고, 솔루션 개발 역량 강화에 집중할 계획이다. 지난 3월 공개한 휴머노이드 로봇 핸드 ‘델토 그리퍼-5F(Delto Gripper-5F, DG-5F)’를 필두로 이 같은 기조를 강화한다는 게 사측 전략이다. . DG-5F는 최근 급성장하는 휴머노이드 로봇 시장을 겨냥해, 인간의 손과 유사한 수준
엔비디아 젠슨 황 CEO “투자는 미국 과학의 토대 만들고 경제·기술 리더십 강화해” 미국 로렌스버클리국립연구소(Lawrence Berkeley National Laboratory)가 차세대 슈퍼컴퓨터 ‘다우드나(Doudna)’를 공개했다. 이 슈퍼컴퓨터는 엔비디아의 새로운 베라 루빈(Vera Rubin) 아키텍처를 기반으로 구축됐으며, 미국 고성능 컴퓨팅(HPC) 분야의 선도적 위치를 강화하기 위한 핵심 투자다. 다우드나는 노벨상 수상자이자 크리스퍼 유전자 가위 기술의 선구자인 제니퍼 다우드나(Jennifer Doudna)의 이름을 따 명명됐다. 미국 에너지부(Department of Energy, DOE)의 후원 아래 개발된 이 시스템은 과학적 발견을 가속화하고, 글로벌 도전에 대응하기 위한 최첨단 연구 도구로 활용될 전망이다. 젠슨 황(Jensen Huang) 엔비디아 CEO는 “지속적인 투자는 미국 과학의 토대이자 경제와 기술 리더십을 강화하는 힘”이라며 다우드나의 출범 의미를 강조했다. 제니퍼 다우드나 역시 “다우드나의 탄생은 생물학이 중요한 전환기에 접어들고 있다는 상징적 의미를 지닌다”고 소감을 밝혔다. 다우드나는 기존 슈퍼컴퓨터와 달리 시뮬레이
GB300 시스템 중심으로 설계...고성능 AI 컴퓨팅 성능 제공할 예정 엔비디아가 글로벌 AI 인프라 혁신의 중심에 섰다. 엔비디아는 지난 22일 G42, 오픈AI, 오라클, 소프트뱅크그룹, 시스코와 협력해 아부다비에 차세대 AI 클러스터 ‘스타게이트 UAE(Stargate UAE)’를 구축한다고 발표했다. 이번 프로젝트는 엔비디아의 최신 그레이스 블랙웰(Grace Blackwell) GB300 시스템을 중심으로 설계되며, 세계 최고 수준의 AI 컴퓨팅 성능을 제공할 예정이다. 스타게이트 UAE는 아부다비에 조성되는 ‘UAE-미국 AI 캠퍼스(UAE-U.S. AI Campus)’ 내 5GW 규모의 인프라 가운데 1GW를 차지하는 대형 AI 컴퓨팅 클러스터다. 이 캠퍼스는 미국과 UAE가 공동 발표한 ‘미국-UAE AI 가속화 파트너십(U.S.-UAE AI Acceleration Partnership)’에 기반해 설립되며, 인류에 장기적인 혜택을 제공할 안전하고 신뢰할 수 있는 AI 개발을 목표로 하고 있다. 이번 프로젝트에서 G42는 클러스터 구축을, 오픈AI와 오라클은 운영을 담당하며, 시스코는 제로트러스트 기반 보안과 AI 지원 연결성, 소프트뱅크그룹은
양사, 800V 고전압 DC 전력 분배 아키텍처 공동 개발 중인 것으로 알려져 텍사스 인스트루먼트(TI)와 엔비디아가 차세대 AI 데이터 센터의 전력 한계를 돌파하기 위한 협력에 나섰다. 양사는 데이터 센터 서버를 위한 800V 고전압 DC 전력 분배 시스템 개발에 협력하고 있다고 밝혔다. 이번 협력은 AI 데이터 센터의 전력 수요가 급격히 증가하는 상황에서 확장성과 효율성 모두를 높일 수 있는 새로운 전력 아키텍처를 제시하려는 시도다. AI 도입 확산과 함께 데이터 센터의 랙당 전력 소비는 기존 100kW 수준에서 1MW 이상으로 빠르게 증가할 것으로 예상된다. 문제는 기존 48V 분배 시스템으로는 1MW 전력 공급에 204kg의 구리가 필요하다는 점이다. 이는 물리적 한계로 인해 대규모 컴퓨팅 수요를 지속적으로 지원하는 데 심각한 제약이 될 수 있다. TI와 엔비디아는 이 문제를 해결하기 위해 800V 고전압 DC 전력 분배 아키텍처를 공동 개발 중이다. 이 아키텍처는 높은 전력 밀도와 뛰어난 변환 효율을 제공하며, 전원 공급 장치의 크기, 무게, 시스템 복잡성을 최소화해 데이터 센터의 효율적 확장을 지원한다. 특히 고전압 시스템 특성상 구리 사용량을 획
보안 및 데이터 주권 보장된 컴퓨팅 자원 제공...산업 AI 도입 가속화 추진 엔비디아가 스웨덴을 중심으로 유럽 AI 산업 혁신을 위한 초석을 놓는다. 엔비디아는 아스트라제네카, 에릭슨, 사브, SEB 등 스웨덴 대표 기업들과 함께 AI 인프라 공동 구축 프로젝트를 공식 발표하고, 스웨덴 내 차세대 AI 생태계 조성을 위한 전략적 협력에 착수했다. 이번 프로젝트는 발렌베리 인베스트먼트와의 파트너십을 기반으로 설립된 합작 법인에서 운영된다. 합작사는 참여 기업에 높은 수준의 보안성과 데이터 주권을 보장하는 컴퓨팅 자원을 제공하며, 스웨덴 내 산업 전반의 AI 도입을 가속화할 계획이다. 첫 번째 단계로는 엔비디아의 최신 그레이스 블랙웰GB300) 아키텍처가 적용된 DGX SuperPOD 2기가 구축된다. 이는 가동 시 스웨덴 내 최대 규모의 AI 슈퍼컴퓨터가 될 전망으로, 파운데이션 모델 훈련, 멀티모달 추론, 도메인 특화 AI 모델링 등 고성능 연산을 요하는 AI 워크로드에 활용된다. 마르쿠스 발렌베리 발렌베리 인베스트먼트 회장은 “첨단 AI 인프라에 대한 투자는 산업별 협업과 인재 양성, 기술 주권 확보로 이어질 것”이라며, “스웨덴 전반에 파급 효과를 줄
2025년 현재, 인공지능(AI) 반도체 시장에서 주목받는 키워드 중 하나는 ‘HBM(High Bandwidth Memory)’이다. 다시 말해 고대역폭 메모리인 HBM은 AI 서버와 고성능 연산용 GPU의 확산과 함께 폭발적으로 증가하는 데이터 처리 수요를 충족시키며, 기존 DRAM 중심의 메모리 시장을 재편하고 있다. 우리나라는 SK하이닉스와 삼성전자라는 막강한 투톱을 우리나라는 HBM을 기점으로 반도체 강국으로 나아가기 위한 미래를 구상하는 중이다. HBM, 단순 메모리가 아닌 ‘전략 자산’ HBM은 기존 DRAM보다 최대 10배 높은 대역폭을 제공하면서도, 물리적 공간은 줄이고 소비 전력은 낮추는 고성능 메모리 솔루션이다. 특히 AI 학습용 GPU나 고성능 컴퓨팅(HPC) 환경에서는 데이터 병목을 해결하는 핵심 역할을 한다. 한 예로, 엔비디아의 H100, H200, AMD의 MI300 시리즈, 최근 발표된 블랙웰 GPU 등 최신 AI 연산 칩은 모두 HBM과의 결합을 통해 성능을 극대화하고 있다. 이러한 흐름 속에서 SK하이닉스와 삼성전자는 HBM 시장에서 기술력과 수율, 공급 안정성 측면에서 글로벌 리더로 부상하고 있다. HBM3의 경우, 대역폭이
152개국에서 총 8만6521명의 참관객 방문...AI 산업 중심지로 발돋움해 대만 타이베이 난강 전시관에서 열린 '컴퓨텍스 2025'가 지난 23일(금)을 끝으로 4일간의 여정을 마무리했다. AI를 중심으로 진화한 이번 전시회는 막강해진 대만 AI 산업 생태계를 경험하는 자리였다. 컴퓨텍스 2025는 34개국 1400여 기업이 참가해 4800여 개의 부스를 꾸린 것으로 알려졌다. 주최측은 152개국에서 총 8만6521명의 참관객이 방문했으며, 명실상부한 아시아 최대 AI 기술 교류의 장으로 자리매김했다고 밝혔다. 올해는 ‘AI Next’라는 주제를 앞세워 주요 글로벌 기업과 스타트업이 대거 참여해 AI 공급망 전반을 아우르는 협업 기회를 창출했다. 전시 일정 전반에 걸쳐 대만은 기술 혁신의 실험장이자 중심지로서의 존재감을 강화하며, 글로벌 기술 트렌드를 주도할 만한 역량을 보여줬다. 이 과정에서 가장 눈에 띈 주인공은 단연 엔비디아 그리고 젠슨 황 CEO였다. 엔비디아를 필두로 한 대만 AI 생태계는 그야말로 '원팀'이라는 단어가 어울리는 그림이었다. 특히 젠슨 황은 전시회 개막 전 열린 키노트를 시작으로 전시회 부스투어, 미디어 Q&A 등 주요일정
텍사스 인스트루먼트(TI)는 데이터센터 서버용 800V 고전압 DC 전력 분배 시스템을 위한 전력 관리 및 센싱 기술 개발을 위해 엔비디아와 협력하고 있다고 27일 밝혔다. 데이터센터의 랙(rack)당 전력 수요는 현재 100kW이지만, AI의 성장과 함께 가까운 미래에는 1MW를 초과할 것으로 예상된다. 1MW 랙에 전력을 공급하려면 현재 사용되는 48V 분배 시스템으로는 약 450파운드(약 204kg)의 구리가 필요하며 이는 장기적인 컴퓨팅 수요를 지원하기 위한 전력 공급 확장이 물리적으로 불가능 해진다는 것을 의미한다. 새로운 800V 고전압 DC 전력 분배 아키텍처는 차세대 AI 프로세서가 요구하게 될 전력 밀도와 변환 효율을 제공하는 동시에 전원 공급 장치의 크기와 무게, 복잡성의 증가를 최소화한다. 이 800V 아키텍처는 데이터센터의 요구사항이 진화함에 따라 엔지니어들이 전력 효율적인 랙을 확장할 수 있도록 지원한다. TI의 킬비 랩(Kilby Labs) 전력 관리 R&D 디렉터 겸 TI 펠로우인 제프리 모로니는 “AI 데이터센터는 전력의 한계를 지금껏 상상할 수 없었던 수준까지 밀어붙이고 있다”며 “몇 년 전만 해도 48V 인프라가 다음의
인공지능 분야에서 지식 체계나 데이터베이스를 그래프로 저장하고 활용하는 사례가 급증하지만, 일반적으로 복잡도가 높은 그래프 연산은 GPU 메모리의 제한으로 인해 매우 작은 규모의 그래프 등 비교적 단순한 연산만 처리할 수 있다는 한계가 있다. KAIST 연구진이 25대의 컴퓨터로 2000초가 걸리던 연산을 한 대의 GPU 컴퓨터로 처리할 수 있는 세계 최고 성능의 연산 프레임워크를 개발하는데 성공했다. KAIST는 전산학부 김민수 교수 연구팀이 한정된 크기의 메모리를 지닌 GPU를 이용해 1조 간선 규모의 초대규모 그래프에 대해 다양한 연산을 고속으로 처리할 수 있는 스케줄러 및 메모리 관리 기술들을 갖춘 일반 연산 프레임워크(일명 GFlux, 지플럭스)를 개발했다고 27일 밝혔다. 연구팀이 개발한 지플럭스 프레임워크는 그래프 연산을 GPU에 최적화된 단위 작업인 ‘지테스크(GTask)’로 나누고, 이를 효율적으로 GPU에 배분 및 처리하는 특수한 스케줄링 기법을 핵심 기술로 한다. 그래프를 GPU 처리에 최적화된 자체 개발 압축 포맷인 HGF로 변환해 SSD와 같은 저장장치에 저장 및 관리한다. 기존 표준 포맷인 CSR로 저장할 경우 1조 간선 규모의 그래
HPE는 전체 AI 수명주기를 지원하고 기업, 서비스 제공업체, 공공기관, 연구기관 등 다양한 고객의 요구를 충족하는 'HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE)' 솔루션 포트폴리오를 강화한다고 23일 밝혔다. 이번 업데이트는 엔비디아 AI 엔터프라이즈와의 통합을 강화하고, 가속 컴퓨팅을 통해 HPE 프라이빗 클라우드 AI에 대한 지원을 확대했다. 또한 엔비디아 AI 데이터 플랫폼용 HPE 알레트라 스토리지 MP X10000 소프트웨어 개발 키트(SDK)를 새롭게 출시했다. 안토니오 네리 HPE 사장 겸 최고경영자(CEO)는 “엔비디아와의 협업을 통해 고객들에게 지속적인 혁신과 실질적인 성과를 제공하고 있다”며 “HPE의 강력한 솔루션을 기반으로 공동 개발한 첨단 AI 기술을 통해 기업들이 AI 도입의 어느 단계에 있든 기업 전반에서 그 잠재력을 효과적으로 실현할 수 있도록 지원하고 있다. HPE는 오늘날의 요구를 충족하는 동시에 AI 중심의 미래를 함께 만들어가고 있다”고 말했다. 젠슨 황) 엔비디아 창립자 겸 CEO는 “기업들은 HPE 시스템을 활용해 최첨단 엔비디아 AI 팩토리를 구축함으로써 생성형 및 에이전틱
버티브(Vertiv)는 엔비디아가 발표한 차세대 AI 데이터센터를 위한 800VDC 전력 아키텍처 로드맵에 발맞춘 전략적 방향을 공식 발표했다. 이를 위해 800VDC 전력 포트폴리오를 선보일 예정이며, 이는 엔비디아의 ‘카이버(Kyber)’·‘루빈 울트라(Rubin Ultra)’ 플랫폼 출시에 앞서 2026년 하반기 출시될 예정이다. 버티브는 이를 통해 고객이 엔비디아의 차세대 컴퓨팅 플랫폼과 함께 전력 및 냉각 인프라를 동시에 구축할 수 있도록 지원할 계획이며, 이와 더불어 AI 팩토리를 포함한 데이터센터 구축을 위한 전력·냉각·통합 인프라 및 서비스를 제공한다. AI 환경에서 랙 단위 전력 수요가 300kW를 초과함에 따라 800VDC는 구리 사용량, 전류 및 열 손실을 줄여 보다 효율적이고 중앙 집중적인 전력 공급을 가능하게 한다. 버티브의 차세대 포트폴리오는 중앙 정류기·고효율 DC 버스웨이·랙 단위 DC-DC 컨버터·DC 호환 백업 시스템 등을 포함하며 기존의 강력한 AC 기반 전력 포트폴리오를 보완할 예정이다. 스콧 아멀 버티브 글로벌 포트폴리오 및 사업부문 수석 부사장은 “갈수록 진화하는 GPU와 AI 애플리케이션 환경에 맞춰 전력 및 냉각 솔
칩과 서버, 네트워크 등으로 中 비롯한 글로벌 시장 전략 간접적으로 언급해 “H20은 수출 제한으로 중국에 판매할 수 없었고, 그 결과 수천억 원의 재고를 폐기해야 했다. 이는 우리에게 큰 손실이었고, 동시에 중국 기업들이 더 빠르게 자립하도록 만들었다.” 타이베이 컴퓨텍스 현장에서 엔비디아 젠슨 황 CEO가 21일인 오늘 타이베이에 위치한 만다린 오리엔탈에서 Q&A 세션을 진행했다. 젠슨 황 CEO는 이 자리에서 취재진과의 질의응답을 통해 AI 컴퓨팅의 방향성과 엔비디아의 전략적 미래를 공개했다. 특히 중국시장을 여러 차례 언급함으로써 우호적인 입장을 드러냈다. 이와 함께 미국의 수출 통제가 오히려 역효과를 낳았다는 비판과 함께 중국의 AI 역량을 인정하는 듯한 발언을 선보였다. 젠슨 황 CEO는 AI 인프라가 산업과 사회 전반에 미치는 영향, GPU 수요의 폭증, AI 추론 모델의 대두 등 첨단 기술의 핵심 동향을 강력한 메시지로 전달했다. 특히 그는 “AI는 곧 전기나 인터넷처럼 사회적 필수 인프라가 될 것”이라며, 지금은 인류가 AI 기반 산업혁명 초입에 서 있다고 강조했다. 이와 함께 젠슨 황 CEO는 단상에 엔비디아의 AI 슈퍼컴퓨터 ‘RT