MS 브래드 스미스 사장, 오픈AI 샘 올트먼 CEO, AMD 리사 수 CEO 증인 출석 미국 상원 청문회에서 마이크로소프트(MS), 오픈AI, AMD 등 주요 테크 기업 CEO들이 인공지능(AI) 패권을 놓고 중국과 벌이는 기술 경쟁에서 "전 세계가 미국 기술을 채택하게 만드는 것"이 핵심 전략임을 강조했다. 이들은 글로벌 시장에서의 기술 주도권 확보가 국가 안보와 직결된다는 공통된 메시지를 전달하며, 인프라 투자와 인재 유치의 중요성을 역설했다. 현지시간 8일 열린 '미·중 간 AI 경쟁에서 어떻게 승리할 것인가'를 주제로 한 청문회에는 MS의 브래드 스미스 사장, 오픈AI의 샘 올트먼 CEO, AMD의 리사 수 CEO가 증인으로 출석했다. 브래드 스미스 사장은 “AI 경쟁에서 가장 결정적인 요소는 어떤 기술이 세계에서 더 널리 채택되느냐는 것”이라며 “화웨이의 5G 사례는 초기 시장 선점의 중요성을 보여준다”고 밝혔다. 그는 또한 중국 AI 스타트업 딥시크의 앱에 대해, MS는 개인정보 유출과 정치 선전 콘텐츠 우려로 해당 앱의 사내 사용을 금지하고 있으며 앱스토어 등록도 제한했다고 밝혔다. 오픈AI의 올트먼 CEO는 “미국은 기술을 수출할 뿐 아니라,
국산 AI 반도체의 실사용 환경 구축과 상용화에 집중해 과학기술정보통신부(이하 과기정통부)가 ‘AI 반도체를 활용한 K-클라우드 기술 개발 사업’의 총괄 과제 주관기관으로 하이퍼엑셀-리벨리온 컨소시엄을 선정했다. 이번 사업은 AI 반도체 기술을 중심으로 한 국산 클라우드 컴퓨팅 생태계 조성을 목표로 하며, 정부는 올해 본예산과 추경을 합쳐 총 2423억 원을 투입할 계획이다. 하이퍼엑셀과 리벨리온이 주도하는 총괄 과제는 AI 데이터 센터의 자원을 유연하고 효율적으로 배치할 수 있는 ‘컴포저블 서버’ 개발에 초점을 맞춘다. 컴포저블 서버는 CPU, GPU, 메모리, 저장장치 등의 자원을 모듈화해 필요에 따라 조립하듯 구성하는 기술로, AI 워크로드 최적화에 필수적인 차세대 인프라로 주목받고 있다. AI 컴퓨팅 소프트웨어 개발 과제는 국산 AI 반도체 기반 오픈소스 생태계 조성을 목표로 하는 모레(MOREH) 컨소시엄이 맡는다. 모레 컨소시엄은 특정 하드웨어에 종속되지 않는 범용 소프트웨어를 개발하며, UXL 재단 등 글로벌 오픈소스 커뮤니티와 협력해 기술을 해외 시장으로 확산시킬 계획이다. 클라우드 플랫폼 분야 대표 과제에는 ETRI(한국전자통신연구원), KE
칩렛 구조 채택한 반도체 SoC 개발에 먼저 집중할 것으로 보여 파네시아가 과학기술정보통신부와 정보통신기획평가원(IITP)이 추진하는 ‘AI 반도체를 활용한 K-클라우드 기술개발사업’의 핵심 과제를 다수 수주하며, 차세대 AI 인프라 기술 개발에 착수했다고 30일 밝혔다. 이번 과제는 급증하는 대규모 AI 서비스 수요에 대응하기 위한 인프라 기술 고도화를 목표로 한다. 파네시아는 자체 보유한 CXL(Compute Express Link) 기반 기술을 중심으로 LLM(대규모언어모델), RAG(검색증강생성) 등 고성능 AI 모델의 효율적 구동을 위한 인프라를 설계할 계획이다. 파네시아는 먼저 칩렛(Chiplet) 구조를 채택한 반도체 SoC(System on Chip) 개발에 나선다. 칩렛 기술은 메모리와 연산 자원을 유연하게 조합해 사용자 요구에 맞는 칩 구성이 가능하다. 기존 일체형 칩 설계 대비 기능 변경이나 확장이 용이하며, 메모리·연산 비율을 최적화해 불필요한 자원 낭비를 줄일 수 있다. 이를 통해 AI 인프라의 자원 활용률을 높이고, 맞춤형 확장성을 확보할 수 있다는 점에서 주목된다. 이어 파네시아는 메모리 내부에서 연산을 수행하는 컴퓨테이셔널 메모리
GPU 리소스 자동 스케줄링, 초단위 배포 환경 구성, 고병렬 추론 테스트 등 핵심 기능 공개 예정 케이투스(KAYTUS)가 오는 5월 14일부터 16일까지 서울 코엑스에서 개최되는 ‘AI EXPO KOREA 2025’에 참가해 자사의 AI DevOps 소프트웨어 ‘MotusAI’와 통합형 AI DevOps 인프라 솔루션을 선보인다. 케이투스는 이번 전시를 통해 복잡한 AI 인프라 운영 환경에서 효율적인 리소스 관리와 빠른 모델 배포를 가능케 하는 턴키 기반의 엔드투엔드 솔루션을 집중 조명할 예정이다. 생성형 AI 기술이 학습 단계를 넘어 실시간 추론과 대규모 배포로 확산되는 가운데, 기업들은 GPU 활용률 저조, 데이터 병목 현상, 느린 배포 속도 등 AI 운영상의 다양한 장애물에 직면하고 있다. 케이투스는 이러한 과제를 해결하기 위해 AI DevOps 플랫폼 ‘MotusAI’를 중심으로 한 통합 클러스터 시스템을 통해 모델 개발부터 배포, 운영까지 전 과정을 안정적이고 간결하게 연결하는 인프라 해법을 제시한다. 전시 부스에서는 MotusAI 기반 클러스터를 활용해 한 명의 운영자가 딥러닝 모델과 추론 서비스를 5분 이내에 배포하는 실시간 데모가 진행된다.
조용진 파네시아 부사장, 행사에서 CXL 3.x 기반의 인프라 구축 사례와 응용 방향 제시 파네시아가 ‘CXL DevCon 2025’에서 고출력 CXL 3.x 스위치 기반 프레임워크를 선보이며 글로벌 기술 무대에서 존재감을 드러냈다. 파네시아는 올해 국내 기업 중 유일하게 해당 행사에 전시 기업으로 참여했다. 미국 캘리포니아 산타클라라에서 4월 29일부터 이틀간 열린 이번 행사는 CXL(Compute Express Link) 표준을 주도하는 CXL 컨소시엄이 주관하는 글로벌 컨퍼런스로, 케이던스, 텔레다인 르크로이 등 주요 회원사가 대거 참여해 차세대 고속 인터커넥트 기술을 선보였다. 파네시아가 이번에 선보인 고출력 CXL 3.x 스위치는 CPU, GPU, 메모리 등 다양한 장치를 하나의 시스템으로 통합해주는 브릿지 역할을 수행한다. 고유의 저지연 IP 기술을 기반으로 설계된 해당 스위치는 멀티 레벨 스위칭, 포트 기반 라우팅을 모두 지원하며, 장치 연결 수를 극대화함으로써 평균 홉 수를 줄이고 시스템 지연시간을 최소화하는 것이 특징이다. 이러한 기술은 특히 고성능 컴퓨팅(HPC)과 대규모 AI 응용 환경에서 효율적인 자원 활용과 저비용 고성능 인프라 구현을
엘리스그룹이 한국과학기술정보연구원(KISTI)과 국가데이터교환노드(NDeX) 및 AI 인프라 협력을 위한 업무협약을 체결했다. 이번 협약은 양 기관이 AI 인프라, 데이터센터 운영, 고성능 컴퓨팅 등 분야에서 협력 체계를 구축하고 대규모 AI 모델 개발과 데이터 공유 기반을 강화하기 위한 목적이다. NDeX는 공급자와 소비자 간 대규모 데이터 교환을 위해 구축된 초고성능 네트워크 인프라로, 한국과학기술정보연구원이 2023년부터 운영하고 있다. 기존 인터넷 교환 노드의 대용량 데이터 전송 한계를 개선하고 공공 및 민간의 빅데이터 활용 과제를 해결하기 위한 기반으로 활용된다. KISTI는 국가과학기술연구망을 통해 융합연구를 지원하며 이번 협약을 발판으로 민관 협력을 더욱 확대한다는 계획이다. 엘리스그룹은 모듈형 데이터센터 AI PMDC를 자체 개발하고 이를 기반으로 AI 특화 클라우드 서비스를 제공하는 CSP다. 2024년 2월에는 공공기관 대상 서비스 제공에 필요한 CSAP IaaS 인증을 획득했다. 엘리스는 클라우드 소프트웨어부터 데이터센터 하드웨어까지 독자 기술을 보유하고 있어 이번 협력에 적합한 민간 파트너로 주목받았다. 양 기관은 이번 협약으로 ‘국내
OCR 기술과 LLM '솔라(SOLAR)' 앞세워 글로벌 기술력 인정받아 업스테이지가 글로벌 시장조사기관 CB인사이트가 발표한 ‘2025년 글로벌 AI 100대 기업’에 이름을 올렸다고 28일 밝혔다. 이번 선정은 업스테이지가 자체 개발한 광학문자인식(OCR) 기술과 거대언어모델(LLM) '솔라(SOLAR)'의 글로벌 기술력을 인정받은 결과로, 특히 한국 기업으로는 유일하게 ‘AI 인프라’ 부문에 포함됐다. CB인사이트는 매년 비상장 AI 기업을 대상으로 사업 성과, 기술력, 투자 현황, 인력 구성 등을 종합 평가해 AI 산업을 선도할 100개 기업을 선정한다. 올해 9회째를 맞은 'AI 100'은 AI 인프라, 수평적 AI, 수직적 AI 부문으로 나눠 발표됐으며, 미국 외에는 단 13개국 27개 기업만이 선정됐다. 업스테이지는 이번 'AI 인프라' 부문 선정으로 글로벌 AI 기술 전환 흐름에서 존재감을 드러냈다. 광학문자인식 기반 문서 처리 솔루션 '다큐먼트 파스(Document Pars)'와 자체 거대언어모델 '솔라'는 높은 정확성과 처리 효율성으로 세계 시장에서 주목받아 왔다. 업스테이지는 이러한 기술력을 바탕으로 글로벌 기업들과의 경쟁에서도 차별화된
AI 인프라 슈퍼 하이웨이 전략과 AI DC, 에이닷 기반 혁신 서비스 등 한국형 AI 생태계 비전 제시 SK텔레콤이 24일 서울 코엑스에서 열린 국내 최대 ICT 전시회인 ‘2025 월드 IT쇼(WIS)’에 참가해 ‘AI 인프라 슈퍼 하이웨이(AI Infra Super Highway)’를 테마로 한 대규모 전시관을 공개했다. 전시관은 AI 데이터 센터(AI DC)를 중심으로, AI 팩토리, 오피스, 홈, 병원, 마켓 등 다양한 테마 존으로 구성되어 SKT의 AI 기술과 서비스가 일상 속으로 스며드는 모습을 직관적으로 선보였다. 이번 참가를 통해 SK텔레콤은 지난해 말 발표한 AI 인프라 슈퍼 하이웨이 전략의 핵심 기술과 실제 적용 사례를 대거 공개하며, 한국형 AI 생태계 구축에 대한 강한 의지를 드러냈다. SK텔레콤 전시관의 중심에는 AI 데이터센터 인프라 기술이 자리했다. AI DC 운영의 핵심인 에너지 솔루션과 자원 최적화 기술이 소개되었으며, SK엔무브와 협력한 액침냉각 방식의 발열 관리 기술도 함께 선보였다. GPU 자원 관리 솔루션인 ‘AI 클라우드 매니저’와 MWC25 글로모 어워드를 수상한 ‘페타서스 클라우드(Petasus Cloud)’ 역시
AI 중심 워크로드와 보안 수요 대응… 서버·스토리지·백업 솔루션 전면 강화 델 테크놀로지스가 AI 레디 데이터센터 구축을 위한 인프라 솔루션 신제품과 기능을 공개했다. 이번 제품들은 서버, 스토리지, 데이터 보호 전반에 걸쳐 기업과 기관의 데이터센터 현대화를 지원하는 제품으로 구성된다. 델은 AI의 부상, 다양한 워크로드 지원, 사이버 위협 증가에 대응하기 위해 분리형 인프라스트럭처로의 전환을 제안했다. 이와 함께 파워엣지(PowerEdge) 서버, 파워스토어(PowerStore) 스토리지, 오브젝트스케일(ObjectScale) 오브젝트 스토리지, 파워스케일(PowerScale) 파일 스토리지, 파워프로텍트(PowerProtect) 백업 어플라이언스를 포함한 신제품을 발표했다. 파워엣지 R470, R570, R670, R770 서버는 인텔 제온 6세대 P 코어 기반으로 성능과 에너지 효율성을 강화했다. R770은 랙 공간과 전력을 줄이고 최대 67% 성능 향상을 제공하며 R570은 와트당 성능 기준 최고 수준을 달성했다. DC-MHS 아키텍처 기반 설계로 기존 인프라 통합이 용이하고 오픈매니지 및 IDRAC 10을 통한 실시간 모니터링과 간소화된 관리 기능
최근 데이터 센터 건설 협장 중단 및 일정 연기 결정돼 마이크로소프트(MS)가 미국과 해외 주요 지역에서 데이터 센터 확장 계획을 전면 재조정하는 것으로 나타났다. 블룸버그 통신은 3일(현지시간), MS가 최근 미국 내 여러 주와 인도네시아, 영국, 호주 등에서 데이터센터 건설 협상을 중단하거나 일정 연기를 결정했다고 보도했다. 이번 조치는 전 세계적으로 AI 인프라 투자 열기가 고조되는 가운데, MS가 투자 속도 조절에 나선 신호로 해석된다. MS는 클라우드 시장에서 아마존웹서비스(AWS)에 이어 세계 2위 사업자로, 오픈AI와의 협업을 바탕으로 AI 서비스 상용화를 선도해 왔다. 그러나 최근 일부 지역에서의 프로젝트 중단은 향후 AI 수요 예측과 비용 구조에 대한 전략적 재검토 가능성을 시사한다. 실제 보도에 따르면, MS는 영국 런던과 케임브리지 사이 부지 임대 협상을 철회했고, 시카고 인근 프로젝트도 진행을 멈췄다. 인도네시아 자카르타에 예정됐던 데이터 센터는 건설이 연기됐으며, 위스콘신주 마운트 플레전트와 노스다코타, 일리노이주 등에서도 계획이 보류되거나 협상이 중단됐다. MS로부터 클라우드 용량을 임대하는 인프라 기업 코어위브의 CEO는 MS가 추
공동 마케팅과 PoC 프로젝트로 맞춤형 생성 AI 솔루션 개발 및 공급할 계획 대원씨티에스가 하이퍼엑셀과 손잡고 차세대 생성형 AI 시장 공략에 본격 나선다. 양사는 전략적 파트너십을 체결하고, LLM(거대언어모델) 추론 가속 솔루션을 중심으로 국내외 AI 인프라 시장 공략을 강화한다고 3일 밝혔다. 이번 협약은 고성능 컴퓨팅 수요가 급증하는 가운데, GPU를 대체할 수 있는 새로운 AI 반도체 솔루션에 대한 시장의 기대감이 높아진 시점에서 이뤄졌다. 대원씨티에스는 국내 30년 이상의 유통 및 솔루션 구축 경험을 보유한 IT 기업이며, 하이퍼엑셀은 2023년 설립된 반도체 스타트업으로 LLM 추론에 최적화한 AI 전용 칩 LPU(LLM Processing Unit)를 세계 최초로 개발한 바 있다. LPU는 생성형 AI 모델의 복잡한 연산을 모두 단일 칩에서 처리할 수 있는 구조로, 기존 고성능 GPU 대비 가격 대비 성능과 전력 효율이 두 배 이상 향상된 것으로 알려졌다. 이러한 특성은 고성능 서버 인프라의 구축 및 운용 비용 절감은 물론, 에너지 효율이 중요한 기업 환경에서 차별화된 가치를 제공할 수 있다. 양사는 이번 협력을 기반으로 하이퍼엑셀의 기술을
"하이퍼스케일 데이터 센터에서 사용되는 컴퓨팅의 절반이 Arm 기반 될 것" 전 세계 데이터 센터 인프라의 지형이 빠르게 변화하고 있다. 불과 6년 전, Arm이 클라우드 인프라를 위한 컴퓨팅 플랫폼 '네오버스(Neoverse)'를 선보였을 때만 해도 지금과 같은 흐름은 예측하기 어려웠다. 그러나 2025년이면 글로벌 하이퍼스케일 데이터 센터에서 사용되는 컴퓨팅의 절반이 Arm 기반이 될 것으로 전망된다. Arm 인프라 사업부를 총괄하는 모하메드 아와드(Mohamed Awad) 수석 부사장은 "AI 시대에 컴퓨팅 수요는 기하급수적으로 늘어나고 있으며, 그만큼 전력 효율성과 확장성은 더 이상 선택이 아닌 필수 요건"이라고 강조한다. Arm은 네오버스를 통해 클라우드, 엣지, AI 인프라 전반에서 유연성과 효율성을 앞세운 기술 플랫폼을 구축하고 있다. 전통적으로 엔비디아나 인텔이 장악했던 데이터 센터 CPU 시장에서 Arm은 효율성과 비용 최적화라는 키워드로 하이퍼스케일러의 선택을 받고 있다. 실제 아마존웹서비스(AWS), 구글 클라우드, 마이크로소프트 애저 등은 각각 그래비톤(Graviton), 액시온(Axion), 코발트(Cobalt)와 같은 Arm 기반 범
MI300X GPU 32개 활용한 4노드 구성에서 H100 기반 시스템 대비 24% 높은 성능 보여 망고부스트가 글로벌 AI 성능 평가 벤치마크인 MLPerf Inference v5.0에서 새로운 추론 성능 기록을 달성하며, AI 인프라 솔루션 경쟁력을 입증했다. 망고부스트는 AMD Instinct MI300X GPU 기반의 추론 최적화 소프트웨어 ‘Mango LLMBoost’로 Llama2-70B 모델의 오프라인 시나리오에서 역대 최고 TPS(초당 토큰 처리량)를 기록했다. 이번 결과는 MI300X GPU 32개를 활용한 4노드 구성에서 나왔으며, NVIDIA H100 기반 시스템 대비 24% 높은 성능을 보여주며 AI 인프라 시장에 새로운 대안을 제시했다. 특히 비용 대비 성능비에서 2.8배의 경쟁력을 보이며, 특정 하드웨어에 의존하지 않고 고성능·고효율 AI 추론을 구현할 수 있는 가능성을 입증했다. 망고부스트의 Mango LLMBoost는 서버 시나리오에서 9만3039 TPS, 오프라인 시나리오에서 10만3182 TPS를 달성했다. 이는 이전 최고 기록인 8만2749 TPS를 크게 웃도는 수치다. 하드웨어 가격 또한 MI300X가 H100 대비 최대
지코어가 노던데이터그룹과 전략적 파트너십을 체결해 글로벌 AI 시장 공략을 본격화했다. 지코어는 이번 협약으로 고성능 컴퓨팅(HPC) 및 AI 인프라 전문 기업인 노던데이터그룹과 함께 전 세계 기업 고객과 AI 모델 개발자를 위한 AI 서비스 및 네트워크 통합 솔루션을 공동 제공하게 됐다. 이번 파트너십의 핵심은 지능형 전송 네트워크(Intelligence Delivery Network, IDN)의 공동 구축이다. 이 네트워크는 노던데이터그룹의 GPU 인프라와 지코어의 소프트웨어 및 네트워크 기술을 결합해 초저지연·고성능 AI 추론 환경을 구현한다. IDN은 180개 이상의 글로벌 PoP(point of presence), 200Tbps 이상의 초고속 네트워크 대역폭, 1만 4천 개 이상의 피어링 파트너를 기반으로 구성된다. 이로써 AI 워크로드를 엣지 환경에서 초저지연과 보안 환경으로 처리할 수 있도록 설계됐다. 또한 IDN은 지코어의 에브리웨어 인퍼런스(Everywhere Inference) 플랫폼과 노던데이터그룹의 고밀도 GPU 인프라 기반으로 작동한다. 고객은 몇 번의 클릭만으로 AI 모델을 전 세계에 배포하고 운영할 수 있으며 오픈소스 및 커스텀 A
씨이랩이 자사 GPU 최적화 솔루션 ‘AstraGo’의 보안 기능을 대폭 강화한 업그레이드 버전 ‘AstraGo 2.0’을 새롭게 선보였다. 이번 업데이트를 통해 AstraGo는 단순한 자원 최적화 도구를 넘어, 보안까지 아우르는 통합 MLOps 플랫폼으로 한 단계 진화했다. AstraGo는 AI 모델 개발 및 운영 과정에서 GPU 자원을 효율적으로 관리할 수 있도록 지원하는 머신러닝 운영(MLOps) 솔루션이다. 관리자 입장에서는 리소스 자동 배분을 통해 인프라 활용도를 높일 수 있고, 개발자는 별도 설정 없이 사전 구성된 환경에서 즉시 머신러닝 작업을 시작할 수 있어 생산성과 효율성 모두를 만족시킨다. 최근 컨테이너 기술이 머신러닝 개발 환경에 빠르게 확산되면서, 컨테이너 내 보안 취약점에 대한 우려도 함께 커지고 있다. 실행 프로그램, 코드 구성 요소에 대한 검증이 부족할 경우, 시스템 전반에 보안 위협을 초래할 수 있기 때문이다. 이에 씨이랩은 AstraGo 2.0에 AI 기반의 ‘보안 취약점 검사’ 기능을 추가해 컨테이너 및 학습 시스템 전체의 위험 요소를 실시간으로 감지하고, 선제적으로 대응할 수 있도록 했다. 사용자는 개발에 필요한 외부 또는 내