하이퍼스케일급 고성능 데이터센터 수요가 빠르게 늘어나고 있어 국내 데이터센터의 전력 수요가 2028년까지 연평균 11% 증가하며 1.4배에 달할 것이란 전망이 나왔다. 한국IDC는 최근 발표한 ‘한국 데이터센터 운영 및 코로케이션 서비스 시장 동향 2025’ 보고서를 통해 2025년 기준 4461MW였던 데이터센터 전력 수요가 2028년에는 6175MW까지 증가할 것으로 예측했다. 이번 전망치는 엔터프라이즈 기업의 자체 서버룸은 물론, 클라우드 및 서비스 제공업체들의 대형 데이터센터 수요를 모두 포함한 수치로, 국내에 공급되는 서버 물량을 기반으로 산출됐다. 특히 생성형 AI의 확산으로 인해 하이퍼스케일급 고성능 데이터센터에 대한 수요가 빠르게 늘어나고 있다는 점이 수요 상승의 핵심 요인으로 꼽혔다. 한국IDC는 “AI 인프라에 최적화한 투자로 전환하는 기업은 아직 10% 수준에 불과하다”며, “이에 향후 기업들의 GPU 기반 아키텍처 전환, 고효율 냉각 시스템 구축 등이 본격화되면서 전력 소비는 확대될 것”이라고 분석했다. 또한, 자산운용사, 건설사 등 비 통신·비IT 기업들의 데이터센터 시장 진출이 활발해지며 경쟁 구도도 재편되고 있는 가운데, 이는 전력
풀스택 연결 기술 제품군으로 AI 인프라에 특화한 맞춤형 연결 실현 파네시아가 AI 인프라 최적화를 위한 ‘링크솔루션(LinkSolution)’ 전 제품군을 공식 공개하며, 자사의 기술 철학과 브랜드 정체성을 본격화하고 있다. 이번 발표는 파네시아가 새롭게 개편한 공식 홈페이지를 통해 공개됐으며, AI 인프라 설계 전반에 대한 통합적 접근을 제시하고 있다. 파네시아는 AI 시대를 맞아 GPU, AI 가속기, 메모리 등 다양한 연산 자원을 유연하게 연결하는 연결 반도체 분야에 주력해 왔다. 이번에 선보인 링크솔루션은 하드웨어, 반도체 설계자산(IP), 네트워크 구조, 소프트웨어까지 아우르는 풀스택 연결 기술 제품군으로, AI 인프라에 특화한 맞춤형 연결을 가능케 한다. 제품은 크게 세 가지 구성으로 나뉜다. 첫째, 하드웨어 분야에서는 스위치 SoC(PanSwitch)와 리타이머(PanRetimer)가 핵심이다. 스위치는 여러 AI 장치를 연결해 대규모 네트워크 구성을 지원하며, 리타이머는 장거리 신호 전송 시 신호 세기를 보정해 통신 품질을 유지한다. 이들은 모두 파네시아의 저지연 설계자산이 적용돼 통신 오버헤드를 줄이는 데 효과적이다. 둘째, 반도체 IP 분
양사 협력 현황 공유 및 실전 적용 확대 방안 논의 카카오엔터프라이즈가 AMD와 함께 'AMD-카카오클라우드 개발자 밋업'을 성공적으로 개최했다. 이번 밋업은 경기도 성남시 판교 인근에서 6월 24일 진행됐으며, AI 인프라 고도화와 기술 최적화를 위한 양사의 협력 현황을 공유하고 향후 실전 적용 확대 방안을 논의하는 자리로 마련됐다. 이번 밋업은 단순한 기술 소개를 넘어 실사용 환경에서의 적용 사례, 성능 개선 경험, 그리고 고객 피드백에 기반한 협업 과제 등을 중심으로 양사의 파트너십을 실질적으로 강화하는 계기가 됐다. AMD뿐 아니라 AMD 생태계 내 주요 기술 파트너사들도 대거 참석해 의미를 더했다. 이날 행사에는 망고부스트, 파두 등이 함께 참여해 차세대 AI 인프라 기술을 소개했다. AMD코리아 김홍필 이사는 'AMD Advancing AI 2025'를 주제로 고성능 컴퓨팅 및 AI 로드맵을 발표했고, 망고부스트 권동업 CTO는 대형 언어모델(LLM)의 추론 및 학습 성능을 끌어올리는 자사 솔루션 ‘LLMBoost’를 공유했다. 이어 파두 김승민 박사는 AI 데이터 센터를 위한 고성능·고효율 스토리지 기술에 대해 발표했다. 카카오엔터프라이즈는 AM
단일 기업으로는 이례적으로 다섯 편의 논문 채택받아 파네시아가 차세대 반도체 및 연결 기술 연구 성과를 글로벌 저널 IEEE Micro에 게재하며 기술력을 인정받았다. 파네시아는 컴퓨터 아키텍처 분야 권위지로 꼽히는 IEEE Micro 5·6월호 특집호에 총 5편의 논문을 발표하며, CXL(Compute Express Link)과 인-스토리지 프로세싱을 중심으로 한 차세대 스토리지 아키텍처를 선보였다. 이번 특집호의 주제는 ‘캐시 일관성 보장 연결 기술 및 자원 분리(Cache Coherent Interconnects and Resource Disaggregation Techniques)’로, 마이크로소프트, IBM, 메타, 구글 등 글로벌 빅테크 기업이 최신 연구 성과를 공개한 가운데, 파네시아는 단일 기업으로는 이례적으로 다섯 편의 논문을 채택받아 존재감을 부각시켰다. 핵심 연구는 크게 세 가지 방향에서 진행됐다. 첫 번째는 CXL 기반 SSD(CXL-SSD)를 활용한 고성능 메모리 아키텍처 개발이다. 파네시아는 기존 SSD를 DRAM처럼 활용할 수 있는 구조를 제안하고, 이를 최적화하기 위한 기술 두 가지를 함께 소개했다. 하나는 데이터 처리 방식에 대
KQC, 국내 유일 양자·AI 통합 서비스 기업으로 성장 박차 한국퀀텀컴퓨팅(KQC)이 오는 6월 24일부터 26일까지 양재 aT센터 제2전시장에서 열리는 ‘퀀텀 코리아 2025’에 참가해, 양자기술의 산업 적용과 상용화를 향한 실질적인 해법을 제시한다. 올해로 세 번째를 맞은 ‘퀀텀 코리아 2025’는 국내외 양자 과학기술 연구 성과와 기업 솔루션을 한자리에 모은 전시회로, 올해는 경제협력개발기구(OECD)와의 공동 워크숍도 함께 진행되며 기술 외교와 정책 논의까지 아우르는 행사로 확대됐다. KQC는 IBM 퀀텀 네트워크의 공식 파트너로, 양자 알고리즘 개발과 소프트웨어 구현은 물론 양자 보안 솔루션을 포함한 풀스택 서비스를 제공해왔다. 이번 전시회에서는 KQC가 자체 보유한 양자컴퓨팅 기술뿐 아니라, 이달 중순 디지털엣지 부평 데이터센터에 새롭게 구축한 ‘AI GPU 팜(AI GPU Farm)’ 기반의 GPUaaS(클라우드 고성능 컴퓨팅 서비스)를 처음으로 선보인다. KQC는 AI와 양자컴퓨팅 간 융합 가능성에 주목하며, 고성능 AI 인프라 제공 기업으로서의 입지를 확고히 다지고 있다. 특히 엔비디아 H200 GPU 기반 인프라를 통해 AI 모델 학습과
지속적인 기술 협력과 공동 마케팅으로 국내 AI 인프라 시장 경쟁력 확보 레노버 글로벌 테크놀로지 코리아(ISG)가 모레(Moreh), AMD와 함께 지난 10일 서울 강남 조선 팰리스에서 ‘Lenovo Tech Day – Smarter HPC for All’ 세미나를 개최하고, AI 인프라 혁신을 위한 공동 전략을 공개했다. 이 자리에서 세 기업은 AI 추론 성능을 크게 끌어올릴 수 있는 통합 솔루션과 함께 하반기 출시 예정인 차세대 데이터 센터 인프라 로드맵을 제시했다. 이번에 발표된 AI 인프라 통합 솔루션은 레노버의 고성능 서버와 AMD의 CPU·GPU, 그리고 모레의 GPU 가상화 및 스마트 라우팅 기술이 결합된 형태다. 세 기업은 이 솔루션이 실제 고객 환경에서 최대 2배 이상의 AI 추론 성능 향상을 이끌어냈다고 설명했다. 플랫폼 종속성을 낮추고, 다양한 워크로드에 유연하게 대응 가능한 점도 주요 강점으로 부각됐다. 세미나 발표에 나선 레노버 ISG 김윤길 부장은 “AI 워크로드에 최적화된 최신 서버 포트폴리오와 HPC 솔루션이 향후 기업들의 IT 전략에 있어 핵심 요소로 부상하고 있다”고 언급했다. 특히 AMD EPYC™ 프로세서의 성능과 모레
CXL 3.x 스위치, CPU·GPU·NPU·메모리 등 다양한 장치를 자유롭게 연결 파네시아가 유럽 최대 슈퍼컴퓨팅 행사인 ‘ISC High Performance 2025(이하 ISC 2025)’에 처음으로 참가하며 CXL 3.x 기반의 고성능컴퓨팅(HPC) 풀 스택 솔루션을 선보였다. 행사 기간은 6월 10일부터 12일까지였으며, 독일 함부르크에서 전 세계 HPC 업계 전문가 3000여 명이 참석한 가운데 진행됐다. 파네시아는 이번 전시에서 자체 개발한 CXL 3.x 스위치와 CXL 설계자산(IP)을 적용한 컴포저블 서버를 공개했다. 이 솔루션의 특징은 연산자원(CPU, GPU)과 메모리 자원을 별도의 노드로 분리하고, 이들을 CXL 스위치를 통해 유연하게 구성할 수 있다는 점이다. 기존 HPC 시스템은 메모리 부족 시 연산 자원을 포함한 전체 서버 증설이 불가피해 자원 낭비 및 비용 부담이 컸다. 반면 파네시아의 컴포저블 서버는 필요한 자원만 선택적으로 추가할 수 있어 불필요한 연산 자원 구매를 방지하고 비용 효율을 높일 수 있다. 핵심 부품인 CXL 3.x 스위치는 CPU, GPU, NPU, 메모리 등 다양한 장치를 자유롭게 연결할 수 있으며, 멀티 레
베슬AI가 한화 AI센터와 함께 6월 12일(현지시간) 미국 샌프란시스코에서 ‘에이전틱 AI 시대를 여는 AI 인프라 전략’을 주제로 밋업을 공동 개최한다. 이번 행사는 금융 산업에 특화된 AI 인프라 도입 전략을 중심으로 현장의 실질적인 인사이트를 공유하는 자리로 기획됐다. 이날 행사에는 실리콘밸리 내 AI 엔지니어, 인프라 전문가, 스타트업 관계자 등 약 200명이 참석한다. SuperAnnotate, Skyfire, Composio 등 AI 인프라 및 데이터 솔루션 분야의 스타트업도 연사로 나서며, 데이터 품질 향상, 워크플로우 자동화, 에이전트 기반 결제 시스템 구축 등 금융권의 주요 AI 도입 과제에 대한 실무적 해법을 제시할 예정이다. 베슬AI는 ‘AI 에이전트 시대, MLOps가 여전히 중요한 이유’를 주제로 발표를 진행한다. 발표에서는 경량화된 특화 모델(sLLM), 모델 증류(distillation) 등의 최적화 기술 발전 속에서 MLOps의 필요성과 자사의 LLM/MLOps 기반 AI 오케스트레이션 기술을 집중적으로 소개할 예정이다. 특히 자체 개발한 ‘LLM 파인튜닝 에이전트’를 통해 모델 학습부터 운영까지 전 과정을 자동화한 사례와 운영
파수가 지난 9일부터 11일까지 미국 메릴랜드 내셔널 하버에서 열린 ‘가트너 시큐리티 서밋 2025’에 참가해 AI 활용을 위한 데이터 보안 인프라 전략을 발표했다. 파수는 올해도 유일한 한국 기업으로 행사에 참여했으며, 발표 세션과 단독 부스를 통해 데이터 품질과 보안을 아우르는 AI 학습 기반 마련 방안을 공유했다. 9일 발표 세션에서 파수 미국법인 론 아덴 CTO는 ‘AI에 최적화된 데이터의 조건’을 주제로 발표를 진행했다. 그는 “조직이 AI에 효과적으로 대응하기 위해서는 데이터의 양, 질, 보안이 충족돼야 한다”며 파수의 데이터 보안 플랫폼을 통해 접근 제어와 일관된 보호 체계를 갖출 수 있다고 설명했다. 파수의 데이터 보안 플랫폼은 제로트러스트 원칙에 기반한 통합 보안 체계를 제공한다. 민감 데이터 식별부터 분류, 암호화, 추적까지 실시간으로 수행되며 태세관리와 가시성 확보, 생애주기 전반의 로그 관리가 가능하다. 특히 문서 중심 업무 환경을 위해 제공되는 ‘랩소디’는 암호화와 버전 관리, 문서 자산화를 통해 고품질의 학습 데이터를 유지할 수 있도록 돕는다. 또한 파수는 단독 부스를 통해 엔터프라이즈 문서 보안 솔루션 ‘Fasoo Enterpris
정무경 대표 "솔루션을 북미 시장에 신속하게 선보이는 데 집중할 것” 디노티시아가 6월 4일부터 5일까지 미국 캘리포니아 산타클라라에서 열리는 ‘TechEx North America 2025’에 참가해 차세대 AI 인프라 솔루션을 선보인다. 이번 전시를 통해 디노티시아는 엣지형 LLM 디바이스 ‘니모스(Mnemos)’와 클라우드 기반 벡터 데이터베이스 SaaS 플랫폼 ‘씨홀스(Seahorse)’를 북미 시장에 첫 공개했다. TechEx North America는 AI, 빅데이터, IoT, 사이버 보안, 클라우드, 엣지 컴퓨팅, 지능형 자동화 등 다양한 분야를 포괄하는 글로벌 기술 전시회다. ‘AI&Big Data Expo North America’가 핵심 행사로 진행되며, 전 세계 2만1000명 이상의 업계 전문가들이 참여해 엔터프라이즈 LLM, 자연어 처리(NLP), 엣지 추론, 벡터 인덱싱, 시맨틱 검색, 멀티모달 AI 등 최신 기술 트렌드가 집중 조명된다. 디노티시아는 이번 전시에서 고성능 LLM을 로컬 환경에서 실행하는 ‘니모스’와 의미 기반 검색 및 RAGOps 기능이 통합된 SaaS형 벡터 데이터베이스인 '씨홀스'를 중심으로 차세대 AI 인
데이터센터용 차세대 솔루션 개발을 본격 추진할 계획 망고부스트와 서버·스토리지 솔루션 기업 AIC가 차세대 데이터 센터 혁신을 위한 전략적 협력에 나선다. 양사는 첨단 컴퓨팅 기술 개발과 공동 시장 프로모션을 위해 양해각서(MOU)를 체결하고, 데이터센터용 차세대 솔루션 개발을 본격 추진할 계획이다. 이번 협약은 지난 5월 20일부터 23일까지 대만 타이베이에서 개최된 ‘COMPUTEX 2025’ 현장에서 체결됐다. 협력의 핵심은 망고부스트의 데이터처리가속기(DPU, Data Processing Unit) 기술과 AIC의 서버 및 스토리지 전문성을 결합해 고성능·고효율 컴퓨팅 솔루션을 공동 개발하는 것이다. 이를 통해 기업용 데이터 센터의 성능 향상과 운영 효율성을 극대화하는 데 중점을 둘 전망이다. 망고부스트 김장우 대표는 “이번 협약은 더 스마트하고 확장 가능한 컴퓨팅 플랫폼을 시장에 제공하기 위한 중요한 발판”이라며, “AIC와의 긴밀한 협력을 통해 DPU 기술의 엔터프라이즈 시장 활용 범위를 확대해 나가겠다”고 밝혔다. AIC 영업 및 마케팅 부문 부사장 데이비드 황(David Huang)은 “망고부스트와의 파트너십을 통해 서버 및 스토리지 기술 혁신
데이터 센터 빌딩 블록 솔루션 및 수냉식 냉각 시스템 공개 슈퍼마이크로가 데이터 센터 설계와 운영의 새로운 기준을 제시하며 시장 공략에 나섰다. 슈퍼마이크로의 국내 최대 총판 디에스앤지(DS&G)는 슈퍼마이크로가 지난 5월 대만 타이베이에서 열린 컴퓨텍스 2025에서 차세대 데이터 센터 솔루션 ‘데이터 센터 빌딩 블록 솔루션(DCBBS)’과 수냉식 냉각 시스템 ‘DLC-2’를 공개했다고 밝혔다. 슈퍼마이크로는 이번 전시회에 앞서 연례 행사 ‘이노베이트(Innovate)’에서 DCBBS(Data Center Building Block Solutions)를 처음으로 선보였다. 이 솔루션은 서버, 스토리지, 네트워킹, 냉각, 소프트웨어, 서비스 등 데이터센터 인프라를 모듈화해 설계와 구축, 운영 과정을 단순화하고 속도를 높이는 데 초점을 맞췄다. DCBBS는 랙 단위부터 대규모 데이터 센터까지 유연하게 확장할 수 있는 구조를 갖췄으며, 고객 맞춤형 설계와 신속한 배포가 가능하다. 통합 관리 소프트웨어인 ‘슈퍼클라우드 컴포저’를 지원해 AI와 고성능 컴퓨팅(HPC) 인프라의 확장성과 운영 효율성까지 강화했다. 특히, AI 팩토리 구축에 최적화한 사전 검증 패
AI가 제조 현장의 판을 바꾸고 있다. 고령화된 숙련 인력과 신입 인력의 부족으로 생산 차질과 품질관리의 어려움을 겪는 제조업계에, 인공지능(AI) 기반 자율제조 솔루션이 새로운 돌파구로 떠오르고 있다. AI는 데이터를 실시간 분석해 최적의 생산 환경을 스스로 구축하고, 미세 결함 감지부터 설비 예지보전, 디지털 트윈 기반 시뮬레이션까지 전 과정을 지능화한다. 정부도 기업당 최대 100억 원을 지원하는 선도 프로젝트를 추진하며 자율제조 확산에 박차를 가하고 있다. ‘K-자율제조’ 시대의 서막이 올랐다. 고질적인 인력 부족은 제조업 현장의 단순한 애로사항을 넘어, 생산성 저하와 경쟁력 약화의 주요 원인으로 작용하고 있다. 숙련공의 고령화와 신규 인력 확보의 어려움은 예측 불가능한 생산 차질과 품질관리의 난항을 심화시키는 양상이다. 이는 기존 생산 방식으로는 급변하는 시장의 요구에 효과적으로 대응하기 어렵다는 현실을 보여준다. 이러한 낡은 제조 현장의 한계를 극복하고 혁신적인 도약을 견인할 핵심 동력으로, 인공지능(AI) 기반 자율제조(Autonomous Manufacturing) 기술이 급부상하는 중이다. 이러한 자율제조 체제는 글로벌 제조업계의 희망으로 낙점
GB300 시스템 중심으로 설계...고성능 AI 컴퓨팅 성능 제공할 예정 엔비디아가 글로벌 AI 인프라 혁신의 중심에 섰다. 엔비디아는 지난 22일 G42, 오픈AI, 오라클, 소프트뱅크그룹, 시스코와 협력해 아부다비에 차세대 AI 클러스터 ‘스타게이트 UAE(Stargate UAE)’를 구축한다고 발표했다. 이번 프로젝트는 엔비디아의 최신 그레이스 블랙웰(Grace Blackwell) GB300 시스템을 중심으로 설계되며, 세계 최고 수준의 AI 컴퓨팅 성능을 제공할 예정이다. 스타게이트 UAE는 아부다비에 조성되는 ‘UAE-미국 AI 캠퍼스(UAE-U.S. AI Campus)’ 내 5GW 규모의 인프라 가운데 1GW를 차지하는 대형 AI 컴퓨팅 클러스터다. 이 캠퍼스는 미국과 UAE가 공동 발표한 ‘미국-UAE AI 가속화 파트너십(U.S.-UAE AI Acceleration Partnership)’에 기반해 설립되며, 인류에 장기적인 혜택을 제공할 안전하고 신뢰할 수 있는 AI 개발을 목표로 하고 있다. 이번 프로젝트에서 G42는 클러스터 구축을, 오픈AI와 오라클은 운영을 담당하며, 시스코는 제로트러스트 기반 보안과 AI 지원 연결성, 소프트뱅크그룹은
텔럼 II 칩 기반으로 고속 연산과 고도화한 보안 동시 제공해 IBM이 고성능 컴퓨팅과 AI 활용을 위한 차세대 리눅스 플랫폼 ‘IBM 리눅스원 5(LinuxONE 5)’를 공개했다. 텔럼 II(Telum II) 프로세서를 기반으로 하는 이번 플랫폼은 데이터 보안, 비용 효율, AI 통합까지 아우르는 엔터프라이즈 인프라 전략의 중심축으로 설계됐다. IBM 리눅스원 5는 AI 가속 기능이 탑재된 텔럼 II 칩을 기반으로 고속 연산과 고도화된 보안을 동시에 제공한다. 이 칩은 온칩 AI 가속기와 결합돼 대규모 언어모델(LLM), 실시간 예측 분석, 사기 탐지 등 다양한 AI 업무를 빠르고 정확하게 처리할 수 있도록 설계됐다. 향후 2025년 4분기부터는 생성형 AI 기능을 위한 스파이어(Spyre) 가속기 지원도 예정돼 있다. 이번 플랫폼의 가장 큰 강점 중 하나는 보안 기능이다. IBM은 기밀 컴퓨팅, 고성능 암호화 처리, 양자내성 암호(NIST 표준)를 기반으로 한 보안 모듈을 탑재해 민감한 AI 데이터까지 보호할 수 있도록 설계했다. 레드햇 오픈시프트 기반의 ‘기밀 컨테이너’와 IBM 볼트 셀프 매니지드(Vault Self-Managed) 통합은 하이브리드