아마존웹서비스(이하 AWS)가 오픈AI와 다년간의 전략적 파트너십을 체결했다. 이번 협약으로 오픈AI는 AWS의 클라우드 인프라를 기반으로 핵심 인공지능(AI) 워크로드를 운영하고 확장할 수 있게 됐다. 이번 계약 규모는 380억 달러에 달하며 향후 7년간 단계적으로 확대될 예정이다. 오픈AI는 수십만 개의 최신 엔비디아(NVIDIA) GPU와 수천만 개의 CPU를 포함한 AWS 컴퓨팅 자원을 통해 대규모 에이전틱(Agentic) 워크로드를 빠르게 확장할 계획이다. AWS는 대규모 AI 인프라 운영 경험을 바탕으로 50만 개 이상의 칩을 보유한 초대형 클러스터를 운용하고 있다. 양사는 이번 협력을 통해 AWS의 클라우드 인프라 리더십과 오픈AI의 생성형 AI 혁신 역량을 결합해 전 세계 수백만 명의 사용자에게 향상된 챗지피티(ChatGPT) 서비스를 제공할 예정이다. 최근 AI 기술 발전에 따라 전례 없는 수준의 컴퓨팅 수요가 발생하면서 주요 프런티어 모델 기업들이 성능과 확장성, 보안 측면에서 우수한 AWS 환경을 선택하는 사례가 늘고 있다. 오픈AI는 AWS 인프라를 즉시 활용하고 2026년 말까지 확보한 용량을 모두 가동한 뒤 2027년 이후 추가 확장
씨이랩(Xiilab)은 엔비디아(NVIDIA)의 차세대 AI 컴퓨팅 서버 ‘DGX B300’을 도입하며 AI 인프라 고도화에 본격 나섰다고 28일 밝혔다. 이번 도입은 씨이랩의 AI 연구개발 및 산업 적용 역량을 한층 강화하기 위한 전략적 투자로, 차세대 AI 기술의 실증과 상용화를 가속화할 전망이다. DGX B300은 엔비디아의 최신 블랙웰(Blackwell) GPU 아키텍처를 기반으로 한 초고성능 AI 서버로, 대규모 멀티모달 모델과 초거대 비전-언어 모델(VLM)의 학습 및 추론에 최적화된 인프라 솔루션이다. 이전 세대 대비 추론 성능은 11배, 학습 성능은 4배 이상 향상돼 복잡한 AI 모델의 안정적 운용을 지원한다. 씨이랩은 이번 도입을 통해 사내 AI 테스트베드를 새롭게 구축하고, 자체 GPU 클러스터 관리 솔루션 ‘아스트라고(AstraGo)’의 운영 효율과 자원 관리 고도화를 추진한다. 특히 DGX B300의 고속 NVLink 네트워크와 확장 메모리 아키텍처를 활용해 모델 학습·추론·튜닝 단계를 통합 운영함으로써 AI 모델 개발 주기를 대폭 단축시킬 계획이다. 이 같은 인프라 고도화를 통해 씨이랩은 R&D부터 테스트베드, 운영까지 이어지는
슈나이더 일렉트릭이 엔비디아(NVIDIA)와 공동으로 개발한 차세대 AI 데이터센터 레퍼런스 디자인을 발표했다. 이번 발표는 AI 인프라의 신속한 배치와 효율적인 운영을 지원하고, 데이터센터 운영자들이 급격히 늘어나는 AI 워크로드 수요에 대응할 수 있도록 돕는 것이 목적이다. AI 수요가 확대됨에 따라 데이터센터 운영자들은 고밀도 GPU 클러스터 배치 과정에서 전력과 냉각, 운영 효율성 문제를 동시에 해결해야 한다. 슈나이더 일렉트릭은 검증된 물리적 인프라 설계를 제공해 운영자들이 최신 AI 인프라 솔루션 출시 전부터 차세대 전력 및 수랭식 제어 인프라를 준비할 수 있도록 지원한다. 슈나이더 일렉트릭이 공개한 첫 번째 레퍼런스 디자인은 업계 최초로 전력 관리와 액체 냉각 제어를 통합한 시스템 프레임워크다. 여기에는 슈나이더 일렉트릭이 인수한 모티브에어(Motivair)의 리퀴드쿨링 포트폴리오가 포함돼 복잡한 AI 인프라 구성 요소를 효율적으로 관리할 수 있다. 또한 MQTT 기반 ‘플러그 앤 플레이’ 아키텍처를 도입해 OT 인프라와 IT 시스템을 통합, 운영자가 두 시스템의 데이터를 실시간으로 활용할 수 있도록 했다. 엔비디아의 AI 팩토리 운영 소프트웨어
GPU 리소스 자동 스케줄링, 초단위 배포 환경 구성, 고병렬 추론 테스트 등 핵심 기능 공개 예정 케이투스(KAYTUS)가 오는 5월 14일부터 16일까지 서울 코엑스에서 개최되는 ‘AI EXPO KOREA 2025’에 참가해 자사의 AI DevOps 소프트웨어 ‘MotusAI’와 통합형 AI DevOps 인프라 솔루션을 선보인다. 케이투스는 이번 전시를 통해 복잡한 AI 인프라 운영 환경에서 효율적인 리소스 관리와 빠른 모델 배포를 가능케 하는 턴키 기반의 엔드투엔드 솔루션을 집중 조명할 예정이다. 생성형 AI 기술이 학습 단계를 넘어 실시간 추론과 대규모 배포로 확산되는 가운데, 기업들은 GPU 활용률 저조, 데이터 병목 현상, 느린 배포 속도 등 AI 운영상의 다양한 장애물에 직면하고 있다. 케이투스는 이러한 과제를 해결하기 위해 AI DevOps 플랫폼 ‘MotusAI’를 중심으로 한 통합 클러스터 시스템을 통해 모델 개발부터 배포, 운영까지 전 과정을 안정적이고 간결하게 연결하는 인프라 해법을 제시한다. 전시 부스에서는 MotusAI 기반 클러스터를 활용해 한 명의 운영자가 딥러닝 모델과 추론 서비스를 5분 이내에 배포하는 실시간 데모가 진행된다.