아마존웹서비스(이하 AWS)가 오픈AI와 다년간의 전략적 파트너십을 체결했다. 이번 협약으로 오픈AI는 AWS의 클라우드 인프라를 기반으로 핵심 인공지능(AI) 워크로드를 운영하고 확장할 수 있게 됐다.
이번 계약 규모는 380억 달러에 달하며 향후 7년간 단계적으로 확대될 예정이다. 오픈AI는 수십만 개의 최신 엔비디아(NVIDIA) GPU와 수천만 개의 CPU를 포함한 AWS 컴퓨팅 자원을 통해 대규모 에이전틱(Agentic) 워크로드를 빠르게 확장할 계획이다.
AWS는 대규모 AI 인프라 운영 경험을 바탕으로 50만 개 이상의 칩을 보유한 초대형 클러스터를 운용하고 있다. 양사는 이번 협력을 통해 AWS의 클라우드 인프라 리더십과 오픈AI의 생성형 AI 혁신 역량을 결합해 전 세계 수백만 명의 사용자에게 향상된 챗지피티(ChatGPT) 서비스를 제공할 예정이다.
최근 AI 기술 발전에 따라 전례 없는 수준의 컴퓨팅 수요가 발생하면서 주요 프런티어 모델 기업들이 성능과 확장성, 보안 측면에서 우수한 AWS 환경을 선택하는 사례가 늘고 있다. 오픈AI는 AWS 인프라를 즉시 활용하고 2026년 말까지 확보한 용량을 모두 가동한 뒤 2027년 이후 추가 확장에 나설 방침이다.
AWS가 오픈AI를 위해 구축 중인 인프라는 최고 수준의 AI 처리 효율과 성능을 구현하도록 설계됐다. 엔비디아(NVIDIA) GB200 및 GB300 GPU를 아마존 EC2 울트라서버(Amazon EC2 UltraServer) 기반으로 클러스터링해 저지연 성능을 제공하며 챗지피티 추론부터 차세대 모델 학습까지 유연한 워크로드 처리를 지원한다.
샘 알트만 오픈AI CEO는 “프런티어 AI를 확장하려면 방대하고 안정적인 컴퓨팅 파워가 필요하다. AWS와의 협력은 다음 세대를 이끌 폭넓은 컴퓨팅 생태계를 강화하고, 첨단 AI를 모두에게 제공하는 데 기여할 것”이라고 말했다.
맷 가먼 AWS CEO는 “오픈AI가 계속해서 가능성의 한계를 넓혀 나가는 가운데, AWS의 최고 수준 인프라가 그들의 AI 비전을 뒷받침하는 핵심 기반이 될 것”이라며 “최적화된 컴퓨팅의 광범위한 범위와 즉각적인 가용성이 AWS가 오픈AI의 방대한 AI 워크로드를 지원할 수 있는 독보적인 위치에 있는 이유를 보여준다”고 밝혔다.
이번 발표는 양사가 전 세계 조직에 최첨단 AI 기술을 제공하기 위한 기존 협력의 연장선에 있다. 올해 초 오픈AI의 오픈웨이트(Open Weight) 파운데이션 모델이 아마존 베드록(Amazon Bedrock)을 통해 제공되기 시작했으며 이를 통해 수백만 명의 AWS 고객이 오픈AI 모델을 활용할 수 있게 됐다.
헬로티 구서경 기자 |





