글로벌 고객에게 제공 가능한 수준의 제품화에 성공한 사례로 남아 트웰브랩스가 AWS의 완전관리형 생성형 AI 플랫폼 ‘아마존 베드록(Amazon Bedrock)’에 자사 모델을 정식으로 공급하며, 글로벌 AI 생태계에서 한국 기술의 존재감을 확장하고 있다. 이번 공급은 한국 파운데이션 모델이 글로벌 플랫폼에 공식 편입된 첫 사례로, 기술 주권 실현의 이정표로 주목된다. 트웰브랩스는 ‘마렝고(Marengo)’와 ‘페가수스(Pegasus)’ 두 가지 영상 AI 모델을 베드록을 통해 전 세계 AWS 고객에게 제공한다. 이를 통해 고객사는 별도의 인프라 구축 없이 영상 콘텐츠 내 객체, 동작, 음향 등을 자연어 기반으로 분석하고 검색한다. AWS는 이번 협업으로 영상이해 모델을 직접 제공하는 첫 번째 클라우드 사업자가 됐으며, 트웰브랩스는 메타, 엔트로픽, 딥시크, 미스트랄AI 등과 함께 베드록 공식 모델 파트너로 자리잡았다. 영상 데이터는 디지털 환경에서 가장 활용이 어려운 자산 중 하나로 꼽힌다. 트웰브랩스의 AI 모델은 이러한 비정형 영상 데이터를 의미 기반의 분석 가능한 형태로 전환해, 콘텐츠 검색, 요약, 아카이빙 등의 작업을 빠르고 효율적으로 수행하도록
기존 GPU 인스턴스 대비 최대 20배 향상된 연산 성능 및 11배 높은 메모리 용량 제공 아마존웹서비스(AWS)가 초거대 생성형 AI 훈련과 추론을 위한 차세대 인프라로, 엔비디아의 최신 슈퍼칩 ‘그레이스 블랙웰(Grace Blackwell)’ 기반의 P6e-GB200 울트라서버를 공개했다. 이는 기존 GPU 인스턴스 대비 최대 20배 향상된 연산 성능과 11배 높은 메모리 용량을 제공하며, AWS 역사상 가장 강력한 GPU 기반 인프라로 평가된다. 이번에 함께 공개된 P6-B200 인스턴스는 중대형 AI 워크로드에 유연하게 대응할 수 있도록 구성됐다. 두 제품 모두 엔비디아 블랙웰 GPU를 중심으로 설계됐으며, 대규모 AI 시스템과 실시간 고성능 추론이 요구되는 에이전틱 AI 시스템을 위한 솔루션이다. P6e-GB200 울트라서버는 최대 72개의 엔비디아 블랙웰 GPU를 NV링크로 연결해 하나의 컴퓨팅 유닛처럼 동작하며, FP8 연산 기준 360페타플롭스의 성능과 총 13.4테라바이트의 고대역폭 GPU 메모리를 제공한다. 이와 함께 4세대 EFA 네트워크를 통해 초당 최대 28.8테라비트의 대역폭을 구현했다. 반면, P6-B200 인스턴스는 8개의 블랙웰
가우디 3의 첫 대규모 상업 배포 사례...인프라 접근성 높일 것으로 보여 인텔이 IBM과 손잡고 자사 AI 가속기인 ‘인텔 가우디 3’를 클라우드 서비스에 최초로 상용 적용한다고 밝혔다. IBM 클라우드는 주요 클라우드 서비스 제공사 중 처음으로 가우디 3를 기반으로 한 AI 서비스 환경을 개시했으며, 이로써 고객들은 고성능 AI 인프라를 보다 합리적인 비용으로 활용할 수 있는 기회를 갖게 됐다. 이번 상용화는 가우디 3의 첫 대규모 상업 배포 사례로, 생성형 AI 서비스 확산을 위한 인프라 접근성을 크게 끌어올리는 계기가 될 전망이다. 인텔과 IBM은 고가의 특화 하드웨어가 필요한 AI 연산 환경에서 비용 효율이라는 기준을 제시하며, 보다 많은 기업이 AI 기술을 실질적으로 도입하도록 협력하고 있다. 가우디 3는 생성형 AI와 대규모 언어모델 추론, 파인튜닝 등 고성능 연산을 요구하는 워크로드를 지원하도록 설계됐다. 특히 멀티모달 LLM, RAG(검색 증강 생성) 등 최신 AI 트렌드에 최적화된 아키텍처를 기반으로 한다. 개방형 개발 프레임워크 지원 또한 가우디 3의 장점 중 하나로, 다양한 개발 환경에 유연하게 대응할 수 있다는 평가다. 인텔에 따르면
이전 세대 대비 가상 CPU당 최대 80% 성능 향상 제공 AMD가 자사의 5세대 에픽(EPYC) 프로세서를 구글 클라우드의 차세대 가상 머신(VM) 인스턴스에 성공적으로 공급했다. 현지 시각 4월 9일 발표된 이 소식은 AMD의 최신 서버용 프로세서가 퍼블릭 클라우드 환경에서도 본격적으로 채택되기 시작했음을 알리는 중요한 이정표다. 이번에 새롭게 선보인 구글 클라우드의 C4D와 H4D 인스턴스는 각각 범용 컴퓨팅 워크로드와 고성능 컴퓨팅(HPC) 및 AI 워크로드에 최적화한 제품이다. C4D 인스턴스는 AMD의 최신 아키텍처인 ‘Zen 5’를 기반으로 하며, 구글 클라우드의 자체 테스트 결과에 따르면, 이전 세대 대비 가상 CPU당 최대 80%의 성능 향상을 제공한다. 특히 AI 추론 작업이나 웹 서비스, 데이터 분석과 같은 일반적 클라우드 워크로드에 유용하다. HPC에 특화한 H4D 인스턴스는 AMD 에픽 프로세서와 구글 클라우드의 RDMA(Remote Direct Memory Access) 기술을 기반으로 설계돼 수만 개의 코어 단위로도 성능 저하 없이 확장 가능한 구조를 갖추고 있다. 이는 과학 계산이나 고난이도 AI 트레이닝 등, 연산량이 높은 환경
KT가 글로벌 AI 플랫폼 기업 팔란티어와 전략적 협력을 맺고 국내 AX(AI Transformation) 시장 공략을 본격화한다고 13일 밝혔다. 이번 파트너십을 통해 KT는 국내 최초로 팔란티어의 '월드와이드 파트너 에코시스템' 공식 멤버로 합류하게 됐다. S&P 500 기업인 팔란티어는 대규모 데이터 통합 및 분석 기술을 바탕으로 정부 및 기업의 의사 결정을 지원하는 AI 소프트웨어 플랫폼을 개발하는 기업이다. 특히 강력한 보안 기술과 실시간 AI 시스템 운영 최적화 역량을 갖추고 있어 금융, 공공, 제조 등 다양한 산업에서 활용되고 있다. KT와 팔란티어는 이번 협력을 통해 금융업을 포함한 국내 AX 시장 공략, KT 클라우드 플랫폼 ‘KT SPC’와 팔란티어 AI 솔루션의 결합, AI 플랫폼 교육 프로그램 ‘한국형 AIP Bootcamp’ 공동 개발, KT 임직원 AI·데이터 역량 강화 등의 프로젝트를 추진할 계획이다. KT는 이번 파트너십을 계기로 팔란티어의 AI 소프트웨어를 내부 운영 프로세스에 도입해 업무 효율성을 높이고 비즈니스 운영을 최적화할 방침이다. KT는 자사의 클라우드 및 네트워크 인프라와 팔란티어의 AI 솔루션을 결합해 금융
개선된 성능과 비용 효율성 갖춰...교차 리전 추론으로 지연시간 최소화 아마존웹서비스(AWS)가 차세대 생성형 AI 기반 파운데이션 모델(FM)인 '아마존 노바(Amazon Nova)'를 아시아태평양 및 유럽연합(EU) 지역에 출시했다고 7일 밝혔다. 이번 출시를 통해 서울, 도쿄, 뭄바이, 싱가포르, 시드니 등 아태 지역과 스톡홀름, 프랑크푸르트, 파리 등 유럽 주요 리전에서 해당 모델을 이용할 수 있게 됐다. 아마존 노바는 AWS가 자체 개발한 최첨단 AI 모델로, 개선된 성능과 비용 효율성을 갖춘 것이 특징이다. 특히 이번 모델은 여러 리전에 걸쳐 사용자의 요청을 자동으로 라우팅하는 ‘교차 리전 추론(Cross-Region Inference)’을 지원하며, 이를 통해 지연시간을 최소화하고 불필요한 비용 발생을 방지했다. 이번에 출시된 아마존 노바 모델은 총 세 가지다. 텍스트 전용의 초저비용 모델 '노바 마이크로(Nova Micro)', 이미지와 비디오를 포함한 멀티모달 입력을 처리하는 경제적인 모델 '노바 라이트(Nova Lite)', 그리고 다양한 업무에서 높은 정확성과 속도를 제공하는 고성능 모델 '노바 프로(Nova Pro)'다. 세 가지 모델