AI 특화 하드웨어 중심의 엔드 투 엔드 구성…확장성과 오픈성 모두 갖춰 인텔과 델이 손잡고 엔터프라이즈 AI 시장을 겨냥한 새로운 통합 플랫폼을 공개했다. 델 테크놀로지스의 최신 AI 인프라 포트폴리오인 ‘델 AI 팩토리(Dell AI Factory)’에 인텔의 Gaudi 3 AI 가속기를 탑재한 ‘인텔 기반 델 AI 플랫폼(Dell AI Platform with Intel)’이 새롭게 합류한 것이다. 이 플랫폼은 대규모 언어 모델(LLM)부터 엣지 추론까지 다양한 AI 워크로드에 최적화돼 있으며, 검증된 하드웨어와 오픈소스 소프트웨어를 기반으로 기업의 AI 도입과 확장을 가속화하는 것이 핵심 목표다. 델의 신뢰할 수 있는 인프라 전문성과 인텔의 AI 하드웨어 역량이 결합된 이번 플랫폼은 유연성과 확장성, 그리고 비용 효율성까지 고루 갖춘 것이 특징이다. 특히 Llama 3 80B 모델 추론 성능 기준으로 경쟁 제품인 엔비디아 H100 대비 70% 이상 우수한 가격대 성능비를 기록한 인텔 Gaudi 3가 핵심 기술로 주목받고 있다. 인텔 기반 델 AI 플랫폼은 5세대 인텔 제온 프로세서와 Gaudi 3 가속기를 탑재한 파워엣지 XE9680 서버를 중심으로
국산 AI 반도체의 실사용 환경 구축과 상용화에 집중해 과학기술정보통신부(이하 과기정통부)가 ‘AI 반도체를 활용한 K-클라우드 기술 개발 사업’의 총괄 과제 주관기관으로 하이퍼엑셀-리벨리온 컨소시엄을 선정했다. 이번 사업은 AI 반도체 기술을 중심으로 한 국산 클라우드 컴퓨팅 생태계 조성을 목표로 하며, 정부는 올해 본예산과 추경을 합쳐 총 2423억 원을 투입할 계획이다. 하이퍼엑셀과 리벨리온이 주도하는 총괄 과제는 AI 데이터 센터의 자원을 유연하고 효율적으로 배치할 수 있는 ‘컴포저블 서버’ 개발에 초점을 맞춘다. 컴포저블 서버는 CPU, GPU, 메모리, 저장장치 등의 자원을 모듈화해 필요에 따라 조립하듯 구성하는 기술로, AI 워크로드 최적화에 필수적인 차세대 인프라로 주목받고 있다. AI 컴퓨팅 소프트웨어 개발 과제는 국산 AI 반도체 기반 오픈소스 생태계 조성을 목표로 하는 모레(MOREH) 컨소시엄이 맡는다. 모레 컨소시엄은 특정 하드웨어에 종속되지 않는 범용 소프트웨어를 개발하며, UXL 재단 등 글로벌 오픈소스 커뮤니티와 협력해 기술을 해외 시장으로 확산시킬 계획이다. 클라우드 플랫폼 분야 대표 과제에는 ETRI(한국전자통신연구원), KE
Wan2.1-FLF2V-14B, 텍스트와 이미지 입력으로 고품질 이미지 및 영상 생성 알리바바 클라우드가 시작 프레임과 종료 프레임을 기반으로 영상의 흐름을 정교하게 생성할 수 있는 AI 영상 생성 모델 ‘Wan2.1-FLF2V-14B’를 오픈소스로 공개했다. 해당 모델은 숏폼 콘텐츠 제작자와 개발자들이 직관적이고 정밀한 영상 콘텐츠를 효율적으로 제작하도록 돕는 데 초점을 맞췄다. ‘Wan2.1-FLF2V-14B’는 알리바바 클라우드의 파운데이션 모델 시리즈 ‘Wan2.1’의 일부로, 텍스트와 이미지 입력을 통해 고품질의 이미지 및 영상을 생성하는 데 최적화해 있다. 특히 이번 모델은 영상의 시작과 끝 장면을 입력값으로 받아, 두 장면 사이의 시각적 일관성을 유지하면서 자연스러운 전환을 생성하는 ‘제어 조정 메커니즘(Control Adjustment Mechanism)’을 핵심 기술로 채택했다. 이 메커니즘은 사용자가 제공한 프레임에 담긴 의미 정보를 분석해, 중간 프레임의 스타일과 구조를 정밀하게 조정한다. 그 결과 복잡한 동작도 부드럽게 이어지며, 사실적이고 몰입감 있는 영상 결과물을 생성할 수 있다. 현재 해당 모델은 허깅페이스(Hugging Face)
누구나 내려받아 학습하고 수정해 연구와 비즈니스에 적용할 수 있어 네이버가 자체 개발한 생성형 AI ‘하이퍼클로바X(HyperCLOVA X)’의 경량 모델을 상업적 용도로도 활용 가능한 오픈소스로 24일 공개한다. 국내 주요 기업 가운데 생성형 AI 모델을 상업 이용 목적으로 무료 공개하는 것은 이번이 처음이다. 네이버클라우드는 이번에 HyperCLOVA X SEED 3B, SEED 1.5B, SEED 0.5B 등 총 3종의 경량 모델을 오픈소스 형태로 배포한다. 누구나 내려받아 학습하고 수정해 연구와 비즈니스에 적용할 수 있다. 특히 기존에는 연구 용도로만 제한된 사례가 많았던 반면, 이번 공개 모델은 상업적 라이선스까지 지원돼 비용 부담으로 AI 도입을 망설였던 중소기업과 스타트업에 실질적인 기회를 제공할 전망이다. 공개된 모델 중 ‘SEED 3B’는 텍스트뿐 아니라 이미지와 영상까지 이해할 수 있는 시각언어모델로, 도표 해석, 사진 설명, 개체 인식 등 복합적인 작업 수행이 가능하다. 특히 한국어와 한국 문화 관련 시각 정보를 이해하는 벤치마크 9개에서 동급 미국, 중국 모델보다 높은 성능을 기록했고, 일부 대규모 외산 모델과도 유사한 결과를 보였다.
아파치 2.0 라이선스 적용해 누구나 자유롭게 사용하고 기여할 수 있어 디노티시아가 한양대학교 AIHA 연구실과 공동으로 개발한 AI 양자화 알고리즘 평가 플랫폼 ‘QLLM-INFER’를 오픈소스로 공개했다. 이번 플랫폼은 아파치 2.0 라이선스를 적용해 누구나 자유롭게 사용하고 기여할 수 있도록 구성됐으며, 깃허브(GitHub)를 통해 배포된다. 대규모 언어모델(LLM)의 활용이 급증하고 있는 가운데, 고성능을 유지하면서도 경량화된 모델 구현을 위한 양자화 기술의 중요성이 부각되고 있다. 양자화는 연산 정밀도를 낮추는 방식으로, 연산 속도는 높이고 메모리 사용량은 줄이는 데 핵심적인 역할을 한다. 하지만 지금까지의 연구는 알고리즘별 평가 환경과 조건이 제각각이라 실제 활용 시 적합한 기술을 비교하고 선택하는 데 한계가 있었다. QLLM-INFER는 이러한 문제를 해결하기 위해 동일한 조건에서 다양한 양자화 기법의 성능을 객관적으로 평가할 수 있도록 고안됐다. 디노티시아와 한양대는 최근 3년간 학계와 산업계에서 가장 주목받은 양자화 기술 여덟 가지를 선별해 이를 세 가지 유형으로 구분해 분석했다. 평가 방식은 가중치와 활성화값을 함께 줄이는 방식, 가중치만
알리바바 클라우드가 AI 기반 비디오 생성 모델 ‘Wan2.1’ 시리즈를 오픈소스로 공개하며, 글로벌 AI 커뮤니티와의 협력을 강화한다고 밝혔다. 이번에 공개된 모델은 140억(14B) 및 13억(1.3B) 매개변수 버전으로 텍스트 및 이미지 입력을 기반으로 고품질의 영상을 생성할 수 있도록 설계됐다. 알리바바 클라우드는 비디오 파운데이션 모델 ‘Tongyi Wanxiang(통이 완샹)’의 최신 버전인 Wan2.1을 ‘모델스코프(ModelScope)’ 및 ‘허깅페이스(Hugging Face)’를 통해 전 세계 연구자 및 기업들에게 공개했다. 해당 모델은 복잡한 동작을 정밀하게 처리하고 픽셀 품질을 향상시키며 물리적 원칙을 준수하는 등 사실적인 영상 생성 능력에서 강점을 보인다. Wan2.1은 영상 생성 모델의 종합 벤치마크인 VBench 리더보드에서 종합 점수 86.22%를 기록하며 1위를 차지했다. 특히, 상위 5개 모델 중 유일한 오픈소스 모델로 자리매김하며 글로벌 AI 생태계에서 기술력을 입증했다. 평가 항목에서는 움직임의 자연스러움, 색상 표현, 다중 객체 상호작용 등의 성능이 뛰어난 것으로 나타났다. 이번 공개된 모델 중 T2V-14B는 복잡한 동작