Wan2.1-FLF2V-14B, 텍스트와 이미지 입력으로 고품질 이미지 및 영상 생성 알리바바 클라우드가 시작 프레임과 종료 프레임을 기반으로 영상의 흐름을 정교하게 생성할 수 있는 AI 영상 생성 모델 ‘Wan2.1-FLF2V-14B’를 오픈소스로 공개했다. 해당 모델은 숏폼 콘텐츠 제작자와 개발자들이 직관적이고 정밀한 영상 콘텐츠를 효율적으로 제작하도록 돕는 데 초점을 맞췄다. ‘Wan2.1-FLF2V-14B’는 알리바바 클라우드의 파운데이션 모델 시리즈 ‘Wan2.1’의 일부로, 텍스트와 이미지 입력을 통해 고품질의 이미지 및 영상을 생성하는 데 최적화해 있다. 특히 이번 모델은 영상의 시작과 끝 장면을 입력값으로 받아, 두 장면 사이의 시각적 일관성을 유지하면서 자연스러운 전환을 생성하는 ‘제어 조정 메커니즘(Control Adjustment Mechanism)’을 핵심 기술로 채택했다. 이 메커니즘은 사용자가 제공한 프레임에 담긴 의미 정보를 분석해, 중간 프레임의 스타일과 구조를 정밀하게 조정한다. 그 결과 복잡한 동작도 부드럽게 이어지며, 사실적이고 몰입감 있는 영상 결과물을 생성할 수 있다. 현재 해당 모델은 허깅페이스(Hugging Face)
알리바바 클라우드가 AI 기반 비디오 생성 모델 ‘Wan2.1’ 시리즈를 오픈소스로 공개하며, 글로벌 AI 커뮤니티와의 협력을 강화한다고 밝혔다. 이번에 공개된 모델은 140억(14B) 및 13억(1.3B) 매개변수 버전으로 텍스트 및 이미지 입력을 기반으로 고품질의 영상을 생성할 수 있도록 설계됐다. 알리바바 클라우드는 비디오 파운데이션 모델 ‘Tongyi Wanxiang(통이 완샹)’의 최신 버전인 Wan2.1을 ‘모델스코프(ModelScope)’ 및 ‘허깅페이스(Hugging Face)’를 통해 전 세계 연구자 및 기업들에게 공개했다. 해당 모델은 복잡한 동작을 정밀하게 처리하고 픽셀 품질을 향상시키며 물리적 원칙을 준수하는 등 사실적인 영상 생성 능력에서 강점을 보인다. Wan2.1은 영상 생성 모델의 종합 벤치마크인 VBench 리더보드에서 종합 점수 86.22%를 기록하며 1위를 차지했다. 특히, 상위 5개 모델 중 유일한 오픈소스 모델로 자리매김하며 글로벌 AI 생태계에서 기술력을 입증했다. 평가 항목에서는 움직임의 자연스러움, 색상 표현, 다중 객체 상호작용 등의 성능이 뛰어난 것으로 나타났다. 이번 공개된 모델 중 T2V-14B는 복잡한 동작