AI 기반 온라인 평가 플랫폼 기업 그렙(대표 임성수)이 리눅스 재단 아시아태평양(APAC)과 공식 인증 교육 파트너십을 체결하고, 11월 4~5일 서울 삼성동 그랜드 인터컨티넨탈 서울 파르나스에서 열리는 ‘오픈소스 서밋 코리아 2025(Open Source Summit Korea 2025)’에 참여한다. 이번 협약을 통해 그렙은 리눅스 재단의 공식 교육 프로그램을 국내에 도입해 기업, 교육기관, 정부, 개인 학습자 등 다양한 수요층에 맞춘 오픈소스 전문 교육을 제공한다. 이를 통해 한국 내 오픈소스 인재 양성과 기술 생태계 확산에 본격적으로 나선다는 계획이다. 최근 국내 오픈소스 산업은 성장세를 보이고 있지만, 실무 중심의 고품질 교육 인프라는 여전히 부족하다는 평가를 받아왔다. 그렙은 이번 파트너십으로 학습자가 필요한 과정을 쉽게 탐색하고 신청할 수 있는 리눅스 재단 전용 랜딩 페이지를 구축했으며, 공식 교육 및 자격 인증 과정에 대한 얼리버드 할인도 제공한다. 임성수 그렙 대표는 “이번 리눅스 재단과의 협력은 그렙이 쌓아온 교육 인프라와 기술 역량을 국제적으로 인정받은 결과”라며 “세계 최고 수준의 오픈소스 교육을 국내 학습자에게 제공해 산업 전반의 기
								
				스트라드비젼은 글로벌 차량용 개방형 표준화 단체 ‘SOAFEE(Scalable Open Architecture for Embedded Edge) Special Interest Group(SOAFEE SIG)’에 공식 합류했다고 29일 밝혔다. 이번 합류는 글로벌 업계와의 개방형 협력을 통해 소프트웨어 정의 차량(Software-Defined Vehicle, SDV) 생태계 발전을 가속화하겠다는 스트라드비젼의 전략적 행보다. SOAFEE는 2021년 Arm이 주도해 설립된 단체로 차량용 소프트웨어의 개발과 배포 방식을 표준화하기 위해 만들어졌다. 현재 150개 이상의 글로벌 파트너사가 참여 중이며, 개방형 표준 기반 접근 방식을 통해 차량용 소프트웨어가 요구하는 실시간성, 안전성, 고성능을 충족하면서 클라우드 네이티브 개발의 유연성을 결합하고 있다. Arm의 고성능·저전력 아키텍처인 Neoverse와 Cortex-A 플랫폼을 기반으로, SOAFEE는 개발 주기를 단축하고 협업을 촉진하며, 확장 가능한 소프트웨어 아키텍처와 툴을 제공함으로써 SDV로의 전환을 지원하고 있다. 스트라드비젼의 주력 제품인 ‘SVNet’은 악천후 등 복잡한 환경에서도 높은 정확도와 효
								
				티맥스티베로가 오는 27일 서울 과학기술회관에서 열리는 ‘K-OpenSource X AI in Seoul 2025’에 참가해 AI 시대 데이터베이스 전략과 오픈소스 생태계 연계 방안을 제시한다. 이번 행사는 오픈소스, 인공지능(AI), 데이터, 인프라, 소프트웨어 기술을 아우르는 국내 대표 기술 컨퍼런스로, 국내외 주요 기업과 기술 리더들이 모여 AI 전환 전략과 오픈 생태계의 미래 비전을 공유하는 자리다. 박경희 티맥스티베로 대표이사는 이날 기조연설자로 나서 ‘데이터베이스 리더십과 오픈소스 전략, AI 생태계를 여는 힘’을 주제로 발표를 진행한다. 박 대표는 AI 시대 DBMS가 나아가야 할 방향과 더불어 ▲AI 서비스 핵심 인프라로서의 데이터베이스 요건 ▲오픈소스 DB 및 액티브-액티브(Active-Active) 구조의 확장 전략 ▲비정형 데이터 검색·관리 ▲벡터 데이터베이스(Vector DB) 기반 AI 응용사례 등을 중심으로 구체적인 전략을 공유할 예정이다. 특히 LLM(대규모 언어모델) 기반 검색, 문서 이해, RAG(검색증강생성·Retrieval-Augmented Generation) 등 고도화된 AI 서비스 구현에서 Vector DB가 수행하는
								
				Arm은 Meta와 함께 AI 소프트웨어부터 데이터센터 인프라에 이르는 컴퓨팅 전 영역에서 AI 효율성을 확장하기 위해 전략적 파트너십을 강화했다고 밝혔다. 양사는 이번 협력을 통해 전 세계 수십억 명의 사용자에게 한층 향상된 AI 경험을 제공할 계획이다. 온디바이스 인텔리전스를 지원하는 밀리와트급 저전력 디바이스부터 최첨단 AI 모델 학습을 담당하는 메가와트급 대규모 시스템까지 Meta의 글로벌 플랫폼을 구동하는 모든 컴퓨팅 환경에서 AI 성능을 최적화한다. 이번 전략적 파트너십 강화는 양사가 다년간 이어온 하드웨어 및 소프트웨어 공동 설계 협력을 기반으로 한다. Arm의 전력 효율적 AI 컴퓨팅 기술력과 Meta의 AI 제품·인프라·오픈소스 기술 혁신을 결합해 성능과 효율성을 대폭 향상시키는 것이 핵심 목표다. 산토시 야나르단 Meta 인프라 부문 대표는 “플랫폼 경험부터 우리가 만드는 디바이스에 이르기까지, AI는 사람들이 연결하고 창조하는 방식을 변화시키고 있다”며 “Arm과의 파트너십을 통해 Meta 애플리케이션 및 기술을 사용하는 30억 명이 넘는 사용자에게 혁신을 효율적으로 제공할 수 있게 됐다”고 말했다. 르네 하스 Arm CEO는 “차세대 A
								
				엔비디아, 구글 딥마인드, 디즈니 리서치 공동 개발 물리 시뮬레이션 엔진 공개 엔비디아 ‘아이작 GR00T N1.6’ 추론 모델, ‘코스모스 WFM’ 업데이트 전개 로봇 추론 능력 및 피지컬 AI(Physical AI) 모델 훈련 가속화 기대...어질리티·보스턴다이내믹스 선제 도입 엔비디아가 구글 딥마인드, 디즈니 리서치와 함께 오픈소스 기반 ‘뉴턴 물리 엔진(Newton Physics Engine)’을 자사 오픈소스 애플리케이션 프레임워크 ‘아이작 랩(NVIDIA Isaac Lab)’에 공개했다. 이로써 로보틱스 시뮬레이션의 새로운 표준을 제시했다고 평가받았다. 이번 기술은 지난달 27일부터 나흘간 서울 삼성동 전시장 코엑스에서 개막한 ‘제9회 로봇학습국제학술대회(Conference on Robot Learning 2025, CoRL 2025)’ 현장에서 강조됐다. 엔비디아가 기술 발표 무대로 삼은 CoRL 2025는 로보틱스와 머신러닝(Machine Learning)의 교차점에서 이뤄지는 연구 발전을 공유·탐구하는 글로벌 연례 국제 로봇 콘퍼런스다. 이 학술대회는 인공지능(AI)과 머신러닝을 활용한 로봇 공학 연구의 최신 동향을 공유한다. 로봇 조작, 내
								
				‘오디오투페이스’ 오픈 소스 공개...게임·3D 아바타 제작 가속화 엔비디아가 게임 및 3D 애플리케이션의 아바타 제작을 지원하는 얼굴 애니메이션 기술 ‘오디오투페이스(Audio2Face)’를 오픈 소스로 공개했다. 오디오투페이스는 음성의 억양과 음소를 분석해 실시간 얼굴 애니메이션과 립싱크를 생성하는 기술로, 게임과 고객 서비스용 3D 캐릭터 제작에 활용된다. 해당 기술은 오디오 입력을 기반으로 표정과 감정을 정밀하게 구현해 캐릭터가 사람처럼 대화하고 반응할 수 있게 한다. 엔비디아는 이번에 오디오투페이스 모델과 소프트웨어 개발 키트(SDK), 훈련 프레임워크까지 오픈 소스로 공개했다. 이를 통해 개발자는 엔비디아의 기존 모델을 각자의 서비스 환경에 맞게 미세 조정하거나 맞춤형 애플리케이션을 구현할 수 있다. 학생, 연구자, 독립 개발자 역시 최신 코드에 접근해 학습과 연구, 응용 개발에 활용할 수 있다. 이미 업계에서는 오디오투페이스를 활용한 사례가 늘고 있다. 컨바이(Convai), 코드마스터즈(Codemasters), 인월드 AI(Inworld AI), 넷이즈(NetEase), 리얼루전(Reallusion), 퍼펙트월드 게임즈(Perfect World
								
				디노도테크놀로지(디노도)가 인공지능(AI) 혁신을 지원하는 ‘디노도 딥쿼리(Denodo DeepQuery)’ 기능을 탑재한 ‘디노도 플랫폼(Denodo Platform) 9.3’을 출시했다. 딥쿼리는 단순 질의응답을 넘어 복잡하고 분석적인 질문에 대한 답변과 추론 과정을 설명하는 딥 리서치 기능이다. 오늘날 AI는 실시간 데이터를 기반으로 답변하는 챗봇이나 상황에 따라 자율적으로 행동하는 AI 에이전트 등 운영 환경 중심으로 활용되고 있다. 이를 위해서는 분산된 대규모 데이터를 실시간으로 처리하면서 보안·규제 준수와 비용 절감을 동시에 달성해야 한다. 그러나 MIT 조사에 따르면 AI 프로젝트의 95%는 투자 수익을 내지 못하는 것으로 나타났는데, 이는 급변하는 운영 환경을 뒷받침할 데이터 인프라가 부족하기 때문이다. 디노도 플랫폼 9.3은 이러한 문제 해결을 목표로 다양한 기능을 강화했다. 구체화된 뷰(Materialized Views)와 데이터 캐시가 스키마 변화에 유연하게 대응할 수 있어 AI 애플리케이션이 끊임없이 변하는 메타데이터 환경에서도 효율적으로 데이터를 제공받는다. 동적 접근 제어 기능으로는 변화가 잦은 개인정보 보호 및 보안 요건에 민첩하게
								
				인섹시큐리티가 오픈소스 공급망 공격의 심각성을 경고했다. 인섹시큐리티는 옵스왓(OPSWAT)의 최근 연구 결과를 인용하며 오픈소스 및 서드파티 소프트웨어 의존도가 높아지는 상황에서 공급망 보안 위협이 빠르게 증가하고 있다고 밝혔다. 이번 발표는 주요 인프라 보호 분야 글로벌 기업 옵스왓의 분석을 기반으로 한다. 현대 소프트웨어 개발은 npm, GitHub 같은 오픈소스 저장소에서 다수의 패키지를 가져와 조립하는 방식이 일반화됐다. 이러한 의존성이 늘어나면서 악성 코드가 삽입된 패키지를 통해 연쇄 피해가 발생하는 공급망 공격 위험이 확대되고 있다. 실제로 ESLint 관련 오픈소스 패키지인 eslint-config-prettier가 공격에 악용된 사례가 확인됐다. ESLint는 전 세계 개발자가 자바스크립트 코드 품질 검사를 위해 주간 3100만 회 이상 다운로드하는 도구다. 단 한 번의 피싱 공격이 수백만 프로젝트에 파급 효과를 일으킨 셈이다. 공격은 npm 공식 메일을 사칭한 피싱 이메일에서 시작됐다. 해커는 유지보수 관리자의 액세스 토큰을 탈취한 뒤 악성 버전(8.10.1, 9.1.1, 10.1.6, 10.1.7)을 npm 레지스트리에 배포했다. 동일 관
								
				알리바바가 디지털 휴먼 영상 제작을 위한 오픈소스 모델 ‘Wan2.2-S2V(Speech-to-Video)’를 공개했다. 이 모델은 인물 사진과 음성 파일만으로 실제 같은 아바타 영상을 구현해, 대화·노래·연기까지 가능한 디지털 캐릭터 제작을 지원한다. ‘Wan2.2-S2V’는 알리바바의 영상 생성 시리즈 ‘Wan2.2’에 포함된 모델로, 단일 이미지 기반으로 고품질 애니메이션을 제작할 수 있다. 얼굴 클로즈업뿐 아니라 상반신, 전신 구도의 영상까지 구현할 수 있으며 프롬프트 지시에 따라 동작과 배경을 자동으로 생성해 제작자가 의도한 스토리와 디자인을 정밀하게 반영한다. 이번 모델은 음성 기반 애니메이션 기술을 강화해 자연스러운 대화와 음악 공연까지 표현 가능하며 한 장면에서 여러 캐릭터를 동시에 처리할 수 있다. 음성 녹음을 사실적인 동작으로 변환할 수 있어 현실감 있는 캐릭터 연출이 가능하며 만화풍·동물·스타일화된 캐릭터까지 폭넓게 지원한다. 해상도는 480P와 720P를 지원해 전문 제작 환경에서도 활용할 수 있으며 소셜미디어 콘텐츠부터 프레젠테이션 영상까지 다양한 용도로 적용 가능하다. 기술적 혁신도 두드러진다. ‘Wan2.2-S2V’는 텍스트 기반
								
				구글 클라우드가 개발자 협업 환경에 최적화된 AI 코딩 도구 ‘제미나이 CLI 깃허브 액션’을 무료로 출시했다. 이 도구는 제미나이 CLI 기반으로 설계됐으며 개발자가 서로 협업하는 플랫폼과 저장소에서 효율적인 워크플로를 지원하도록 설계됐다. 이번에 출시된 제미나이 CLI 깃허브 액션은 오픈소스로 제공돼 커스터마이징이 가능하며 새로운 이슈나 풀 리퀘스트 발생 시 프로젝트의 전체 맥락을 파악해 자동으로 작업을 실행한다. 비동기적으로 작동해 개발자는 작업이 끝나기를 기다리지 않고 다른 업무에 집중할 수 있다. 구글 클라우드는 함께 제공하는 세 가지 오픈소스 워크플로를 통해 개발자의 생산성을 높인다. 첫째는 지능형 이슈 분류 기능으로 새로운 이슈가 들어오면 자동으로 분석 및 라벨링, 우선순위 지정이 가능하다. 둘째는 신속한 풀 리퀘스트 리뷰 기능으로 코드의 품질과 스타일을 빠르게 검토하고 피드백을 제공한다. 셋째는 온디맨드 협업 기능으로 개발자는 특정 작업을 자연어로 @gemini-cli를 멘션해 직접 위임할 수 있다. 이 모든 기능은 사용자의 필요에 맞게 수정하거나 새롭게 구성할 수 있다. 보안과 제어 기능도 강화됐다. 제미나이 CLI 깃허브 액션은 자격 증명
								
				피지컬 AI(Physical AI) 기반 로봇 운영체제(ROS) 역량 인정받아 다중·이기종 로봇 협업 지원 범용 인공지능(AI) OS ‘OM1’, 분산형 네트워크 ‘FABRIC’ 공개 오픈마인드(OpenMind)가 2000만 달러(약 277억 원) 규모의 시리즈 투자를 유치했다. 오픈마인드는 미국 실리콘밸리 소재 로봇 운영체제(ROS) 기술 업체로, 로봇의 ‘집단 지능Collective Intelligence)’ 구현에 힘쓰고 있다. 이번 투자는 블록체인 전문 투자사 판테라캐피털(Pantera Capital)이 주도했고, 리빗(Ribbit)·코인베이스벤처스(Coinbase Ventures)·HSG·디지털커런시그룹(DCG)·페블베드(Pebblebed) 등 벤처캐피털(VC)이 참여해 오픈마인드의 비전에 힘을 실었다. 사측은 단순히 하나의 로봇을 똑똑하게 만드는 것이 아니라, 서로 다른 제조사의 로봇들이 하나의 네트워크에서 정보를 공유하고 협업할 수 있는 오픈소스 플랫폼을 만드는 것이라며 비전을 공개했다. 업계 전문가에 따르면, 현재 시판 로봇들은 각 제조사의 폐쇄적인 생태계에 갇혀 있기 때문에 협업이 제한적이다. 때문에 현실 상황의 복잡한 변화에 적응하기 어렵다
								
				KT가 ‘한국적 AI’의 철학을 담아 자체 개발한 언어모델(LLM) ‘믿:음 2.0’의 오픈소스를 AI 개발자 플랫폼 허깅페이스(HuggingFace)를 통해 공개할 예정이라고 3일 밝혔다. 이 오픈소스는 기업과 개인, 공공 누구나 상업적으로 활용할 수 있도록 제약 없이 개방된다. ‘한국적 AI’는 KT의 AI 철학으로 한국의 정신과 방식, 지식을 기반으로 구현해 한국에 가장 잘 맞는 AI를 의미한다. 이를 위해 KT는 한국의 사회적 맥락과 같은 무형의 요소와 한국어 고유의 언어적·문화적 특성 등을 충분히 반영해 학습한 AI 모델을 개발, 대한민국의 산업과 일상 속에서 AI가 자연스럽게 스며들어 대중화될 수 있도록 앞장서고 있다. KT 믿:음은 사전 학습부터 자체적으로 만든 한국적 독자 AI 모델로서 고품질 한국어 데이터를 준비하는 과정에서 모든 저작권을 확보ㅙ 신뢰성을 높였다. 2023년 믿:음 1.0 버전의 Standard, Premium 2종을 출시한 이래 KT AICC(AI 고객센터), 지니TV, AI 전화, 100번 고객센터 등 다양한 서비스에 폭넓게 활용해 왔다. 이번에 KT가 한국적 AI라는 철학을 담아 새롭게 선보이는 믿:음 모델은 ▲115억
								
				티맥스소프트가 다양한 애플리케이션 프레임워크 수요에 대응하기 위해 C 버전 ‘프로프레임(ProFrame) 6.0’을 개발 완료했다고 27일 밝혔다. 지난 2004년 출시 이후 20년간 국내 주요 금융권과 통신, 제조, 공공 등의 대규모 차세대 프로젝트에 잇달아 도입된 ‘프로프레임’은 차세대 시스템 구현에 필요한 고성능과 안정성이 검증된 통합 애플리케이션 프레임워크(개발을 위한 기반 기술, 솔루션의 결합)다. 1970년대부터 전 세계적으로 활발히 사용되어 온 C 프로그래밍 언어를 지원한다. 무엇보다 금융 차세대 환경에 특화된 기능과 운영 관리, 전문 기술지원 서비스를 아우른 솔루션을 제공했다. 그 결과 국내 주요 제1금융권 코어 뱅킹 시스템 구축 사업에 꾸준히 적용돼 지금까지 안정적으로 운영돼 왔다. 이번 6.0 버전은 개발자, 운영·관리자를 위한 편의성이 향상됐으며 성능과 안정성을 더 강화했다. 먼저 최신 이클립스를 확장한 스튜디오 기반의 통합 개발 환경을 제공할 뿐만 아니라 코드 헬퍼(CodeHelper) 자동 완성과 프로젝트 템플릿 지원, 스튜디오 명령줄 인터페이스(CLI)와 챗봇(Chatbot) 등을 지원해 개발 생산성을 극대화했다. 또한 은행의 코어
								
				구글 클라우드가 개발자를 위한 오픈소스 AI 에이전트 ‘제미나이 CLI(Gemini CLI)’를 프리뷰로 공개했다. 제미나이 CLI는 명령줄 인터페이스(CLI) 환경에서 동작하며 구글의 AI 코딩 지원 도구인 ‘제미나이 코드 어시스트’와 통합 제공된다. 이번개인 구글 계정만으로 누구나 무료로 사용할 수 있다. 제미나이 CLI는 제미나이 2.5 프로 모델과 100만 토큰 규모의 컨텍스트 창을 지원하며 코드 이해와 명령어 실행, 콘텐츠 생성, 디버깅, 자동화 등 광범위한 작업에 활용할 수 있다. 사용자 경험 강화를 위해 분당 60회, 하루 1000회의 모델 요청이 무료 제공되며 추가 기능은 버텍스 AI 또는 유료 라이선스를 통해 확장 가능하다. 제미나이 CLI는 구글 검색 기반 프롬프트 그라운딩, 모델 컨텍스트 프로토콜(MCP) 지원, 시스템 프롬프트 설정, 스크립트 자동화 등 다양한 개발자 요구에 대응하는 기능을 제공한다. 프롬프트와 명령어는 워크플로에 맞춰 커스터마이징할 수 있으며 비대화형 호출로 기존 개발 흐름에 쉽게 통합할 수 있다. 해당 도구는 아파치 2.0 라이선스를 기반으로 완전한 오픈소스로 제공된다. 사용자는 깃허브를 통해 코드 확인 및 제안, 보
								
				DX로 넘어선 거대 자본과 대규모 인력의 한계…콘텐츠 산업 개인화는 어디까지 꿈꿀 수 있나 오픈소스로 제작된 《플로우》, 《인사이드 아웃2》《와일드 로봇》《모아나2》 등 픽사·드림웍스·디즈니 대형 스튜디오 제치고 제82회 골든글로브 및 제97회 아카데미 수상 외 글로벌 영화제 다수 수상 소수 제작자가 아카데미에 오른 이유 지난 3월에 열렸던 97회 아카데미 시상식에서 사람들의 눈길을 끈 애니메이션이 있다. 제작비 350만 달러, 주요 제작진 7명을 포함해 스태프까지 몇십 명 남짓한 총 제작 인원, 영화 속 가장 유명한 대사는 “야옹”. 우리가 익히 알고 있는 디즈니나 픽사가 영화 한 편을 만들기 위해 1~2억 달러가 넘어가는 비용과 수백 명의 제작 인원을 투입하는 것과 비교했을 때 눈에 띌 수밖에 없는 수치다. 라트비아라는 낯선 나라에서 온 긴츠 질발로디스 감독이 제작한 영화 《플로우》가 소규모 제작의 한계를 뛰어넘고 올해 아카데미 장편 애니메이션상을 거머쥐었다. 경쟁 후보군으로는 픽사, 드림웍스, 디즈니 같은 대형 스튜디오에서 제작한 《인사이드 아웃2》, 《와일드 로봇》, 《모아나2》 등이 있었다. 영화는 인간이 살았던 흔적만이 남아있는 세상에서 홀로 집을