실제 데이터가 부족한 산업군에서도 정밀한 도메인 특화 모델 신속하게 만들어 투플랫폼이 기업 환경에 최적화한 지식 증류 프레임워크 ‘수트라 D3(SUTRA D3)’를 공개했다. 이번 프레임워크는 제한된 데이터와 적은 비용으로 도메인 특화 모델을 쉽고 빠르게 구축 및 배포하도록 설계됐다. 지식 증류(Knowledge Distillation)는 최근 AI 업계에서 주목받는 기술로, 대형 언어모델(LLM)을 실제 업무에 적용할 때 발생하는 비용 문제와 확장성 한계를 해결하는 대안으로 떠오르고 있다. 기존 파인튜닝 방식은 막대한 데이터와 비용, 그리고 긴 학습 시간이 필요했지만, 지식 증류는 대형 모델의 결과를 모방해 소형 모델을 학습시키는 방식으로 경량화와 비용 절감이라는 두 마리 토끼를 잡을 수 있다. 투플랫폼은 이러한 시장 흐름에 발맞춰 수트라 D3를 선보이며, AI 전환(AI Transformation, AX) 시대 기업들의 요구에 대응하고 있다. 수트라 D3는 지식 증류(Distillation), 도메인 특화(Domain), 데이터 중심 학습(Data)이라는 세 가지 핵심 요소를 기반으로 설계됐다. 특히, 대형 모델이 생성한 합성 데이터를 활용해 실제 데이터
저비용·고효율 AI 모델을 앞세운 중국계 AI 기업 ‘딥시크(DeepSeek)’의 출현이 글로벌 인공지능(AI) 생태계에 커다란 파장을 일으키고 있다. 특히 오픈소스를 내세운 개방 전략은 오픈AI, 구글, 앤트로픽 등 폐쇄형 생태계를 유지해 온 기존 선두 그룹에 정면으로 도전장을 내민 셈이다. 이러한 패러다임 변화의 핵심에는 ‘지식증류(Knowledge Distillation)’ 기술이 자리 잡고 있다. 지식증류는 대형 AI 모델(교사 모델)의 응답을 기반으로 소형 모델(학생 모델)을 훈련시키는 방식으로, 모델 개발 비용을 줄이면서도 정밀도를 높일 수 있는 기술이다. 딥시크의 AI 모델 역시 이러한 방식으로 훈련된 것으로 알려졌다. 하지만 이 과정에서 대형 모델의 응답 데이터를 무단으로 활용했다는 의혹이 제기되며, 지식재산권 침해 논란이 불거지고 있다. 미국 전 대통령 도널드 트럼프가 AI·암호화폐 정책 자문역에 임명한 데이비드 올리버 삭스는 “딥시크가 미국의 지식재산을 도용했을 가능성이 있다”고 주장하며 의혹에 불을 지폈다. 이에 한국지식재산연구원은 최근 보고서를 통해 지식증류와 관련한 법적·기술적 쟁점을 분석하고, AI 반도체 개발 환경과의 연관성을 조명