KAIST는 전산학부 김현우 교수 연구팀이 고려대학교 연구팀과 공동연구를 통해, 서로 다른 인공지능(AI) 모델 사이에서 학습된 지식을 효과적으로 이식할 수 있는 새로운 기술을 개발했다고 27일 밝혔다.
새 스마트폰을 바꿀 때마다 연락처와 사진을 처음부터 다시 옮겨야 한다면 큰 불편이 따른다. 현재의 인공지능 모델 역시 성능이 더 좋은 새로운 모델이 등장할 때마다 특정 분야의 지식을 다시 학습해야 하는 유사한 한계를 안고 있다. 연구진은 이러한 비효율을 해결할 수 있는 AI 모델 간 ‘지식 이식’ 기술을 제시했다.
최근 인공지능 분야에서는 사진과 텍스트를 함께 이해하는 시각–언어 모델(Vision-Language Model, VLM)이 빠르게 발전하고 있다. 사용자가 이미지를 보여주며 질문하면 설명을 제공하는 멀티모달 AI가 대표적이다. 이러한 모델은 대규모 이미지와 언어 데이터를 사전 학습해, 비교적 적은 데이터만으로도 새로운 분야에 빠르게 적응할 수 있다는 장점을 지닌다.
그러나 새로운 AI 모델이 등장할 때마다 이러한 적응 과정을 처음부터 다시 수행해야 한다는 점은 지속적으로 문제로 지적돼 왔다. 기존 적응 기법 역시 모델 구조가 조금만 달라져도 활용이 어렵거나, 여러 모델을 동시에 사용해야 해 메모리와 연산 비용이 크게 증가하는 한계를 안고 있었다.
연구팀은 이러한 문제를 해결하기 위해 모델의 구조나 크기에 관계없이 학습된 지식을 재사용할 수 있는 전이 가능한 적응 기법인 ‘TransMiter’를 제안했다. 이 기술은 한 AI 모델이 학습 과정에서 축적한 적응 경험을 다른 AI 모델로 직접 전달하는 방식이다.
연구진이 개발한 기술은 AI 내부 구조를 변경하지 않고, 예측 결과만을 활용해 학습된 요령을 다른 AI에게 전달한다. 서로 다른 구조의 AI 모델이라도 동일한 질문에 대한 출력 결과를 기준으로 정리해 주면, 한 모델이 익힌 지식을 다른 모델이 즉시 활용할 수 있다. 이로 인해 복잡하고 시간이 많이 소요되는 재학습 과정이 필요 없으며, 처리 속도 저하도 거의 발생하지 않는다.
이번 연구는 모델 구조나 크기가 다르면 재사용이 어렵다고 여겨졌던 AI 적응 지식을, 모델 종류와 무관하게 정밀하게 이식할 수 있음을 처음으로 입증했다는 점에서 의미가 있다. 반복적인 학습 비용을 줄일 수 있을 뿐 아니라, 특정 분야의 지식을 필요에 따라 추가하는 ‘지식 패치’ 기술로의 확장 가능성도 제시했다.
김현우 교수는 “이번 연구를 확장하면 초거대언어모델이 빠르게 발전하는 환경에서도 반복적으로 수행해야 했던 후학습(post-training) 비용을 크게 줄일 수 있다”며 “특정 분야의 전문 지식을 손쉽게 추가하는 모델 패치가 가능해질 것”이라고 설명했다.
이번 연구에는 KAIST 전산학부 송태훈 석사과정 학생과 이상혁 박사후연구원, 고려대학교 박지환 박사과정 학생이 공동 저자로 참여했으며, 김현우 교수가 교신저자를 맡았다. 연구 결과는 인공지능 분야 최고 권위의 국제 학술대회인 AAAI 2026에서 구두 발표로 채택돼 1월 25일 발표됐다.
헬로티 이창현 기자 |





