테크노트 KAIST, 제미나이 등 전문가 혼합 AI의 구조적 보안 리스크 규명
구글 제미나이(Gemini)를 비롯한 주요 상용 거대언어모델(LLM)이 효율성 향상을 위해 채택하고 있는 ‘전문가 혼합(Mixture-of-Experts, MoE)’ 구조가 새로운 보안 위협이 될 수 있다는 사실이 국내 연구진에 의해 세계 최초로 규명됐다. KAIST는 전기및전자공학부 신승원 교수와 전산학부 손수엘 교수 공동연구팀이 전문가 혼합 구조의 근본적인 보안 취약성을 악용한 공격 기법을 처음으로 제시하고, 해당 연구로 정보보안 분야 최고 권위 국제 학회인 ACSAC 2025에서 최우수논문상(Distinguished Paper Award)을 수상했다고 26일 밝혔다. MoE 구조는 하나의 대형 AI 모델 대신 여러 개의 ‘작은 전문가 AI 모델’을 두고, 입력 상황에 따라 일부 전문가만 선택적으로 호출하는 방식이다. 구글의 제미나이를 포함해 다수의 최신 LLM이 이 구조를 활용하고 있다. 연구팀은 이번 연구에서 공격자가 상용 LLM의 내부 구조에 직접 접근하지 않더라도, 단 하나의 악의적으로 조작된 ‘전문가 모델’이 오픈소스로 유통돼 혼합 구조에 포함될 경우, 전체 거대언어모델의 안전성이 심각하게 훼손될 수 있음을 실증적으로 입증했다. 정상적인 전문가들