테크노트 ‘PIMBA’로 AI 반도체 새 지평...KAIST, LLM 속도 4배 높인 기술 공개
최근 인공지능(AI) 모델이 길고 복잡한 문장을 이해하고 처리하는 능력이 급속히 발전하면서, 연산 속도와 메모리 효율을 동시에 높일 수 있는 차세대 반도체 기술의 필요성이 커지고 있다. 이러한 가운데 KAIST가 국제 연구진과 함께 거대언어모델(LLM)의 추론 속도를 4배 높이면서 전력 소모를 2.2배 줄인 AI 반도체 핵심 기술을 세계 최초로 구현해 주목받고 있다. KAIST는 전산학부 박종세 교수 연구팀이 미국 조지아 공과대학교, 스웨덴 웁살라 대학교와의 공동연구를 통해 트랜스포머(Transformer)와 맘바(Mamba) 두뇌 구조의 장점을 결합한 차세대 AI 메모리 반도체(PIM, Processing-in-Memory) 기반 기술 ‘PIMBA’를 개발했다고 17일 밝혔다. 현재 ChatGPT, GPT-4, Claude, Gemini, Llama 등 대부분의 LLM은 입력 문장의 모든 단어를 동시에 인식·처리하는 트랜스포머 구조를 사용한다. 이 방식은 고도의 병렬 연산이 가능하다는 장점이 있지만, 모델이 커지고 문장이 길어질수록 연산량과 메모리 요구량이 폭증해 속도 저하와 에너지 비효율 문제가 발생한다. 이에 대한 대안으로 최근 제시된 ‘맘바(Mamba