최근 인공지능(AI) 모델이 길고 복잡한 문장을 이해하고 처리하는 능력이 급속히 발전하면서, 연산 속도와 메모리 효율을 동시에 높일 수 있는 차세대 반도체 기술의 필요성이 커지고 있다. 이러한 가운데 KAIST가 국제 연구진과 함께 거대언어모델(LLM)의 추론 속도를 4배 높이면서 전력 소모를 2.2배 줄인 AI 반도체 핵심 기술을 세계 최초로 구현해 주목받고 있다. KAIST는 전산학부 박종세 교수 연구팀이 미국 조지아 공과대학교, 스웨덴 웁살라 대학교와의 공동연구를 통해 트랜스포머(Transformer)와 맘바(Mamba) 두뇌 구조의 장점을 결합한 차세대 AI 메모리 반도체(PIM, Processing-in-Memory) 기반 기술 ‘PIMBA’를 개발했다고 17일 밝혔다. 현재 ChatGPT, GPT-4, Claude, Gemini, Llama 등 대부분의 LLM은 입력 문장의 모든 단어를 동시에 인식·처리하는 트랜스포머 구조를 사용한다. 이 방식은 고도의 병렬 연산이 가능하다는 장점이 있지만, 모델이 커지고 문장이 길어질수록 연산량과 메모리 요구량이 폭증해 속도 저하와 에너지 비효율 문제가 발생한다. 이에 대한 대안으로 최근 제시된 ‘맘바(Mamba
경쟁력 강화 위해 고성능 컴퓨팅 자원, 대규모 데이터, AI 개발 플랫폼 강조 AI 챗봇 '챗GPT'가 대중을 사로잡은 비결은 '사람에 더 가깝다'와 작문뿐 아니라 코딩, 작곡 등도 척척 해내는 '재주꾼'이라는 것으로 요약된다. 기존 AI 대화 서비스가 기계와 이야기하는 느낌을 어쩔 수 없이 줬다면 챗GPT는 상대 의도를 이해하고 실수를 인정하며 오류를 수정하는 등 더 인격체에 가까운 상호작용을 제공해 세계 이용자를 빨아들이고 있다는 게 업계 분석이다. 또한, 보고서·논문 작성, 코딩, 작곡, 그림 등 사람이 긴 시간과 노력을 들여 수행하던 업무를 단시간 안에 대행해주는 효용을 제공하는 것도 인기 원인이다. 챗GPT가 선보인 유능함의 비결은 대규모 데이터의 병렬처리를 의미하는 '트랜스포머' 기반 알고리즘에 있다. 트랜스포머 기반 AI 개발로 문자나 영상 등 방대한 정보를 인간처럼 포괄적으로 학습·이해하고, 새로운 정보도 생성하는 지능을 갖춘 것이다. 챗GPT(GPT-3.5) AI 모델의 성능 수준인 매개변수는 공개되지 않았지만 전 모델인 GPT-3는 매개변수가 1750억 개에 달했다. 연내 공개가 예상되는 다음 모델 GPT-4의 매개변수는 1조∼100조 개로