MoMo-70B, 700억 개 파라미터 가진 거대언어모델로 성능 증명해 모레가 자체 개발한 거대언어모델(LLM)이 머신러닝 플랫폼 허깅페이스에서 운영하는 ‘오픈 LLM 리더보드’ 평가에서 77.29점이라는 높은 점수를 기록하며 글로벌 1위에 올랐다. 허깅페이스 오픈 LLM 리더보드는 글로벌 AI 모델의 성능 검증 창구로 활용되는 개발형 플랫폼이다. 현재 3400개가 넘는 모델이 등록돼 추론, 상식 능력, 언어 이해 능력 등 6가지 평가 지표를 기준으로 순위를 다투고 있다. 이번에 1위에 오른 모레의 최신 모델 'MoMo-70B'은 700억 개의 파라미터를 가진 거대언어모델로 지난 17일 처음 리더보드 1위에 올라 현재까지 자리를 지키고 있다. 모델 개발 착수에서 1위 달성까지 단 3개월 만에 거둔 성과다. 모레가 이처럼 단기간에 LLM 분야에서 세계 1위의 두각을 나타낼 수 있었던 데는 모레가 자체 개발 및 보유하고 있는 AI 플랫폼 ‘MoAI’의 기술력이 뒷받침됐기 때문이다. 최고 수준의 LLM을 빠르게 개발하기 위해서는 무엇보다 효율적인 모델 학습 방법을 확보하는 것이 중요한데 모레의 MoAI 플랫폼은 고도의 병렬화 처리 기법을 통해 대규모 AI 모델을
한국어 데이터 확보 및 공유로 한국문화 정서를 담아내는 LLM 개발에 주력 업스테이지는 14일 한국어 데이터 부족 문제를 해결하고, 고성능 LLM(Large Language Model, 거대 언어 모델) 개발을 통한 대한민국 LLM의 독립을 위해 ‘1T 클럽’을 발족한다고 밝혔다. 1T 클럽은 ‘1 Trillion 토큰 클럽’을 줄인 것으로 텍스트, 책, 기사, 보고서, 논문 등 다양한 형태의 1억 단어 이상의 한국어 데이터를 기여하는 파트너사로 구성된다. 업스테이지는 이달 초 자사가 개발한 모델이 세계 최대 머신러닝 플랫폼 허깅페이스에서 운영하는 ‘오픈 LLM 리더보드’ 평가 점수에서 72.3점을 획득, 챗GPT의 기반인 GPT-3.5 성능을 뛰어넘고 1위를 차지하며 주목받았다. 허깅페이스 오픈 LLM 리더보드는 오픈소스 생성 AI 모델의 바로미터로 알려져 있다. 전 세계 500여개의 오픈 모델들이 추론과 상식 능력, 언어 이해 종합능력 및 환각 현상 방지 등 4가지 지표의 평균 점수로 경쟁, 공신력 있는 순위가 매겨진다. 현재 업스테이지는 73점을 돌파하는 모델을 배포, 세계 1, 2위 모델을 독식하고 있다. 1T 클럽은 한국어 데이터의 부족 문제 해결과