Qwen 2.5에 방대한 한국어 데이터를 추가 학습시킴으로써 국내 환경에 최적화 SK텔레콤(이하 SKT)이 세계 최고 수준의 한국어 특화 대규모 언어모델(LLM) ‘A.X(에이닷 엑스) 4.0’을 오픈소스로 공개했다. 7월 3일 SK텔레콤은 글로벌 오픈소스 플랫폼 허깅페이스를 통해 720억 개(72B)의 파라미터를 가진 표준 모델과 70억 개(7B)의 경량 모델 등 두 가지 버전을 동시에 공개했다. A.X 4.0은 오픈소스 기반 모델인 Qwen 2.5에 방대한 한국어 데이터를 추가 학습시켜 국내 환경에 최적화한 성능을 구현한 것이 특징이다. 특히 SK텔레콤이 자체 설계한 토크나이저를 탑재해 동일한 한국어 문장 입력 시 GPT-4o보다 약 33% 높은 토큰 효율을 기록했다. 이는 정보 처리량 증가와 함께 운영 비용 절감이라는 두 마리 토끼를 잡을 수 있는 기술적 진보로 평가된다. 벤치마크 테스트에서도 성과가 두드러졌다. 한국어 능력 평가 지표인 KMMLU에서는 78.3점을 기록하며 GPT-4o(72.5점)를 웃돌았고, 한국 문화 이해도 평가인 CLIcK에서도 83.5점으로 GPT-4o(80.2점)를 앞질렀다. 이를 통해 A.X 4.0은 한국어와 한국 문화에 최
하이브리드 모드·토큰 최적화로 유연성과 실용성 강화 업스테이지가 자사의 차세대 소형 언어모델(sLLM) ‘솔라 프로 2(SOLAR PRO 2)’의 프리뷰 버전을 20일 공개했다. 이번 모델은 작년 말 출시된 ‘솔라 프로’의 후속으로, 파라미터 수를 기존 220억에서 310억으로 확장하며 성능을 대폭 강화한 점이 특징이다. 정식 출시는 오는 7월로 예정돼 있으며, 현재는 개발자 및 기업들이 초기 테스트를 진행할 수 있도록 프리뷰 API 형태로 무료 제공되고 있다. 솔라 프로 2는 소형 모델임에도 불구하고 다수의 글로벌 대형 언어모델을 능가하는 성능을 보여주고 있다. MMLU(종합 지식)와 IFEval(지시 이행) 등 주요 LLM 벤치마크 평균에서 메타의 ‘라마 4 스카우트’를 넘어섰고, 70억 매개변수 이상의 메타 ‘라마 3.3 70B’ 및 알리바바 ‘큐원 2.5 72B’와 비교해도 우위를 보였다. 국내 언어 성능에서도 두각을 나타냈다. KMMLU와 해례(HAE-RAE) 등 한국어 특화 벤치마크에서 높은 점수를 기록하며, 공개된 소형 언어모델 중 가장 뛰어난 한국어 이해 능력을 갖춘 것으로 평가받았다. 이는 조선일보 등 국내 주요 파트너사로부터 확보한 고품질
AI PMDC, 클라우드 플랫폼, AI 모델, 콘텐츠까지 유기적으로 연결돼 엘리스그룹이 국내 기업과 공공기관의 AI 경쟁력을 높이기 위한 ‘엘리스 AI PMDC(모듈형 데이터센터)’ 중심의 인프라 전략을 본격화한다. 올해 창립 10주년을 맞은 엘리스그룹은 28일 서울 보코서울에서 열린 기자간담회 ‘Elice IMPACT : Empowering AI’에서 고성능 AI 클라우드 인프라, 한국어 특화 AI 모델, 공교육용 AI 챗봇 등으로 구성된 엘리스 AI 생태계를 선보이며 새로운 도약을 알렸다. 김재원 대표는 “생성형 AI 도입이 급증하는 상황에서 기업과 공공기관, 교육 현장 모두에 맞춤형 인프라와 모델이 필요하다”며 “엘리스는 AI PMDC, 클라우드 플랫폼, AI 모델, 콘텐츠까지 유기적으로 연결된 풀스택 AI 전환 서비스를 제공한다”고 밝혔다. 엘리스 AI PMDC는 이동형 데이터 센터로, 고성능 GPU 및 NPU가 탑재 가능한 맞춤형 인프라다. 특히 엔비디아의 최신 GPU B200과 H200을 선택적으로 구성하며, 국산 NPU도 지원해 기업 요구에 따라 설계가 가능하다. 약 4개월 내 설치 및 구축이 완료돼 빠르게 AI 클라우드 서비스를 운영할 수 있는
일반 질의응답과 고난이도 추론을 하나의 엔진으로 통합해 코난테크놀로지가 자체 개발한 차세대 LLM(대규모 언어모델) ‘ENT-11’을 이달 말 공식 출시한다. 이번 모델은 일반 질의응답과 고난이도 추론을 하나의 엔진으로 통합해 GPU 비용을 줄이면서도 고성능을 유지할 수 있는 것이 가장 큰 특징이다. 코난테크놀로지는 이번 ENT-11 모델에 일반 모드와 추론 모드를 단일 모델로 통합하는 구조를 도입했다. 기존에는 각각 다른 모델을 운영해야 했던 방식과 달리, 하나의 엔진으로 모든 작업을 처리할 수 있어 운영 효율성과 비용 절감이라는 두 마리 토끼를 동시에 잡았다. 특히 복잡한 멀티턴 대화와 논리적 추론이 요구되는 환경에서도 최적의 응답을 제공할 수 있도록 설계됐다. ENT-11은 학습 단계에서 한국어 토큰 비중을 높게 설정한 것이 특징이다. 이로 인해 Qwen, LLaMA, Gemma, DeepSeek 등 글로벌 모델에 비해 한국어 기반 질의에서 처리 정확도와 응답 속도 모두에서 우위를 보인다. 코난테크놀로지는 자체 번역과 검수 과정을 거쳐 정교하게 구축한 ‘Konan MT-Bench’를 통해 ENT-11의 성능을 측정했다. 평가 결과 ENT-11은 동급 모