
카테고리 분류, 과제 분류, 외부 도구 실행, 중간 답변 생성 부문에서 GPT-4.1 앞서
라이너가 자체 개발한 ‘라이너 검색 LLM(Search Large Language Model)’이 오픈AI의 GPT-4.1 대비 성능, 속도, 비용 측면에서 우수한 결과를 기록했다고 3일 밝혔다. 이 모델은 AI 검색 답변 생성을 위한 8가지 핵심 컴포넌트를 기준으로 진행된 정밀 성능 평가에서 GPT-4.1을 넘어서는 결과를 다수 확보하며 검색 특화형 LLM으로서의 경쟁력을 입증했다.
라이너 검색 LLM은 카테고리 분류, 과제 분류, 외부 도구 실행, 중간 답변 생성 등 4개 주요 컴포넌트에서는 성능, 처리 속도, 운영 비용 전 항목에서 GPT-4.1을 앞섰다. 이 외에도 질문 분해 여부 판단, 필요 문서 식별, 출처 포함 중간 답변 생성, 할 일 관리 등 나머지 4개 항목에서도 두 가지 이상의 평가 기준에서 우위를 점했다.
이번 모델은 오픈소스 기반 LLM 위에 라이너가 10여 년간 축적한 사용자 데이터를 사후 학습한 결과물이다. 라이너는 실제 서비스 환경에 유사한 조건으로 동일 태스크를 수행한 후 결과의 재현성과 신뢰성을 기반으로 성능을 검증했다. 이 과정에서 속도는 물론 정확한 응답을 도출해내는 구조적 처리 방식이 성능 차이를 만든 핵심 요인으로 분석된다.
특히 라이너 검색 LLM은 GPT-4.1 대비 평균 30~50% 낮은 토큰당 처리 비용으로, 고비용 LLM의 단점으로 지적됐던 수익성 문제도 개선했다. 대규모 트래픽 환경에서도 실시간 대응이 가능한 운영 효율성과 경제성을 동시에 확보한 것이다.
라이너는 검색 LLM 개발 초기부터 사용자 중심의 AI 응답 품질 향상에 집중해 왔으며, 반복적인 실험과 구조 최적화를 통해 할루시네이션 발생률을 최소화하고 정답률을 높이는 방향으로 학습 방법론을 고도화해 왔다. 이 같은 기술적 집중이 곧 AI 에이전트 경쟁력으로 이어지고 있다는 설명이다.
조현석 라이너 테크 리드는 “라이너 검색 LLM은 문제 해결에 특화된 구조를 통해 GPT보다 높은 성능을 기록했다”며 “데이터 구조와 학습 전략의 정교화가 AI 품질의 핵심이라는 점에서 의미 있는 결과”라고 말했다. 이어 “정확한 리서치 환경 제공을 넘어, 글로벌 검색 시장에서도 기술력을 인정받는 AI 에이전트로 자리매김하겠다”고 덧붙였다. 한편, 라이너는 향후 검색 기반 AI 기술을 고도화해 다양한 분야에 최적화한 LLM 응용을 확대한다는 전략이다.
헬로티 서재창 기자 |