AI가 추출한 답변의 출처인 문서 파일명, 관련 페이지 등의 정보 확인 가능 사이냅소프트는 자사 최신 제품 ‘사이냅 문서뷰어 2025’가 RAG(Retrieval-Augmented Generation) 기반 대화형 AI 에이전트 도입에 필수 솔루션으로 주목받고 있다고 25일 밝혔다. 최근 기업과 공공기관들은 AI 기반 정보 검색 및 요약 기술을 접목한 대화형 에이전트 도입에 속도를 내고 있다. 특히 계약서, 약관, 설명서 등 정보 신뢰성이 중요한 문서를 다루는 환경에서는 AI가 제공하는 답변의 ‘출처 확인’이 핵심 요건으로 부상하고 있다. 이런 흐름 속에서 사이냅 문서뷰어 2025는 AI 에이전트의 신뢰도를 높이는 도구로 주목받고 있다. 사용자는 AI가 추출한 답변의 출처인 문서 파일명, 관련 페이지 등의 정보를 확인할 수 있으며, 별도 다운로드 없이 브라우저에서 직접 해당 문서를 열람할 수 있다. 이는 AI가 제공하는 결과물의 투명성과 신뢰도를 높이는 데 실질적인 도움을 주고 있다. 사이냅 문서뷰어는 한글, MS 오피스, PDF 등 다양한 포맷의 문서를 별도의 소프트웨어 설치 없이 웹에서 바로 열람할 수 있도록 지원하는 솔루션이다. 현재 대기업 50여 개사
검색과 추론 동시에 수행하는 RAG 특화 AI 시스템 개발할 계획 디노티시아와 하이퍼엑셀이 공동으로 ‘검색증강생성(RAG) 최적화 AI 추론 시스템’ 개발에 나선다. 이번 협력은 디노티시아의 벡터 데이터 연산 가속기 칩(VDPU)과 하이퍼엑셀의 거대언어모델(LLM) 가속기 칩인 ‘LLM 프로세싱 유닛(LPU)’을 결합해 하나의 통합 시스템을 구축하는 방식으로 진행된다. AI 서비스 분야에서 데이터 검색의 중요성이 커지면서 빠르고 효율적인 데이터 활용 방식이 요구된다. 기존 시스템은 소프트웨어 기반으로 데이터를 검색한 후 LLM을 활용한 생성형 AI 프로세스를 별도로 처리하는 구조로 인해 응답 속도가 느리고 전력 소모가 많았다. 이에 디노티시아는 VDPU 칩으로 AI가 대규모 멀티모달 데이터를 실시간 검색하고 활용하도록 지원하며, 하이퍼엑셀은 LPU 칩으로 AI 모델의 연산 성능을 극대화하는 역할을 한다. 양사는 이 두 칩을 결합해 검색과 추론을 동시에 수행하는 RAG 특화 AI 시스템을 개발할 계획이다. 이를 통해 AI가 보다 정밀한 데이터를 빠르게 찾아내고, 생성형 AI 모델의 연산 속도를 향상시키는 등 AI 서비스의 성능과 효율성을 개선할 것으로 기대된다
그리드원은 한국수자원공사의 업무용 생성형 AI 서비스 ‘K-water GPT’를 성공적으로 구축하고 정식 오픈했다고 21일 밝혔다. 이번 서비스는 검색증강생성(RAG) 기반 시스템으로 지난해 12월 4일 사규, 업무기준 기능을 사전 오픈하고 이날 전체 서비스를 업무에 정식 적용했다. 국내 공공기관 중 RAG 기반 업무 시스템을 정식 오픈한 기관은 수자원공사가 최초다. K-water GPT 구축에는 그리드원의 RAG 솔루션 ‘고 래그(GO RAG)’가 적용됐다. 그리드원은 자동화 솔루션 개발사로 자체 개발한 로보틱스자동화(RPA)와 이미지텍스트추출(AI-OCR)기술을 RAG와 결합해 HWP, PDF 같은 비정형 문서의 의미를 추출하고 AI가 답변하는 자료를 최신 상태로 갱신한다. 또한 고성능 경량 거대언어모델(LLM)을 내부 구축해 정보 유출을 원천 차단하고 초기 도입 부담을 줄였다. K-water GPT 서비스는 AI가 사용자 질문 유형을 분석해 최적화된 검색 방법을 적용하고 사용자가 원하는 목록의 자료만 검색 및 여러 문서들의 내용을 조합하고 출처와 미리보기를 표시해 답변 정확도를 높였다. 문서 다운로드 제한과 접근권한을 제어하는 관리자 기능으로 보안성을
사이냅소프트가 디딤365와 AI 사업 협력을 위한 업무협약(MOU)을 체결했다고 19일 밝혔다. 이번 협약을 통해 양사는 ‘사이냅 도큐애널라이저’와 ‘DidimVSM’ 솔루션을 연계해 상호 시너지를 극대화할 계획이다. 특히 안전하고 신뢰성 있는 RAG 구축을 위한 기술개발 및 사업 개발에 협력하기로 했다. 사이냅 도큐애널라이저는 LLM학습데이터 구축과 디지털 문서 자산화를 위한 솔루션이다. 아래아 한글, 오피스 문서, PDF등의 일반 업무용 문서와 이미지 문서 등 다양한 비정형 문서의 포맷과 레이아웃, 속성 및 객체를 분석해 정보화 한다. 또한 표, 도형 같은 시각적 정보와 제목, 문단, 머리글/바닥글, 캡션, 각주, 페이지 번호와 같은 문서 구조 정보를 Markdown, XML 형식의 정형 데이터로 전환한다. 디딤365의 DidimVSM은 대규모 언어 모델(LLM)의 성능을 강화하기 위한 솔루션이다. 데이터 수집/전처리/청킹/임베딩/벡터 DB 적재까지 모든 과정을 자동화해 LLM 서비스의 성능 개선을 위한 RAG(검색증강생성)를 쉽고 빠르게 구성할 수 있도록 지원한다. 전경헌 사이냅소프트 대표는 “최근 생성형 AI 시스템에서는 데이터의 질이 더욱 중요해지고
클라썸이 AI 기반 개인 맞춤형 대학 학사 상담 시스템 ‘클라썸 커넥트’를 출시했다고 7일 밝혔다. 클라썸 커넥트(CLASSUM Connect)는 대학별 학사 정보를 기반으로 학생들의 문의에 신속하게 확실한 답변을 제공하는 AI학사 상담 서비스다. 자동으로 학사 정보를 업데이트하고 광범위한 질문에도 정확하고 신뢰성 있는 답변과 함께 해당 정보의 출처까지 제시한다. 클라썸 관계자는 “클라썸 커넥트로 교직원의 업무 효율성은 크게 향상되고 학생들에겐 학교생활에 대한 만족도를 높인다”고 말했다. 또한 “최근 대학에서 추진하고 있는 ‘글로컬대학30’이나 ‘지역혁신중심 대학지원체계(RISE)’ 사업과 연계된 학사 운영 내실화를 위한 과제에 사용하기 매우 적합하다”고 설명했다. 클라썸 커넥트는 기존 챗봇의 한계인 불편한 학사 정보 업로드, 신뢰도 낮은 답변, 학사 정보 업데이트 시간 및 비용 소요 등을 해결했다. 챗봇은 학사 규정 파일에 기반해 시나리오를 설계한 데 반해 클라썸 커넥트는 응용프로그램 인터페이스(API) 연동을 통해 손쉽고 편리하게 규정 파일을 자동으로 올린다. 대규모 학사 정보도 쉽게 업로드 가능하다. FAQ 답변 파일을 이미 보유하고 있는 경우 업로드를
바이브컴퍼니(이하 바이브)가 2024 대한민국 정부 박람회에 참가해 RAG 기술 기반 AI 솔루션을 선보였다. 이번 박람회는 디지털 플랫폼 정부의 성과와 현황을 공유하고 향후 방향성을 모색하는 자리로, 13일부터 15일까지 광주광역시 김대중컨벤션센터에서 진행됐다. 바이브가 박람회에서 소개한 바이브 서치(VAIV Search)는 데이터베이스 내 문서에서 관련 정보를 검색한 후 이를 바탕으로 답변을 생성하는 검색 증강 생성 기술 기반 검색 솔루션이다. 바이브는 검색 정확도를 높이기 위해 LLM 학습, 결과 재순위화, 도메인에 따른 UX 기술 개발을 적용해 활용성을 강화했다. 바이브 서치는 내부에서 운영해 보안 문제에서 자유로운 사내 구축형 솔루션이다. 내·외부 문서와 결합한 자연어 의미 검색, 고객 상담 챗봇, 리포트 작성 등 다양한 업무에 활용되고 현재 국회도서관과 외교부를 포함한 기관 및 기업에 도입됐다. 바이브는 이외에도 이번 박람회에서 빅데이터 분석 서비스 ‘썸트렌드 클라우드(Cloud)’, AI 챗봇 솔루션 ‘바이브 챗봇(Chatbot)’, 인공지능 기반 이슈 요약 서비스 ‘바이브 뉴스다이제스트(NewsDigest)’ 등 다양한 서비스를 소개했다. 바이
채팅상담, 문서 등 다양한 데이터 학습하고 답변을 생성해 상담 업무 자동화 실현 루나소프트-엠비아이솔루션이 자사 상담 솔루션을 ‘해피톡’으로 통합하고 인공지능(AI) 고객상담 시스템 고도화에 나선다고 13일 밝혔다. 이번 솔루션 통합은 엠비아이솔루션이 자체 개발한 AI 엔진인 ‘hAI(happytalk AI, 해피톡 AI)’ 출시 및 기능 업그레이드에 따른 결정이다. 지난해 10월 M&A 계약을 체결한 루나소프트와 엠비아이솔루션은 양사 대표 고객상담 솔루션인 ‘루나톡’과 ‘해피톡’을 별도로 서비스해 오다 올해 상반기 hAI 출시를 기점으로 솔루션 통합 절차에 속도를 내고 있다. 루나톡과 해피톡이 각각 제공해 온 채팅상담과 챗봇, 콜 서비스 등을 해피톡으로 일원화하고 여기에 hAI를 전면 탑재해 AI 고객상담 솔루션으로 고도화할 예정이다. hAI는 거대언어모델(LLM)과 검색증강생성(RAG) 기술 기반의 CS 특화 생성형 AI 엔진이다. 채팅상담 내용이나 문서 등 다양한 데이터를 학습하고 이를 토대로 답변을 생성해 상담 업무를 자동화한다. 현재 해피톡에서 서비스 중인 QA 챗봇에 우선 적용해 기존 챗봇보다 정교한 응대가 가능하도록 했다. QA 챗봇은 질
최적인 RAG 파이프라인 정의 및 실행해 기존 방식 대비 성능 높여 인텔리시스는 거대언어모델(Large Language Model, LLM)을 활용한 서비스 개발에 필수적인 검생증강생성(Retrieval Augmented Generation, RAG)을 노코드 기반으로 자동 구축할 수 있는 솔루션 ‘레그빌더(Rag Builder)’를 출시했다고 밝혔다. RAG는 거대언어모델이 답변을 생성하기 전에 사전 학습한 데이터뿐 아니라, 기업 내의 신뢰할 수 있는 주요 정보를 참조하도록 하는 프로세스로, 막대한 리소스가 소요되는 학습 과정을 거치지 않고도 LLM 서비스에 있어서 치명적인 할루시네이션 현상을 완화시키고, 정확한 지식 활용으로 답변 투명성을 제공해 최근 생성형 AI 분야에서 가장 주목받는 기술이다. 인텔리시스 이상구 대표는 “RAG는 정보자원을 지식 단위로 분할하는 청킹부터, 각 청크(지식 단위)를 벡터화 하는 임베딩, 사용자 질문에 근거가 되는 청크를 찾아내는 의미 검색, 이를 이용해 정확한 답변을 생성하게 하는 증강 생성에 이르는 여러 단계의 파이프라인을 거치는데, 각각의 단계에서 어떤 기술적 전략을 선택하는지에 따라 답변의 정확도가 크게 차이가 난다”
범용·언어 모델, 안전 장치 및 안전성 모델, 혼합 전문가 모델로 분류돼 IBM은 오늘 연례 '테크익스체인지(TechXchange)' 행사에서 가장 진보된 자사 인공지능(AI) 모델 제품군인 '그래니트(Granite) 3.0'을 발표했다. IBM의 3세대 그래니트 플래그십 언어 모델은 많은 학술 및 산업 벤치마크에서 비슷한 크기의 다른 모델을 능가하거나 동등한 성능을 보이며, 뛰어난 성능, 투명성, 안전성을 입증했다. IBM 그래니트 모델은 오픈소스 AI에 대한 IBM의 의지를 바탕으로 아파치 2.0 라이선스 하에 공개돼 특정 모델에 대한 비종속성은 물론, 성능 및 비용 효율성 측면에 있어 기업 고객과 커뮤니티에 독보적인 가치를 제공할 것으로 예상된다. 이번에 발표된 IBM의 그래니트 3.0 제품군은 범용·언어 모델, 안전 장치 및 안전성 모델, 혼합 전문가 모델로 분류된다. 범용·언어 모델은 그래니트 3.0 8B 인스트럭트, 그래니트 3.0 2B 인스트럭트, 그래니트 3.0 8B 베이스, 그래니트 3.0 2B 베이스로 분류된다. 안전 장치 및 안전성 모델은 그래니트 가디언 3.0 8B, 그래니트 가디언 3.0 2B으로, 혼합 전문가 모델은 그래니트 3.0
벡터 데이터베이스 기술 활용해 LLM 서비스에 필수적인 RAG 시스템 지원 디노티시아는 최근 베슬에이아이와 전략적 업무 협약(MOU)을 체결했다고 발표했다. 이번 협약은 AI 및 벡터 데이터베이스 기술 분야에서 양사의 첨단 기술을 융합해 차세대 AI 솔루션 개발 및 시장 경쟁력 강화를 목표로 한다. 디노티시아는 벡터 데이터베이스 시스템과 하드웨어 가속기 개발에서 독보적인 기술력을 보유하며, 베슬에이아이는 확장성과 안정성이 뛰어난 LLMOps(Large Language Machine Operations) 솔루션을 통해 대규모 AI 서비스 운영과 관리를 효율화하는 기술을 제공한다. 이번 MOU을 통해 양사는 벡터 데이터베이스 기술을 활용해 LLM 서비스에 필수적인 RAG(Retrieval Augmented Generation) 시스템을 지원한다. 특히, 디노티시아의 벡터 데이터베이스가 베슬에이아이의 LLMOps 플랫폼에 통합됨으로써 AI 모델의 실시간 처리 능력이 대폭 향상될 것으로 기대된다. 양사는 이번 협약을 바탕으로 다양한 분야에서 긴밀히 협력할 계획이다. 이를 통해 기술 정보의 상호 공유와 공동 연구 개발을 촉진하고, 벡터 데이터베이스와 LLMOps 솔루
주요 대학 및 기술기업과 협력해 벡터 데이터베이스 개발에 박차 디노티시아는 최신 AI 서비스의 필수 요소로 주목받는 검색증강생성(RAG)의 핵심 기술인 벡터 데이터베이스 기술 개발 및 사업화에 박차를 가하고 있다. 디노티시아는 과학기술정보통신부가 지원하고 전문기관인 정보통신기획평가원이 주관하는 SW컴퓨팅산업원천기술개발사업 중 ‘초거대 AI모델의 장기 기억 저장을 위한 벡터 DB개발’ 과제(이하 과기부 과제)를 통해 세계 최고 성능과 정확도를 가지는 국산 벡터 데이터베이스 공개 소프트웨어를 개발한다고 밝혔다. 또한, 산업통상자원부에서 지원하고 한국산업기술평가관리원이 전문기관으로 수행하는 소재부품기술개발(이종기술융합형) 사업의 ‘LLM을 위한 벡터 데이터베이스 가속기 개발’ 과제(이하 산자부 과제)를 통해 세계 최초로 벡터 데이터 연산에 특화된 반도체 칩을 개발한다. 각각 과제는 4년 88억 원(총 과제 금액), 3년 73억 원(총 과제 금액)이다. RAG는 대규모 언어 모델(LLM)을 사용하는 인공지능에 실시간 정보를 반영하고 개인화 서비스를 가능하게 하며, 할루시네이션을 줄여주고 장기 기억 기능을 더해주는 필수 기술이다. 이 모든 과정의 중심에는 디노티시아가
다양한 오픈소스 및 상용 모델 선택 가능 및 용도에 따라 변형해 IBM은 기업이 고품질, 고성능의 다양한 파운데이션 모델을 폭넓게 이용하고, 자사의 필요에 따라 맞춤형으로 배포하도록 하기 위한 노력의 일환으로 왓슨x에서 미스트랄 라지(Mistral Large) 모델을 제공한다고 발표했다. 인공지능(AI) 개발자를 위한 IBM의 기업용 AI 스튜디오인 왓슨x는 IBM의 그래니트(Granite) 모델 외에도 다양한 오픈소스 및 상용 모델 선택이 가능하며, 이를 용도에 따라 변형하거나 비즈니스 솔루션 및 애플리케이션과 통합해 사용할 수 있다. IBM은 이미 왓슨x 내에서 기업 환경에 적용할 수 있는 소규모 모델인 Mixtral-8x7B를 제공하고 있다. 이 모델은 IBM이 최적화한 모델로, 주어진 시간 동안 처리할 수 있는 데이터의 양이 기존 모델보다 50% 증가했다. 이번에 새롭게 추가된 미스트랄 라지는 서비스형 소프트웨어(SaaS)로 먼저 제공된다. 이제 왓슨x 고객은 추론과 다국어 기능이 필요한 복잡한 전사적 작업을 처리하도록 최적화한 미스트랄 AI의 가장 강력한 모델을 활용할 수 있다. 검색증강생성(RAG) 전문화를 통해 더 장시간의 채팅 상호작용과 대용량
인텔은 국제 올림픽 위원회(IOC)와의 생성형 AI 검색 증강 생성(RAG) 솔루션 관련한 협력 내용을 발표했다. 이번 발표는 인텔 가우디 AI 가속기와 인텔 제온 프로세서를 활용한 개방형 AI 시스템 및 플랫폼으로 개발자와 기업이 당면한 과제를 어떻게 효과적으로 해결할 수 있는지에 대한 방법을 제시하고 있다. 인텔 데이터 센터 및 AI(DCAI) 그룹 총괄인 저스틴 호타드(Justin Hotard) 수석 부사장은 “IOC와의 파트너십을 통해 인텔이 AI 접근성을 높이기 위해 어떤 노력을 하는지 확인할 수 있다”며 “인텔은 혁신과 창의성을 장려하며, 가시적인 결과를 끌어내는 맞춤형 AI 솔루션을 구축할 수 있도록 개방된 경쟁의 장을 조성하고 있다. 인텔은 개방형 협력 생태계를 수용함으로써, 선수들을 지원하는 방법을 혁신하고 고객과 함께 새로운 가능성을 열어가고 있다”고 말했다. 올림픽 기간 동안 다양한 언어와 문화를 가진 약 1만1000명의 선수가 경기장을 탐색하고 규칙과 지침을 준수할 수 있도록 지원하기 위해 IOC는 인텔과 협력해 ‘애슬리트365’ 챗봇을 공동 개발했다. 해당 챗봇은 인텔 가우디 가속기와 제온 프로세서로 구동되는 RAG 솔루션으로, 선수의
RAG 솔루션, 벨라 큐나 통합으로 인한 검색 능력 극대화로 신뢰성 확보 인공지능(AI)이 전 산업 영역에 걸쳐 도입되며 혁신을 가속화하는 가운데, 단순 질의응답을 넘어 과업을 수행하거나 이용자의 사용 패턴을 학습해 편의를 제공하는 ‘AI 에이전트’가 서비스 경쟁력 확보의 핵심으로 부상하고 있다. AI 에이전트는 인공지능이 문제 해결을 위한 의사결정을 자율적으로 판단하고 수행하는 기술로 개개인을 위한 최적화한 서비스 제공이 가능하다. 대기업부터 스타트업까지 고객 만족도를 높이고자 AI 기반 서비스 제공에 박차를 가하는 가운데, AI 역량 강화로 마치 개인 비서와 같은 맞춤형 서비스를 제공하며 학업 및 업무, 상담, 돌봄 등 다양한 영역에서 성장 동력을 확보하고 있는 기업들의 움직임이 주목된다. 스켈터랩스는 자체 개발한 AI 에이전트인 ‘벨라 에이전트'를 활용해 다양한 산업 분야의 인공지능 전환(AX)을 지원하며 업무 효율을 높이고 있다. 벨라 에이전트는 단순한 질의응답을 넘어 사용자가 목표를 제시하면 인공지능이 사용자가 필요로 하는 다양한 도구와 데이터를 자율적으로 판단하고 신속하게 활용해 과업을 수행하는 챗봇 형식의 솔루션이다. 벨라 에이전트는 LLM의 한
딥네츄럴은 6월 19일부터 21일까지 서울 삼성동 코엑스에서 열리는 '제 13회 스마트테크코리아 2024(STK 2024)'에 참가해 자사의 최신 랭노드 엔터프라이즈(LangNode Enterprise) 솔루션을 선보인다. 스마트테크코리아는 국내 최대 미래 기술 전문 전시회다. AI를 중심으로 상품, 서비스의 제조 생산부터 유통과 물류, 소비의 과정에 적용되는 빅데이터와 클라우드, 로봇, 메타버스 등 최첨단 기술과 솔루션을 집중 조명하며 국내외 많은 참관객과 바이어가 참석한다. 딥네츄럴은 비즈니스 환경에 최적화한 LLMOps 솔루션을 제공하는 AI 스타트업으로, 고품질 언어 데이터 구축부터 파인튜닝, 양자화를 통한 성능 최적화, 효율적인 어플리케이션 개발 및 운영까지, LLM 적용의 전 과정을 지원한다. 올해 2월 MWC 2024에서 처음 선보인 랭노드는 LLM RAG 기반 AI 에이전트를 노코드로 개발, 테스트, 배포하는 솔루션이다. 개발자와 기획자가 함께 협업하며 LLM 기반 에이전트를 제작하고 빠르게 비즈니스에 적용할 수 있어 LLM을 도입하려는 기업에는 필수적이라는 반응이다. 특히, 이번 전시에서 선보이는 랭노드 엔터프라이즈는 데이터 보안이 중요한 은