한글과컴퓨터는 LG AI연구원과 인공지능(AI) 사업 협력을 위한 전략적 파트너십을 체결했다고 12일 밝혔다. 이번 협약을 통해 양사는 AI 기술 및 서비스 분야에서 긴밀한 협력 관계를 구축하고, 각 사의 핵심 역량을 결합해 시너지를 극대화할 방침이다. 이번 협력은 한컴의 시장 내 입지와 경쟁력을 LG AI연구원의 첨단 AI 기술과 결합한 사례로 주목받고 있다. 한컴은 30년 이상 축적한 문서 설루션 기술력과 폐쇄망 환경에서의 안정적인 AI 서비스 제공 역량을 입증해 왔다. 여기에 LG AI연구원의 대규모 언어모델 ‘엑사원(EXAONE)’을 활용해 더욱 신뢰도 높은 AI 서비스를 제공할 수 있을 것으로 기대된다. LG AI연구원은 지난 9일, 글로벌 오픈소스 AI 모델과 비교해 장문 처리 능력, 코딩, 수학 등에서 세계 최고 수준의 성능을 확인한 최신 모델 ‘엑사원 3.5’를 공개한 바 있다. 한컴은 현재 여러 기관·기업을 대상으로 진행 중인 한컴어시스턴트, 한컴피디아 등 한컴 AI 제품의 실증사업(PoC)에 LG AI연구원의 엑사원을 AI 엔진으로 활용하는 방안을 검토하고 있다. 또한 온디바이스 AI 사업 분야에서도 협력을 모색할 계획이다. 배경훈 LG A
알츠하이머·암 발병 원인과 진행 과정 분석, 치료제 효과 예측하는 AI 모델 개발할 계획 LG AI연구원은 잭슨랩과 지난해 12월 파트너십 업무협약을 맺은 데 이어 최근 본계약을 체결했다고 11일 밝혔다. 양사는 알츠하이머와 암의 발병 원인과 진행 과정을 분석하고 치료제 효과까지 예측하는 AI 모델을 개발해 개인 맞춤 치료 연구의 초석을 다질 계획이다. 이를 위해 LG의 생성형 AI '엑사원(EXAONE)'에 잭슨랩이 보유한 알츠하이머의 유전적 특성과 생애주기별 연구 자료를 학습시켜 질병 원인을 분석하고 치료 효율성을 높일 계획이다. 지난 1929년 설립된 잭슨랩은 암, 신경, 면역, 대사 질환을 비롯해 선천성 기형에 이르기까지 그 원인, 특히 유전체와 관련된 연구를 전문적으로 하는 연구기관이다. 특정 유전자 변이를 가진 실험용 마우스를 직접 설계하고 생산하는 잭슨랩 유전체 의학연구소는 유전체 연구 분야의 석학인 한국계 캐나다인 찰스 리 박사가 이끌고 있다. LG는 잭슨랩이 알츠하이머와 암 등 질병과 관련된 다양한 유전적 변이와 돌연변이 유전자 등 방대한 양의 연구 자료를 보유하고 있어 LG의 AI 기술과 결합할 경우 시너지가 상당할 것으로 기대하고 있다.
아마존웹서비스(이하 AWS)는 30일 AWS 리인벤트(re:Invent) 2023에서 LG그룹의 인공지능(AI) 연구 허브인 LG AI연구원이 AWS 기반의 AI 이미지-투-텍스트(image-to-text) 캡셔닝 솔루션을 출시했다고 발표했다. 신규 캡션 솔루션은 3000억 개의 파라미터를 보유한 LG AI연구원의 멀티모달 파운데이션 모델(FM)인 엑사원(EXAONE)을 활용한다. 엑사원은 광고, 패션, 리테일 등 다양한 산업 분야의 전 세계 고객을 위해 보다 정확하고 관련성 높은 콘텐츠를 위한 캡셔닝 솔루션을 제공한다. 엑사원의 새로운 제로샷 이미지 캡션 솔루션은 생성형 AI를 사용해 인간의 인지 능력과 유사하게 이전의 경험과 지식, 훈련을 바탕으로, 본 적 없는 객체나 장면을 자동으로 이해하고 설명한다. 이는 엑사원이 한국어와 영어로 된 이미지와 텍스트를 이해하고 인간에 가까운 추론 능력을 활용해 정확하고 상세한 이미지 캡션과 키워드를 작성할 수 있게 한다. 광고와 같은 산업군에서는 LG AI연구원의 기술을 활용해 제품 설명을 자동화하거나 광고·마케팅 캠페인을 위한 새로운 콘텐츠를 만들 수 있다. LG AI연구원은 엑사원의 학습 중 파라미터 수가 늘어나는
LG가 신소재, 신물질, 신약 등의 개발에 활용할 수 있는 초거대 인공지능(AI) '엑사원(EXAONE) 2.0'을 선보였다. LG AI연구원은 19일 서울 강서구 마곡 LG사이언스파크 컨버전스홀에서 'LG AI 토크 콘서트 2023'을 열고 엑사원 2.0을 공개했다. 초거대 AI는 대용량 연산이 가능한 컴퓨팅 인프라를 기반으로 대규모 데이터를 스스로 학습해 인간처럼 사고·학습·판단하는 AI다. 연구원은 2021년 12월 초거대 AI '엑사원'을 처음 선보인 이후 연구개발을 거듭해 이번에 한 단계 진화한 엑사원 2.0을 내놓았다. 엑사원 2.0은 파트너십을 통해 확보한 특허와 논문 등 전문 문헌 약 4500만 건과 이미지 3억5000만 장을 학습했다. 특히 초거대 AI의 고비용 이슈를 해결하고자 대규모 언어 모델(LLM), 이미지와 언어 등 여러 정보를 동시에 처리하는 멀티모달 모델의 경량화에 힘을 쏟았다. 현존 전문 지식 데이터의 상당수가 영어로 된 점을 고려해 엑사원 2.0을 한국어와 영어를 동시에 이해하고 답변할 수 있는 이중 언어 모델로 개발했다. 또 학습 데이터양도 기존 모델보다 4배 이상 늘렸다. 엑사원 2.0의 언어 모델은 기존 모델과 같은 성능