스노우플레이크(Snowflake)가 대규모언어모델(Large Language Model, LLM) 앱 중 챗봇 비중이 지난해 5월 대비 46%까지 증가했다고 밝혔다. 스노우플레이크는 9000개 이상 고객을 대상으로 데이터 및 AI 도입의 패턴과 트렌드를 조사해 ‘데이터 동향 2024(Data Trend 2024) 보고서’를 발간했다. 글로벌 엔터프라이즈 기업들이 AI 기술과 데이터를 비즈니스에 어떻게 활용하고 있는지를 다룬 이 보고서에서는 텍스트 입력 방식의 LLM 앱의 비중은 줄고(2023년 82%, 2024년 54%) 대화형 챗봇이 늘어나고 있다고 분석했다. 또한 스트림릿(Streamlit) 개발자 커뮤니티를 대상으로 실시한 설문 조사에서는 응답자의 약 65%가 업무용으로 LLM 프로젝트를 진행하고 있다고 답했다. 실제로 엔터프라이즈 고객들은 생성형 AI 기반 기술을 업무의 생산성, 효율성, 분석력을 높이는데 다양하게 사용하고 있다. 제니퍼 벨리센트 스노우플레이크 데이터 전략 수석은 “대화형 앱은 사람들이 실제 상호작용하는 방식으로 프로그래밍 되어 이제 사람과 대화하듯 LLM과 쉽게 상호작용할 수 있다”며 “특히 LLM 앱의 기초가 되는 데이터의 거버넌스
코오롱베니트가 엔터프라이즈용 AI플랫폼 ‘코아이웍스(KOAIWORX)’를 개발하고 전사 IT솔루션 고도화에 나선다고 8일 밝혔다. 코아이웍스는 GPT-4, 라마2(Llama2) 등 대규모언어모델(LLM)을 다양한 IT시스템에 연결할 수 있도록 AI서비스를 표준화한 플랫폼이다. 사용자의 요구에 따라 ▲사내 매뉴얼 검색 ▲AI챗봇을 통한 질의응답 ▲자동 메뉴 이동 ▲쿼리 기반의 데이터 조회 등 AI기능을 쉽게 접목할 수 있다. 특히 코아이웍스는 서비스형소프트웨어(SaaS) 기반으로 설계돼 기존 시스템에도 바로 통합할 수 있다는 것이 강점이다. 이에 따라 사내 업무 프로세스에 AI환경을 도입하고자 하는 기업들을 빠르게 지원할 수 있다. 핵심은 코오롱베니트가 자체 개발한 AI오케스트레이터다. 정보의 입력과 출력을 관리하는 솔루션으로 LLM 사용 시 발생할 수 있는 보안 문제와 데이터 권한 관리에 중점을 두고 개발됐다. 사내 권한자가 업로드한 자료를 AI 응답에 활용하는 래그(RAG, 검색증강생성) 방식으로 정보의 정확성을 높였고, 시스템 확장에 용이한 펑션콜링(Function Calling) 기술로 기존 업무 시스템과의 연계성도 강화했다. 코오롱베니트는 우선적으로
LG CNS가 코드 생성형 AI에 최적화된 대규모언어모델(Large Language Model, 이하 LLM)을 31일 공개했다. LG CNS는 지난해 6월 챗GPT 기반의 코드 생성형 AI 서비스인 'AI 코딩'을 개발해 다수의 사내 시스템 운영뿐만 아니라 고객사 SI(System Integration)·SM(System Management) 프로젝트에도 활용 중이다. AI 코딩을 금융·증권사 등 데이터의 외부 유출에 민감한 기업들도 활용할 수 있도록 AI 코딩의 두뇌 역할을 하는 LLM까지도 자체 개발했다. 고객사들은 각각의 비즈니스 환경에 맞춰 LG CNS의 LLM 또는 오픈AI의 GPT를 선택해 AI 코딩을 활용할 수 있다. LG CNS는 메타의 '코드라마(CodeLlama)' 등 다양한 오픈소스 LLM을 활용해 코딩에 최적화된 LLM을 구현했다. 고객사는 보유중인 서버, 클라우드 등 인프라에 LG CNS의 LLM을 설치하고 AI 코딩을 플러그인 방식(기존 시스템에 부가기능을 추가하는 방식)으로 연결하면 된다. 고객사가 가진 자체 인프라를 활용하기 때문에 소스코드, 개인정보 유출에 대한 고민도 해결한다. 이번에 공개한 LLM과 AI 코딩을 도입하고자
지난 5월 산업별 솔루션 개발에 향후 3년간 10억 달러 투자 계획 발표 SAS가 9월 11일부터 14일까지(현지시간) 미국 라스베이거스에서 개최하는 사용자 대상의 글로벌 연례 행사 ‘SAS 익스플로어 2023’에서 생성형 AI 기술 전략 로드맵 및 최신 SaaS 제품과 비즈니스 사례를 대거 발표했다. 글로벌 컨설팅 기업 맥킨지 & 컴퍼니는 생성형 AI가 은행, IT, 생명 과학 및 소매와 같은 산업에서 연간 수십억 달러의 매출 성장을 이끌 것이라고 예측하고 있다. 산업 분야용 분석 솔루션에 중점을 두고 있는 SAS는 지난 5월 산업별 솔루션 개발에 향후 3년간 10억 달러를 투자한다는 계획을 발표했으며 그 일환으로 생성형 AI 기술 개발에 주력하고 있다. 금융 및 의료 산업 분야에서 SAS는 합성 데이터 생성을 위해 고객과 협업하며, 제조 및 물류 산업 분야에서는 디지털 트윈 기반의 시뮬레이션 환경을 구축하기 위해 고객과 지속적으로 협력하고 있다. 또한, 산업에 특화된 생성형 AI를 지원하고 대규모언어모델(LLM)을 적용해 고객에게 안전하고 신뢰할 수 있는 결과를 제공하는 방안을 폭넓게 연구하고 있다. 브라이언 해리스(Bryan Harris) SAS
멀티미디어 콘텐츠를 높은 정확성과 효율성으로 이해 및 분석하는 것 가능해져 알리바바 클라우드가 대규모 언어 모델(LLM)인 ‘통이치엔원(Tongyi Qianwen)’을 AI 구동 미팅 어시스턴트인 ‘팅우(Tingwu)’와 결합했다고 2일 발표했다. 통이치엔원은 알리바바 클라우드가 최근 공개한 대규모 언어 모델이며, 이를 팅우에 결합해 멀티미디어 콘텐츠를 높은 정확성과 효율성으로 이해하고 분석하는 것이 가능해졌다. 가령, 비디오 또는 오디오 파일에서 내용이 요약된 텍스트를 생성하거나 각 화자의 주요 요점을 정리해준다. 또한, 멀티미디어 파일의 타임라인을 생성하거나 섹션별 요약본을 개발한다. 알리바바 클라우드는 이 대규모 언어 모델을 기반으로 한 팅우를 ‘통이 팅우(Tongyi Tingwu)’라 명명하고 현재 베타 테스트 중이다. 통이 팅우는 알리바바의 디지털 협업 업무 공간이자 애플리케이션 개발 플랫폼인 ‘딩톡(DingTalk)’에도 적용돼 업무 간 필요한 AI 서비스를 제공할 예정이다. 통이팅우는 업무 효율성을 개선하는 것 외 다양한 멀티미디어 플랫폼에서 온라인 교육, 트레이닝, 인터뷰, 라이브 스트리밍, 팟캐스트, 숏폼 비디오 등에 활용되며 더욱 빠르고 쉬