영어 외 언어로도 높은 품질의 응답 제공해 긍정적인 평가 얻어 투플랫폼이 자사의 다국어 AI 어시스턴트 ‘챗수트라(ChatSUTRA)’가 정식 출시 한 달 만에 누적 이용자 수 100만 명을 돌파했다고 밝혔다. 높은 접근성과 더불어, 다국어 지원에 최적화한 자체 모델을 기반으로 이용자층을 빠르게 확대하고 있다. 챗수트라는 투플랫폼이 독자 개발한 거대언어모델(LLM) ‘수트라(SUTRA)’를 기반으로 한다. 수트라는 2023년 3월 공개된 이후 꾸준히 고도화했으며, 최근에는 새로운 추론 모델 ‘수트라-R0’도 선보였다. 수트라-R0는 힌디어, 타밀어, 벵갈어, 구자라트어 등 인도 주요 언어 벤치마크에서 오픈AI의 ‘o1 미니’보다 높은 정답률을 기록했으며, 한국어와 일본어 평가에서도 글로벌 경쟁 모델을 앞서는 성과를 냈다. 이처럼 언어적 다양성을 반영한 성능이 알려지며 챗수트라는 점차 입소문을 탔고, 수트라-R0를 탑재한 이후 지난달 정식 출시되면서 단기간에 100만 이용자를 확보하는 데 성공했다. 특히 영어 외 언어로도 높은 품질의 응답을 제공하는 점에서 긍정적인 평가를 받고 있다. 영어에 편중된 기존 AI 모델들과 달리, 챗수트라는 다양한 언어에서 비교적
정식 서비스, 베타 시점에서 약 10초 이상 소요되던 검색 응답 시간이 3초대로 단축 오픈리서치가 차세대 검색 플랫폼 'oo.ai(오오에이아이)'를 정식 출시하며 본격적인 서비스에 돌입했다. 지난해 12월부터 3개월간 베타 서비스를 운영한 데 이어, 이번 정식 버전을 통해 AI 검색 시장에서의 입지를 강화하겠다는 계획이다. 오픈리서치는 카카오브레인 전 대표 김일두가 2024년 7월 창업한 AI 기반 검색 스타트업이다. 설립 직후 100억 원 규모의 시드 투자를 유치하며 업계의 주목을 받았다. 김 대표는 카카오브레인에서 초거대 언어모델 'KoGPT', 인물 이미지 생성모델 'Karlo', 흉부 엑스레이 판독문 생성모델 'Kara' 등 다양한 AI 프로젝트를 이끌어 온 인물이다. 이번 창업에는 KoGPT 개발을 총괄했던 백운혁 이사를 비롯해 NeurIPS, ICML, CVPR 등 국제 유수의 AI 학회에 논문을 발표한 연구진이 합류해 기술력을 뒷받침하고 있다. oo.ai는 사용자의 검색어를 바탕으로 수백 개의 웹 문서를 자동으로 분석해 종합적인 형태의 답변을 제공하는 AI 검색 서비스다. 기존의 키워드 기반 검색과 달리, 문맥을 이해하고 다양한 리소스를 비교해
인텔, 18A 공정으로 올해 하반기에 '팬서레이크' 출시 예정 계획 밝혀 인텔이 2025년 하반기 인텔의 새로운 PC용 프로세서인 팬서 레이크의 양산 일정에 맞춰 인텔 ‘18A(옹스트롬)’ 공정 기술이 순조롭게 진행 중이라고 밝혔다. 인텔은 최신 반도체 공정 18A가 단순한 기술적 진화를 넘어, 반도체 제조 역사에 중요한 전환점을 만들어낼 것이라고 자신했다. 또한, 인텔 파운드리가 지속해온 혁신의 결정체로, 고성능과 저전력, 고밀도 설계를 동시에 구현할 수 있는 기술적 기반을 제시한다. 인텔 18A의 핵심은 두 가지 기술, 즉 '리본펫(RibbonFET)'과 '파워비아(PowerVia)'다. 먼저 리본펫은 ‘게이트 올 어라운드(GAA)’ 구조를 기반으로 한 트랜지스터로, 채널을 리본처럼 수직으로 쌓는 방식이다. 이 구조는 공간 효율성을 극대화하고 전력 소비를 최소화하면서도 성능은 향상시키는 것이 특징이다. 인텔은 이를 자사 10년 내 최대 트랜지스터 구조 혁신으로 평가하고 있다. 파워비아는 반도체 업계 최초로 상용화된 ‘후면 전력 공급 기술’이다. 이는 기존 전면 배선 방식과 달리, 칩의 후면에서 전원을 공급하는 구조로 설계돼 데이터 흐름에 필요한 전면 공간
젠슨황 CEO "에이전틱 AI는 향후 모든 산업의 운영 방식을 다시 설계하게 될 것" AI가 단순한 모델을 넘어 ‘능동적 추론과 행동’ 중심의 에이전틱 AI(Agentic AI) 시대로 접어들고 있다. 엔비디아는 GTC 2025에서 차세대 추론 모델과 플랫폼, 그리고 업계를 선도하는 파트너십을 대거 공개하며, 에이전틱 AI의 본격적인 산업 적용 시대를 선언했다. 에이전틱 AI는 고도로 진화된 추론 능력과 지속적인 학습, 자율적 의사결정을 바탕으로 복잡한 비즈니스 과제를 해결하는 AI다. 이번 행사에서 엔비디아는 이를 구현할 핵심 모델인 ‘라마 네모트론(Llama NeMoTron)’ 제품군을 발표했다. 온디맨드 추론을 제공하는 이 모델은 다단계 수학, 코딩, 의사결정 등 복합 지능을 탑재했고, 기존 대비 최대 20% 향상된 정확도와 5배 빠른 속도를 제공한다. 나노·슈퍼·울트라 크기로 세분화된 NIM 마이크로 서비스를 통해 엣지부터 데이터 센터까지 다양한 환경에 유연하게 배포 가능하다. 라마 네모트론은 단순한 추론 모델이 아닌, 에이전틱 AI의 기반이 되는 ‘행동 가능한 지능’ 플랫폼으로 진화하고 있다. 마이크로소프트, SAP, 서비스나우, 딜로이트, 액센츄어
젠슨 황 CEO "물리 AI 통해 산업 전반의 새로운 시대가 열릴 것" 엔비디아가 자율주행차, 헬스케어, 기상예측, 제조업 등 주요 산업 전반에 걸쳐 물리 AI(Physical AI) 기반 혁신을 본격화하고 있다. 최근 미국 새너제이에서 개최된 GTC에서 엔비디아는 데이터세트, 시뮬레이션 플랫폼, 블루프린트, 파운데이션 모델, 산업 협업 등을 통해 물리 세계와 디지털 세계를 연결하는 전략을 선보였다. 특히 디지털 트윈 기반의 시뮬레이션, 대규모 합성 데이터 활용, AI 모델 사전 학습과 검증 가속화 등을 통해 기존 산업의 디지털 전환 속도를 비약적으로 끌어올리고 있다. 핵심 기술 중 하나는 ‘엔비디아 아이작 GR00T N1’이다. 이는 일반화된 추론과 작업 수행이 가능한 세계 최초의 맞춤형 휴머노이드 로봇용 파운데이션 모델이다. 인간의 직관과 논리를 반영한 이중 사고 구조를 바탕으로 반복적이고 복잡한 작업을 자율 수행할 수 있다. 이를 훈련하기 위해 개발된 블루프린트와 뉴턴(Newton) 물리 엔진은 최소한의 시연만으로도 수십만 건의 조작 데이터를 합성 생성하는 데 활용된다. 실제로 GR00T N1은 11시간 만에 약 78만 개의 경로 데이터를 생산했으며,
반도체 산업에서 초미세 공정 기술이 기업의 경쟁력을 좌우하는 핵심 요소로 떠오르고 있다. 인공지능(AI)과 고성능 컴퓨팅(HPC) 시장이 급성장하면서, 반도체 제조업체들은 더 작고 효율적인 공정을 확보하기 위한 기술 경쟁을 가속화하고 있다. 반도체 경쟁력을 보유한 국가들은 자국의 반도체 기업과 함께 초미세 공정 확보를 위한 인프라 구축, 기술 개발, 인재 양성 등의 과제를 실천하고 있다. 전략 핵심으로 부상한 초미세 공정 현재 글로벌 반도체 시장은 2나노(nm) 이하 공정을 둘러싼 경쟁이 치열하게 전개되고 있다. TSMC와 삼성전자는 2나노 공정의 양산을 2025~2026년 목표로 추진하며, 일본 라피더스도 2027년 2나노 반도체 양산을 선언하며 시장 진입을 예고했다. 미세 공정 기술이 중요한 이유는 단순한 칩 크기 축소를 넘어 성능 향상과 전력 효율 극대화를 가능하게 하기 때문이다. 트랜지스터 간격이 좁아질수록 연산 속도가 빨라지고 전력 소모가 줄어들어 AI, 데이터 센터, 스마트폰, 자율주행차 등 차세대 산업에서 필수적인 요소로 자리 잡고 있다. 그러나 미세 공정으로 갈수록 기술적 난이도가 급격히 증가한다. 수율 확보가 어려워지고, 공정 개발에 투입되는
자사 기술 적용해 실질적인 성과 거둔 다양한 산업 사례 소개 베슬AI가 세계 최대 AI 행사에서 글로벌 기업들과 어깨를 나란히 했다. 베슬AI는 미국 캘리포니아주 새너제이에서 개최된 'GTC(GPU Technology Conference) 2025'에 참가해 엔비디아와의 기술 협력 성과를 선보이고 글로벌 네트워크를 확장했다고 21일 밝혔다. 엔비디아가 주최한 이번 행사에는 아마존, 구글, 마이크로소프트 등 300여 개 글로벌 기업이 참여해 AI 관련 최신 기술과 제품을 선보였으며, 10만 명 이상의 참가자가 모였다. 베슬AI는 이번 GTC에서 엔비디아 NIM(NVIDIA Microservice Infrastructure)과 네모(NeMo) 기술을 자사 플랫폼에 통합한 사례를 중점적으로 공유했다. 이번 기술 통합으로 AI 개발자는 Llama 3.1을 포함한 다양한 LLM(대규모언어모델)을 간편하게 배포하고, 네모 큐레이터의 데이터 관리 기능을 효율적으로 활용하게 됐다. 특히 베슬AI는 MLOps, LLMOps 기술을 토대로 기업이 AI 모델 학습과 운영 과정에서 직면하는 인프라 관리와 리소스 최적화 문제를 효과적으로 해결할 수 있는 솔루션을 제공한다는 점에서
자사 PC 및 IoT 제품 로드맵과 개발자 우선 전략 소개해 퀄컴 테크날러지스(이하 퀄컴)가 글로벌 개발자 생태계 확장에 본격적으로 나섰다. 퀄컴은 지난 20일 '퀄컴 개발자 커뮤니티(Qualcomm Developer Community)' 킥오프 행사를 개최하고 향후 개발자 지원 로드맵을 공개했다. 이번 행사는 퀄컴의 '개발자 우선(Developer-First)' 전략의 일환으로 진행됐으며, 유통사, 설계 센터, 산업용 PC 업체, 운영체제 플랫폼, AI 툴체인 및 소프트웨어 기업 등 20여 개 퀄컴 협력사들이 참석했다. 퀄컴은 자사의 PC 및 IoT 제품 로드맵과 개발자 우선 전략을 소개하고, 오는 5월 예정된 '퀄컴 파트너스 테크 데이' 등 올해 진행될 개발자 지원 프로그램을 공유했다. 퀄컴의 이번 행보는 모바일, 산업용 IoT, 컴퓨팅, 오토모티브, 생성형 인공지능(AI) 등 다양한 분야에서 개발자들이 퀄컴 제품을 보다 쉽게 활용할 수 있도록 지원하고, 이를 통해 개발자 커뮤니티의 확장과 시장 영향력 확대를 도모하는 데 목적이 있다. 퀄컴은 개발자 생태계 확장을 위해 다양한 지원 프로그램을 마련했다. 우선 퀄컴 홈페이지 내 '개발자 홈(Developer
스마트폰 앱으로 퍼걸러의 다양한 구성요소 손쉽게 제어해 스마트홈 기술이 실내를 넘어 야외 공간까지 확장되고 있다. 고급 퍼걸러 제조업체 스트럭처가 노르딕 세미컨덕터(이하 노르딕)의 첨단 기술을 적용해 미국 최초로 스레드 기반 매터(Matter over Thread) 연결 기능을 갖춘 스마트 퍼걸러와 카바나 제품군을 출시했다. '스트럭처+(StruXure+)'로 명명된 이 신제품 라인은 사용자가 단일 스마트폰 앱을 통해 퍼걸러의 조명, 전동 루버, 팬, 히터 등 다양한 구성요소를 손쉽게 제어하고 맞춤 설정하도록 설계됐다. 스트럭처는 기술 엔지니어링 기업 도너웍스와의 협업으로 이번 혁신을 이뤄냈다. 두 기업은 스레드 기반 매터 엔드 노드와 맞춤형 보더 라우터를 개발해 스마트홈 기기 간 원활한 통신을 가능하게 했다. 핵심 하드웨어로는 노르딕의 nRF5340 SoC가 채택됐다. 이 시스템온칩(SoC)은 듀얼 Arm Cortex-M33 프로세서를 탑재했으며, 고성능 애플리케이션 프로세서와 초저전력 네트워크 프로세서를 모두 갖추고 있다. 애플리케이션 프로세서는 DSP와 부동소수점 처리 기능, 1MB의 플래시 및 512KB의 RAM을 제공하며, 네트워크 프로세서는 256
이번 협력으로 에너지 효율적인 네트워크 구축 가능해질 것으로 보여 키사이트테크놀로지스(이하 키사이트)가 삼성전자, 엔비디아와 협력해 5G-Advanced 및 6G 기술을 위한 AI 모델을 개발하며, 이를 vRAN(가상화 RAN) 소프트웨어 솔루션에 통합했다. 해당 솔루션은 2025년 모바일 월드 콩그레스(MWC)에서 공개됐으며, AI-RAN 얼라이언스의 워크 아이템으로 진행되고 있다. 기존 무선 액세스 네트워크(RAN)는 데이터 처리량의 한계, 높은 지연 시간, 자원 활용의 비효율성 등의 문제를 안고 있다. 특히 5G 네트워크에서는 셀 경계 지역에서 사용자 단말(UE)의 송신 전력이 제한되면서 기지국에서 수신하는 신호 대 잡음비(SNR)가 낮아지는 것이 주요한 난제로 꼽힌다. 기존의 채널 추정 알고리즘은 낮은 SNR 환경에서 성능 저하를 피하기 어려웠다. 이에 AI 기반 모델링이 새로운 대안으로 떠오르고 있다. AI 기술을 활용하면 채널 추정의 정밀도를 높이고, 네트워크 자원을 최적화하며 전력 소비를 줄일 수 있다. 이로 인해 시스템의 전체적인 용량이 증가하고 네트워크 효율성이 개선되며, 궁극적으로 사용자 경험도 향상된다. 삼성전자는 AI 기반 채널 추정 모
멀티 클라우드 환경에서의 자원 최적화 등 안정된 운영과 관련된 기술 주목받아 에이프리카가 클라우드 및 AI 기술 분야에서 총 6건의 특허 등록을 완료하며 기술 경쟁력을 공고히 했다. 에이프리카는 20일 자사의 클라우드 네이티브 플랫폼 '세렝게티'와 AI 개발 플랫폼 '치타' 관련 핵심 기술에 대한 특허 등록을 마쳤다고 밝혔다. 이번에 등록된 특허는 멀티 클라우드 환경에서의 자원 최적화 기술, 이종 개발 언어 실행 지원 구조, 프로토콜 버퍼 실행 자동화 개발 환경, 이종 클라우드 환경 동적 제어 기술 등이다. 특히 클라우드 서비스의 실행을 트랜잭션 단위로 관리하는 기술은 안정적인 서비스 운영과 리소스 최적화를 가능케 하는 차별화한 기술로 평가받고 있다. 에이프리카는 2020년 AI 개발 플랫폼 '치타' 관련 특허를 시작으로, 클라우드 네이티브 플랫폼 '세렝게티'의 핵심 기술에 대한 특허를 지속적으로 확보해 왔다. 현재 이기종 클라우드 자원과 소프트웨어 실행 모듈 통합 관리 기술, 클라우드 서비스 라이프사이클 관리 기술 등 2건의 특허가 추가로 심사 중이다. 업계에서는 AI와 클라우드 전환이 가속화되면서 안정적이고 효율적인 서비스 운영을 위한 자동화 기술 확보가
에너지 효율 제공과 탄소 배출 절감, ESG 목표 달성에 주력해 한국이콜랩이 국내 데이터 센터 기업을 위한 전문 사업부를 신설한다고 밝혔다. 데이터 센터의 운영 효율을 극대화하고 지속가능한 ESG 경영을 지원하기 위해 액체 냉각 솔루션(Direct Liquid Cooling, DLC)에 첨단 디지털 기술을 결합한 솔루션을 선보일 계획이다. 이번 데이터 센터 사업부 출범을 통해 한국이콜랩은 글로벌 이콜랩이 보유한 디지털 기술을 국내 시장에 적용한다. 글로벌 이콜랩은 지난 5년간 약 1조 원을 투자해 고객 맞춤형 솔루션을 위한 디지털 기술을 고도화해 왔으며, 이를 통해 데이터 기반의 정밀한 모니터링과 운영 최적화를 지원할 수 있다. 데이터 센터 운영에서 가장 중요한 요소 중 하나는 고성능 서버의 발열 문제 해결이다. 특히 AI 및 고성능 컴퓨팅(HPC) 서버가 확대되면서 냉각 솔루션의 필요성이 커지고 있다. 이에 한국이콜랩은 액체 냉각 방식을 활용해 기존 공랭식보다 뛰어난 냉각 성능과 에너지 효율을 제공하고, 데이터 센터의 탄소 배출 절감과 ESG 목표 달성에 기여할 계획이다. 한국이콜랩의 3D TRASAR 시스템은 디지털 기술과 연계해 냉각수의 수질을 실시간으
검색과 추론 동시에 수행하는 RAG 특화 AI 시스템 개발할 계획 디노티시아와 하이퍼엑셀이 공동으로 ‘검색증강생성(RAG) 최적화 AI 추론 시스템’ 개발에 나선다. 이번 협력은 디노티시아의 벡터 데이터 연산 가속기 칩(VDPU)과 하이퍼엑셀의 거대언어모델(LLM) 가속기 칩인 ‘LLM 프로세싱 유닛(LPU)’을 결합해 하나의 통합 시스템을 구축하는 방식으로 진행된다. AI 서비스 분야에서 데이터 검색의 중요성이 커지면서 빠르고 효율적인 데이터 활용 방식이 요구된다. 기존 시스템은 소프트웨어 기반으로 데이터를 검색한 후 LLM을 활용한 생성형 AI 프로세스를 별도로 처리하는 구조로 인해 응답 속도가 느리고 전력 소모가 많았다. 이에 디노티시아는 VDPU 칩으로 AI가 대규모 멀티모달 데이터를 실시간 검색하고 활용하도록 지원하며, 하이퍼엑셀은 LPU 칩으로 AI 모델의 연산 성능을 극대화하는 역할을 한다. 양사는 이 두 칩을 결합해 검색과 추론을 동시에 수행하는 RAG 특화 AI 시스템을 개발할 계획이다. 이를 통해 AI가 보다 정밀한 데이터를 빠르게 찾아내고, 생성형 AI 모델의 연산 속도를 향상시키는 등 AI 서비스의 성능과 효율성을 개선할 것으로 기대된다
최신 대형 언어 모델(LLM) 기반으로 신뢰도 높은 법률 데이터 분석 톰슨로이터 코리아가 자사의 생성형 AI 법률 비서 ‘코카운슬(CoCounsel)’이 글로벌 AI 성능 평가 기관인 Vals AI가 발표한 ‘법률 AI 벤치마킹 보고서’에서 최고 점수를 기록했다고 밝혔다. 이번 보고서는 법률 AI 도구들의 성능을 객관적으로 비교 분석한 최초의 연구로, 코카운슬은 문서 요약과 문서 질의응답(Q&A) 부문에서 가장 높은 점수를 획득하며 법률 AI 시장에서의 경쟁력을 입증했다. Vals AI는 이번 연구에서 코카운슬을 비롯한 주요 글로벌 법률 AI 도구를 평가했다. 평가 항목은 문서 질의응답, 문서 요약, 데이터 추출, 계약서 검토, 일람표 생성 등 총 7가지로 구성됐다. 코카운슬은 주요 항목에서 73.2%에서 89.6%의 점수를 기록하며 전반적으로 높은 성능을 보였다. 특히 문서 질의응답(89.6%)과 문서 요약(77.2%) 부문에서 최고 점수를 받았으며, 경쟁사의 평균 점수를 10% 이상 초과해 실무 활용도가 높다는 평가를 받았다. 코카운슬은 OpenAI, 구글 클라우드, 톰슨로이터의 AI 기술이 결합된 솔루션으로, 최신 대형 언어 모델(LLM)을 기반
제주가 추진하는 핵심 정책 의제와 연계해 지역-기업이 협력하는 기회 마련 코딧(CODIT)이 부설 연구기관인 ‘글로벌정책실증연구원’을 통해 제주특별자치도 오영훈 지사를 초청해 기업 간담회를 개최했다. 이번 간담회에는 넷플릭스코리아, 틱톡코리아, 에어비앤비코리아, 익스피디아, 한국로슈진단, 한국GSK, 비자인터내셔널 아시아퍼시픽코리아, HP코리아, 당근, 앤트 인터내셔널, RWE, 롸잇 등 국내외 주요 기업 관계자 25명이 참석해 제주와 기업 간 협력 가능성을 모색했다. 코딧은 제주가 추진하는 에너지 전환, AI·디지털 생태계 조성 등 핵심 정책 의제와 연계해 지역과 기업이 협력할 수 있는 기회를 확대하고자 이번 간담회를 마련했다. 행사는 오영훈 지사의 기조 발표와 홍익표 코딧 선임고문과의 대담 형식으로 진행됐으며, 참석 기업들이 제주도의 산업적 강점과 협업 방향을 구체화하는 데 집중했다. 오영훈 지사는 기조 발표에서 '기업하기 좋은 제주, 글로벌 비즈니스 허브로 도약하는 제주'를 주제로 제주가 글로벌 비즈니스 거점으로 성장할 수 있는 가능성을 제시했다. 또한 AI·디지털 전환, 상장기업 육성 지원사업 등 제주가 추진 중인 핵심 정책을 설명하며, 기업들과 공동