노타는 글로벌 AI 산업의 핵심 지표로 평가되는 ‘2025 MAD(Machine Learning, AI & Data) Landscape’에서 엣지 AI 부문에 2년 연속 선정되었다고 13일 밝혔다. 이는 올해 4월 CB 인사이트가 발표한 ‘2025 글로벌 혁신 AI 스타트업 100’에 이어 거둔 성과로, 노타는 올해 글로벌 AI 생태계를 대표하는 두 주요 벤치마크에 이름을 올린 기업으로 자리매김했다. MAD Landscape는 글로벌 VC·테크 업계가 AI·데이터 산업의 구조적 변화를 파악하는 데 활용하는 대표 자료로, 올해 발표에서는 AI가 클라우드 중심에서 디바이스·하드웨어 중심으로 재편되는 흐름이 더욱 뚜렷해졌다는 점이 주목된다. 특히 엣지 AI는 이러한 변화의 중심에 있으며, 고성능 모델의 디바이스 탑재 수요 증가에 따라 글로벌 AI 경쟁력의 핵심 지표로 부상한 분야다. 전 세계 1150여 개 기업이 포함된 이번 MAD Landscape에서 한국 기업은 삼성을 포함해 단 세 곳이며, 노타는 엔비디아·퀄컴·애플·인텔·AMD 등 칩셋·디바이스 생태계를 구축한 글로벌 테크 리더들과 함께 엣지 AI 부문에 선정됐다. 이는 노타가 온디바이스 AI 분야에
국내 대학이 직접 만든 인공지능 플랫폼이 등장했다. UNIST는 자체 개발한 생성형 AI 서비스 ‘유니아이(UNIAI)’를 공식 오픈했다고 11일 밝혔다. 외부 서비스를 도입하는 수준이 아니라, 대학이 스스로 AI 인프라를 구축하고 오픈소스 대형언어모델(LLM)을 활용해 자체 플랫폼을 완성한 첫 사례다. ‘유니아이’는 말 그대로 ‘UNIST만의 ChatGPT’다. 교수, 직원, 학생 누구나 이용할 수 있으며, 캠퍼스 내부에 고성능 GPU 서버를 직접 구축해 운영한다. 자동 자원 관리 시스템인 쿠버네티스(Kubernetes)와 고속 AI 처리 엔진(vLLM)을 통해 빠른 응답 속도와 효율을 확보했다. 특히 생성된 데이터가 외부로 빠져나가지 않아 보안이 철저하다. 연구자료나 학사정보 등 민감한 데이터도 안전하게 처리된다. 플랫폼 구조는 ‘자체 구축형 온프레미스에 클라우드 모델을 더한 하이브리드’ 방식이다. UNIST는 자체 모델과 함께 마이크로소프트 클라우드 모델도 연동해 GPT-5, Grok4, Mistral 등 최신 글로벌 모델을 동일한 환경에서 쓸 수 있도록 했다. 보안이 중요한 연구나 행정 업무는 내부형 모델로, 교육이나 수업 실습에는 클라우드 모델로 나
AI 반도체 스타트업 하이퍼엑셀(HyperAccel)이 신용보증기금이 선정한 ‘제14기 혁신아이콘’에 이름을 올렸다고 10일 밝혔다. 신용보증기금의 혁신아이콘 프로그램은 글로벌 혁신기업으로 성장 가능성이 높은 혁신 스타트업의 스케일업을 돕는 프로그램으로, 성장 유망한 혁신 기업을 발굴해 지원한다. 이번 제14기에는 143개 기업이 지원해 약 29:1의 높은 경쟁률을 기록했으며, 하이퍼엑셀은 반도체 분야 대표 기업으로 선정됐다. 하이퍼엑셀은 3년간 최대 200억 원 신용보증, 최저보증료율 적용, 협약은행 추가 보증료 지원과 함께 해외 진출, 컨설팅, 홍보 등 다양한 혜택을 받게 된다. 하이퍼엑셀은 대규모 언어모델(LLM) 추론에 최적화된 고성능·저전력 AI 반도체(LPU) 기술력을 기반으로, 생성형 AI 서비스에 필요한 실시간 응답성과 비용 효율성을 동시에 실현한 점을 높이 평가받았다. 또한 데이터센터, 온프레미스 서버, 엣지 디바이스 등 다양한 환경에서 적용 가능한 확장성과 범용성을 입증하며, AI 반도체 분야의 차세대 혁신 기업으로서 성장 잠재력을 인정받았다. 특히 하이퍼엑셀은 LPU 기술을 기반으로 글로벌 생성형 AI 시장을 겨냥한 제품 포트폴리오를 확대
S2W가 대규모언어모델(LLM) 토큰화 구조의 근본적 취약점을 규명한 연구 성과로 세계 최고 권위 자연어처리 학회인 ‘자연어처리방법론학회(EMNLP) 2025’에 논문을 등재했다. 이번 논문은 S2W와 한국과학기술원(KAIST) 공동 연구팀이 진행했으며 비영어권 언어에서의 토크나이저 구조적 한계를 분석해 AI 환각(Hallucination) 현상의 원인을 규명했다. EMNLP는 ‘전산언어학학회(ACL)’와 ‘북미전산언어학학회(NAACL)’와 함께 자연어처리(NLP) 분야의 세계 3대 학술대회로 꼽힌다. S2W는 이번 성과를 통해 4년 연속 세계 최고 권위 AI 학회에 논문을 등재하게 됐다. 앞서 2022년 다크웹 언어 연구, 2023년 다크웹 도메인 특화 언어모델 ‘다크버트(DarkBERT)’, 2024년 사이버보안 문서 특화 언어모델 ‘사이버튠(CyBERTuned)’ 관련 연구를 통해 NAACL과 ACL에서 논문을 발표한 바 있다. 이번에 채택된 논문 ‘Improbable Bigrams Expose Vulnerabilities of Incomplete Tokens in Byte-Level Tokenizers(바이트 레벨 토크나이저 내 불완전 토큰의 취약점을
LLM에서 LLL로: 도구를 넘어 동료가 된 AI 챗GPT가 등장한 지 불과 2년여. 우리는 이미 LLM(Large Language Model)을 넘어 LLL(Large Long-context Language model) 시대를 맞이했다. 수백만 토큰을 처리하는 AI는 이제 단순히 질문에 답하는 수준을 넘어섰다. 프로젝트 전체 맥락을 이해하고, 복잡한 업무를 분석하며, 능동적으로 작업을 수행하는 ‘AI 에이전트’로 진화하고 있다. 문제는 기술이 아니라 우리 자신이다. 많은 기업과 개인이 여전히 AI를 “더 똑똑한 검색엔진” 정도로 인식하며, “어떻게 프롬프트를 잘 쓸까”에만 집중한다. 하지만 AI 에이전트가 업무의 핵심으로 자리 잡는 지금, 정작 필요한 것은 테크놀로지 트랜스포메이션이 아닌 ‘휴먼 트랜스포메이션’이다. 실행자에서 판단자로: 역할의 재정의 과거 업무의 가치는 ‘얼마나 많이, 빠르게 처리하는가’에 있었다. 보고서 작성, 데이터 분석, 코드 구현 같은 실행 능력이 곧 경쟁력이었다. 그러나 AI 에이전트가 이러한 실행 업무를 초 단위로 처리하는 시대에, 사람의 가치는 어디에 있을까? 답은 명확하다. ‘무엇을 할 것인가’를 결정하는 판단력, ‘왜 하는
로보월드 2025서 인간과 교감하는 로봇 서비스 경험 선봬 ChatGPT API 결합한 자연어 대화로 현장 서비스 실증 서비스로봇 전문기업 클로봇이 11월 5일부터 8일까지 킨텍스에서 열린 ‘2025 로보월드(ROBOTWORLD 2025)’에서 ‘AI 휴머노이드 로봇의 사회적 지능(Social Intelligence)’을 주제로 한 실증 시연을 선보였다. 이번 전시는 단순한 기술 데모를 넘어, 로봇이 인간의 감정과 사회적 맥락을 이해하고 소통하는 새로운 서비스 패러다임을 제시했다. 클로봇은 이번 시연을 통해 로봇이 단순한 작업 수행 도구에서 벗어나, 사람과 감정적으로 교감하고 관계를 형성하는 ‘사회적 존재(Social Being)’로의 진화 방향을 제시했다. 전시의 핵심 콘셉트인 “Touch me, Talk to me, Work with me”는 로봇이 인간과의 상호작용 속에서 감정을 읽고 대화하며, 실제 업무를 함께 수행하는 새로운 경험을 담았다. 이번 시연에는 글로벌 휴머노이드 로봇 기업 유니트리(Unitree)의 휴머노이드 G1이 활용됐다. 클로봇은 이 로봇에 AI·자율주행·비전 인식 기술을 통합해 인간의 표정과 감정을 인식하고 반응하도록 설계했다. 특
AI 의료 커뮤니케이션 플랫폼 기업 와이즈에이아이(대표 송형석)가 환자에게 직접 전화를 걸어 진료 안내부터 상담, 예약까지 수행하는 인공지능 통화 서비스 ‘AI콜(AI Call)’을 출시했다. ‘AI콜’은 대규모 언어모델(LLM) 기반의 자연어 대화 기술을 활용해 환자의 문의에 실시간으로 응답하고, 진료 예약까지 자동으로 완료하는 차세대 의료 아웃바운드 솔루션이다. 기존 ‘덴트온(DentON)’과 ‘에이유(AU)’ 고객 대상으로 우선 적용되며, 추가 비용 없이 순차 제공된다. 기존 병원용 AI 전화 시스템은 복잡한 ARS(자동응답) 구조로 인해 환자의 질문을 인식하지 못하고 단순 안내에 그쳐 예약 전환율이 낮았다. 반면 ‘AI콜’은 환자의 발화 의도를 정확히 파악해 진료 시간, 위치, 비용, 예약 가능 일정 등을 사람처럼 자연스럽게 안내하고, 대화형 예약과 키패드 입력 방식을 모두 지원한다. 특히 환자별 시술 단계나 병원 운영 정책에 맞춰 개인화된 멘트를 제공함으로써 예약 중도 이탈률을 낮추고 예약 완료율을 크게 향상시켰다. AI가 직접 예약 과정을 주도하기 때문에 복잡한 절차 없이 음성만으로 예약이 가능하며, 대화 후 모든 통화 내용이 자동 요약돼 병원 관
엔비디아가 대한민국 정부와 주요 산업 기업들과 함께 전국 규모의 AI 인프라와 생태계 구축에 나섰다. 이번 협력은 클라우드와 AI 팩토리를 중심으로 약 26만 개 이상의 GPU를 도입해 한국의 혁신과 산업 발전, 일자리 창출을 견인하는 것을 목표로 한다. 과학기술정보통신부는 최신 엔비디아 GPU 5만 개 이상을 활용한 국가 AI 인프라 투자를 추진하고 있으며 NHN클라우드·카카오·네이버 클라우드 등 주요 클라우드 기업이 국가 AI컴퓨팅센터를 포함한 주요 인프라에 이를 배포할 예정이다. 이는 기업과 연구기관이 독자적인 AI 모델과 애플리케이션을 개발할 수 있도록 지원하기 위한 기반으로 한국의 주권 AI 생태계를 강화하는 방향으로 이어진다. 산업계에서도 AI 팩토리 구축이 활발히 추진된다. 삼성전자는 5만 개 이상의 GPU를 탑재한 AI 팩토리를 구축해 반도체 제조 공정과 디지털 트윈 구현에 엔비디아 기술을 활용하고 있다. 특히 쿠다-X, cu리소, 옴니버스 등 엔비디아 플랫폼을 통해 공정 속도와 수율을 높이는 동시에, 아이작 심·아이작 랩을 활용해 로봇 개발 포트폴리오를 강화한다. SK그룹 역시 5만 개 이상 GPU를 기반으로 산업용 클라우드 인프라를 설계해
노타가 오는 11월 5일부터 7일까지 일산 킨텍스(KINTEX)에서 개최되는 ‘디지털퓨처쇼 2025’에 참가해 AI 보편화를 가속할 AI 모델 최적화 기술을 선보인다. 노타는 이번 전시에서 자사의 AI 모델 최적화 플랫폼 ‘넷츠프레소(Netspresso)’를 기반으로, 다양한 엣지 디바이스에서 대규모 AI 모델을 효율적으로 실행할 수 있는 체험형 부스를 운영한다고 30일 밝혔다. 이번에 공개되는 LLM(대규모 언어모델) 최적화 서비스는 저전력 환경에서도 LLM과 VLM(비전언어모델)을 경량화해, 성능 저하 없이 빠른 추론 속도를 구현하는 기술이다. 이를 통해 GPU 서버 없이도 엣지 환경에서 대규모 AI 모델을 실행할 수 있어, 고성능 AI 기능을 자사 제품에 적용하고자 하나 서버 비용이나 전력 제약에 부담을 느끼는 기업에게 적합한 솔루션으로 평가된다. 노타는 이번 기술을 통해 산업 현장, 공공시설, 개인 모바일 기기 등 인터넷 접속이 제한된 환경에서도 AI 활용 범위를 크게 확장할 수 있을 것으로 기대하고 있다. 특히 부스에서는 엣지 디바이스에 문서를 업로드하고 질문을 입력하면, 넷츠프레소로 최적화된 LLM 모델이 문서를 분석해 실시간으로 답변하는 체험 프
국가전략기술 인재 확보 위한 ‘세계 인력지도’ 첫 구축 과학기술정보통신부는 30일 서울에서 제22회 미래인재특별위원회를 열고, 국가전략기술 인재 확보를 위한 ‘세계(글로벌) 인력지도’를 최초로 구축했다고 밝혔다. 이번 회의에서는 ‘국가전략기술 세계 인력지도 분석(양자 분야)’과 ‘국가전략기술 인재 산업 수요 분석(인공지능 분야)’ 안건이 심의·의결됐다. 이번 인력지도는 양자 기술 분야 논문을 기반으로 각국의 핵심 연구자 분포와 연구 협력 네트워크를 데이터화해, 한눈에 확인할 수 있도록 한 것으로 국가전략기술 인재 확보 정책의 기초 자료로 활용된다. 분석 결과, 양자 분야에서는 중국과 미국이 중점 기술 전반에서 가장 많은 연구자를 보유하고 있었으며, 한국은 양자컴퓨팅 10위, 양자통신 및 센싱 분야 12위권에 위치했다. 특히 미국과 중국은 전체 연구자의 과반을 차지했으며, 상위 1% 핵심 연구자의 경우 미국은 산업계(Google, IBM 등), 유럽은 학계 중심, 한국은 학계에 집중된 것으로 나타났다. 연구자 이동 분석에서는 최근 10년간 미국과 중국이 양자 분야 전반에서 순유입국으로 나타났으며, 한국도 양자컴퓨팅 21명, 양자통신 10명, 양자센싱 16명의
줌 커뮤니케이션스가 엔비디아(NVIDIA)와 협력해 맞춤형 엔터프라이즈 AI 시대를 연다. 양사는 생성형 AI 성능 강화와 기업 맞춤형 AI 기능 확장을 목표로 협력을 강화하고, 줌의 ‘AI 컴패니언(AI Companion)’ 서비스 전반을 고도화한다. 줌은 연합형 AI 아키텍처(Federated AI Architecture)에 엔비디아의 오픈 모델 기술인 ‘네모트론(Nemotron)’을 도입하며 ‘AI 컴패니언 3.0’의 활용 범위를 금융, 의료, 공공 등 다양한 산업 분야로 확대했다. 이 구조는 빠른 응답이 필요한 작업에는 자체 소규모 언어모델(SLM)을, 복잡한 문제 해결에는 대규모 언어모델(LLM)을 선택적으로 적용하는 하이브리드 방식으로, 업무 특성에 따른 최적의 성능을 제공한다. 줌의 AI 프레임워크는 각 업무에 적합한 모델을 지능적으로 선택해 실행하는 구조로 설계됐다. 이를 통해 엔비디아의 고성능 GPU 인프라와 소프트웨어, 서비스 등을 효율적으로 활용하면서도 고객의 비용 부담을 줄였다. 이번 협업에는 엔비디아 오픈 모델 ‘네모트론’을 기반으로, 생성형 AI 개발 도구 ‘네모(NeMo)’를 활용해 설계된 줌의 490억 파라미터 규모 대형 언어모델
라온피플은 자사 생성형 AI 기반 지능형 CCTV 솔루션 ‘오딘AI(OdinAI)’가 한국인터넷진흥원(KISA)이 주관하는 지능형 CCTV 성능 평가·인증에서 총 7개 분야 인증을 획득했다고 28일 밝혔다. 이번에 인증을 받은 분야는 방화, 싸움, 유기, 쓰러짐 등 4개 신규 분야와 기존의 침입, 배회, 마케팅 등 3개 항목을 포함해 총 7개 분야다. 오딘AI는 생성형 인공지능 기술을 활용해 CCTV 영상을 실시간으로 감지하고 분석하며, 다양한 상황 인식 성능을 검증받아 국가 인증을 획득했다. 기존 CCTV 시스템이 단순히 ‘안전모 미착용’ 등 개별 행동만 식별했다면, 오딘AI는 비전언어모델(VLM)과 대규모언어모델(LLM)을 결합해 ‘안전모를 쓰지 않은 작업자가 위험 구역에 진입했다’와 같은 복합 상황을 분석하고 알람을 제공할 수 있는 것이 특징이다. 라온피플 관계자는 “오딘AI 하나로 화재, 낙상, 싸움 등 긴급 상황부터 제한구역 침입, 유기, 쓰러짐까지 복합 감지 및 상황 분석이 가능하다”며 “KISA 인증 획득으로 오딘AI의 기술 신뢰도가 높아졌으며, 이를 기반으로 글로벌 시장에서도 경쟁력을 강화할 것”이라고 말했다. 또한 “오딘AI를 통해 공공안전
로이드케이는 미국 매사추세츠공과대(MIT)와 공동연구에 착수했다고 23일 밝혔다. 이번 연구는 AI 모델의 비용과 시간을 절감하면서도 높은 성능을 유지할 수 있는 효율화 기술을 확보해, 산업 현장의 경쟁력과 글로벌 시장 진출을 동시에 가속화하는 데 목적을 두고 있다. 로이드케이의 이번 연구 과제는 중소벤처기업부가 추진하는 ‘2025년 글로벌협력형 R&D 지원사업(예비연구형)’의 전국 3대 과제 중 하나로, 지난 8월 25일 최종 선정됐다. 이 사업은 국내 기업이 해외 선도 연구기관과 협력해 글로벌 기술 경쟁력을 확보할 수 있도록 지원하는 정부 프로그램이다. MIT의 연구 역량과 로이드케이의 산업 적용 경험이 공신력과 파급력을 인정받은 결과다. 공동연구를 통해 양 기관은 ▲4비트 양자화(Quantization) ▲LQ-LoRA 기반 경량 미세조정(Fine-Tuning) 기술 등을 개발해 차세대 대규모 언어모델(LLM)의 고성능·저자원 배포가 가능한 기술 플랫폼을 구축할 계획이다. 특히 ‘고효율 LLM 추론 스택(High-Efficiency LLM Inference Stack)’을 구현함으로써 AI 모델 구동에 필요한 비용과 자원을 획기적으로 절감하고,
리걸AI 솔루션 ‘앨리비(allibee)’ 운영사 비에이치에스엔(BHSN, 대표 임정근)이 중소벤처기업부의 기술 성장 지원 프로그램인 ‘스케일업 팁스(Scale-up TIPS)’에 선정됐다. 이번 선정으로 BHSN은 향후 3년간 최대 12억 원의 연구개발(R&D) 자금을 지원받으며, 법률 인공지능(리걸AI) 기술 고도화와 글로벌 시장 확장에 박차를 가할 예정이다. 스케일업 팁스는 민간 투자와 정부 R&D 자금을 연계해 기술 경쟁력과 성장 잠재력을 갖춘 유망 스타트업을 집중 지원하는 프로그램이다. BHSN은 자체 개발한 법률 특화 LLM(대규모 언어모델) ‘앨리비 아스트로(allibee astro)’의 기술 완성도와 아시아 시장을 겨냥한 글로벌 비즈니스 역량을 인정받아 이번 프로그램에 선정됐다. BHSN은 이번 지원사업을 통해 ‘앨리비 아스트로’의 멀티모달(Multimodal) 기능을 강화할 계획이다. 이를 통해 법령, 판례, 정책문서 등에 포함된 표, 도표, 시각적 구조 정보를 정밀 분석하고, 복잡한 법률 문서에서도 정확한 추론과 근거 제시가 가능한 AI 모델로 고도화한다는 목표다. 또한 ‘앨리비 비즈니스 에이전트(allibee Business
최근 인공지능(AI) 모델이 길고 복잡한 문장을 이해하고 처리하는 능력이 급속히 발전하면서, 연산 속도와 메모리 효율을 동시에 높일 수 있는 차세대 반도체 기술의 필요성이 커지고 있다. 이러한 가운데 KAIST가 국제 연구진과 함께 거대언어모델(LLM)의 추론 속도를 4배 높이면서 전력 소모를 2.2배 줄인 AI 반도체 핵심 기술을 세계 최초로 구현해 주목받고 있다. KAIST는 전산학부 박종세 교수 연구팀이 미국 조지아 공과대학교, 스웨덴 웁살라 대학교와의 공동연구를 통해 트랜스포머(Transformer)와 맘바(Mamba) 두뇌 구조의 장점을 결합한 차세대 AI 메모리 반도체(PIM, Processing-in-Memory) 기반 기술 ‘PIMBA’를 개발했다고 17일 밝혔다. 현재 ChatGPT, GPT-4, Claude, Gemini, Llama 등 대부분의 LLM은 입력 문장의 모든 단어를 동시에 인식·처리하는 트랜스포머 구조를 사용한다. 이 방식은 고도의 병렬 연산이 가능하다는 장점이 있지만, 모델이 커지고 문장이 길어질수록 연산량과 메모리 요구량이 폭증해 속도 저하와 에너지 비효율 문제가 발생한다. 이에 대한 대안으로 최근 제시된 ‘맘바(Mamba