베스핀글로벌이 아마존 웹 서비스(이하 AWS)의 ‘마이그레이션 및 현대화 컴피턴시’를 획득했다고 8일 밝혔다. 이는 복잡한 워크로드의 클라우드 전환과 현대화를 위한 기술력과 고객 성공 경험을 공식적으로 인정받았다는 점에서 그 의미가 크다고 회사는 강조했다. 이번 컴피턴시 취득은 베스핀글로벌이 쌓아온 클라우드 현대화 역량을 공식적으로 입증한 결과다. 특히 AWS 관리형 쿠버네티스 서비스인 아마존 EKS(Amazon EKS)를 기반으로 한 컨테이너 환경 전환과 운영 최적화 전문성이 핵심 기술력을 입증하는 대표 사례로 작용했다. 아울러 아마존 EKS 서비스 딜리버리 프로그램 파트너 인증도 함께 취득하며 컨테이너 기반 구축 및 운영 역량도 공식 검증받았다. 아마존 EKS는 쿠버네티스 클러스터 운영의 복잡성을 줄이고 효율적인 서비스 관리를 가능하게 하는 완전관리형 서비스다. 베스핀글로벌은 고객의 주요 서비스를 위해 보안이 강화된 아마존 EKS 아키텍처와 최적화된 Add-on 구성, 로깅 및 모니터링 체계를 포함한 안전하고 효율적인 운영 환경을 구축해왔다. 이러한 컨테이너 기반 아키텍처는 향후 서비스 확장 시 유연하고 신속한 스케일링을 가능하게 한다. 또한 베스핀글로벌
망고부스트 김창수 실장, '차세대 LLM 추론 인프라 전략' 주제로 발표 진행 망고부스트가 오는 5월 15일 개최되는 ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’에 참가해 '차세대 LLM 추론 인프라 전략'을 주제로 발표한다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업이 겪는 운영상의 고민과 실무자의 현장 요구에 대응하도록 최신 기술 트렌드와 구체적인 적용 사례가 공유된다. 발표자로 참여하는 망고부스트 김창수 실장은 '차세대 LLM 추론 인프라 전략 : LLMBoost 자동화와 DPU 기반 가속의 시너지를 중심으로'라는 주제로 인사이트를 공유한다. 김창수 실장은 "이번 발표에서는 환경별 최적화가 필수인 현재 LLM 추론 인프라를 소개한다. 이와 함께 자동 튜닝으로 성능을 극대화하고 Multi Vendor를 지원하는 LLMBoost, 유연한 확장성과 관리성을 갖춘 차세대 Disaggregated Prefill·Decode 인프라을 비롯해 DPU 기반 스토리지 및 RAG 가
망고부스트 김창수 실장, '차세대 LLM 추론 인프라 전략' 주제로 발표 진행 망고부스트가 오는 5월 15일 개최되는 ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’에 참가해 '차세대 LLM 추론 인프라 전략'을 주제로 발표한다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업이 겪는 운영상의 고민과 실무자의 현장 요구에 대응하도록 최신 기술 트렌드와 구체적인 적용 사례가 공유된다. 발표자로 참여하는 망고부스트 김창수 실장은 '차세대 LLM 추론 인프라 전략 : LLMBoost 자동화와 DPU기반 가속의 시너지를 중심으로'라는 주제로 인사이트를 공유한다. 김창수 실장은 "이번 발표에서는 환경별 최적화가 필수인 현재 LLM 추론 인프라를 소개한다. 이와 함께 자동 튜닝으로 성능을 극대화하고 Multi Vendor를 지원하는 LLMBoost, 유연한 확장성과 관리성을 갖춘 차세대 Disaggregated Prefill·Decode 인프라을 비롯해 DPU 기반 스토리지 및 RAG 가속
GPT-3의 파라미터 수는 1750억 개. 한때 이 수치는 AI의 위용을 상징했다. 하지만 2025년 현재, 그런 숫자 놀이는 더 이상 중요하지 않다. AI 기술의 중심축이 바뀌고 있다. ‘얼마나 학습했는가’에서 ‘얼마나 빠르게 반응하고 정확하게 추론하는가’로 말이다. OpenAI의 o3, 구글의 Gemini 1.5, 마이크로소프트의 Phi-3, 메타의 LLaMA3까지, 최근 공개된 모든 신형 모델은 공통적으로 ‘추론 최적화’를 전면에 내세운다. 한마디로 말해, 지금의 AI는 더 이상 천천히 생각하는 철학자가 아니라, 실시간 대응하는 전술가여야 한다. AI 성능 기준의 변화 이른바 GPT로 대표되는 LLM은 통계적으로 가장 가능성 높은 답을 과거 학습 데이터를 기반으로 예측하는 구조다. 이른바 ‘확률적 언어 생성기’다. 하지만 여기엔 한계가 있었다. 새로운 상황에 대한 실시간 판단, 문맥에 따른 논리적 전개, 시각 정보와 복합 입력의 해석 등에서는 유연하지 못했다. 그런 의미에서 AI 성능은 오랫동안 ‘얼마나 많은 데이터를 학습했는가’, ‘모델의 크기가 얼마나 큰가’로 측정됐다. GPT-4는 GPT-3 대비 수배의 연산량을 요구했고, 이를 학습하기 위해선 수
푸드테크 기업 컨트롤엠(대표 원종관)이 전통 한식의 맛을 가미한 새로운 K-버거 브랜드 '슬램버거(Slam Burger)'를 론칭, 지난 5일 서울 강남에 첫 매장을 정식 오픈하며 글로벌 패스트푸드 시장 공략의 출사표를 던졌다. 슬램버거는 매장 운영 전반에 생성형 인공지능(AI) 기반 통합 솔루션까지 적용하며 차세대 K-푸드 주자로서의 면모를 갖췄다. 'K-푸드를 담은 세계인의 버거'라는 비전 아래 탄생한 슬램버거는 미국식 수제 버거에 한국 전통의 맛을 창의적으로 접목한 메뉴들을 선보인다. 대표 메뉴로는 고추장 베이스의 양념으로 맛을 낸 '더 슬램 치킨 버거', 간장 양념으로 갈비 맛을 구현한 '크리스피 갈비 버거', 그리고 기본에 충실한 '비프 버거' 등이 있다. 이들 메뉴는 한식 고유의 '단짠(달고 짠 맛)'과 '맵단(맵고 단 맛)'의 매력을 현대적으로 재해석하여 젊은 세대들의 입맛을 사로잡을 것으로 기대된다. 메뉴와 함께 주목받는 것은 컨트롤엠의 시스템이다. 컨트롤엠은 슬램버거 매장 운영 효율성을 극대화하기 위해 자체 개발한 생성형 AI 기반 통합 솔루션 레스토지니(RestoGenie)를 이달 안에 출시, 슬램버거 강남점부터 선제적으로 적용할 계획이다.
기업들의 마케팅 자동화 전환이 생성형 AI를 중심으로 본격화되고 있다. 특히 반복적이고 리소스를 많이 소모하는 콘텐츠 제작 영역에서 AI 솔루션의 도입이 빠르게 확산되고 있는 가운데 브이캣은 마케팅 콘텐츠 제작 전 과정을 자동화하는 기업 맞춤형 AI 솔루션을 제공하고 있다. 최근 마케팅 산업에서는 생성 AI 기술이 빠르게 보급되며 마케터의 79%가 마케팅 콘텐츠 제작에 AI를 활용하려는 움직임을 보이고 있다. 특히 다채로운 채널과 포맷에 맞춰 대량의 콘텐츠를 제작해야 하는 이커머스 플랫폼과, 고품질의 일관된 콘텐츠가 필요한 중대형 브랜드를 중심으로 AI 도입이 활발하게 진행되고 있다. 브이캣은 이러한 변화에 발맞춰 상품 이미지 한 장으로 스튜디오에서 촬영한 듯한 상품컷을 생성하고 생성된 이미지를 생동감 있는 영상으로 변환해주는 AI 솔루션 ‘브이캣 크리젠’을 제공하고 있다. 기업은 여러 AI 툴을 사용할 필요 없이 브이캣 크리젠에서 이미지 생성부터 영상 변환까지 모두 해결할 수 있다. 브이캣은 생성된 이미지와 영상을 활용해 숏폼 콘텐츠나 프로모션 배너 등 다양한 마케팅 소재를 자동 제작하는 기능도 제공한다. 이를 통해 마케팅팀, MD팀과 같은 비전문 디자인
은밀한 유해표현, 설득력 등 다양한 지표를 통해 AI의 잠재 위험성 탐지 에임인텔리전스가 연세대학교, KIST, 서울대학교와 공동으로 개발한 AI 안전성 진단 체계 ‘ELITE(Enhanced Language-Image Toxicity Evaluation)’가 머신러닝 학술대회인 'ICML 2025'에 공식 논문으로 채택됐다. 이는 국내 연구진이 글로벌 AI 안전성 연구 흐름을 선도하는 신호탄으로 해석된다. ICML(International Conference on Machine Learning)은 인공지능 및 머신러닝 분야에서 가장 권위 있는 학회 중 하나로, 매년 전 세계 연구자들이 최신 기술을 발표하고 교류하는 자리다. 올해로 42회를 맞이한 이 학회에 국내 연구팀의 논문이 이름을 올린 것은, 한국 기술력의 실질적 성과가 국제적으로 공론화됐다는 점에서 의미가 깊다. ELITE는 이미지와 텍스트를 함께 입력받는 비전언어모델(VLM)의 응답을 ‘정밀 진단’하는 평가 체계다. 단순히 노골적인 표현만을 걸러내는 기존 방식에서 나아가, 겉보기에 문제가 없는 응답 속에서도 은밀한 유해 표현, 설득력, 구체성 등 다양한 지표를 통해 AI의 잠재 위험성을 탐지한다.
전시회서 치타, 가젤, 세렝게티 등 세 가지 핵심 솔루션 소개 예정 에이프리카가 오는 5월 14일부터 16일까지 서울 코엑스에서 개최되는 ‘AI EXPO SEOUL 2025’에 참가해 폐쇄망 환경에서도 구축 가능한 Private AI Agent 솔루션을 공개한다. 에이프리카는 이번 전시를 통해 산업 맞춤형 RAG 프레임워크와 운영 자동화 체계를 결합한 프라이빗 AI 통합 플랫폼을 선보인다. 'Build Your Own Private AI Agent'라는 슬로건 아래, 외부 네트워크가 차단된 기업 환경에서도 신속하게 자체 AI 에이전트를 구현하는 방안을 제시할 계획이다. 에이프리카는 이번 전시에서 치타(Cheetah), 가젤(Gazelle), 세렝게티(Serengeti) 등 세 가지 핵심 솔루션을 소개한다. 치타는 데이터 수집부터 모델 개발, 배포, 인프라 운영까지 AI 개발의 전 과정을 아우르는 MLOps·LLMOps 통합 플랫폼이다. 다양한 컴퓨팅 환경에서 안정성과 확장성을 보장하며, 기업이 원하는 형태의 AI 워크로드를 빠르게 구축하고 운영하도록 지원한다. 가젤 RAG는 건설, 금융, 공공 등 산업별 요구에 맞춘 에이전틱 RAG 프레임워크다. 프라이빗 환
맞춤형 에이전트 구축, 멀티 에이전트 오케스트레이션 등 하이브리드 기술 생태계 공유 IBM이 연례 기술 컨퍼런스 ‘THINK 2025’를 통해 기업용 AI 도입의 새로운 기준을 제시했다. 이번 발표의 핵심은 AI가 단순한 챗봇을 넘어 실제 업무를 수행하는 ‘에이전트’로 진화하며, 이를 실무에 적용할 수 있도록 지원하는 통합 플랫폼 ‘왓슨x 오케스트레이트’의 강화다. IBM은 기업이 보유한 데이터, 다양한 IT 환경, 복잡한 애플리케이션을 효과적으로 연결해주는 AI 기반 업무 자동화 도구를 중심으로 IBM은 맞춤형 에이전트 구축, 멀티 에이전트 오케스트레이션, 가시성 확보 및 거버넌스 관리까지 포괄하는 하이브리드 기술 생태계를 공개했다. 왓슨x 오케스트레이트는 비개발자도 손쉽게 업무용 AI 에이전트를 생성하도록 직관적인 노코드 인터페이스를 제공한다. 동시에 숙련 개발자는 프로코드 환경에서 복잡한 API 연동이나 커스터마이징이 가능하다. IBM은 이 같은 유연성을 통해 기업 내 다양한 부서와 역할의 사용자가 각자의 요구에 맞는 AI 에이전트를 빠르게 생성하고 적용할 수 있다고 설명한다. 왓슨x는 인사, 영업, 구매 등 핵심 비즈니스 분야에 즉시 적용 가능한 사전
자체 개발한 하이브리드 추론 기능으로 처리 효율 극대화해 알리바바 클라우드가 오픈소스 대규모 언어모델(LLM) 신제품군 ‘큐원3(Qwen3)’를 공개하며 생성형 AI 경쟁에서 다시 한 번 존재감을 드러냈다. 이번 시리즈는 모바일부터 자율주행까지 다양한 AI 활용 환경을 겨냥해 설계됐으며, 사고 기반 하이브리드 추론 등 새로운 구조로 성능과 효율성 모두를 잡았다는 평가다. 큐원3는 총 6종의 밀집 모델(0.6B, 1.7B, 4B, 8B, 14B, 32B)과 2종의 전문가 혼합(MoE) 모델(30B 중 3B 활성, 235B 중 22B 활성)로 구성된다. 모든 모델은 깃허브, 허깅페이스, 모델스코프를 통해 누구나 자유롭게 활용 가능하며, 곧 API 형태로도 서비스될 예정이다. 큐원3의 가장 큰 특징은 알리바바가 자체 개발한 하이브리드 추론 기능이다. 복잡한 논리 추론이나 수학, 코딩과 같은 다단계 작업에는 사고 기반 추론 모드를, 빠른 응답이 필요한 일반 대화에는 비사고 기반 추론 모드를 자동 전환해 처리 효율을 극대화한다. 개발자는 API 상에서 최대 3만8000개의 토큰까지 사고 지속 길이를 조절할 수 있어, 성능과 리소스의 균형을 자유롭게 맞출 수 있다. 큐
에이슬립이 분당서울대병원 정신건강의학과 윤인영·이비인후과 김정훈 교수 연구팀과 함께 여럿이 함께 수면하는 환경에서도 각 개인의 숨소리를 분리해 개인별 수면 단계를 정확히 구분하는 인공지능(AI) 모델의 성능을 검증한 연구 결과를 7일 발표했다. 수면다원검사는 수면의 질과 구조를 정밀하게 평가하는 표준검사다. 하지만 여러 센서를 부착해야 하는 불편함, 높은 비용으로 인해 일상적으로 반복 측정하기에는 한계가 있었다. 이를 보완하기 위해 웨어러블 기기와 수면 측정 애플리케이션이 주목받고 있지만 그 정확도는 아직 수면다원검사의 수준에는 미치지 못하는 실정이었다. 또한 기존의 수면 분석 기술들은 대부분 혼자 수면하는 환경을 기준으로 설계돼있어 실제처럼 두 명 이상 수면하는 경우에는 숨소리, 뒤척임, 코골이 등 타인의 소음으로 인해 개인별 수면 상태를 정확하게 분석하기는 어려웠다. 이에 연구팀은 숨소리만으로 수면 단계(▲깨어있음 ▲렘(REM) 수면 ▲얕은 수면 ▲깊은 수면)를 예측하는 AI 모델을 개발해 공동 수면 상황에서도 개인마다의 수면 단계를 정확하게 분류할 수 있는지 알아보고자 연구를 진행했다. 연구팀은 성인 44쌍(총 88명)이 한 침대에서 동시에 취침하도록
GPU 리소스 자동 스케줄링, 초단위 배포 환경 구성, 고병렬 추론 테스트 등 핵심 기능 공개 예정 케이투스(KAYTUS)가 오는 5월 14일부터 16일까지 서울 코엑스에서 개최되는 ‘AI EXPO KOREA 2025’에 참가해 자사의 AI DevOps 소프트웨어 ‘MotusAI’와 통합형 AI DevOps 인프라 솔루션을 선보인다. 케이투스는 이번 전시를 통해 복잡한 AI 인프라 운영 환경에서 효율적인 리소스 관리와 빠른 모델 배포를 가능케 하는 턴키 기반의 엔드투엔드 솔루션을 집중 조명할 예정이다. 생성형 AI 기술이 학습 단계를 넘어 실시간 추론과 대규모 배포로 확산되는 가운데, 기업들은 GPU 활용률 저조, 데이터 병목 현상, 느린 배포 속도 등 AI 운영상의 다양한 장애물에 직면하고 있다. 케이투스는 이러한 과제를 해결하기 위해 AI DevOps 플랫폼 ‘MotusAI’를 중심으로 한 통합 클러스터 시스템을 통해 모델 개발부터 배포, 운영까지 전 과정을 안정적이고 간결하게 연결하는 인프라 해법을 제시한다. 전시 부스에서는 MotusAI 기반 클러스터를 활용해 한 명의 운영자가 딥러닝 모델과 추론 서비스를 5분 이내에 배포하는 실시간 데모가 진행된다.
최태원 회장 "고객 신뢰는 그룹 존재 이유...재발 방지 마련에 최선 다할 것" 최근 발생한 SK텔레콤의 사이버 침해 사고로 인해 전국적으로 고객 불편과 혼란이 이어진 가운데, SK그룹이 국민과 고객을 향해 공식 사과의 뜻을 밝혔다. 최태원 SK그룹 회장은 7일인 오늘 오전 서울 중구 을지로 SK텔레콤 사옥에서 열린 'SKT 사이버 침해 사고' 관련 데일리 브리핑에 참석해 사과문을 발표했다. 최태원 회장은 그룹 차원의 보안체계 전면 점검과 함께 외부 전문가가 참여하는 ‘정보보호혁신위원회’를 구성해 근본적 재발 방지책 마련에 나서겠다고 강조했다. 최 회장은 발표한 입장문을 통해 “고객과 국민 여러분께 불편과 불안을 초래한 점, 진심으로 사과드린다”고 밝히며, 특히 사고 초기의 미흡한 소통과 대응에 대해 경영진 차원의 깊은 반성과 책임 의식을 드러냈다. SK그룹은 사고 당시 매장을 찾거나 해외 출국을 앞둔 고객이 겪은 불편을 언급하며, “세심한 고객 대응이 부족했던 점은 경영진 모두가 뼈아프게 반성할 부분”이라고 인정했다. 이어 “언론과 국회, 정부기관의 지적 역시 겸허히 수용하겠다”고 덧붙였다. 이번 사태의 재발을 막기 위한 SK그룹 차원의 후속 조치도 공개됐
조용진 파네시아 부사장, 행사에서 CXL 3.x 기반의 인프라 구축 사례와 응용 방향 제시 파네시아가 ‘CXL DevCon 2025’에서 고출력 CXL 3.x 스위치 기반 프레임워크를 선보이며 글로벌 기술 무대에서 존재감을 드러냈다. 파네시아는 올해 국내 기업 중 유일하게 해당 행사에 전시 기업으로 참여했다. 미국 캘리포니아 산타클라라에서 4월 29일부터 이틀간 열린 이번 행사는 CXL(Compute Express Link) 표준을 주도하는 CXL 컨소시엄이 주관하는 글로벌 컨퍼런스로, 케이던스, 텔레다인 르크로이 등 주요 회원사가 대거 참여해 차세대 고속 인터커넥트 기술을 선보였다. 파네시아가 이번에 선보인 고출력 CXL 3.x 스위치는 CPU, GPU, 메모리 등 다양한 장치를 하나의 시스템으로 통합해주는 브릿지 역할을 수행한다. 고유의 저지연 IP 기술을 기반으로 설계된 해당 스위치는 멀티 레벨 스위칭, 포트 기반 라우팅을 모두 지원하며, 장치 연결 수를 극대화함으로써 평균 홉 수를 줄이고 시스템 지연시간을 최소화하는 것이 특징이다. 이러한 기술은 특히 고성능 컴퓨팅(HPC)과 대규모 AI 응용 환경에서 효율적인 자원 활용과 저비용 고성능 인프라 구현을
시놀로지(Synology)는 고성능 스토리지 솔루션인 새로운 디스크스테이션(DiskStation) 모델 DS1825+ 및 DS1525+의 출시를 7일 발표했다. Owen Liao 시놀로지 제품 매니저는 “DS1825+와 DS1525+는 데이터 관리와 협업을 위한 강력한 플랫폼을 제공한다”며 “데이터 관리에 대한 수요가 지속적으로 진화함에 따라 이 두 제품은 비즈니스급 성능, 확장성, 신뢰성을 모두 갖춘 솔루션으로 완벽하게 설계됐다”고 강조했다. DS1525+와 DS1825+는 요구가 많은 애플리케이션에서도 최적의 성능을 보장하기 위해 듀얼 2.5GbE 포트를 기본 탑재했다. DS1525+는 E10G22-T1-Mini 모듈을 통해 10GbE 업그레이드가 가능하며 DS1825+는 PCIe 3.0 슬롯을 통해 10GBASE-T 또는 10/25GbE SFP+/SFP28 네트워크 카드를 지원한다. 두 모델 모두 M.2 슬롯 2개를 갖추고 있어 올플래시 캐시 또는 스토리지 풀 구성이 가능하다. 성능 테스트 결과 DS1825+는 최대 2239 MB/s 읽기 및 1573 MB/s 쓰기의 SMB 순차 처리량을 기록했으며, DS1525+는 최대 1181 MB/s 읽기 및 11