KAIST 전산학부 윤성의 교수 연구팀과 이화여대 노준혁 교수 연구팀이 영상 속에서 정답을 위해 꼭 필요한 핵심 장면, 즉 ‘Trigger moment’를 스스로 찾아내는 AI 기술을 개발해 국제 대회에서 우수성을 입증했다. KAIST는 두 연구팀이 ICCV 2025에서 열린 Perception Test Challenge의 영상 근거 기반 질의응답(Grounded Video Question Answering) 트랙에서 1위를 차지했다고 28일 밝혔다. 이번 대회는 구글 딥마인드가 주관한 인지 테스트 챌린지로 총 상금 5만유로가 걸려 있으며, 영상·음성·텍스트를 종합적으로 이해하는 멀티모달 AI의 실제 근거 기반 판단 능력을 평가한다. 언어 패턴에 의존해 ‘그럴듯한 답’을 만드는 기존 AI의 한계를 극복하는 것이 핵심 과제로 제시됐다. 연구팀은 영상을 처음부터 끝까지 단순 분석하는 방식 대신, 질문에 답하기 위해 꼭 필요한 장면을 먼저 추출하는 새로운 프레임워크를 설계했다. 연구팀은 이를 CORTEX(Chain-of-Reasoning for Trigger Moment Extraction)라고 명명했다. CORTEX는 세 모델이 순차적으로 협업하는 구조를 갖춘다
딥러닝 기반 이미지 인식 기술이 빠르게 고도화되고 있지만, AI가 내부에서 어떤 기준으로 이미지를 보고 판단하는지는 여전히 명확히 설명하기 어려운 영역으로 남아 있다. 특히 대규모 모델이 ‘고양이 귀’, ‘자동차 바퀴’와 같은 개념을 어떤 방식으로 조합해 결론을 내리는지는 오랫동안 해결해야 할 주요 과제로 제기돼 왔다. KAIST는 김재철AI대학원 최재식 교수 연구팀이 인간이 이해할 수 있도록 AI의 판단 근거를 시각적으로 보여주는 설명가능성(XAI) 분야에서, 모델 내부의 개념 형성 과정을 회로(circuit) 단위로 시각화하는 새로운 XAI 기술을 개발했다고 26일 밝혔다. 이번 연구는 “AI가 어떻게 생각하는가?”라는 질문에 구조적 접근을 가능하게 한 중요한 진전으로 평가된다. 딥러닝 모델 내부에는 인간의 뇌처럼 뉴런(Neuron)이라는 기본 계산 단위가 존재한다. 뉴런은 귀 모양, 색상, 윤곽선처럼 이미지의 작은 특징을 감지해 다음 단계로 신호를 전달하는 기능을 한다. 반면 ‘회로(circuit)’는 여러 뉴런이 서로 연결돼 하나의 개념을 함께 인식하는 구조로, 예컨대 ‘고양이 귀’를 인식하기 위해 귀 윤곽·삼각형 형태·털 패턴 등을 감지하는 뉴런들이
씨이랩이 ‘국제 컴퓨터 비전 학회(ICCV) 2025’에서 열린 ‘AI 시티 챌린지(AI City Challenge)’에서 글로벌 4위를 차지했다고 23일 밝혔다. 이번 대회는 미국 하와이 호놀룰루에서 개최됐으며, 교통 및 스마트시티 환경에서 수집된 실제 도시 영상 데이터를 기반으로 AI 영상분석 기술의 정확도와 실시간 처리 성능을 종합적으로 평가하는 세계 최고 권위의 AI 경진대회다. 씨이랩이 참가한 트랙 4(Road Object Detection in Fish-Eye Cameras)는 어안(Fisheye) 카메라로 촬영된 영상에서 차량과 보행자를 실시간 탐지하는 기술을 평가하는 과제로, 엣지 디바이스 환경에서 초당 10프레임(FPS) 이상의 성능을 요구하는 까다로운 부문이다. 해당 부문은 참가 팀 수가 가장 많고 글로벌 유수 연구기관 및 기업 간 기술 경쟁이 치열하게 검증된 핵심 트랙으로 꼽힌다. 스마트시티 및 교통 분야는 사각지대를 최소화하기 위해 어안 카메라를 확대 도입하고 있으나, 주변부 왜곡으로 인해 객체 인식률이 크게 저하되는 문제가 있다. 또한 서버 중심 분석 방식은 비용과 지연이 커 현장(엣지) 단에서의 경량·실시간 처리 기술이 핵심 과제로
DGIST 미래모빌리티연구부 권순·이진희 연구팀이 라벨이 극히 적은 환경에서도 최신 성능(State-Of-The-Art, SOTA)을 구현한 3D 준지도 학습(SSOD, Semi-Supervised Object Detection) 프레임워크 ‘MultipleTeachers’를 개발했다. 이번에 개발된 기술은 유사한 객체를 그룹화해 범주별 교사 네트워크를 구성하고, 협력적으로 의사 라벨을 생성하는 새로운 학습 전략을 도입했다. 여기에 희소한 라이다(LiDAR) 포인트 문제를 보완하는 ‘PointGen’ 모듈을 결합해 차량·보행자·이륜차 등 도심 주요 객체의 인지 정확도를 크게 높였다. 적은 데이터로도 높은 학습 효과를 이끌어내며, 안전 중심의 자율주행 인지 기술 발전에 기여할 수 있는 새로운 패러다임을 제시했다. 자율주행 기술의 고도화에는 방대한 라벨링 작업으로 인한 시간·비용 부담이 큰 걸림돌로 작용해왔다. DGIST 연구팀은 소량의 라벨 데이터와 대량의 무라벨 데이터를 결합하는 준지도·자기지도 학습을 고도화함으로써 라벨 의존도를 낮추면서도 실험 환경에서 우수한 성능을 입증했다. 또한 DGIST 창업기업 퓨처드라이브와 협력해 한국 도심 환경을 충실히 반영한