오는 2026년 3월 4일부터 6일까지 3일간 코엑스에서 2026 AI자율제조혁신 컨퍼런스가 열린다. 이번 컨퍼런스는 스마트팩토리·오토메이션월드 2026과 연계해 진행되며, 제조업의 AI 기반 대전환(AX)을 주제로 8개 트랙, 30여 개 세션으로 구성된다. 행사 기간 동안 제조기업·기관·학계 등 약 3,000명을 대상으로 정책·기술·산업 트렌드를 총체적으로 조망할 예정이다. 국내 제조업은 현재 AI·로봇·데이터 중심으로 빠르게 재편되고 있다. 정부도 제조 AI 전환을 국가 전략으로 채택하며 2030년까지 100조 원 이상의 부가가치를 창출한다는 목표를 제시했다. 제조 AI 얼라이언스(M.AX Alliance) 출범과 함께 산업계의 변화 속도는 더욱 빨라지고 있으며, 기업들은 자율생산·스마트검사·스마트물류 등 전 공정의 혁신 전략을 마련해야 하는 상황이다. 이번 컨퍼런스는 이러한 흐름 속에서 2026년 제조혁신의 실제 방향성과 현장 적용 전략을 제시하는 자리로 마련되었다. 올해 프로그램은 3일 동안 8개 핵심 트랙으로 구성된다. 1일차 Track A는 생성형 AI·LLM을 활용한 제조 데이터 분석, 설계 자동화, 예측 최적화 등 AI 기반 제조혁신 전략을 다
제조·산업 전반에 걸친 AI 대전환(AX)이 국가적 전략으로 격상된 가운데 산업계가 변화의 흐름을 읽고 대비할 수 있도록 ‘2026 제조AX(M.AX) 대전망 온라인 컨퍼런스’가 오는 2026년 2월 2일부터 6일까지 5일간 온라인 스트리밍 방식으로 개최된다. 이번 행사는 제조AX 대전망 컨퍼런스 조직위원회가 주최·주관한다. 최근 정부는 과학기술정보통신부·산업통상자원부·중소벤처기업부가 공동으로 AI 기반 제조혁신(AX) 확산 MOU를 체결하고, 2030년까지 100조 원 이상의 제조 부가가치 창출을 목표로 제조 산학연 1,000여 기관이 참여하는 ‘제조 AX 얼라이언스(M.AX Alliance)’를 출범시켰다. 올해를 기점으로 제조 현장 중심의 AX 확산이 본격화될 것으로 전망되면서 업계의 관심이 집중되고 있다. 이러한 흐름 속에서 마련된 이번 컨퍼런스는 2026년 제조·산업 AX의 정책, 기술, 생태계 변화를 종합적으로 제시하고, 국내 기업들이 AI 기반 자율생산·지능화 전략을 수립하는 데 필요한 인사이트를 제공하는 것을 목표로 한다. 특히 정부 정책 방향부터 제조AI·Physical AI·지능형 로봇·스마트 물류·스마트 퀄리티·자율제조 소프트웨어(SDF)
제조·산업 전반에 걸친 AI 대전환(AX)이 국가적 전략으로 격상된 가운데 산업계가 변화의 흐름을 읽고 대비할 수 있도록 ‘2026 제조AX(M.AX) 대전망 온라인 컨퍼런스’가 오는 2026년 2월 2일부터 6일까지 5일간 온라인 스트리밍 방식으로 개최된다. 이번 행사는 제조AX 대전망 컨퍼런스 조직위원회가 주최·주관한다. 최근 정부는 과학기술정보통신부·산업통상자원부·중소벤처기업부가 공동으로 AI 기반 제조혁신(AX) 확산 MOU를 체결하고, 2030년까지 100조 원 이상의 제조 부가가치 창출을 목표로 제조 산학연 1,000여 기관이 참여하는 ‘제조 AX 얼라이언스(M.AX Alliance)’를 출범시켰다. 올해를 기점으로 제조 현장 중심의 AX 확산이 본격화될 것으로 전망되면서 업계의 관심이 집중되고 있다. 이러한 흐름 속에서 마련된 이번 컨퍼런스는 2026년 제조·산업 AX의 정책, 기술, 생태계 변화를 종합적으로 제시하고, 국내 기업들이 AI 기반 자율생산·지능화 전략을 수립하는 데 필요한 인사이트를 제공하는 것을 목표로 한다. 특히 정부 정책 방향부터 제조AI·Physical AI·지능형 로봇·스마트 물류·스마트 퀄리티·자율제조 소프트웨어(SDF)
다음 달 9일 오후 2시부터 4시까지, CMES가 개최하는 온라인 웨비나 ‘자동화의 미래: AI와 로봇이 만났을 때’가 열린다. 이번 웨비나는 AI와 로봇 기술이 실제 제조·물류 현장에서 어떤 변화를 만들고 있는지, 그리고 앞으로 산업 자동화가 어떤 방향으로 진화할지를 집중적으로 다룬다. 최근 제조·물류 산업은 인건비 상승, 생산인구 감소, 중대재해법·노란봉투법 등 강화되는 규제 환경 속에서 자동화의 필요성이 크게 높아지고 있다. 그러나 여전히 많은 공정이 사람의 손에 의존하고 있는 현실에서 현장에서 실현 가능한 지능형 자동화 전략은 산업계의 중요한 화두가 되고 있다. CMES는 이번 웨비나를 통해 실제 프로젝트 경험과 산업 현장에서 관찰한 트렌드를 기반으로 AI 기반 로봇 자동화의 현실적 도입 전략을 제시할 계획이다. 특히 Physical AI와 로보틱스 기술의 융합을 중심으로, 로봇이 단순 작업 자동화를 넘어 지능형 작업 에이전트로 확장되는 흐름을 소개한다. 첫 번째 세션에서는 이성호 CMES CEO가 개회사와 환영 인사를 통해 이번 웨비나의 핵심 방향을 제시한다. 이어지는 키노트 1에서는 김현우 CMES CTO가 ‘로봇을 넘어 에이전트로: Physica
다음 달 9일 오후 2시부터 4시까지, CMES가 개최하는 온라인 웨비나 ‘자동화의 미래: AI와 로봇이 만났을 때’가 열린다. 이번 웨비나는 AI와 로봇 기술이 실제 제조·물류 현장에서 어떤 변화를 만들고 있는지, 그리고 앞으로 산업 자동화가 어떤 방향으로 진화할지를 집중적으로 다룬다. 최근 제조·물류 산업은 인건비 상승, 생산인구 감소, 중대재해법·노란봉투법 등 강화되는 규제 환경 속에서 자동화의 필요성이 크게 높아지고 있다. 그러나 여전히 많은 공정이 사람의 손에 의존하고 있는 현실에서 현장에서 실현 가능한 지능형 자동화 전략은 산업계의 중요한 화두가 되고 있다. CMES는 이번 웨비나를 통해 실제 프로젝트 경험과 산업 현장에서 관찰한 트렌드를 기반으로 AI 기반 로봇 자동화의 현실적 도입 전략을 제시할 계획이다. 특히 Physical AI와 로보틱스 기술의 융합을 중심으로, 로봇이 단순 작업 자동화를 넘어 지능형 작업 에이전트로 확장되는 흐름을 소개한다. 첫 번째 세션에서는 이성호 CMES CEO가 개회사와 환영 인사를 통해 이번 웨비나의 핵심 방향을 제시한다. 이어지는 키노트 1에서는 김현우 CMES CTO가 ‘로봇을 넘어 에이전트로: Physica
국내 딥테크 스타트업 비욘드로보틱스(Beyond Robotics)가 대한민국 최초로 농업용 지능형 수확 로봇의 상업적 계약을 체결하며 ‘Physical AI’ 농업혁신의 문을 열었다. 비욘드로보틱스는 전북 지역 딸기 농가와 2025년 12월부터 2026년 5월까지 최대 6개월간 딸기 수확 로봇 사용 계약을 맺었다고 21일 밝혔다. 이번 계약은 딸기 수확 로봇이 상업적 매출 계약으로 이어진 첫 사례로, 국내 농업 자동화의 역사적인 이정표로 평가된다. 비욘드로보틱스는 3D 비전 AI와 로보틱스 기술을 융합해 실제 환경에서 보고·판단·행동이 가능한 ‘Physical AI’ 기반의 농업용 로봇을 개발해왔다. 창업 3년차인 이 기업은 농촌 인력난과 생산성 저하 문제를 해결하고, 자율 순환형 농업 생태계를 구축하는 데 주력하고 있다. 비욘드로보틱스의 딸기 수확 로봇은 3D 비전 기술로 숙도(익음 정도), 크기, 기형과 여부, 병충해를 정밀하게 분석한다. AI는 농가가 설정한 기준에 따라 최적의 수확 대상을 자동으로 선정하며, 손상 없는 경로를 계산해 딸기를 정밀하게 채취한다. 수확 속도는 분당 최대 16개, 정확도는 95%에 달하며 손실률은 1% 미만으로, 글로벌 최고
NVIDIA Jetson AGX Orin으로 가속된 엣지 AI 연산 VLM 기반 장면 라벨링+LLM 기반 자연어 내비게이션 엣지 AI 분야 선두기업 어드밴텍이 NVIDIA Jetson AGX Orin 기반의 AMR 개발자 키트를 공개했다. AMR 개발자 키트는 자율이동로봇(AMR)의 상용화를 가속화할 수 있는 레퍼런스 디자인으로, 개발자와 OEM, 시스템 통합업체가 지능형 로봇을 보다 손쉽게 구현할 수 있도록 지원한다. 이 개발자 키트는 360° 파노라마 인식과 고성능 엣지 AI, 비전-언어 모델(VLM) 및 대형 언어 모델(LLM)을 결합해 단순한 이동을 넘어 ‘이해하고 상호작용하는 로봇’을 지향한다. 예를 들어, 사용자가 음성이나 텍스트로 “커피를 어디서 살 수 있나요?”라고 입력하면, AMR은 VLM이 자동 라벨링한 목적지를 인식해 즉시 이동할 수 있다. 이는 물리적 공간에서 AI의 실질적 역할을 강화하는 ‘Physical AI’ 구현의 한 사례로 평가된다. 하드웨어 측면에서는 4개의 GMSL 2D 카메라와 4개의 스테레오 3D 카메라를 탑재해 깊이 기반 파노라마 인식을 제공한다. 밀리초 단위의 동기화로 비주얼 SLAM, 3D 매핑, 장애물 감지 기능을
KT는 3일 서울 서초구 KT 우면연구센터에서 서울대학교, KAIST와 함께 AICT 공동연구 협력 확대를 위한 킥오프 워크숍을 개최했다고 밝혔다. 이번 행사에는 KT 오승필 기술혁신부문장, 배순민 AI Future Lab장, 서울대 장병탁 교수, KAIST 김기응 교수를 비롯한 교수진과 연구진 등 100여 명이 온·오프라인으로 참석해 연구 과제와 협력 방향성을 논의했다. 이번 공동연구는 KT의 전략적 Open R&D의 일환으로, 서울대와 KAIST로 협력 범위를 확대해 장기 연구개발을 넘어 실제 사업과 직결되는 핵심 AICT 기술 확보에 집중한다. 연구 주제로는 ▲자율형 에이전트 ▲Responsible AI ▲Physical AI ▲인간 피드백 기반 강화학습 ▲추론 효율화 등이 포함된다. 서울대는 신뢰 기반 인간 중심 AI 고도화를 목표로 ▲강건한 컨텍스트 추론 ▲인간 피드백 강화학습 ▲RAI 평가 기준 개선 ▲사용자 상호작용 기반 Actionable AI 등을 연구한다. KAIST는 프롬프트 압축 및 최적화를 통해 대규모 언어모델의 효율성과 정확도를 높이는 기술 개발에 집중한다. KT는 GPU·AI 모델·데이터 등 연구 인프라를 제공하며, 자체 한
Physical AI 기반 로보틱스 플랫폼 기업 디스펙터가 음병찬 신임 대표이사를 선임했다. 이번 인사는 ‘화려한 기술 시연’보다 ‘현실 환경에서의 가치 창출’에 초점을 맞춘 전략 전환의 출발점으로 평가된다. 음 대표는 15년 이상 AI·신기술 분야에서 시장과 기술을 연결하는 전략가로 활동해 왔다. 글로벌 컨설팅사 액센추어(Accenture), 모니터그룹(Monitor Group), 부즈앤코(Booz & Co.)에서 산업별 비즈니스 전략을 수립·실행했으며, 카카오에서는 AI 스피커 사업 전략과 신규 사업 개발을 맡아 기술 대중화에 기여했다. 이후 캐나다 AI 스타트업 엘리먼트AI(Element AI)에서 동북아시아 사업을 총괄하며 제조·금융·물류 등 산업 전반에 AI 전환을 실현했고, Armilla AI를 공동 창업해 ‘신뢰 가능한 AI’ 확산에도 힘썼다. 그가 디스펙터에서 그리고 있는 미래는 명확하다. 음 대표는 “로봇이 백플립을 하거나 발로 차도 균형을 잡는 장면은 인상적이다. 하지만 진정한 가치는 예측 불가능하고 복잡한 현실 속에서 꾸준히 작동할 때 발휘된다”라며 “기업이 박사 학위나 대규모 연구소 없이도 로봇을 개발·운영하고, 이를 통해 실제
국내 로봇 전문기업 로보티즈가 'Physical AI' 기술을 접목한 혁신적인 로봇 팔 솔루션을 선보이며 업계의 주목을 받고 있다. 최근 AW2025 전시회에서 공개하며 주목받은바 있는 'OpenMANIPULATOR-Y(이하 OM-Y)'는 오는 6월 정식 출시를 앞두고 있다. 특히 높은 수준의 모방학습(Imitation Learning) 구현 능력은 전문가들로부터 큰 관심을 받고 있다. OM-Y는 스탠퍼드 대학의 'Mobile ALOHA' 프로젝트 이후 주목받고 있는 VLA(Vision-Language-Action) 모델 기반의 최신 기술을 적용했다. 오픈소스 기반으로 개발된 이 제품은 사용자가 직접 관절과 링크를 조정할 수 있는 높은 수준의 모듈화를 자랑한다. 로보티즈는 OM-Y와 함께 'AI 매니퓰레이터' 키트도 공개할 예정인데 이는 모방학습 구현에 필요한 리더, 팔로워, 카메라 등 핵심 구성 요소를 모두 포함하고 있다. 특히 이 시스템의 핵심인 리더(Leader) 장치는 중력 보상과 마찰 보상 기능을 탑재했을 뿐만 아니라 그리퍼 기반의 햅틱 피드백 기능을 통해 보다 정교한 데이터 수집이 가능하도록 설계됐다. 이는 연구자들이 더 정밀한 모방학습 모델을 개