올해는 로봇이 기존 기계 이미지를 벗어던진 원년으로 기록될 전망이다. 스스로 사고·학습하는 '피지컬 AI(Physical AI)'가 로봇 글로벌 트렌드를 관통한 해로 평가된다. 이때 피지컬 AI는 AI가 물리적인 환경에서 직접 학습·적응함으로써, 실제 공간에서 자율적으로 문제를 해결하고 인간과 협력하도록 하는 최신 기술 방법론이다. 이를 기반으로 글로벌 빅테크가 범용 휴머노이드 로봇(Humanoid Robot)에 대한 청사진을 줄곧 내놨다. 이들 휴머노이드는 실제 완성차 공장 라인과 물류 거점에서 개념증명(PoC) 과정에 투입됐다. 인간의 노동력을 직접 대체하기 위한 여정을 시작했다. 이 과정에서 거대언어모델(LLM) 기반 ‘비전·언어·행동(Vision-Language-Action)’ 모델이 주목받았다. 로봇이 복잡한 자연어(Natural Language) 명령을 이해하고 즉각적인 판단을 내리게 하는 지능형 두뇌 기술이다. 특히 올해는 고정된 프로그래밍의 한계를 벗어나 엔드투엔드(End-to-end) 학습으로 미지의 환경에 적응하는 로봇들이 대거 등장했다. 이는 로봇 공학이 하드웨어 중심에서 소프트웨어 정의 로봇(SDR)으로 체질을 개선되고 있음을 시사했다.
내년 시행을 앞두고 있는 AI 기본법에 대해 집행 과정에서 형성되는 각종 정책 사례 판단 기준과 운영 관행이 향후 규제의 실질적 내용을 결정하게 될 것이란 분석이 나왔다. AI 법‧규제‧정책 플랫폼 기업 코딧(CODIT) 부설 글로벌정책실증연구원은 29일 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(이하 AI 기본법) 시행령(안)에 담긴 행정규제 구조를 분석한 「AI 기본법 시행령(안)의 행정규제 구조 분석」 이슈페이퍼를 발간했다고 밝혔다. 이번 이슈페이퍼는 2026년 1월 시행 예정인 AI 기본법 시행령(안)이 실제 행정 현장에서 어떻게 작동할지를 행정규제와 거버넌스의 관점에서 심층 분석했다. 이슈페이퍼에 따르면, 시행령(안)은 규제 대상의 범위 설정, 고영향 인공지능 판단 구조, 사업자 의무의 구성, AI 거버넌스, 그리고 기존 법령과의 관계 전반에 걸쳐, 법령에 확정된 기준을 제시하기보다는 행정 집행 과정에서의 판단과 절차를 매개로 규제 내용이 구체화되는 구조를 취하고 있다. 이는 규제의 실질적 영향력이 법령 문언 자체보다도, 집행 단계에서 형성되는 행정 해석과 운영 관행에 의해 좌우될 가능성이 크다는 점을 시사한다. 글로벌정책실증연구원은 “A
디엔브이 비즈니스어슈어런스 코리아(이하 DNV)가 강화되는 국제 AI 규제에 대응하기 위한 기업 전략을 소개하는 무료 세미나를 오는 6월 13일 노보텔 앰배서더 서울 강남 보르도홀에서 개최한다고 밝혔다. ‘ISO/IEC 42001 기반 AI 거버넌스 및 규제 대응 전략’을 주제로 열리는 이번 세미나는 AI 기본법, EU AI Act 등 글로벌 규제 강화 흐름 속에서 기업들이 책임 있는 AI 운영 체계를 수립하고 국제 표준을 기반으로 신뢰할 수 있는 AI 시스템을 구축할 수 있도록 실질적인 가이드를 제공하고자 마련됐다. DNV는 글로벌 인증기관으로서의 전문성과 국제 심사 경험을 바탕으로 변화하는 글로벌 규제에 대응할 수 있는 AI 거버넌스 체계 수립 방안과 ISO/IEC 42001 인증 전략을 공유할 예정이다. 특히 이번 세미나에는 법무법인 세종, KPMG, 한국인터넷진흥원(KISA), 안랩 등 각 분야의 전문가들이 연사로 참여해 ▲AI 관련 국내외 법규 및 규제 동향 ▲AI 거버넌스 실행 전략 ▲AI 시대의 정보보안 패러다임 전환 ▲AI 침해 대응과 관제 전략 등 다양한 주제에 대한 인사이트를 제시한다. 또한 DNV의 현직 ISO/IEC 42001 인증 심사
불과 2년 전, 오픈AI(OpenAI)가 내놓은 챗GPT(ChatGPU)는 차세대 ‘인공지능(AI)’이라는 소용돌이 속에 전 세계를 몰아넣었다. AI가 새로운 먹거리이자 미래 방향성으로 급부상한 것이다. 이러한 AI는 인류에 편의와 효율을 제공하는 매개임과 동시에, 인간의 각종 권리를 침해할 수도 있는 위협적인 존재로 인식되기 시작했다. 이에 따라 미국·유럽연합(EU) 등은 AI가 무분별하게 활용될 수 있는 가능성을 차단하기 위해 갖가지 ‘안전장치’를 발표했다. 미국은 ‘안전·보안·신뢰를 보장하는 AI 개발 및 사용에 대한 행정명령(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)’을 내놨다. EU도 올해 초 결이 유사한 ‘AI 법(AI Act)’의 통과를 공표했다. 앞선 법안은 성장에만 맞춰진 AI 업계의 시각을 우회해 새로운 접근법을 제시한 점이 특징이다. 기술적 측면뿐만 아니라 안전성·보안성·신뢰성·윤리성·투명성 등이 확보된 ‘설득력’ 있는 AI를 전 세계에 전파하겠다는 방향성이 내포돼 있다. 우리나라도 이러한 흐름에 합류해
불과 2년 전, 오픈AI(OpenAI)가 내놓은 챗GPT(ChatGPU)는 차세대 ‘인공지능(AI)’이라는 소용돌이 속에 전 세계를 몰아넣었다. AI가 새로운 먹거리이자 미래 방향성으로 급부상한 것이다. 이러한 AI는 인류에 편의와 효율을 제공하는 매개임과 동시에, 인간의 각종 권리를 침해할 수도 있는 위협적인 존재로 인식되기 시작했다. 이에 따라 미국·유럽연합(EU) 등은 AI가 무분별하게 활용될 수 있는 가능성을 차단하기 위해 갖가지 ‘안전장치’를 발표했다. 미국은 ‘안전·보안·신뢰를 보장하는 AI 개발 및 사용에 대한 행정명령(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)’을 내놨다. EU도 올해 초 결이 유사한 ‘AI 법(AI Act)’의 통과를 공표했다. 앞선 법안은 성장에만 맞춰진 AI 업계의 시각을 우회해 새로운 접근법을 제시한 점이 특징이다. 기술적 측면뿐만 아니라 안전성·보안성·신뢰성·윤리성·투명성 등이 확보된 ‘설득력’ 있는 AI를 전 세계에 전파하겠다는 방향성이 내포돼 있다. 우리나라도 이러한 흐름에 합류해
AI의 발전 속도가 점차 가속화하고 있다. 오픈AI의 GPT-4o와 같은 모델의 출시는 빠르게 진보하는 AI 기술의 대표적인 예다. 자연어 처리와 문맥 이해 능력이 전작인 GPT-3보다 대폭 향상된 바 있다. 이처럼 AI 기술이 계속해서 진화함에 따라, 다양한 산업 분야에서의 응용 가능성이 확장되고 있다. 다만 이로 인한 사회적, 윤리적 문제도 동시에 대두되는 추세다. AI라는 거대한 기술이 가진 영향력을 고려했을 때 적절한 규제와 가이드라인이 필요할 것으로 보인다. AI가 야기하는 문제점은 무엇? AI 시대가 도래하면서, 기술에 대한 기대감과 동시에 우려도 함께 증가하고 있다. AI가 낳는 몇 가지 문제 가운데, 대표적으로는 개인정보 및 데이터 보안이 있다. AI 기술의 발전은 데이터 수집과 분석 능력을 향상시켰다. 한 예로, 구글과 메타 등 빅테크들은 사용자 행동 데이터를 기반으로 개인화한 광고를 제공해 왔다. 이러한 데이터 수집이 사용자의 명시적 동의 없이 이뤄지기도 하며, 데이터 보호에 관한 법적 기준이 충분히 마련되지 않은 상태에서 개인 정보가 유출될 위험도 존재한다. AI로 인해 발생하는 문제에 대한 책임 소재도 불확실하다. 지난 2018년, 테슬
인공지능(AI) 기술 진화가 급속도로 이뤄지면서 그 부작용을 최소화하고자 전 세계가 관련 규제 제정에 나섰다. AI의 발전 속도에 비해 규제가 미비하다는 지적과 그 부작용의 여파가 커져 인류의 존립까지 위협할 수 있다는 우려가 꾸준히 제기되면서 각국이 AI 관련 규범 마련에 속도를 내고 있다. 유엔 총회에서는 21일(현지시간) 회원국들이 AI의 안전한 사용에 관한 국제적인 합의를 시급히 마련해야 한다는 내용의 결의를 만장일치로 채택했다. 국제사회가 유엔총회 차원에서 AI 관련 결의를 공식 채택한 것은 이번이 처음이다. 관련 규제의 필요성을 회원국들이 공유하고 있는 것으로 풀이된다. 유엔총회 결의는 국제법상 구속력은 없지만, 만장일치로 회원국이 찬성했다는 점에서 향후 국제사회가 AI 관련 규제나 거버넌스 체계를 논의하고 마련하는 데 있어 바로미터가 될 전망이다. 미국 주도로 제출된 이번 결의안은 AI 개발과 사용이 빠른 속도로 가속화되고 있다는 점을 인식하고, 안전하고 신뢰할 수 있는 인공지능 시스템에 관한 글로벌 합의를 이루는 게 시급하다는 점을 강조했다. 또한, 적절한 안전장치 없이 AI를 사용하거나 국제법을 위배해 사용해선 안 된다고 못 박고, AI를 부