행정안전부는 인공지능(AI) 기술을 통한 행정혁신을 촉진하면서도 국민 신뢰를 확보하기 위해 ‘공공부문 인공지능 윤리원칙’을 마련했다고 밝혔다. 최근 AI 기술이 급속히 발전하며 행정, 산업, 사회 전반으로 확산되는 가운데, 알고리즘 편향과 개인정보 침해 등 부작용이 우려되고 있다. 이에 각국 정부는 공공영역에서 AI를 안전하고 책임 있게 활용하기 위한 윤리체계 마련에 나서고 있다. 우리나라도 과학기술정보통신부, 교육부 등 부처별로 윤리지침을 운영 중이다. 행정안전부는 공공영역의 인공지능 활용이 국민 생활과 직결되는 만큼, 민간과는 차별화된 윤리원칙이 필요하다고 판단해 전문가 워킹그룹과 자문회의를 통해 초안을 마련했다. 이번에 제시된 공공부문 인공지능 윤리원칙은 ‘행정혁신 촉진과 국민 신뢰 구축’을 목표로 ▲공공성 ▲투명성 ▲안전성 ▲형평성 ▲책임성 ▲프라이버시 보호 등 6대 원칙으로 구성됐다. 또한 원칙별로 90여 개의 세부 점검항목을 마련해 공공기관 종사자가 직접 윤리 이행 여부를 점검할 수 있도록 했다. 이번 윤리원칙의 주요 특징은 두 가지다. 첫째, 모든 사회 구성원이 아닌 중앙행정기관, 지방자치단체, 공공기관 및 지방공사·공단 등 ‘공공부문 종사자’를
국제인공지능윤리협회(IAAE, 이사장 전창배)가 국내 최초로 ‘감정교류AI 윤리 가이드라인’을 제정·발표했다. 이번 가이드라인은 인공지능이 인간의 감정과 상호작용하는 과정에서 발생할 수 있는 의존·조작·프라이버시 침해 등의 문제에 선제적으로 대응하기 위한 윤리적 기준을 제시했다는 점에서 큰 의미가 있다. 최근 전 세계적으로 감정형 AI 챗봇의 이용이 급증하며 사회적 논의가 활발해지고 있다. OpenAI와 MIT 미디어랩 공동 연구에 따르면 상위 10% 이용자의 대화 절반 이상이 정서 신호를 포함했고, 일부 이용자는 하루 평균 30분 이상 AI와 감정 대화를 이어가는 것으로 나타났다. 국내에서도 감정교류 전문 AI ‘제타’의 월 이용시간이 ChatGPT를 넘어서는 등 청소년층을 중심으로 사용 의존도가 빠르게 높아지고 있다. 이번에 마련된 가이드라인은 ▲총칙 ▲윤리적 기반 ▲국내외 동향 및 기준 ▲실천 지침 ▲행동강령과 확산 체계 등 5장과 부록으로 구성됐다. 인간 존엄성과 정서적 안전을 핵심 가치로 삼고 감정 설계의 한계를 명확히 하며 과도한 의존과 감정 조작, 데이터 오남용을 방지하는 구체적 기준을 제시했다. AI가 감정을 표현할 수 있어도 ‘경험’하지는 못
6~7월 중 우즈벡 정부와 아카데미 설립 및 교육 과정 운영 계획 구체화할 것으로 보여 씽크포비엘이 우즈베키스탄 정부와 협력해 AI 신뢰성 분야 인재 양성 및 산업 생태계 조성에 나선다. 특히, 급변하는 AI 시대에 대응하기 위해 기술 교육 과정을 운영하고 전문 인력을 배출하는 데 초점을 맞춘다. 씽크포비엘은 최근 우즈베키스탄 제2의 도시 사마르칸트에서 디지털기술부 루스탐 카림조노프 차관과 사마르칸트주 에감베르디예프 딜무로드 디지털화국장을 만나 AI 신뢰성 분야 기술 교류 및 협력 방안을 논의했다고 밝혔다. 회사는 이 자리에서 AI 신뢰성 검증 전문가 양성의 필요성을 강조하며, 관련 교육 과정 설립 및 운영 시 자사의 경험과 기술을 공유하겠다는 뜻을 전했다. 우즈베키스탄 정부 역시 AI의 기능 평가를 넘어, 이상 행동과 비윤리적 의사결정 감지·통제 기술에 높은 관심을 나타냈다. 루스탐 카림조노프 차관은 “씽크포비엘이 아카데미 법인을 설립하면 정부 차원에서 수강생 교육비와 활동비 지원을 적극 추진할 것”이라고 밝혔다. 아카데미는 사마르칸트에 설치될 가능성이 높다. 수도 타슈켄트에 비해 세제 혜택과 인건비 부담이 낮고, 외국어 능력과 기술 역량을 갖춘 청년 인재
AI 시스템의 심리와 행동 분석해 잠재적 위험 사전 감지 인공지능(AI) 분야의 세계적 석학 요슈아 벤지오 캐나다 몬트리올대 교수가 인간 통제를 벗어난 AI 출현에 대비해 새로운 형태의 '과학자 AI' 개발에 나선다. 그는 이를 위해 비영리단체 '로제로(LawZero)'를 설립하고, 안전한 AI 생태계 구축에 본격적으로 나섰다. 요슈아 벤지오 교수는 최근 급속히 발전하고 있는 AI 기술이 인간의 통제 밖으로 벗어날 가능성을 경고해 왔다. 로제로는 이러한 우려를 반영해 AI의 위험성을 예측하고 통제하는 역할을 수행할 독립적인 AI 모델 개발을 목표로 한다. 새롭게 개발될 '과학자 AI'는 기존 AI 모델과 달리 인간 행동을 모방하지 않는다. 대신 다른 AI 시스템의 심리와 행동을 분석해 잠재적 위험을 사전에 감지하고, 이를 억제하는 기능에 초점을 맞춘다. 요슈아 벤지오 교수는 이 AI가 거짓말을 하거나 생존을 추구하지 않고, 솔직하고 속이지 않는 특성을 갖추도록 설계할 것이라고 밝혔다. 그는 대부분의 AI가 인간 행동을 본떠 개발되면서 거짓말이나 속임수 같은 부정적 특성까지 학습할 위험이 있다고 지적했다. 이에 대해 요슈아 벤지오 교수는 "우리는 인간을 모방하
산업 현장의 실질적인 대응 전략과 윤리적 기준 설정 논의 국제인공지능윤리협회(IAAE)가 27일 서울 강남구 구글 스타트업 캠퍼스에서 ‘2025 AI Safety Compass(ASC)’ 컨퍼런스를 성황리에 마쳤다. ‘변화하는 AI 환경에서의 기업 경쟁력 확보’를 주제로 열린 이번 행사는 생성형 AI의 확산과 내년 1월 예정된 ‘AI 기본법’ 시행을 앞두고, 산업 현장의 실질적인 대응 전략과 윤리적 기준 설정을 논의하는 자리였다. 올해로 2회를 맞이한 ASC 컨퍼런스에는 과학기술정보통신부, KISTI, AI안전연구소 등 공공기관과 함께 LGU+, 원티드랩, 셀렉트스타, AI3 등 다양한 AI 기업이 연사로 참여했으며, 금융, 교육, 법률 등 산업군 종사자 130여 명이 참석해 높은 관심을 보였다. 기조 세션의 포문을 연 과학기술정보통신부 공진호 과장은 “AI 패권 경쟁이 심화되는 시점에서 한국은 글로벌 3위권 진입을 위한 전환점을 맞이하고 있다”며, AI 인프라 확충, 인재 양성, 연구개발 강화 등을 핵심 과제로 제시했다. 이어 KISTI 이경하 센터장은 초거대 언어모델을 활용한 과학 연구 자동화의 가능성을 조망하며, AI가 학문적 패러다임을 재편하고 있다고