닫기
배너

국제인공지능윤리협회, ‘감정교류AI 윤리 가이드라인’ 제정 발표

국내 최초 감정교류AI 윤리 가이드라인 공식 제정
LAMP 원칙으로 데이터 최소화·AI 고지 의무화

URL복사

 

국제인공지능윤리협회(IAAE, 이사장 전창배)가 국내 최초로 ‘감정교류AI 윤리 가이드라인’을 제정·발표했다. 이번 가이드라인은 인공지능이 인간의 감정과 상호작용하는 과정에서 발생할 수 있는 의존·조작·프라이버시 침해 등의 문제에 선제적으로 대응하기 위한 윤리적 기준을 제시했다는 점에서 큰 의미가 있다.

 

최근 전 세계적으로 감정형 AI 챗봇의 이용이 급증하며 사회적 논의가 활발해지고 있다. OpenAI와 MIT 미디어랩 공동 연구에 따르면 상위 10% 이용자의 대화 절반 이상이 정서 신호를 포함했고, 일부 이용자는 하루 평균 30분 이상 AI와 감정 대화를 이어가는 것으로 나타났다. 국내에서도 감정교류 전문 AI ‘제타’의 월 이용시간이 ChatGPT를 넘어서는 등 청소년층을 중심으로 사용 의존도가 빠르게 높아지고 있다.

 

이번에 마련된 가이드라인은 ▲총칙 ▲윤리적 기반 ▲국내외 동향 및 기준 ▲실천 지침 ▲행동강령과 확산 체계 등 5장과 부록으로 구성됐다. 인간 존엄성과 정서적 안전을 핵심 가치로 삼고 감정 설계의 한계를 명확히 하며 과도한 의존과 감정 조작, 데이터 오남용을 방지하는 구체적 기준을 제시했다. AI가 감정을 표현할 수 있어도 ‘경험’하지는 못한다는 점을 명시해 사용자가 이를 실제 감정으로 오인하지 않도록 경계하는 내용도 포함됐다.

 

가이드라인은 위험 요소를 ▲심리·정서적 위험(과의존, 판단 왜곡) ▲정보·신뢰성 위험(허위 정보, 개인정보 유출) ▲사회·문화적 위험(편향 고착화, 차별 재생산) ▲기술·운영상 위험(환각, 책임 전가) 등 네 가지 범주로 제시했다. 또한 사용자의 정서적 안전을 확보하기 위해 ‘정서적 안전(Emotional Safety)’을 새로운 윤리 원칙으로 추가했다.

 

사용자에게는 AI가 인간이 아닌 기술적 모의임을 인식하고 자율적으로 이용을 조절할 책임을 부여했으며, 개인정보 자기결정권과 공정성·접근성 요구권을 명시했다. 서비스 제공자에게는 ‘LAMP’ 원칙(▲L(Limit): 데이터 최소 수집 ▲A(Announce): AI임을 명확히 고지 ▲M(Monitor): 지속적 점검·검증 ▲P(Protect): 개인정보 및 취약계층 보호)이 제시됐다. 특히 장시간 사용 시 휴식 유도, 위험 키워드 감지 시 전문기관 안내 등 의존 완화를 위한 기술적 장치 도입을 의무화했다.

 

정책기관에는 ▲감정교류AI를 ‘고영향 인공지능’으로 지정 ▲정신건강 보호 명문화 ▲영향평가 및 인증제도 구축 ▲사업자 책임 강화 ▲피해 구제 체계 마련 등을 권고했다. 또한 윤리적 설계(‘Ethics by Design’)를 산업 표준으로 확산하고, 다학제 거버넌스와 생애주기별 AI 윤리 교육 체계 구축을 제안했다.

 

전창배 국제인공지능윤리협회 이사장은 “이번 가이드라인은 선언적 원칙에 그치지 않고 사용자, 서비스 제공자, 정책기관 등 주체별로 구체적인 실천 기준과 행동강령을 제시한 것이 특징”이라며 “AI 기술 발전 속도에 비해 늦어진 사회적 규범과 제도 정비를 보완해 산업계의 책임 있는 혁신과 정책 수립의 기반이 될 것”이라고 강조했다.

 

한편, 이번 가이드라인은 박미애 경북대학교 교수(집필총괄)를 비롯해 산업계·법조계·교육계 전문가 9인이 참여했으며 협회 홈페이지에서 공개되어 누구나 출처를 명시해 자유롭게 활용할 수 있다.

 

헬로티 김재황 기자 |













배너

배너


배너


주요파트너/추천기업