헬로티 김진희 기자 |
금융당국이 금융분야 인공지능(AI) 가이드라인을 마련했다.
AI 기반 금융서비스에 대한 신뢰를 높이기 위해 전 과정에서 윤리 원칙이 지켜지도록 3중 내부 통제 장치를 마련하겠다는 것이 골자다.
금융위원회는 8일 도규상 부위원장 주재로 제1차 ‘디지털금융협의회 데이터 분과회의’를 열어 인공지능(AI) 기반 금융서비스 개발을 위한 ‘금융분야 AI 가이드라인’을 발표했다.
도규상 금융위 부위원장은 모두발언에서 “최근 우리 금융산업은 금융규제 혁신과 새로운 혁신적 플레이어(Player)들에 의해 금융의 외연이 확장되는 양적 변화를 경험하고 있고 앞으로는 AI 등 기술혁신이 금융의 질적변화를 주도할 전망”이라며 “AI 기술의 안전성 등에 대한 사회적 신뢰가 충분하지 않은 만큼, 금융분야 AI 가이드라인을 통해 AI 금융서비스에 대한 사회적 신뢰를 공고히 하고 지속가능한 금융혁신 환경 조성을 추진하겠다”고 밝혔다.
가이드라인에는 ▲AI 윤리원칙 마련 ▲AI 조직구성 ▲위험관리 정책 수립이라는 3중 안전 장치에 대한 내용이 담겼다.
먼저 AI 서비스의 책임있는 운영을 위해 AI 윤리 원칙 마련, AI 조직 구성, 위험관리정책 수립의 3중 내부 통제장치가 마련된다.
AI를 금융거래 및 대고객서비스에 적용한 전금융업권을 대상으로 금융회사는 회사별 가치, AI 활용 상황(고객군, 서비스 내용 등)등에 따라 AI 서비스 개발·운영 때 준수해야 할 원칙·기준을 수립하고, AI의 잠재적 위험을 평가·관리할 구성원의 역할·책임·권한을 서비스 전단계(기획·설계·운영·모니터링)에 걸쳐 구체적 정의한다.
또한, AI 서비스 자체 평가·관리정책을 마련하고 개인권리에 중대한 위험을 초래할 수 있는 서비스에는 강화된 위험관리를 적용한다.
AI 의사결정이 개인의 금융거래계약의 체결·유지에 중대한 영향을 가져오는 경우, 이에 대한 내부통제·승인절차 등을 마련하며 별도의 책임자를 지정하고, AI가 사람의 의사결정과정을 대체하는 경우, 필요시 사람에 의한 AI시스템 감독·통제가 가능하도록 시스템을 설계한다.
이와 함께, AI시스템 성능을 주기적으로 모니터링하고 AI 개발 환경의 보안취약성 점검 시스템 마련 등 위험완화 조치를 시행한다.
AI 개발·학습단계에서 질 좋은 데이터가 활용되도록 하고, 개인신용정보 오·남용이 없도록 정보보호를 강화하기로 했다.
AI 학습에 사용되는 데이터의 출처·품질·편향성·최신성 등을 조사·검증하고 개선노력을 지속하며, AI 개발 과정에서 개인신용정보 오·남용을 방지하고, 불필요한 개인신용정보 처리를 최소화하는 시스템을 마련한다.
미사용시 AI 시스템에 성능 저하가 발생하는지, 해당 정보 사용시 효과와 혜택을 보는 집단은 누구인지 등 정보활용 필요성을 면밀히 평가하고 재식별·유출 등을 방지한다.
AI 활용결과 불합리한 소비자 차별 등이 나타나지 않도록 서비스 특성별로 위험요인을 통제하고, 서비스 공정성을 높이기로 했다.
AI 시스템 운영과정에서 나타날 수 있는 다양한 위험요인을 서비스 특성에 맞게 합목적적으로 통제하고, AI에 따른 집단간 차별 등 기본권 침해행위가 발생하지 않도록 서비스 특성별 공정성 기준을 설정·평가한다.
금융소외계층에 대한 금융접근성 제고를 목적으로 한 정책금융상품 등 결과적 평등이 중요한 금융상품의 경우, 집단간 대출 승인율 등 인구통계적 동등성 지표를 기준으로 공정성 평가를 한다.
또, 소속 집단 등과 무관하게 자격이 있는 소비자를 판단해야 하는 신용평가, 카드발급심사 등의 경우 집단간 재현율 등 기회의 균등 기준을 기준으로 공정하게 서비스가 개발되었는지 평가한다.
금융소비자가 AI 서비스에 대한 충분한 설명을 듣고, 자신의 권리를 충분히 행사할 수 있도록 지원하기로 했다.
금융소비자에게 AI가 활용된다는 사실을 사전고지하고, 소비자의 권리 및 이의신청·민원제기 등 권리구제 방안 등을 알기쉽게 안내한다.
특히 AI를 통해 신용평가, 보험가입 등 금융거래·계약체결 여부 결정 등을 한 경우 ‘설명요구·정정요구권’이 있음을 알린다. 소비자는 AI 평가결과 및 주요 평가기준, 사용된 기초정보에 대한 설명을 들을 수 있고 AI 평가에 활용된 자신에 대한 정보의 정정·삭제요구, 결과 재산출 등을 요구할 수 있다.
AI 서비스 외부위탁 개발·운영시에도 금융회사가 직접 개발·운영할 때와 똑같이 안전한 개발·운영이 가능하도록 할 계획이다.
외부기관에 대한 AI시스템 개발·운영 위탁시 수탁기관이 준수해야 할 위험관리지침을 마련하고, 주기적 보고·점검한다.
또, AI 서비스로 인한 소비자 피해가 발생하면 조속한 피해구제가 가능하도록 명확한 손해배상 처리 절차 등을 마련한다.
당국은 앞으로 금융권의 내실 있는 금융분야 AI 가이드라인 이행을 위한 충분한 준비기간을 거쳐 가이드라인이 연내 시행되도록 할 계획이다.
금융업권 및 기능·서비스별 특성을 고려해 가이드라인을 구체화한 세부 실무지침도 마련하기로 했다. 가이드라인은 AI 활용 활성화를 위해 AI서비스 신뢰제고에 필요한 필요최소한의 준칙을 제시하는데 초점을 맞췄다.
반면, AI 서비스 개발·운영 과정에서의 규제 불확실성 등을 해소하기 위해서는 업권·기능·서비스 특성 등을 고려한 보다 구체적 행위지침이 필요하다는 금융권 실무자들의 의견이 있어, 금융업권협회 등을 중심으로 실무지침 제정반을 구성·운영해 3분기 내 실무지침을 마련할 예정이다.
이와 함께, 금융권의 AI 활용을 촉진·지원하기 위한 AI 인프라 정비 방안도 워킹그룹 논의 등을 거쳐 3분기 중 발표할 계획이다.
AI 개발 데이터를 제공하는 ‘데이터 인프라(Data Library)’와 소규모 핀테크 회사 등도 손쉽게 AI 서비스를 개발하고 검증할 수 있도록 지원하는 ‘AI 테스트베드’ 등도 구축될 예정이다.