닫기

기획특집

배너

[2024 AI Ⅱ] 양면성 가진 AI, 규제와 개발 사이 탄생한 딜레마

URL복사


AI는 마치 불과 같다. 어떻게 사용하느냐에 따라, 도구가 될 수 있고 위협이 될 수 있다. AI는 뛰어난 연산능력으로 인간이 오랜 시간을 필요로 하는 작업을 손쉽게 해낸다. 또한, 그 뛰어난 성능이 오용된다면 인류를 위협하는 거대한 잠재 요인이 되기도 한다. AI 기술의 뛰어난 도약이라고 평가받는 챗GPT 등장 이후, AI는 인간의 삶속으로 들어왔다. 이에 AI 성능 못지 않게 안전성과 보안이 부각되고 있다. 계속해서 진화하는 AI 기술을 두고 주요 국가와 기업들은 AI에 대한 안전장치 마련을 위해 규제와 제도 등을 개선하고 있다. 



부머·두머 간 팽팽한 줄다리기

 

지난해 11월, 오픈AI 샘 올트먼 CEO의 해고를 둘러싼 이슈는 AI 업계에 상징적인 사건이었다. 업계에서는 소위 AI를 두고 ‘부머(Boomer)’와 ‘두머(Doomer)’ 진영의 갈등이라고 언급되기도 했다. 두머는 AI로 인한 인류 절멸 가능성을 우려하는 효과적 이타주의라면, 부머는 효과적 가속주의로 불리며 AI 개발이 방해받지 않아야 할 뿐 아니라 속도를 높여야 한다는 것이다.

 

샘 올트먼을 포함한 이사회에서는 AI의 잠재력을 두고 안전성과 기술개발 속도, 사업화 등의 안건에서 이견이 존재했다. 결국 이사회는 사전 통보 없이 샘 올트먼을 해고시켰으나, 샘 올트먼 CEO가 5일 만에 복귀하면서 해프닝은 마무리됐다. 샘 올트먼은 부머로 분류되는 인사지만, 향후 AI 업계의 개발 문화가 어떻게 흘러갈지 아직 미지수다. 

 

AI 개발 가속화가 주를 이룰 것으로 보이나, 회의적인 시각도 여전히 존재한다. 두머 진영을 대표하는 석학 중 하나인 제프리 힌턴 캐나다 토론토대학 명예교수가 그 중 하나다. 그는 “생성형 AI가 인류 지능을 넘어 인간 사회를 지배할 가능성이 있다”고 언급해 화제가 됐다.

 

제프리 힌턴 교수는 챗GPT가 이미 인간 뇌의 수천 배 지식을 축적하며, 2020년대에 다양한 영역에서 인간 능력을 넘어설 것이라고 밝혔다. 그는 생성형 AI로 인해 정부 주도에 의한 여론 조작, 가짜 뉴스 배포, 전쟁에 대한 위협, 일자리 감소 등의 문제가 발생할 것이라고 말했다. 또한, 대기업과 주요국가의 개발 경쟁이 이뤄짐에 따라 규제하기 어려워질 것이라고 덧붙였다. 

 

제기되는 AI 위협 가능성 ‘여전’

 

워싱턴포스트(WP)에 따르면, 유럽 비영리 기관인 AI포렌식스와 알고리즘워치가 마이크로소프트가 개발한 생성형 AI ‘빙’에 미국, 독일, 스위스에서 있었던 최근 선거와 관련해 후보, 여론조사, 투표 등에 대한 기본적 질문을 한 결과, 3개 중 1개꼴로 부정확한 답변이 생성됐다고 알려졌다.

 

AI포렌식스 연구 책임자는 비단 빙에만 한정된 문제가 아니라고 밝혔다. 오픈AI의 ‘챗GPT-4’에도 같은 질문으로 시험한 결과, 동일한 문제점이 발견됐다. 이 문제에 대해 MS는 미국 선거 전까지 바로잡을 것이라고 밝혔다.

 

나아가 생성형 AI를 도구로 삼아 선거에 대한 사이버 위협 가능성도 제기된다. 최근 과학기술정보통신부와 한국인터넷진흥원이 발표한 2024년 사이버 보안 위협 전망에 따르면, 생성형 AI를 악용한 사이버 범죄가 늘어날 것이라고 예측했으며, 운영기술, 산업제어시스템, 사물인터넷 등에 대한 위협도 증가할 것으로 내다봤다. 

 

금융 시스템에 대한 위협도 존재한다. 외신에 따르면, 미국 금융안정감독위원회(FSOC)는 연례 보고서에서 “AI가 효율성을 높일 잠재력이 있지만, 금융 분야에서의 사용은 잠재적 리스크를 관리하기 위한 신중한 결정을 요구한다”고 밝혔다. 이날 FSOC는 AI를 ‘급부상하는 취약점(emerging vulnerability)’으로 공식 규정하기도 했다.

 

여기에는 생성형 AI 모델에 대한 우려도 포함됐으며, 데이터 보안과 소비자 보호 등이 근거로 제시됐다. 이뿐 아니라 FSOC는 AI 모델 도입에서 “AI 모델이 가진 설명 가능성의 부족은 금융 시스템의 개념적 건전성을 평가하기 어렵게 만들고 적합성과 신뢰성에 대한 불확실성을 증대시킨다”고 언급했다.

 

한편, 일자리 위협도 오랫동안 대두된 논쟁거리다. 미국 구인 플랫폼 레주메빌더가 발간한 보고서에 따르면, 지난 2023년, AI 기술이 노동자를 대체했다고 생각하는 기업인은 37%였다. 44%는 AI 효율화로 올해 해고가 발생할 것이라고 답했다.

 

응답자 중 현재 AI를 사용하고 있다고 답한 기업은 53%였고, 내년에 사용할 것이라는 응답도 24%에 달했다. 응답자 중 96%는 채용 시 AI 기술을 가진 지원자를 채용할 것이라고 답했다. 83%는 AI 기술을 가진 노동자의 고용 안전성이 그렇지 않은 노동자보다 높다고 판단했다. 업무 협업 도구인 아사나에서 발표한 보고서에서도, 응답자는 업무 중 29%를 AI로 대체한다고 답했다. 

 

범국가적 차원의 AI 규제 논의 이뤄져

 

지난해 11월, 영국 블레츨리 파크에서 개막한 제1회 ‘AI 안전 정상회의’에서 AI 개발에 따른 부작용을 막기 위한 ‘블레츨리 선언’이 발표돼 화제가 됐다. 블레츨리 선언에는 우리나라를 비롯해 미국, 중국 등 28개국과 EU가 동참했다.

 

참여 국가는 고도의 능력을 갖춘 AI를 뜻하는 프런티어 AI가 잠재적으로 막대한 피해를 입힐 수 있다는 사실에 동의했다. 이와 함께 빠른 기술 발전 속도에 대비해 필요한 대응 조치와 각국 정책 마련을 위해 협력할 것을 다짐했다. 

 

지난 12월에는 EU에서 AI에 관한 세계 첫 규제 법안이 합의됐다. 블룸버그 등 외신에 따르면, 유럽연합 집행위원회(EC)와 유럽의회, EU 27개 회원국 대표는 ‘AI 법’으로 알려진 법안에 합의했다. 타결안에 따르면, AI 위험성을 분류하고 투명성을 강화하며, 규정을 준수하지 않는 기업에는 벌금을 부과하는 내용이 담겼다. EU의 AI 규제 논의는 집행위원회가 2021년 4월 법안 초안을 발의하면서 시작됐고, 새로운 기술들이 연이어 등장함에 따라 일정이 지연됐다. 법안 초안은 유럽 의회와 회원국의 공식 승인을 거쳐야 하며, 승인 후 완전히 발효되기까지 2년이 소요된다. 이후 EU는 규제를 위한 국가 및 범유럽 규제 기관을 창설할 계획이다.

 

AI 규제에 대한 주요 국가의 동향도 주목된다. 미국은 AI의 선용을 위한 유엔 회원국의 노력을 촉구하는 유엔 결의안을 추진했다. 결의안은 AI가 기후변화 등 인류 과제 해결에 기여할 수 있지만, 오용될 경우 평화와 인권을 침해할 수 있어 안전망을 마련해야 한다는 내용을 강조했다.

 

과학기술정보통신부와 한국정보통신기술협회(TTA)는 지난 12월 정보통신표준총회에서 AI 시스템 신뢰성 제고를 위한 요구사항 정보통신단체표준을 제정한 바 있다. 이번에 처음 마련된 단체표준은 과기정통부의 국가 AI 윤리기준과 분야별 신뢰할 수 있는 AI 개발안내서를 기반으로, AI 시스템 전체 생명주기에서 이해관계자가 신뢰성을 높이기 위해 충족해야 할 요구사항을 제시했다.

 

헬로티 서재창 기자 |

관련기사









배너










주요파트너/추천기업