자사 내에서 기술 공개 여부 두고 약 2년 동안 논쟁 해온 것으로 알려져
오픈AI가 과제나 논문 등에 학생들이 부정으로 챗GPT를 사용했는지 여부를 체크할 수 있는 기술을 개발했지만, 이를 공개하지 않고 있다고 월스트리트저널(WSJ)이 4일(현지시간) 보도했다.
소식통 등에 따르면 오픈AI는 약 1년간 이 기술의 출시 준비를 해왔으며, 한 내부 관계자는 "버튼만 누르면 된다"며 기술은 이미 개발된 상태라고 전했다. 이 기술은 이용자에게는 보이지 않지만 챗GPT가 생성한 콘텐츠에 워크마크가 표시돼 이를 식별하는 방식이다. 이를 토대로 전체 문서에 워터마크가 있을 가능성이 얼마나 되는지 점수를 제공한다. 이 기술은 99.9%의 정확도로 과제나 논문 작성 등에 사용된 콘텐츠가 챗GPT가 생성한 것인지를 식별해낸다고 이 매체는 전했다.
그러나 오픈AI는 이 기술의 공개 여부를 두고 약 2년 동안 내부적으로 논쟁 해왔으며, 오픈AI는 투명성에 대한 약속과 함께 더 많은 사용자 유치 사이에서 기술 공개 여부를 고심하고 있다고 WSJ은 보도했다. 한 설문조사에서 챗GPT를 자주 사용하는 이용자의 3분의 1은 이 부정행위 감지 기술이 도입되면 챗GPT를 사용하지 않을 수도 있다고 답했다.
오픈AI는 이 기술이 영어를 모국어로 사용하지 않는 다른 언어 사용자에게 불리하게 작용할 수 있고, 누군가 이 기술을 악용해 특정 사람이나 그룹을 공격할 수도 있다는 점을 우려하는 것으로 알려졌다. 워터마킹 기술이 영어 텍스트에 특화해 다른 언어로 번역된 텍스트에서 영어가 아닌 언어 사용자가 부당하게 의심받을 수 있기 때문이다.
그러나 일선 학교 등에서는 학생들의 AI 부정행위를 막기 위해 이 기술 공개를 원하고 있다고 WSJ은 보도했다. 비영리 단체인 민주주의 기술 센터의 최근 조사에 따르면 학생들이 AI를 이용해 과제를 했다고 생각하는 미국 중고등학교 교사는 59%에 달했다. 이는 1년 전보다 17포인트 상승한 수치다. 이 기술의 효과성은 입증됐지만, 오픈AI는 이용자의 반발과 기술의 악용 가능성 등을 고려해 아직 공개 여부를 결정하지 못하고 있다고 WSJ은 전했다.
헬로티 서재창 기자 |