AI 도구가 업무 전반에 빠르게 확산되는 가운데 한국 사회의 개인정보 보호 인식 수준이 위험 수위에 이르렀다는 조사 결과가 나왔다. 글로벌 사이버 보안 기업 노드VPN은 세계 데이터 프라이버시의 날(Data Privacy Day)을 맞아 AI 활용 확산 속에서 한국인이 직면한 개인정보 보호 위험을 분석한 조사 결과를 공개했다.
노드VPN이 2025년 한 해 동안 진행된 국가 개인정보 테스트(National Privacy Test, NPT) 데이터를 분석한 결과, 한국인의 92%는 업무에서 AI를 사용할 때 고려해야 할 개인정보 보호 요소를 충분히 인식하지 못하고 있는 것으로 나타났다. 생성형 AI가 업무 생산성을 높이는 핵심 도구로 자리 잡았지만 개인정보 보호와 데이터 관리에 대한 이해는 그 속도를 따라가지 못하고 있다는 분석이다.
실제 업무 현장에서는 ChatGPT, Copilot 등 생성형 AI 도구가 문서 작성, 아이디어 정리, 업무 보조 수단으로 폭넓게 활용되고 있다. 그러나 이 과정에서 개인 정보나 내부 업무 데이터가 무심코 입력되거나 노출되는 사례가 늘고 있음에도 AI 대화 기록의 저장 여부나 활용 방식에 대한 인식은 여전히 부족한 상황이다.
조사 결과는 업무 환경을 넘어 일상 전반의 보안 인식 문제도 함께 드러냈다. 한국인의 45%는 딥페이크와 음성 복제 등 AI 기술을 활용한 사기를 정확히 구별하지 못하는 것으로 나타났다. AI 기술이 텍스트 생성 단계를 넘어 실제 인물과 구분하기 어려운 영상과 음성까지 구현하면서 사기 수법 역시 한층 정교해지고 있다는 평가다.
노드VPN의 기존 연구 결과도 이러한 흐름을 뒷받침한다. 전 세계적으로 최근 2년간 3명 중 1명은 온라인 사기를 경험했으며 이 가운데 49%는 실제 금전적 피해를 입은 것으로 조사됐다. AI 기술이 사이버 범죄에 활용되면서 과거보다 적은 기술적 지식만으로도 고도화된 사기가 가능해졌고 2026년에는 AI 기반 공격이 주요 사이버 보안 위협으로 부상할 가능성이 제기되고 있다.
노드VPN은 AI 시대의 개인정보 보호 위험을 줄이기 위해 기술 자체보다 사용자의 판단과 기본적인 보안 원칙이 중요하다고 강조했다. 회사 기밀과 고객 정보의 AI 입력 금지, AI 대화 내용의 기록·저장 가능성 인지, 조직 차원의 AI 사용 정책 확인, 예상치 못한 금전 정보 요청에 대한 경계, AI 생성 음성과 영상에 대한 무조건적 신뢰 지양, 보안 소프트웨어의 최신 상태 유지 등이 주요 권고 사항으로 제시됐다.
마리우스 브리에디스 노드VPN 최고기술책임자는 “AI 도구는 동료와의 대화와 달리 기록되고 분석될 수 있으며 향후 모델 학습에 활용될 가능성도 있다”며 “직원들이 고객 정보나 내부 전략, 개인정보를 무심코 AI에 입력할 경우 스스로 인식하지 못한 보안 취약점이 발생할 수 있다”고 경고했다.
헬로티 구서경 기자 |





