구글 클라우드, “AI 악용이 공격 전 과정 가속”…모델 ‘증류’ 탈취·AI 결합 악성코드 동향 공개

2026.02.13 10:09:54

이동재 기자 eled@hellot.net

구글클라우드, GTIG ‘AI Threat Tracker’ 보고서 발표…2025년 4분기 실제 사례로 악용 흐름 점검

 

구글 클라우드가 사이버 위협 행위자들이 인공지능(AI)을 정찰·사회공학·악성코드 개발 등 공격 라이프사이클 전반에 “점점 더 통합(integrating)하고 있다”는 내용의 위협 인텔리전스 보고서를 공개했다. 보고서는 2025년 4분기(10~12월) 관측 결과를 정리한 GTIG(Google Threat Intelligence Group) ‘AI Threat Tracker’로, 2025년 11월 공개한 분석의 후속 업데이트다. 

 

보고서는 핵심 이슈로 “모델 추출(model extraction) 시도, 즉 ‘증류(distillation) 공격’ 증가”를 들었다. 보고서는 “정상적인 API 접근 권한을 이용해 성숙한 모델을 체계적으로 탐색(probe)하고, 새 모델 학습에 쓰일 정보를 빼내는 행위”를 모델 추출 공격으로 정의하며, 이 과정이 지식 증류(knowledge distillation)로 이어져 “낮은 비용으로 빠르게 모델 개발을 가속”하는 동시에 “지식재산(IP) 절도” 성격을 띤다고 설명했다. 

 

구글 클라우드는 “구글 약관을 위반하는 모델 추출 활동을 탐지·교란·완화(mitigated)했다”고 밝혔다. 다만 보고서는 “GTIG가 추적하는 APT(지능형 지속 위협) 및 정보작전(IO) 행위자”가 최첨단(frontier) 모델이나 생성형 AI 제품을 “직접 공격(direct attacks)한 사례는 아직 관측되지 않았다”고 밝혔다.

 

 

국가 배후 위협 행위자의 활용은 ‘공격 고도화’보다는 ‘공정 개선’에 가까운 양상으로 묘사됐다. 보고서는 “정부 지원 위협 행위자에게 LLM은 기술 연구, 표적화(targeting), 정교한 피싱 미끼의 신속 생성”에 “필수 도구(essential)”가 됐다고 적었다. GTIG는 2025년 4분기 북한·이란·중국·러시아 배후 위협 행위자들이 AI를 어떻게 “운영화(operationalized)”했는지 사례 중심으로 정리했다. 

 

이란 배후 APT42에 대해서는 ‘코드 개발’이 아니라 ‘정찰·사회공학 강화’에 초점을 맞췄다. 보고서는 “APT42가 Gemini를 포함한 생성형 AI로 정찰과 표적 사회공학을 유의미하게 보강했다”고 하면서, “특정 기관의 공식 이메일을 찾고(official emails), 잠재적 비즈니스 파트너를 조사해 접근 명분(pretext)을 만드는” 방식이 포함된다고 설명했다. 구글 클라우드는 “이 활동과 연계된 자산을 비활성화(disabling the assets)하는 조치를 취했다”고 밝혔다. 

 

AI가 악성코드 내부로 들어간 사례로는 HONESTCUE가 제시됐다. 보고서는 2025년 9월 관측된 HONESTCUE가 Gemini API에 프롬프트를 보내 “C# 소스코드를 응답으로 받아” 2단계(stage two) 기능(추가 악성코드 다운로드·실행)을 “생성(generate)”한다고 적었다. 또 2단계는 .NET의 CSharpCodeProvider로 “메모리에서 직접 컴파일·실행”하는 파일리스(fileless) 방식이며, 최종 페이로드 호스팅에 “Discord CDN 같은 CDN”을 쓰는 정황도 언급했다. 보고서는 이 설계가 “전통적 네트워크 기반 탐지와 정적 분석을 약화시키려는 다층 난독화 접근”을 “지원하도록 설계됐을 가능성(likely designed)”이 있다고 평가했다. 

 

피싱 키트 영역에서는 COINBAIT가 ‘AI 기반 코드 생성 가속’ 사례로 포함됐다. 보고서는 2025년 11월 COINBAIT를 확인했다며, 이 키트가 “주요 가상자산 거래소를 사칭해 자격증명을 탈취(credential harvesting)”하는 목적을 가진다고 밝혔다. 또 샘플 분석 결과 “Lovable AI 기반으로 구축된 정황”이 있으며, lovableSupabase 클라이언트 사용과 lovable.app 이미지 호스팅이 근거로 제시됐다. 보고서는 React 기반 SPA로 감싼 복잡한 상태관리·라우팅이 “고수준 프롬프트로 생성된 코드의 징후”라고도 봤다. 

 

사회공학 측면에서는 ‘ClickFix’ 캠페인이 새로 관측된 악용 흐름으로 소개됐다. 보고서는 2025년 12월 초 “생성형 AI 서비스의 공개 공유 기능”을 악용해, AI가 만들어 준 ‘문제 해결 안내’ 형태의 콘텐츠를 링크로 유포하고 사용자가 터미널에 악성 명령을 복사·붙여넣게 만드는 시도를 확인했다고 밝혔다. 이 과정에서 공격자들이 챗GPT, 코파일럿, 딥시크, 제미나이, 그록 등 “다양한 AI 채팅 플랫폼”을 악성 지시문 ‘호스팅’에 활용했다고 적었다. 

 

지하 생태계에서는 ‘자체 AI’를 표방하지만 상용 모델 의존도가 높은 사례로 Xanthorox가 언급됐다. 보고서는 Xanthorox가 “사이버 공격용 맞춤형 AI”를 광고했지만, 조사 결과 “커스텀 AI가 아니라 여러 서드파티·상용 AI(예: Gemini 포함)로 구동”되는 것으로 확인됐다고 밝혔다. 또 LLM 악용을 ‘확장 가능한 방식’으로 운영하려면 API 키와 리소스가 필요해지고, 취약한 오픈소스 AI 도구가 “AI API 키 절취”에 악용돼 “무단 API 재판매·키 하이재킹 블랙마켓”을 키울 수 있다고 경고했다. 구글 클라우드는 “관련 계정과 AI Studio 프로젝트를 비활성화했다”고 덧붙였다. 

 

구글 클라우드는 보고서에서 “악성 행위자와 연계된 프로젝트·계정 비활성화”, “분류기(classifiers)와 모델 보호 강화”, “업계 모범사례 공유”를 통해 방어 역량을 높이겠다고 밝혔다. 보고서는 “초기 지표와 공격적 PoC를 식별해 방어자가 다음 단계의 AI 기반 위협을 선제적으로 예측·차단하도록 돕는 것”이 목적이라고 적었다.

 

헬로티 이동재 기자 |

Copyright ⓒ 첨단 & Hellot.net






검색