S2W가 2024년 주요 사이버 위협 사례를 분석한 보고서를 발표했다. 이번 보고서에서는 생성형 AI의 대중화로 인해 대규모 언어 모델(LLM)을 악용한 사이버 위협이 급증하고 있으며, 이를 악용한 공격 사례가 다수 보고됐다. S2W는 APT 그룹의 악용 시도와 민감 정보 유출 사고 등 다양한 사례를 심층적으로 다루며 이에 대한 대응 전략을 제시했다. 보고서에 따르면 올해 사이버 위협은 공급망 공격, 국제정세 불안정에 따른 사이버 공격, 은닉 채널을 통한 정보 유출 등으로 구체화됐다. 특히 생성형 AI 기술이 대중화되면서 LLM 취약점을 악용한 사이버 위협이 주목받았다. 보고서는 국가 지원 해커가 LLM의 취약성을 활용해 정보 수집, 코드 디버깅, 피싱 콘텐츠 작성 등 다양한 공격을 시도했다고 밝혔다. 올해 2월, 특정 국가를 배후에 둔 APT 그룹이 LLM을 활용한 사례가 포착된 바 있다. AI 플랫폼에 ‘시큐리티 가드레일’을 구현해 LLM 관련 보안을 강화하고 민감 데이터 유출 위험을 최소화했다고 밝혔다. LLM 관련 위협 외에도 공급망 취약점을 이용한 정교한 APT 공격 사례도 조명됐다. 사례로는 오픈소스 압축 유틸리티 ‘XZ 유틸스’의 유지 관리자가
길게는 수개월 소요되던 문제 검토·해결, 생성형 AI 활용으로 초 단위 단축 LG디스플레이가 기술 및 정보 유출 우려 없이 사내 지식을 고도화할 수 있는 생성형 AI를 자체 개발해 고객가치 창출을 위한 업무혁신을 가속화한다. LG디스플레이는 업계 최초로 자체 생성형 AI 를 개발해 도입했다고 밝혔다. 문제 검토 및 해결에 길게는 수개월 소요되던 시간을 생성형 AI를 통해 초 단위로 획기적으로 단축해 임직원이 고객가치 창출에 더 많은 시간을 몰입할 수 있게 됐다. LG디스플레이의 생성형 AI는 LG디스플레이에 특화한 지식을 학습해 최적화한 결과물을 도출해 낸다. AI 시스템에 제품 품질과 관련된 질문을 입력하면 축적된 사내 특화 지식을 분석해 최적의 답변을 제시해 준다. 예를 들어, “OO 품질 강화 방법 알려줘”라는 질문을 입력하면 이에 해당하는 데이터를 분석해 즉각 답변해 주는 형식이다. 생성형 AI 도입으로 임직원들은 업무 전문 지식이 필요할 때 담당자에게 문의하거나 과거 자료를 찾아보지 않고도 손쉽게 문제를 해결하게 됐다. 생성형 AI를 이용하면 데이터로 자산화한 선배들의 노하우를 수 초 내에 획득할 수 있게 돼 업무 지식의 상향평준화도 가능하다. 업무
[첨단 헬로티] AI가 USB·하드디스크·메모리카드 등 저장매체 8종 판독 LG CNS, 철저한 보안 요구되는 연구소·공장 등에 ‘AI보안요원’ 투입 LG CNS가 AI를 엑스레이 장비에 결합해 기업·기관의 정보유출을 원천 차단하는 ‘AI 엑스레이 영상분석’(가칭: AI 보안요원) 기술을 개발했다. LG CNS ‘AI 보안요원’은 각종 건물 출입구에 설치된 엑스레이 장비가 촬영한 가방, 외투 등의 사진을 AI가 분석, 정보유출 가능성이 있는 저장매체나 전자기기를 0.3초만에 찾아내는 기술이다. ▲LG사이언스파크에 위치한 LG디스플레이 연구소에서 AI가 엑스레이 사진을 분석해 보안담당자에게 전달한 모습 숨겨놓은 저장매체를 AI가 발견하면, 모니터상에 ‘USB 99.0%’, ‘Memory Card 85.5%’와 같이 저장매체 이름과 판단 결과에 따른 확률을 같이 표시한다. 엑스레이 검색대 벨트도 정지시킨다. ‘Memory Card 85.5%’는 식별된 저장매체가 메모리카드일 확률이 85