회사 승인을 받지 않은 인공지능(AI) 도구, ‘섀도우(그림자) 에이전트’가 치명적인 보안 문제를 일으킬 수 있다는 구글의 경고가 나왔다. 생성형 AI를 활용한 딥페이크 기술이 비약적으로 발전하면서 보이스피싱 등 사칭 범죄 역시 급격하게 늘어날 것으로 예상됐다. 향후 AI 기술을 악용한 사이버 공격이 ‘새로운 표준’으로 자리잡을 공산이 크다는 분석이다.
구글 클라우드 위협 인텔리전스 그룹(GTIG)은 5일 공개한 ‘2026년 사이버 보안 전망 보고서’를 통해 다가올 주요 보안 위협 동향을 전망했다. 보고서는 사람의 심리를 악용해 정보 유출이나 계정 탈취를 시도하는 소셜 엔지니어링과 정보 작전, 멀웨어(악성코드) 개발 등의 공격이 가속화될 것이라며 주의를 당부했다.
섀도우 에이전트의 위험성이 점차 고조되는 상황도 지적했다. 내부 직원이 조직의 허락을 받지 않은 상황에서 자율형 AI 에이전트나 AI 도구를 배포하는 경우 눈에 띄지 않고 통제도 불가능한 ‘파이프라인’이 생성돼 민감 데이터가 유출될 수 있다는 것이다. 이와 함께 가상화 기반 인프라(하이퍼바이저)를 목표로 한 공격이 늘면서 내부·인프라 보안 위협도 심화될 것이라고 내다봤다.
딥페이크 기술로 상대방을 속이는 사칭 또한 본격화할 전망이다. 정교한 결과물로 피해자를 설득하다 보니 보이스피싱 성공률도 높아진다는 설명이다. 텍스트 딥페이크를 활용한 대규모 비즈니스 이메일 침해(BEC) 공격도 한층 수월해질 것으로 예상된다.
보고서는 또 KT 무단결제 사태로 재조명된 기지국 무단 접속 범죄가 아시아태평양 지역에서 계속 이어질 것이라고 봤다. 공격자가 쉽게 돈을 챙길 수 있는 반면, 붙잡힐 확률은 현저히 낮기 때문이다. 이런 범죄자들은 차량에 탑재한 가짜 기지국(FBS)으로 합법적인 셀룰러 네트워크를 사칭, 주변 기기를 연결하도록 유인한다. 연결이 되면 FBS는 할인 등의 콘텐츠로 위장한 피싱 메시지를 전송해 사용자가 특정 사이트에 접속하도록 만든다. 보고서는 올해 1분기 태국과 인도네시아 등에서 관련 수법을 사용한 이들이 체포됐음에도 같은 유형의 범죄가 3분기에 다시 등장한 점을 들어 유사한 위협이 전세계적으로 반복될 수 있다고 강조했다.
박선영 기자 pomme@kmib.co.kr