악성코드, 보이스피싱에 생성형 AI 사용… 보안 ‘빨간불’

입력 2023-06-20 15:02
SK쉴더스 EQST 이호석 랩장이 20일 오전 서울 중구 SK T타워 수펙스홀에서 열린 ‘2023년 상반기 보안 트렌드 및 AI 보안 위협 전망’ 미디어 세미나에서 ‘보안 영역에서의 생성형 AI’에 대한 발표를 하고 있다. SK쉴더스 제공

챗GPT 등 생성형 인공지능(AI) 때문에 보안에 ‘빨간 불’이 켜진다는 관측이 나왔다. 입력 데이터의 변조하거나 악의적인 학습용 데이터를 추가해 조작할 수 있다. 생성형 AI를 악성코드를 작성하는 데 쓰거나, 목소리를 복제해 보이스피싱에 악용하는 식으로 보안 위협이 커진다는 지적이다.

이호석 SK쉴더스 이큐스트 랩(EQST Lab)장은 20일 서울 중구 을지로 SKT타워에서 ‘올해 상반기 주요 보안 트렌드와 생성형 AI 보안 위협 전망’을 주제로 간담회를 열고 “생성형 AI 등장으로 AI 모델과 AI 서비스에서 다양한 보안 위협이 등장했다”고 밝혔다. 이어 “생성형 AI는 여러 기술적 한계가 있어 보안 영역에서는 초·중급 수준에 그치고 있다. 보조도구로 쓰면 적절하다”고 덧붙였다.

SK쉴더스는 생성형 AI에 따른 보안 위협을 크게 두 가지로 꼽았다. AI 모델과 AI 서비스에 대한 위협이다. ‘AI 모델’을 대상으로 한 보안 위협은 회피 공격(입력 데이터를 변조해 결과 조작), 추출 공격(사용된 모델 추출), 추론 공격(학습 데이터 추출), 중독 공격(악의적 데이터세트를 추가해 모델 조작)을 뜻한다. ‘AI 서비스’ 대상 보안 위협은 프롬프트 인젝션(악의적 질문을 넣어 목적 이외의 답변을 이끌어내는 공격), 민감한 정보 유출(AI 서비스 자체 취약점을 통한 민감정보 노출), 악성코드 생성(챗봇으로 악성코드 개발), 딥페이크(음성합성 모델 활용해 피싱) 등이다.

이 랩장은 “챗봇 서비스를 활용해 백신을 우회하는 악성코드 스크립트 작성이 가해졌다. AI 기술이 영상 합성 또는 목소리 복제에 악용돼 아이 목소리를 들려주고 돈을 요구하는 보이스피싱 사례도 있었다. 악용 사례는 갈수록 늘어날 전망”이라고 말했다.

전성필 기자 feel@kmib.co.kr