고도화하는 인공지능(AI) 기술이 성범죄에 악용될 수 있다는 우려가 커지고 있다. AI 훈련에 사용되는 데이터에 아동 성 학대 이미지가 포함된 사례까지 나왔다.
미국 스탠퍼드대 ‘인터넷 감시소’는 AI 오픈소스 데이터베이스 ‘레이온-5B’에서 아동 성 학대 이미지가 최소 1008장 발견됐다고 최근 발간한 보고서에서 밝혔다. 보고서 저자인 데이비드 틸은 “AI 모델이 이미지를 기반으로 실제 아동 성 착취 장면과 비슷한 콘텐츠를 생산할 수 있다”고 말했다.
레이온-5B는 58억개에 달하는 이미지 데이터로 구성됐다. 데이터 총량에 비하면 1000여장은 일부다. 그러나 성능이 뛰어난 AI 모델은 단 몇 장의 이미지만 학습하고도 사용자 명령에 따라 부적절한 콘텐츠를 생산할 수 있다는 게 문제다.
영국의 ‘안전한 인터넷 센터’는 일부 학교로부터 학생들이 AI 이미지 생성 프로그램을 이용해 외설적인 콘텐츠를 만들고 있다는 내용의 보고를 받았다고 밝혔다. 센터는 “부적절한 이미지를 만들어 소유하거나 배포하는 것은 명백한 불법”이라고 강조했다. 미국 교육 서비스 업체 ‘RM 테크놀로지’가 학생 1000명을 대상으로 한 조사에서는 3분의 1가량이 부적절한 콘텐츠를 보기 위해 AI를 사용하고 있다고 답했다.
앞서 소셜미디어(SNS) 분석 업체 ‘그래피카’는 지난 9월 한 달간 2400만명이 AI를 이용해 ‘가짜 누드’ 사진을 만드는 딥페이크 웹 사이트에 방문했다고 전했다. 딥페이크 기술을 이용해 사진 속 사람이 마치 옷을 벗고 있는 것 같은 이미지를 만드는 사이트다.
수많은 데이터를 학습해 사용자가 원하는 결과를 내는 AI 기술이 성범죄로 이어질 가능성은 커지고 있다. 그러나 AI 데이터 품질을 보장하는 기술 개발은 요원하다는 지적이 나온다. 김명주 서울여대 바른AI연구센터장은 24일 “AI 모델이 부적절한 이미지를 학습하는 걸 원천 차단할 수 있는 기술은 아직 없다”며 “이미지를 걸러내는 자동화 수단이 있긴 하지만, 기술이 완벽하지 않다”고 말했다.
조민아 기자 minajo@kmib.co.kr