인공지능(AI) 학습에 사용되는 유명 데이터베이스에 1000개가 넘는 아동 성적 학대 사진이 발견됐다는 주장이 제기돼 논란이 일고 있다.
20일(현지시간) 워싱턴포스트에 따르면 미국 스탠퍼드대 인터넷 감시소(Observatory)는 최근 발표한 보고서에서 ‘레이온(LAION)-5B’라는 인기 오픈소스 이미지 데이터베이스에서 최소 1008장의 아동 성적 학대 사진을 발견했다고 밝혔다.
레이온-5B는 텍스트를 이미지로 변환해 주는 AI 모델로, 인기 이미지 생성 AI인 ‘스테이블 디퓨전’ 등에 사용된 바 있다.
레이온 측은 “안전성 확보를 위해 문제가 되는 이미지를 제거하고 있다”고 했다. 다만 몇 장만의 사진 학습만으로도 AI가 이미지를 만들어낼 수 있다는 점에서 아동 성 학대 사진이 1000개 이상 포함돼 있는 상황에 대한 우려의 목소리가 나오고 있다.
보고서를 발표한 연구소의 최고기술자 데이비드 티엘은 “AI가 기본적으로 해당 이미지를 이용해 아동 성 학대와 같은 콘텐츠를 제작할 수 있다”고 전했다. 이어 소아성애자들이 이전보다 불법 이미지를 쉽게 만들 수 있으며, 그 양도 늘고 있다고도 지적했다.
문제의 이미지들이 어떻게 ‘레이온-5B’의 데이터베이스에 포함됐는지는 구체적으로 알려지지 않았다. 다만 연구진은 데이터베이스 제작자들이 소셜미디어나 성인용 비디오 사이트, 공개된 인터넷에서 이미지를 수집하면서 실수로 추가됐을 가능성이 있다고 언급했다.
보고서는 아동 성 학대 콘텐츠와 당사자의 동의를 받지 않은 음란물 등을 데이터베이스에서 걸러내고 제거하기 위한 규약(프로토콜)을 마련해야 한다고 강조했다.
성윤수 기자 tigris@kmib.co.kr