유튜브, 지난해 4분기만 ‘부적절’ 영상 800만건 삭제…하루 8만9000개꼴

입력 2018-04-24 16:01
사진 = 유튜브 '정책' 페이지 캡처

유튜브가 지난해 4분기 하루 9만건 가량의 부적절한 동영상을 삭제한 것으로 나타났다.

유튜브는 23일(현지시간) 자체 블로그를 통해 “지난해 10~12월 커뮤니티 규정을 위반한 동영상을 800만개 이상 삭제했다”고 밝혔다. 일평균 8만9000건 꼴이다. 800만개의 동영상 중 대부분은 스팸 영상이나 성인물이었다.

그동안 유튜브는 인종차별주의, 아동 음란물, 테러, 폭력 등의 내용이 담긴 부적절한 영상을 효과적으로 차단하지 못했다는 비판을 받아 왔다. 이에 따라 규정 위반 동영상 처리 관련 통계를 처음으로 공개했다.

유튜브 측에서는 현재 12개 항목의 ‘상식적인 규칙’을 제시하고 있다. 과도한 노출 및 성적인 콘텐츠, 유해하거나 위험한 콘텐츠, 증오성 콘텐츠, 폭력적이거나 노골적인 콘텐츠, 괴롭힘 콘텐츠, 스팸 및 사기성 콘텐츠, 위협 콘텐츠, 저작권 위반 콘텐츠, 개인정보 보호 항목, 명의도용 항목, 아동학대 관련 콘텐츠, 저속한 언어를 사용한 콘텐츠 등이다.

컨텐츠 관리를 위해 새로 도입한 기술은 효율성을 높이는 역할을 한 것으로 파악됐다. 670만개 영상은 사람이 아닌 자체 시스템이 문제의 소지가 있는 동영상으로 분류했고, 이 중 76%는 조회수가 10회 미만일 때 삭제됐다. 2017년 초까지 극단적 폭력성을 담은 동영상 중 조회수 10회 미만일 때 삭제된 비율은 8%였지만 머신러닝(기계학습) 시스템 도입 후에는 이 비율이 50% 이상 상승한 것으로 나타났다.

유튜브 측은 블로그에 “우리는 정책을 위반했는지에 대한 평가를 인적 검토에 의존한다”며 “머신 러닝을 도입했다는 것은 사람들이 그 만큼 더 많은 컨텐츠를 검토할 수 있다는 것을 의미한다”고 설명했다.

한편 유튜브 측은 연말까지 규정 위반 컨텐츠를 처리하기 위한 인력을 1만명으로 늘리기로 했으며, 관련 전문가를 고용하고 팀을 확대하고 있다.

김종형 인턴기자