영국이 페이스북·인스타그램·틱톡 등 대형 플랫폼에 연령 확인을 강화해 알고리즘을 통제할 것을 경고했다. 빅테크 플랫폼에서 유통되는 유해 콘텐츠로부터 미성년 이용자를 보호하기 위한 조치다.
BBC에 따르면 영국 통신미디어 규제 당국인 오프콤(Ofcom)은 지난해 10월 제정된 온라인안전법 시행을 위한 아동 안전 규칙안을 8일(현지시간) 발표했다. 각 플랫폼은 사용자 연령 확인을 강화해 어린이가 자살, 자해, 음란물, 섭식장애 등 유해 콘텐츠를 보지 못하도록 해야 한다.
사용자 식별을 강화해 알고리즘이 어린이 사용자를 유해 콘텐츠로 유도하지 못하도록 하는 것이다. 이에 따라 개인 맞춤형 피드에서 유해 콘텐츠를 차단하거나 줄이도록 알고리즘을 재구성해야 한다.
멜라니 도스 오프콤 대표는 “테크 기업들은 어린이의 개인화된 피드에 유해 콘텐츠를 밀어 넣는 공격적인 알고리즘을 통제해야 한다”며 “나이에 적합한 경험을 하도록 연령 점검을 도입하라”고 요구했다.
오프콤은 이를 어긴 기업 이름을 공개할 예정이다. 도스 대표는 또 “해당 기업들의 미성년자 사용 자체를 원천 차단하는 등 더욱 강력한 조치도 고려될 수 있다”고 경고했다. 그러면서 “이번 조치는 현재 업계 표준을 훨씬 뛰어넘는 수준”이라며 “법이 전면 시행되면 플랫폼에 책임을 지우는 권한을 주저 없이 행사하겠다”고 했다.
온라인안전법은 오프콤에 과징금 부과, 형사처벌 추진 등의 권한을 부여한다. 이번 조치는 대형 플랫폼에 올라오는 유해 콘텐츠를 둘러싼 논란이 갈수록 청소년에게 악영향을 미친다는 비판이 거세진 가운데 나왔다.
송태화 기자 alvin@kmib.co.kr