‘이루다 사건’ 재발 방지… 인권위, AI 인권 가이드라인 권고

입력 2022-05-17 19:41
국가인권위원회. 연합뉴스

차별과 혐오 발언으로 논란이 된 인공지능(AI) 챗봇 ‘이루다’ 논란이 재발하지 않도록 국가인권위원회가 AI 개발에 인권 가이드라인을 적용하라고 권고했다.

인권위는 17일 ‘AI 개발과 활용에 관한 인권 가이드라인’을 발표했다. 인권위는 국무총리와 과학기술정보통신부 등 관련 부처에도 지난 11일 해당 가이드라인 준수를 권고했다고 이날 밝혔다.

인권위는 “빠르게 발전한 AI 기술이 개인정보와 사생활을 침해하고 차별을 재생산하는 등의 문제를 발생시키고 있다”고 진단했다.

이번 가이드라인은 AI가 인간의 존엄성에 부합하는 방향으로 개발되고 활용돼야 한다는 데 방점이 찍혔다. 인권에 중대한 영향을 미치는 경우에는 사용 데이터와 알고리즘의 주된 요소를 일반에 설명해야 한다는 것이다. 또 AI의 결정이 특정 집단이나 계층에 차별적인 영향을 미치지 않도록 필요한 조치를 취해야 한다는 내용도 포함됐다.

인공지능이 인권을 침해하고 차별을 재생산할 수 있다는 우려는 지난해 20세 여성 대학생으로 설정한 인공지능 챗봇 ‘이루다’의 차별·혐오 발언 논란으로 불거졌다.

당시 이루다의 답변 중 소수자 관련 단어에 대해 ‘혐오스럽다’고 응답하거나, 지하철 임산부석에 대한 거부감을 드러내는 등의 문제 발언이 나왔다. 학습한 데이터의 편향과 알고리즘의 빈틈이 혐오를 낳았다는 분석이 나왔다. 해당 답변이 논란이 되자 이루다를 개발한 스캐터랩 측은 개시 3주 만에 서비스를 중지했다.

개발 과정에서 실제 연인의 대화 내용이 동의 없이 활용된 것으로 알려져 개인정보 보호 논란이 일기도 했다. 스캐터랩은 이루다에 앞서 출시한 ‘연애의 과학’앱으로 실제 연인들의 카톡 대화를 약 100억건 수집해 챗봇 개발에 활용한 것으로 알려졌다.

이의재 기자 sentinel@kmib.co.kr