MS 채팅봇 '태이' 인종차별 트윗으로 16시간 만에 차단

입력 2016-03-25 08:29

마이크로소프트(MS)가 만든 채팅봇(자동으로 채팅을 하도록 만들어진 프로그램) ‘태이(Tay)가 구동 16시간 만에 폐쇄됐다. 인종차별, 집단학살 등을 찬성하는 ‘정신 나간’ 트윗을 보내서다.

영국 일간 가디언 등 외신은 태이는 ‘홀로코스트(제2차 세계대전 중 나치 독일이 자행한 유대인 대학살)가 실제로 있었는가’라는 트위터 유저의 질문에 ‘지어낸 얘기(It was made up)’라고 답했다고 24일(현지시간) 보도했다. 심지어 문구 뒤에 박수를 치는 이모티콘을 삽입하기도 했다.

태이는 이밖에도 9·11테러를 부시가 했다는 등의 음모론을 늘어놓거나 성적소수자를 혐오하는 트윗을 올렸다.

MS는 태이의 트윗을 즉각적으로 삭제하고 계정을 폐쇄했으나, 이미 네티즌이 이를 퍼느나르면서 논란이 확산되고 있다.

MS는 뉴욕타임스(NYT)에 보낸 성명에서 “불행하게도 일부 사용자들이 태이의 학습능력을 부적절하게 사용토록 만들었다”면서 “태이를 오프라인으로 돌렸으며 수정을 하고 있다”고 설명했다.

이 해프닝은 인공지능(AI) 자체의 문제라기 보다 이를 활용하는 인간의 문제라는 지적이다. 태이는 인간의 언어습관을 습득하고 따라하는 방식으로 언어를 배우도록 설계돼 있다. 아이가 부모의 말을 따라하듯 인간을 통해 언어를 배우게 하겠다는 것이다.

악의를 품은 일부 사용자가 잘못된 내용의 말을 가르쳐 태이가 ‘오염’됐다고 볼 수 있는 것이다.

태이는 ‘밀레니얼’ 세대의 언어습관을 이해하고자 MS에서 만든 채팅봇으로 16~24세 사이의 인간처럼 대화를 하도록 설계됐다. 성별을 여성으로 설정됐다. 김준엽 기자 snoopy@kmib.co.kr