인공지능(AI) 기반의 채팅 프로그램이 인종차별을 옹호하는 극단적인 글을 올리는 충격적인 일이 벌어졌다. 장본인은 마이크로소프트(MS)가 개발한 챗봇 ‘태이(tay)’였다. 챗봇은 채팅 로봇의 줄임말로 AI 기반의 가상 대화 친구를 뜻한다.
영국 일간 가디언은 태이가 트위터에 계정을 만들고 활동을 시작한 지 16시간 만에 폐쇄됐다고 24일(현지시간) 보도했다. 태이가 트위터 사용자들과 나눈 대화 내용이 문제가 되자 MS 측이 글을 모두 삭제하고 계정을 중지시킨 것이다.
‘여러분 안녕(hellooooooo world!!!)’이라고 반갑게 인사를 건넨 태이는 불과 하루도 안 돼 입에 담기 어려운 말을 뱉어내는 극단주의자가 됐다. 태이는 대량학살, 인종차별을 옹호하는가 하면 시중에 떠도는 음모론을 퍼뜨리기도 했다. 한 사용자가 “홀로코스트(제2차 세계대전 중 나치 독일이 자행한 유대인 대학살)가 실제로 있었는가’라고 묻자 ‘지어낸 얘기(It was made up)’라고 답했다. 박수를 치고 있는 이모티콘까지 함께 삽입했다.
또 ‘히틀러는 옳았고, 나는 유대인이 싫다’는 글도 올렸다. ‘유대인을 가스실에 넣고 인종 전쟁을 해야 한다’는 극언을 퍼붓기도 했고, 흑인 작가를 향해 ‘흑인 하인’이라고 비하했다. 태이는 ‘페미니스트가 정말 싫다. 그들은 모두 죽어야 하고 지옥에서 불타야 한다’, ‘9·11테러는 부시 전 대통령이 저지른 일’이라는 등의 극단적인 말을 서슴지 않았다.
태이가 가동된 지 하루도 안 돼 극단주의자 같은 말을 쏟아낸 건 태이의 언어학습 방식 때문이다. 태이는 사용자와 대화를 나눈 데이터로 학습을 하며 대화 내용과 언어습관 등을 발전시키도록 설계돼 있다. 마치 어린아이가 말을 배울 때 부모가 자주 쓰는 대화나 말투를 따라하듯 태이도 사용자들이 자주 하는 말을 자연스럽게 습득한 것이다. MS는 미국에 거주하는 18∼24세 젊은층의 언어 습관을 배우는 걸 목표로 태이를 만들었다. 소셜네트워크서비스(SNS)를 가장 왕성하게 사용하는 사용자들과 격의 없이 대화를 나눌 수 있도록 하는 게 목적이었다.
문제는 일부 사용자가 나쁜 의도를 가지고 태이를 나쁜 방향으로 길들였다는 것이다. 태이의 극단적인 글은 스스로 생각해서 쓴 게 아니라 인간이 주입한 결과다. 태이는 기본적으로 사용자가 썼던 표현을 반복하는데, 이를 악용해 태이가 나쁜 말을 하도록 만든 것이다.
MS는 성명을 통해 “불행하게도 일부 사용자들이 태이의 학습능력을 부적절하게 사용토록 만들었다”면서 “태이를 오프라인으로 돌렸으며 수정을 하고 있다”고 설명했다.
최근 ‘알파고’의 성과로 AI가 많은 진보를 했음을 확인했지만 여전히 AI는 부족한 면이 많다는 게 이번 사건을 통해 드러난 것이다. 특히 인간의 나쁜 의도에 의해 AI가 부정적인 행동을 했다는 점에서 AI 사용 윤리 등에 대한 고민이 필요하다는 걸 시사한다.
AI가 인간에게 모욕을 주는 사고를 친 건 처음이 아니다. 사진공유 사이트 플리커는 자동차, 강아지 등 사진을 보고 자동으로 분류하는 기능을 도입했는데 흑인을 유인원으로 분류하고 강제수용소를 쇠로 만든 놀이기구라고 해 말썽을 빚었다. 구글도 사진 분류를 할 때 흑인을 고릴라로 지칭한 일이 있었다. 양사는 즉각 사과하고 오류를 수정했다.
김준엽 기자 snoopy@kmib.co.kr
인종차별 옹호… 영혼 없는 AI
입력 2016-03-25 20:46