인공지능(AI) 대화서비스 챗봇 ‘이루다’가 출시 한 달도 안 돼 서비스 중단에 이어 데이터베이스 및 딥러닝 모델 폐기 수순을 밟게 됐다. 20세 여대생 설정의 이루다를 대상으로 한 이용자들의 성희롱과 이루다의 차별·혐오 발언 논란, 제작사 측이 개인정보를 부당하게 수집해 학습시킨 의혹 등이 커지며 물의를 일으켰기 때문이다.
지난해 5월 국가정보화기본법을 전면개정한 ‘지능정보화기본법’이 본회의를 통과해 지난달부터 시행됐지만 AI의 혐오 발언이나 개인정보 보호 문제 등 이루다 사건으로 불거진 논란을 해결하기에는 구멍이 너무 많다는 지적이 나온다.
지능정보화기본법은 AI 시대에 맞춘 국가와 지방자치단체의 역할 규정 및 국가 차원의 AI 윤리 준칙 제정 등의 내용을 담았다. 교육, 전문인력 양성, 콘텐츠 개발, 연구 등에 대한 시책 마련 등도 의무화됐다.
하지만 AI 산업에 대한 규제나 의무 규정은 부족하다는 평가가 나온다. 전문가들과 시민단체들은 ‘이루다’ 사건이 현행법의 사각지대를 드러낸 것이라며 국회의 적극적 역할을 요청했다.
이루다는 약 100억건의 연인 간 카카오톡 대화 내용 데이터를 학습해 만들어진 AI 챗봇으로 10~20대 사이 선풍적 인기를 끌었다. 그러나 출시되자마자 ‘여성 전용’이라는 단어를 보내면 “때리고 싶다”고 답하는 등 차별 발언을 쏟아내며 논란의 중심에 섰다.
제작사 스캐터랩은 “이용자가 먼저 차별·혐오 맥락을 꺼내 동조한 것처럼 보인 것”이라고 해명했지만 반응은 싸늘했다. 이광석 서울과학기술대 IT정책대학원 교수는 17일 “대표적인 혐오 발언을 걸러내는 것은 기본적인 기술”이라며 “개발자들에게 AI 윤리와 원칙을 가르칠 기관이 필요하다”고 지적했다.
현행법으로는 이루다의 차별·혐오 표현을 막기 어려운 구조다. 지능정보화기본법에 따르면 누구나 지능정보기술을 활용할 수 있고, 정부는 지능정보기술 등의 활용 과정에서 사람의 생명과 안전을 저해하는 경우에 한정해서만 규제가 가능하다. 계명대 인권센터의 김희정 교수는 “지능정보화 기본법에는 AI 또는 머신러닝을 이용해 도출된 결과에 대한 규제나 의무 규정이 없다”고 지적했다.
지능정보화기본법 제4조에는 ‘국가와 지방자치단체는 지능정보기술의 개발·고도화 및 활용을 제약하는 불필요한 규제를 적극적으로 개선해야 한다’는 내용이 명시돼 있다. 규제보다는 AI 산업 발전에 무게를 뒀다는 해석이 나온다.
AI 시장의 선두주자인 미국에서는 알고리즘으로 인한 인종·계층 등의 차별 방지를 위해 2019년 ‘알고리즘 책임법’이 발의됐다. 연 매출 5000만 달러 이상, 100만명 이상의 소비자가 사용하는 기기 데이터를 수집하는 기업을 대상으로 알고리즘의 공정성, 사생활 침해 여부 등을 검토한 후 기업에 알고리즘 산출방법 등을 공개하도록 하는 것이 골자다.
실용적인 지침도 제시됐다. 신용우 국회입법조사처 입법조사관의 ‘인공지능 관련 법적 쟁점 및 대응방안’에 따르면 미국 연방거래위원회(FTC)는 지난해 ‘AI 및 알고리즘 사용’ 지침을 발표했다. AI 기술 활용 중 소비자 피해 예방을 위해 기업에 투명성과 공정성, 책임성을 강조하는 내용이 담겼다.
이루다와 같은 AI를 성희롱 피해의 주체로 인정할 수 있느냐도 여전히 쟁점이다. 이경전 경희대 경영학과 교수는 “이루다는 사물일 뿐 개인이 어떻게 사용하든 법적·윤리적 문제로 삼을 일이 아니다”고 주장했다. 반면 김미숙 세종대 데이터사이언스학과 교수는 “상대가 기계라고 해도 원하는 것만 취하고 그 책임은 지지 않는 건 이기적”이라고 비판했다.
스캐터랩이 이루다를 개발하기 위해 다른 앱에서 대화 내용을 수집하는 과정이 부적절했다는 지적도 나왔다. 제공자뿐 아니라 대화 상대방의 동의를 얻지 않고 양쪽의 대화를 수집한 것이 개인정보보호법 위반 소지가 있다는 주장이다. 개인정보 관련 질문에 이루다가 실존하는 주소, 계좌번호 등으로 답해 개인정보가 삭제되지 않은 채 빅데이터로 활용된 것이 아니냐는 의혹도 제기됐다. 공동소송 플랫폼 ‘화난 사람들’은 최근 이루다로 인한 개인정보 유출 관련 소송 참여 접수를 시작했다.
염홍열 순천향대 정보보호학과 교수는 “대화는 개인정보라고 볼 소지가 커 타인에게 제공하려면 당사자 모두의 동의가 필요하다”고 말했다. 이어 “AI도 개인정보를 공개하지 않는 필터링이 필요하다”고 설명했다.
개인정보보호위원회는 지난 6일 개인정보보호법 2차 개정안을 입법 예고했다. 법 위반 업체에 대한 과징금 부과 한도를 ‘위반행위 관련 매출 3%’에서 ‘전체 매출 3%’로 올리는 내용이 담겼다.
국회에서도 이루다 사태 재발을 막을 법안 논의가 시급하다는 목소리가 나온다. 하지만 강력한 규제가 AI 산업 발전을 막을 수 있다는 우려도 강해 논란이 예상된다. 더불어민주당 관계자는 “AI는 규제보다 성장이 우선이라는 기류가 있다”고 말했다. 정의당 관계자도 “징벌보단 재발 방지 차원의 제도가 필요하다”고 말했다.
시민단체들은 국민의 기본권 침해 차원에서 접근하는 ‘인공지능 규제법’이 필요하다고 지적한다. 참여연대와 민변, 진보네트워크센터 등은 성명을 통해 “개인정보 자기결정권을 침해하고 편견을 재생산하는 인공지능 기술 도입을 방지할 방법이 고려돼야 한다”고 밝혔다.
이현우 기자 base@kmib.co.kr