할, 스카이넷, 아리아…. 이 단어들에서 하나의 이미지를 떠올렸다면 공상과학(SF) 영화에 대한 관심이 많은 독자일 것이다. 할은 ‘2001: 스페이스 오디세이’, 스카이넷은 ‘터미네이터’, 아리아는 ‘이글아이’ 속 인공지능(AI) 시스템의 이름이다.
SF 영화 속에서 현실과 다소 거리가 있는, 거대 악의 모습으로 각인됐던 인공지능은 2015년 어느 날 우리 곁에 갑자기 다가온다. 구글의 자회사 딥마인드가 설계한 인공지능 ‘알파고’가 세계 최고 바둑기사 이세돌과의 대결에서 완승을 거두면서부터다.
인공지능은 기계학습(인간이 자연적으로 수행하는 학습 능력과 같은 기능을 컴퓨터에서 실현하려는 기술이나 방법)을 통해 능력을 키운다. 알파고로 대표되는 최근의 인공지능에는 신경망 기술인 딥러닝이 이용된다. 신경망 기술은 사람의 두뇌가 일하는 방식을 흉내내 작동한다. 프로그래머들은 여러 가지 방법으로 데이터를 모으고, 이 데이터로 신경망 기술을 실험한다. 최선의 결과를 내기 위해 수시로 변수를 바꾸는 등 신경망 구조를 변화시키며 더 효과적인 학습을 시킨다.
딥러닝에서 가장 중요한 것은 데이터다. 어떤 데이터를 입력하느냐에 따라 인공지능은 사뭇 다른 결과를 내놓는다. 수천 년 전부터 인간이 쌓아온 바둑 기보를 단시간에 학습해 최고 수준의 기사가 되는가 하면 이성적인 인간이라면 누구나 체득하는 규범조차 인식하지 못하는 깡통이 될 수도 있다.
알파고가 이세돌을 꺾었던 바로 그해 인공지능이 깡통임을 증명하는 일도 벌어졌다. 아프리카계 미국인 프로그래머가 어느 날 구글 포토 계정에서 여자친구와 함께 찍은 사진을 찾아보다 구글 신경망 소프트웨어가 사진에 ‘고릴라들’이라는 태그를 붙여놓은 것을 확인했다. 딥러닝을 거친 최첨단 인공지능 기술이 가장 오래되고, 극도로 모욕적인 인종차별적 욕설을 태그로 제공한 것이다.
캐나다 출신의 기술과학 전문 저널리스트 클라이브 톰슨은 올해 펴낸 저서 ‘은밀한 설계자들(CODERS)’(한빛비즈 출간)에서 구글의 인공지능 시스템이 아프리카계 미국인의 얼굴을 알아보지 못한 이유에 대해 충분한 학습을 받지 못했기 때문이라고 추측했다. 그에 따르면 구글의 기술 인력 가운데 흑인은 2%에 불과하다. 이 때문에 구글의 프로그래머들이 신경망을 학습시키기 위해 사용한 데이터 대부분은 백인의 사진이었고, 이들이 주로 백인들의 사진을 사용해 얼굴인식을 시험했기 때문에 인종차별적 태그가 붙는 문제를 발견하지 못했을 것이라는 얘기다.
인간의 학습 방법을 모방한 최첨단 인공지능의 오류는 인간에게 시사하는 바가 작지 않다. 인간도 비슷한 과정을 거치면 인공지능의 오류와 같은 결과를 내놓을 것으로 유추할 수 있기 때문이다. 객관적이고 합리적인 데이터가 아니라 치우친 데이터, 편견 섞인 데이터로 딥러닝하면 인간도 극도로 모욕적이면서 차별적인 결론을 아무렇지 않게 내놓게 된다는 것이다. 구미에 맞는 뉴스만 읽고, 사실에 기반하지 않은 논리를 강요하는 영상만 보고, 비슷한 의견을 내놓는 집단 사이에서만 지내는 이들이 해괴한 소리를 늘어놓는 작금의 현실을 볼 때면 딥러닝의 폐해가 이것인가 싶다.
영화 ‘이글아이’는 미국의 국가안보를 위해 만들어진 인공지능 아리아가 대통령과 각료들을 제거하기 위한 ‘참수작전’을 벌이는 내용이다. 국가안보만을 강조하는, 편향된 논리로 학습된 인공지능이 국가안보를 위해 가장 중요한 인물을 제거하려 하는 역설을 다룬 셈이다. 한편의 주장만 학습하고 억지스레 강조하다가 편들고자 했던 이들에게 도리어 해를 끼치는 모습은 우리에게도 지난 정권 시절부터 많이 봐왔던, 익숙한 풍경이기도 하다.
정승훈 사회부장 shjung@kmib.co.kr