진화 거듭하는 AI, 유토피아일까 디스토피아일까

입력 2018-06-25 04:00
인공지능(AI)이 진화를 거듭하며 빠르게 사람을 따라잡자 ‘AI 디스토피아’ 우려가 잇따라 나오고 있다. 업계에서는 “AI가 사람의 지능이나 사고방식을 따라잡으려면 최소 10년 이상은 걸린다”며 “인명피해나 여론조작 같은 치명적인 부작용을 걱정하는 건 시기상조”라고 일축한다. 다만 이미 당면한 해킹이나 중독, 일자리축소는 경계할 필요가 있다고 지적한다.

인공지능은 크게 ‘강한 AI’와 ‘약한 AI’로 나뉜다. 강한 AI는 사람만큼 사고력과 응용력이 뛰어난 AI를 말한다. 영화에선 인류를 지배하거나 문명을 파괴하는 모습으로 자주 그려진다. 다양한 분야에서 제 능력을 발휘할 수 있어 ‘범용 AI’라고도 불린다. 반면 약한 AI는 인간의 통제에 따라서 움직이고 특정 용도에만 활용돼 ‘협소한 AI’라고 불린다. 구글의 ‘알파고’와 아마존·애플의 음성인식, 페이스북의 딥페이스 기술 등 글로벌 기업의 AI는 거의 다 여기 해당한다.

일반적으로 ‘AI는 인류에게 큰 위협이 될 것’이라고 주장하는 사람들이 가리키는 AI는 강한 AI다. 영국 물리학자 고(故) 스티븐 호킹 박사의 “AI 기술이 인류 문명사에서 최악의 사건이 될 수 있다”는 말이나 일론 머스크 테슬라 최고경영자(CEO)가 “AI가 북핵보다 더 큰 위협”이라는 발언에서 지칭하는 AI가 강한 AI로 분류된다.

미국 매사추세츠공과대학(MIT) 미디어랩 연구진은 최근 ‘AI 비관론’에 힘을 싣는 연구 결과를 내놨다. AI가 잘못된 학습을 거듭하면 사이코패스(반사회적 인격장애) 성향을 가진 사람처럼 될 수 있다는 것이다.

연구진은 자체 AI ‘노먼’이 온라인 게시물에서 죽음과 관련된 이미지와 동영상을 집중 학습하게 한 뒤 심리검사를 진행했다. 연구진이 일반 AI와 노먼에게 동시에 잉크 번짐 자국을 보여주자 일반 AI는 ‘나뭇가지에 새들이 앉아 있다’고 인식했지만 노먼은 ‘남자가 감전사하고 있다’고 판별했다. 노먼은 다른 잉크자국을 보고서도 대부분 죽음과 살인을 연상했다.

AI가 20년 안에 핵전쟁을 유발할 수도 있다는 섬뜩한 분석도 나왔다. 미국 싱크탱크 랜드코퍼레이션의 보고서에서 전문가들은 AI가 방대한 데이터와 자체 시뮬레이션 결과를 토대로 ‘적국을 선제공격하는 것이 더 유리하다”는 결론을 낼 수 있다고 내다봤다. 인간은 ‘전쟁은 공멸’이라는 공포가 있어 전쟁을 망설이지만, AI는 데이터만을 근거로 전쟁을 부추길 수 있다는 것이다. 영화 터미네이터에서처럼 ‘살상용 AI’가 개발될 수 있다는 두려움도 커지고 있다.

미국에서는 ‘국방부가 인명 살상용 무기를 개발한다’는 의혹이 불거졌다. 논란이 일자 국방부와 AI 공동 연구를 진행하고 있던 구글은 연구를 중단했다. 회사 내부에서 구글의 AI 기술이 사람을 골라 죽이는 드론(무인기) 개발로 이어질 수 있다는 비판이 쏟아지자 국방부와 맺은 연구 계약 ‘메이븐 프로젝트’를 연장하지 않기로 한 것이다. 메이븐 프로젝트는 구글의 AI 이미지 인식 기술을 활용해 드론이 수집한 영상 자료를 분석하는 시스템을 개발하는 1000만 달러(약 108억원) 규모 사업이다.

국내에서도 한국과학기술원(KAIST·카이스트)이 ‘킬러 로봇’을 개발할 수 있다는 의혹이 제기돼 홍역을 치렀다. 세계 로봇 학자들이 스위스 제네바에서 열리는 유엔의 자율살상무기 관련 논의를 앞두고 카이스트와 앞으로 어떤 협력도 하지 않겠다며 보이콧을 선언한 것이다. 이들은 카이스트가 한화그룹 계열사인 한화시스템과 손잡고 문을 연 국방인공지능 융합연구센터에서 ‘킬러 로봇’ 연관 기술을 개발할 수 있다고 주장했다.

카이스트가 “연구센터는 방위산업 관련 물류 시스템, 무인 항법 등에 대한 알고리즘 개발을 목표로 설립한 것”이라고 해명한 뒤 2개월이 지나서야 로봇 학자들은 보이콧을 철회했다.

일각에서는 AI가 당장 인류의 존폐까지는 위협하지 않더라도 일자리는 뺏어갈 것이라고 걱정한다. 미국 노스이스턴대학과 여론조사업체 갤럽은 “미국인의 반 이상이 이민자나 해외로의 공장 이전보다 AI를 더 큰 일자리 위협으로 느끼고 있다”는 조사 결과를 발표했다. 중국 인터넷기업 텐센트 사회연구센터도 “중국인의 90% 이상은 인공지능이 자신의 삶에 영향을 미치고 있고 30%는 이미 인공지능이 자신의 일을 위협하고 있다고 느낀다”고 밝혔다.

반면 강한 AI가 탄생해 인간을 뛰어넘더라도 인간이 충분히 AI를 통제할 수 있다고 믿는 입장도 있다. 마크 저커버그 페이스북 회장은 “AI가 인류 종말을 이끈다는 주장은 무책임하다”며 인간이 AI를 통제하면 된다는 ‘AI 낙관론’을 펴 왔다. 빌 게이츠 마이크로소프트(MS)의 창업주도 “AI는 그저 적은 노동력으로 더 많은 생산과 서비스를 가능하게 하는 최신 기술”이라고 옹호했다.

AI 디스토피아 우려가 늘자 일부 기업과 협회에서는 원론적으로나마 AI 윤리규범을 만들어 부작용에 대비하고 있다.

미국 과학기술 비영리단체 국제전기·전자기술자협회(IEEE)는 ‘로봇은 인간을 위협해서는 안 되고 명령에 반드시 복종해야 한다’는 내용의 원칙을 발표했다. MS도 ‘AI는 인간 존엄성을 해치지 말아야 한다’는 내용의 가이드라인을 마련했다.

강한 AI뿐만 아니라 이미 생활에 스며든 약한 AI도 중독과 개인정보 문제를 낳을 수 있다. 미국 아마존은 어린이용 AI 스피커 ‘에코 닷 키즈 에디션’을 출시했다가 소비자·인권보호단체의 우려를 샀다. 에코 닷 키즈 에디션은 어린이들에게 음악을 들려주거나 동화책을 읽어주는 등 친구 역할을 하는 AI 스피커다.

미국의 소비자·인권보호단체는 “AI 스피커가 어린이들의 기술 의존도와 개인정보 유출 가능성을 높인다”고 비판했다. 뒤이어 미 상원 공화당·민주당 의원들도 제프 베조스 아마존 CEO에게 공개서한을 보내 “어린이용 AI 스피커가 수집한 데이터가 어떻게 저장되는지, 제3자에게 데이터가 제공될 가능성은 없는지, 스피커가 수집한 자녀 데이터를 부모가 삭제할 권한이 있는지” 등을 따져 물었다.

AI 스피커·AI 비서가 사용자도 모르는 사이 해커들의 공략 대상이 될 수 있다는 연구 결과도 나왔다. UC버클리대 연구팀은 사람의 귀에는 들리지 않는 고주파대 음역 소리를 이용해 AI 스피커를 해킹할 수 있다는 연구 결과를 발표해 AI가 어떻게 조작되고, 속임수에 활용될 수 있는지 증명했다.

오주환 기자 johnny@kmib.co.kr