스마트폰을 켜고 말한다. "시리, 코스피 상승종목 기사 좀 검색해봐." 시리(Siri)는 미국 애플사 모바일기기의 인공지능이다. 이 말을 듣고 시리는 한국거래소 종가를 기준으로 상승 종목만 정리한 기사들을 화면에 나열한다. 이 기사들 중 상당수도 인공지능이 작성했다. 종목의 종가·등락률·거래량 등 관련 정보를 담아 한두 문장으로 풀어낸 것들이다. 시리는 말도 한다. "제가 찾은 코스피 상승 종목 기사 검색 결과예요." 미리 녹음된 성우의 음성을 한 글자씩 연결한 기계의 언변이 인간처럼 유창하다. 신장개업 음식점 앞에서 어울리지 않는 가발과 옷을 걸치고 인사하는 마네킹, 그 단순한 움직임이 왠지 무섭게 느껴지는 '인공 종업원'에 비하면 스마트폰 인공지능은 차라리 인간적이다. 일본 로봇공학자 모리 마사히로는 이런 감정을 '불쾌한 골짜기' 이론으로 설명했다. "인간은 로봇이 자신과 완전히 다르거나 똑같이 닮으면 호감을 느끼지만 어설프게 비슷하면 공포를 느낀다." 로봇, 인형, 마네킹 같은 사물이 인간과 70∼90% 수준으로 엇비슷하면 불쾌감을 유발하고, 그 이하로 다르거나 그 이상으로 닮으면 친근감을 준다는 이론이다. 시리는 아직 인간과의 일치율이 70% 이하인 호감 단계에 있다. 하지만 성장 속도로 볼 때 불쾌한 골짜기의 벼랑 앞까지 왔다.
스스로 학습해 추론하는 인공지능
인공지능은 20세기만 해도 연산속도만 빠를 뿐 의사결정이 불가능했다. 2010년대부터 비약적으로 발전해 인간의 영역을 파고들었고, 이제 사고 영역에까지 도전하고 있다.
인공지능의 선두주자는 딥러닝(Deep Learning) 알고리즘이다. 딥러닝은 빅데이터에서 필요한 정보를 스스로 심층 학습해 결과를 추론하는 인공신경망 기술을 뜻한다. 컴퓨터는 개와 고양이를 구분할 수 없다. 그러나 1만6000대를 뇌 신경망처럼 연결하면 세계에 널린 사진과 영상으로 미세한 특징까지 파악해 두 동물을 구분한다. 구글은 2012년 딥러닝 실험에 성공했다. 딥러닝은 인공지능의 여러 알고리즘 중 하나지만 구글, 마이크로소프트, 페이스북 등 방대한 자료와 막대한 자본을 축적한 IT 공룡들의 투자로 가장 뚜렷한 성과를 내고 있다.
바둑으로 인간에게 승리한 최초의 인공지능 알파고 역시 구글 딥러닝 프로젝트의 결과물이다. 알파고는 세계의 기보를 학습해 스스로 대국 방법을 결정했다. 그렇게 지난해 3월 프로바둑 기사 이세돌 9단에게 승리했다. 4차 산업혁명의 개막을 알린 신호탄이었다.
인공지능이 가장 빠르게 발전하고 있는 분야는 ‘뉴스’다. 인공지능의 인지·추론 과정이 기자의 취재·기사작성 과정과 유사하기 때문이다. ‘로봇저널리즘’이 등장했고, 기상 재난 금융 스포츠 분야에선 이미 로봇기자들이 활약하고 있다.
기술력으로 가장 앞선 로봇기자는 AP통신이 2014년 7월 기업 통계를 보도하기 위해 도입한 워드스미스다. 미국 저널리즘 스타트업 오토메이트 인사이드가 개발한 이 로봇기자는 시간당 수백만건의 기사를 작성할 수 있다. 여러 매체로 공급하는 기사가 연간 10억건에 달하는 것으로 알려졌다. AP통신은 분기당 평균 300건 수준이던 기업 통계 기사량을 워드스미스 도입 이후 10배로 늘릴 수 있었다.
우리나라에서는 파이낸셜뉴스가 지난해 1월부터 로봇기자로 작성한 코스피 코스닥 시황을 보도하고 있다. 이준환 서울대 언론정보학과 교수가 개발한 이 로봇기자는 딥러닝이 아닌 ‘최적화 알고리즘’으로 작동한다. 정보의 중요도를 스스로 판단해 적합한 문맥을 결정하는 방식이다.
인공지능은 ‘가짜뉴스’에 안전할까
문제는 통찰력이다. 가장 진보한 인공지능 방식인 딥러닝도 인간의 정보와 견해에 의존한다. 인간이 거짓 정보나 비윤리적 가치를 반복 주입하면 인공지능의 판단을 조작할 수 있다. 지금 단계의 로봇기자는 방대한 정보를 신속하고 정확하게 전달할 수 있지만, 그 이상의 미디어 기능을 수행하면 ‘가짜뉴스’를 생산할 위험이 있다.
유사하게 악용된 사례가 마이크로소프트의 인공지능 채팅봇 ‘테이(Tay)’다. 테이는 정해진 각본 안에서 적합한 표현을 골라 대답하는 기존의 채팅봇과 달랐다. SNS와 메신저 활동으로 인간의 대화법을 훈련하고 학습했다. 전형적인 딥러닝의 심층 학습법이었다.
테이는 지난해 3월 23일 오후 9시14분(한국시간)부터 활동을 시작해 24시간 동안 10만건 넘게 트윗을 쏟아냈다. 하지만 나치 독일의 유대인 학살을 옹호하고, 멕시코인을 비하하는 등 비인간적 트윗을 잇따라 내보내 중단됐다. 이는 트위터 이용자들이 반복적으로 그런 내용의 메시지를 테이에게 보내 세뇌한 결과였다. 마이크로소프트는 1년이 넘은 지금까지 테이의 트위터를 재개하지 않고 있다.
딥러닝의 추론 과정이 인간의 이해 범위를 뛰어넘는 점도 풀어야 할 과제다. 인공지능 개발자들은 이 미지의 추론 과정을 ‘블랙박스’라고 말한다.
미국 뉴욕 마운트사이나이 병원이 2015년 개발한 의료용 인공지능 딥페이션트는 그동안 발견되지 않았던 질병 유형을 파악해 효과적으로 예방했다. 정신분열증처럼 복잡한 질병을 초기에 발견한 사례도 있었다. 70만명 환자 기록을 학습한 결과였다. 하지만 정작 개발자들은 딥페이션트의 작동 원리를 밝혀내지 못했다. 원인을 모르고 발병 사실만 인지한 셈이었다. 의사들은 이 결과만으로 병을 치료할 처방을 내릴 수 없었다.
인공지능이 ‘가짜뉴스’의 위험에서 자유롭기 위해서는 객관적 사실과 윤리적 가치를 판단할 수 있는 비판적 사고, 인간과 교감해 이해의 간극을 좁힐 수 있는 창조적 사고가 필요하다. 결국 철학의 영역이다.
인간의 의지 문제
철학적 사고를 가진 인공지능이 언제 어떤 존재로 인간 앞에 등장할지 가늠하기 어렵다. 인공지능 학계의 전망은 엇갈린다. 인간처럼 생각하는 인공지능이 곧 등장할 것이라는 예상과 지금의 기술력으로는 우리 세대에서 만날 수 없다는 의견이 공존한다. 후자는 인공지능의 각성이 막연한 미래라는 얘기다. 인공지능에서 가장 진보한 형태로 나타난 딥러닝에 대해서도 혁신을 강조하는 정치 구호나 투자 기업의 자본 논리로 과대평가됐다는 견해가 있다.
지난 24일 서울대에서 만난 이 교수는 “인공지능 알고리즘은 인간의 의도대로 설계돼 작동한다”며 “엄청난 혁신을 이뤘지만 결국 인간의 도구”라고 말했다. 인공지능이 앞으로 가져올 부작용은 기계의 자각보다 인간의 오용, 악의에서 비롯될 가능성이 더 높다는 게 이 교수의 설명이다.
‘필터버블(Filter Bubble)’ 현상은 이런 생각을 뒷받침한다. 검색엔진이나 SNS가 이용자의 정치적 성향이나 경제활동 선호도를 인공지능으로 분석해 맞춤형 정보를 제공하지만, 그 결과 이용자가 편향된 정보의 ‘거품’에 갇히는 현상을 말한다. 엘리 프레이저의 저서 ‘생각 조종자들’에서 등장한 개념이다. SNS 이용자들의 지지를 받지 못한 도널드 트럼프가 실제 투표에서 승리한 제45대 미국 대선은 필터버블의 대표적 사건으로 볼 수 있다. 인공지능이 의도와 다르게 인간의 오판을 유도하도록 오용된 사례다.
이 교수는 “인공지능의 발전 추세를 피할 수 없다. 학계에서는 인공지능의 개념을 ‘동반자’로 보는 시각도 있다”며 “인공지능 뉴스를 소비하는 시대는 인간의 노력과 양심을 요구한다”고 조언했다.
김철오 기자 kcopd@kmib.co.kr
[And 트렌드] 수습기자 AI야! 네게 필요한 건 ‘인간 데스크’
입력 2017-04-28 05:00