스티븐 호킹 등 저명인사들 ‘AI 킬러로봇’ 개발 반대한 까닭은… “암살·인종청소에 최적화된 무기”

입력 2016-03-16 21:47
미군이 운용하는 무인공격기 드론(왼쪽 사진)과 영화 ‘터미네이터’에 등장하는 킬러로봇 T-800. 세계 각국은 인공지능으로 작동하는 무인공격기나 킬러로봇을 개발하고 있다. 미 공군 자료사진, 뉴시스
우주물리학자 스티븐 호킹
인간을 대신해 전쟁터를 누비는 인공지능(AI) 로봇. 숱한 영화에 등장한 이 상상은 현재진행형이다. 인간의 개입 없이 AI로 작동하는 무인공격기(드론)가 실제 개발되고 있다. 유엔인권위원회는 2013년 “‘킬러로봇’이 미국 이스라엘 영국 일본 등에서 개발 중이거나 전투에 투입되고 있다”는 보고서를 발표했다.

AI를 장착한 ‘킬러로봇’ 개발의 출발점은 사람이 조작하는 전투용 드론의 문제였다. 조종사가 조작에 익숙해질수록 인명 살상에 무감각해져 타깃이 아닌 사람들까지 폭격하는 경우, 온라인 게임하듯 적군을 사살하며 정신적 트라우마를 겪는 상황 등이 발생하자 차라리 로봇에게 맡기자는 주장이 설득력을 얻었다.

이에 우주물리학자 스티븐 호킹(74·사진) 박사와 테슬라 창업자 일론 머스크(45) 등 저명인사 1000여명이 지난해 7월 AI 전투무기 개발에 공개적으로 반대하고 나섰다. 킬러로봇이 초래할 수 있는 암울한 미래를 우려한 거였다.

이들은 공개서한에서 “AI 자동화 전투무기는 인간의 개입 없이 설정된 기준에 따라 목표물을 선택해 공격한다는 점에서 인간이 조종하는 드론이나 크루즈 미사일과 다르고, 희귀한 자원이나 고비용이 필요하지 않아 핵무기와도 다르다”고 규정했다. 이어 “이런 거야말로 암살, 국가전복, 인종청소 등 비인간적 행위에 최적화된 무기다. 암시장을 통해 테러리스트·독재자·군벌의 손에 들어가는 건 시간문제”라고 강조했다.

호킹 박사는 지속적으로 AI의 발전을 우려해 왔다. 2014년 BBC 인터뷰에서 “인류의 멸망을 초래할 수 있다”고 목소리를 높였다. AI가 유용하지만 인간의 통제 범위를 뛰어넘는 결과물을 내놓을 수도 있다고 걱정했다. 기술의 발전 속도를 사회규범이나 법이 따라가기 어렵다는 점도 이런 시각에 힘을 싣는다.

서울시립대 철학과 이중원 교수는 “AI 킬러로봇이 개발되는 상황은 우려스럽다. 극단적으로 치달으면 영화 ‘터미네이터’가 현실이 되는 것이다. 막을 수 없는 상황이 올 수도 있다”고 말했다. 이 교수는 “국제규약을 만들고 윤리규정을 둬서 인공지능의 용도를 제한할 필요가 있다”고 덧붙였다.

기술 자체를 두려워할 필요는 없다는 주장도 있다. 어디까지나 ‘인간의 역할’이 중요하다는 것이다. 한양대 융합전자공학부 서일홍 교수는 “자율은 의지를 갖고 스스로 판단하는 것인데 전체 전략을 세우는 것까지 AI의 몫은 아닐 것”이라며 “기계 스스로 살인 의지를 갖는 상황이 오지는 않을 것”이라고 내다봤다. 다만 “AI에 대한 윤리적 가이드라인을 논의할 때가 왔다”고 했다.

홍석호 기자 will@kmib.co.kr

[관련기사 보기]