1991년 개봉된 미국 블록버스터 영화 ‘터미네이터 2’는 이런 대목으로 시작된다. 1997년 미국 정부는 인공지능(AI) ‘스카이넷’이 무인 스텔스 폭격기를 능숙하게 조종하자 미군의 모든 무기를 스카이넷이 통제하도록 국방체계를 완전히 바꾼다. 군 지휘권을 모두 AI에 넘긴 것이다.
그런데 미국 정부는 이 결정이 실수였음을 깨닫고 스카이넷 가동을 중단시키려고 했다. 스카이넷은 자신을 위협하는 인간들을 모두 ‘적’으로 간주한다. 이미 인간의 조종에 의해서가 아니라 스스로 추론하고 판단하는 능력을 지닌 스카이넷이 인류 전체 말살에 나선다. 그해 8월 29일 스카이넷은 러시아에 핵미사일을 쏘아 미·러 간 핵전쟁을 유발한다. 인류 대부분은 핵폭탄에 휘말려 숨지고 소수만 살아남아 스카이넷과 외로운 투쟁에 나선다.
물론 스카이넷은 영화 속에 등장한 허구의 존재였다. 하지만 군사용 AI에 대한 인간의 근원적 공포심을 밀도 있게 그린 대목은 여전히 현실에서 유효한 판단이다. 이후 AI는 ‘매트릭스’ 등의 영화에서 항상 인간을 위협하는 존재로 묘사됐다. 바둑 AI 프로그램에 불과한 ‘알파고’가 이세돌 9단을 꺾자 “조만간 인류를 위협하는 스카이넷이 등장할 것”이라는 얘기가 다시 진지하게 회자되고 있다.
군사용 AI에 대한 두려움은 이미 현실이다. 유명 우주물리학자 스티븐 호킹 박사와 테슬라 창업자 일론 머스크 등 저명 인사들은 지난해 7월 AI를 활용한 무기체계 개발에 적극 반대한 바 있다. 알파고의 ‘아버지’ 데미스 허사비스도 동참했다. 알파고를 개발한 ‘딥마인드 테크놀로지’가 구글에 인수될 당시 허사비스는 ‘인공지능 기술을 군사 목적으로 사용해선 안 된다’는 조건을 건 것으로도 알려졌다.
다만 인간을 완전히 배제한 채 100% 독자적으로 모든 결정을 내리는 군사적 AI는 아직 시기상조라는 게 중론이다. 군사 기술은 약간의 착오만 발생해도 막대한 피해로 이어질 수 있어 최대한 검증된 것만 엄선해 적용한다. 알파고가 이 9단과의 네 번째 대국에서 의미 없는 ‘떡수’를 연발한 데서 볼 수 있듯 오류가 많은 AI를 무기에 활용하기엔 위험 부담이 많다. 사람을 죽이거나 살리는 판단을 인간이 아닌 기계가 내린다는 것 자체가 엄청난 윤리적 논란을 낳을 게 분명하다.
손태종 한국국방연구원 정보화연구실장은 18일 국민일보와의 통화에서 “자율성을 가진 AI에 의존하기는 어렵다. 아직도 기술적 오차가 있어 신중하리라 본다”면서 “초보적인 수준이라면 몰라도 결정을 내리는 데 있어 기계가 사람보다 앞서 있다고 보기도 어렵다”고 말했다.
따라서 AI가 군사 분야에 적용된다고 해도 당분간은 인간을 보조하는 수준에서 제한적으로 활용될 것이라는 게 대체적인 관측이다. AI가 전장의 각종 정보를 인간이 판단하기 쉽게 정리하면 최종 ‘결단’은 인간이 내리는 식이다. 손 실장은 “사소한 결정은 AI가 판단하되 상위의 결정을 사람이 하는 등 절충된 하이브리드는 충분히 가능할 것”이라면서도 “아직은 인간이 개입할 부분이 더 많을 것”이라고 했다.
조성은 기자 jse130801@kmib.co.kr
[관련기사 보기]
‘알파고 쇼크’로 본 군사 분야 인공지능… 바둑판 ‘떡수’ 못 피한 AI에 전쟁판 무기 못 맡겨
입력 2016-03-19 04:02