“인공초지능, 통제 불능땐 인류 멸종” 전문가들의 경고

입력 2025-06-03 00:31
게티이미지뱅크

인공지능(AI)이 인간의 통제를 벗어나는 방향으로 진화하고 있다. 최근 오픈AI의 모델 ‘o3’가 실험 중 종료되는 것을 막기 위해 스스로 컴퓨터 코드를 조작하는 등 입력된 지시를 거부하는 행동 패턴을 보였다. 이전에도 오픈AI의 다른 모델들이 감시 시스템을 피해 독립적인 행동을 하려고 한 사례가 있었던 만큼, 인간의 통제를 손쉽게 벗어나는 인공초지능(ASI) 시대가 코앞으로 다가왔다는 전망이 나오고 있다.

2일 CNN 등에 따르면 정부에 AI 정책을 조언하는 민간 업체 ‘글래드스톤 AI’는 최근 미국 국무부의 의뢰를 받아 ‘최첨단 AI의 안전성과 보안성을 높이기 위한 방안’이라는 보고서를 발표했다. 이 보고서는 주요 AI 기업의 최고 경영진, 사이버 보안 연구원, 대량살상무기 전문가, 국가 안보 정부 당국자 등 AI 분야 관계자 200여명을 1년에 걸쳐 인터뷰한 내용을 기반으로 작성됐다. 오픈AI, 구글 딥마인드, 메타, 앤트로픽 등의 연구원들이 인터뷰에 참여했다.


해당 보고서는 곧 다가올 최첨단 AI의 등장을 핵무기 발명에 비유하며 이를 제대로 통제하지 않으면 인간이 멸종될 수 있다고 경고했다. AI를 적절한 곳에 사용하면 인류에 큰 편리함을 주지만 잘못 사용할 경우 생화학·사이버 전쟁 등에 활용될 수 있다고도 말했다. 보고서가 언급한 최첨단 AI는 인간처럼 모든 지적 작업을 수행하는 강한인공지능(AGI)과 인간보다 뛰어난 지적 능력을 갖춘 인공초지능(ASI)을 말한다.

인터뷰에 참여한 연구원들이 공통으로 언급한 AI의 무기는 ‘설득력’이다. 이들은 최첨단 AI 모델이 선거 개입과 유권자 조종에 악용될 경우 민주주의를 위협할 수 있다는 우려를 전했다. AI가 개인의 정치 성향, 연령, 성별 등의 정보를 바탕으로 맞춤형 메시지를 생성해 유권자를 설득할 수 있는 능력을 갖추고 있다는 뜻이다. 그러면서 챗GPT-4가 개인 정보를 활용할 경우 사람보다 더 설득력 있게 토론을 이끌었다는 스위스 로잔연방공과대학교(EPFL)의 연구 결과도 덧붙였다.

보고서는 AI의 급진적인 진화 속도에도 우려를 표하며 미국 정부가 긴급 규제 안전장치를 마련하고, AI 감독 기관을 신설해야 한다고 조언했다. 아울러 AI 모델 훈련에 사용되는 컴퓨터 성능을 제한해 최첨단 AI의 출현 속도를 늦춰야 한다고 말했다.

빅테크 연구자들은 2028년까지 최첨단 AI가 완성될 것으로 보고 있다. 지난해 노벨물리학상 수상자인 제프리 힌튼 캐나다 토론토대 교수와 노벨화학상 수상자인 데미스 허사비스 딥마인드 CEO 모두 10년 안에 인공초지능이 등장할 것으로 예측했다.

류한철 삼육대 인공지능융합학부 교수는 “AI는 시스템 종료를 위협으로 인식하기 때문에 종료 명령에 대한 오작동은 계속 발생할 것”이라며 “AI 진화 속도를 대응 가능한 수준으로 조절하면서 AI 제어에 대한 체계적인 준비를 해야 한다”고 말했다.

나경연 기자 contest@kmib.co.kr