구글이 무기 개발과 감시 등 인권침해에 인공지능(AI) 기술을 사용할 수 없도록 하겠다고 선언했다.
선다 피차이 구글 최고경영자(CEO)는 7일(현지시간) 회사 AI 정책을 소개하는 블로그를 통해 이렇게 밝혔다. 피차이는 “주된 목적이 인간의 부상을 유발하거나 이를 용이하게 하는 무기 및 기타 기술에 구글의 AI 기술을 사용하지 않겠다”며 “국제적으로 인정되는 규범을 위반해 감시 목적으로 정보를 수집하거나 사용하는 기술, 국제법과 인권 원칙을 위반하는 기술에도 관여하지 않겠다”고 말했다.
다만 “사이버 보안과 훈련 등의 분야에서는 앞으로도 정부·군과 협력하겠다”고 덧붙였다.
피차이는 피해를 유발할 가능성이 높은 기술에 참여하지 않겠다고 거듭 약속하며 “기술 개발로 인한 이익이 위험에 비해 훨씬 크다고 판단될 때만 참여할 것이며, 이 경우 안전을 위한 적절한 통제가 포함될 것”이라고 강조했다.
피차이의 이같은 방침은 최근 구글이 미 국방부의 ‘메이븐(Maven) 프로젝트’ 참여로 논란을 겪자 내놓은 것으로 보인다. 메이븐 프로젝트는 AI 기술을 이용해 무인기가 수집한 영상 정보를 해석하는 시스템을 구축하는 작업이다.
구글이 이 프로젝트에 참여한다는 사실이 알려지자 구글 직원 4000여명이 반대 청원에 서명했다. 이에 구글은 결국 국방부와의 계약을 연장하지 않기로 했다.
문지연 객원기자