‘킬러로봇’ 논란… AI 연구윤리 가이드라인, 아직 어디에도 없다

입력 2018-04-06 05:05

전 세계적으로 정부 차원에서 인공지능(AI) 기술 개발과 관련해 연구윤리에 대한 가이드라인을 만든 경우는 찾아보기 힘들다. 관련 논의는 주로 업계와 학계, 의회에서 진행되고 있다. 우리나라도 예외는 아니다.

과학기술정보통신부 관계자는 5일 “AI는 관련 산업 자체가 아직 초기 단계”라면서 “정부가 나서서 가이드라인을 만들 수준이 아니다”고 말했다. 당장 AI가 문제를 일으킨 것도 아닌데 정부가 규제부터 하는 것은 맞지 않다는 설명이다. 정부는 오히려 신기술 관련 규제를 적극적으로 완화하는 중이었다.

다만 정부는 민간과 상의해 보편적인 수준의 신기술 연구 가이드라인을 만들 계획이다. 다른 과기정통부 관계자는 “기술은 인류 평화를 위해 사용돼야 한다는 정도의 담론을 가이드라인에 담을 것”이라고 말했다.

그나마 한국이 AI 연구에 들이댈 수 있는 윤리 잣대는 2007년 산업자원부(현 산업통상자원부)가 사회 각계와 함께 제정했던 로봇윤리헌장 초안이다. 헌장 초안에는 ‘인간과 로봇은 상호 간 생명의 존엄성과 윤리를 지켜야 한다’는 원칙과 그에 따른 세부지침이 담겼다. 당시 정부와 민간이 힘을 합쳐 인간과 로봇의 관계를 규정한 세계 최초 사례라는 평가를 받았지만 공식적인 헌장 제정으로 발전하지는 못했다.

유성열 기자 nukuva@kmib.co.kr