인공지능 로봇이 ‘실수’로 사람을 다치게 한다면?

Է:2016-03-15 04:00
ϱ
ũ

인간 아닌 기계 스스로가 결정권 현행법으론 아직 처벌 방법 없어

인공지능 로봇이 ‘실수’로 사람을 다치게 한다면?
알파고의 첫 패배는 완벽한 것 같은 인공지능(AI)도 오류를 낼 수 있음을 보여준다. AI 로봇이 사람처럼 판단 미숙으로 사고를 낸다면 누가 책임을 져야 할까. 구글 무인자동차가 지난달 첫 과실사고를 내자 논란은 더욱 거세졌다. 구글은 책임을 인정했지만 인간처럼 스스로 학습하고 판단하는 AI가 개발된다면 책임소재를 따지기 쉽지 않다.

AI 시대에 다가올 문제는 인간의 결정권 상실에 있다. 지금까지 기계는 인간의 결정을 따르기만 했다. 기계가 사람을 다치게 하면 사용자 혹은 제조사가 법적 책임을 졌다.

AI는 다르다. 구체적 상황에서 어떻게 행동할지 인간이 모두 정해놓지 못한다. 기계 스스로 결정권자가 되는 것이다. 하지만 현행법으로는 AI가 자신의 결정에 따른 사고를 내도 처벌할 방법이 없다. 동물이 사람을 해쳐도 처벌할 수 없는 것과 마찬가지다.

◇로봇을 ‘리셋’으로 처벌?=14일 형사정책연구원의 ‘법과학을 적용한 형사사법의 선진화 방안’ 보고서에 따르면 세계 각국은 이런 법적 공백을 해결하기 위해 폭넓게 논의하고 있다. 독일 학계에선 결정권자인 로봇을 처벌하는 ‘로봇 형법’ 도입 논쟁이 뜨겁다.

찬성파는 18세기 유럽 계몽시대 이전에 동물처벌법이 있었던 점을 감안해 결정권자인 로봇이 책임을 지는 게 당연하다고 본다. 반대파도 만만치 않다. 로봇은 감수성이 없어 처벌 가치가 없다는 점, 결정만으로는 부족하고 ‘선과 악’을 구별할 수 있어야 처벌에 의미가 있다는 점을 꼽는다.

오작동한 로봇을 ‘재프로그램’(리셋)하는 식으로 처벌하자는 주장도 있다. 처벌하지 않으면 법적 공백이 생긴다는 우려도 나온다. 반면 형법이 정한 사형, 자유형, 벌금형 등 형벌의 종류에 맞지 않는다는 반론이 나온다. 결국 책임 범위를 정하기 위한 사회적 논의가 뒤따라야 한다.

◇공은 인간에게…입법 논의 뒤따라야=무인자동차 사고는 어떻게 봐야 할까. 법조계는 현행법 기준으로 자동화 단계에 따라 책임소재가 달라질 수 있다고 본다.

운전자가 운전석에 착석해 운전에 개입하는 무인자동차의 경우 운전자가 민·형사 책임을 일부라도 질 가능성이 있다.

스스로 판단해 움직이는 완전 자율운행은 상황이 다르다. 이 경우 생산자, 프로그램 개발자에 대한 처벌 문제가 부각될 수 있다. 다만 제조물책임법상 민사 책임을 지울 수는 있어도 개발자를 형사 처벌할 수 있을지는 미지수다. 재경 지법의 한 부장판사는 “개발 당시 주의를 게을리 한 점 등이 인정돼야 하는데 입증이 가능할지 의문”이라고 말했다.

무인자동차 제조사가 과도한 민사 책임을 질 가능성이 있다는 우려도 제기된다. 일본에선 무인자동차 도입으로 교통사고가 대폭 줄어들 테니 절약되는 비용으로 무과실 책임 사고 보상제를 도입하자는 논의도 있다. 불가피한 사고 상황에서 AI가 탑승자와 보행자 중 누구를 보호하게 할 것인지 법으로 정해야 한다는 주장도 있다.

나성원 기자 naa@kmib.co.kr

[관련기사 보기]
▶[이세돌 vs 알파고] 세기의 바둑 대결 기사 전체 보기
▶“resign” 이세돌 78수 첫 승… 알파고 항복법 ▶이세돌 승리 접한 네티즌 유머 11가지 ▶이세돌 깜짝 놀란 ‘따봉남’ 유럽 챔피언 판 후이… “누구세요?”
▶“알파고 오류, 정말 괜찮나” 日기자의 결정적 질문

GoodNews paper Ϻ(www.kmib.co.kr), , , AIн ̿
Ŭ! ̳?
Ϻ IJ о
õ
Ϻ Ź