정부에서 인공지능(AI) 법 제도 정비 로드맵을 지난주 발표했다. 그동안의 논의를 반영해 폭넓고 다양한 사안에 대한 상당히 복잡한 내용을 담았다. 이 영역에서의 논의 맥락에 익숙하지 않은 시각에서는 당혹스러울 정도로 많은 내용이 담겨 있기도 하다.
사실 AI라는 표현 자체가 매우 다양한 의미를 내포하고 있어 여러 사안들에 대한 많은 논의와 정리가 필요한 상황이라고 할 수 있다. 작년 이맘때 서울에서 열렸던 한 국제 학술대회의 장면이 이를 상징적으로 보여준다. 세계 첨단 기술력을 자랑하는 기업 소속의 발표자가 AI의 현실적 응용 사례로 농장에서 농작물 크기와 형태에 따라 상업성이 있는 것인지 구분해내는 자동선별기를 소개했다. 다른 세션에선 AI에 대해 법인격을 부여하는 것이 필요한지에 대한 이론적 논의가 이어지기도 했다. AI가 다양한 의미로 해석되고 있을뿐더러 기업 현장에서의 관심과 이론적 관심 대상 사이에 커다란 차이가 나타날 수 있음을 보여주는 것이었다.
AI 법 제도에 관한 논의가 현실성이 있고 실효성이 있으려면 각각의 개별 논의가 어떤 방식의 AI를 염두에 두고 있는 것인지 구체화해 논의될 필요가 있다. 그렇지 않으면, 예컨대 자동선별기에 대해 법인격을 부여하고 문제 상황이 발생하면 해당 법인격에 대한 처벌을 규정하는 식의 우스꽝스러운 법 제도가 마련될 수도 있다. AI와 관련된 규범적 통제에 대한 관심을 거꾸로 해석하면 AI가 인간을 위해 유용하게 쓰이는 도구인지에 대해 불안감이나 불신을 가진 시각이 적지 않다는 뜻으로 볼 수도 있다.
이런 불안감이나 불신의 이유는 무엇인가. 가장 기본적으로는 AI에 대한 이해 부족이 출발점이다. AI 관련 법 제도에 대해 언급하면서 실제의 AI가 어떻게 작동하는지 그리고 현실에서 어떤 기능을 수행하는지에 집중해 문제나 부작용의 가능성을 검토하는 경우도 있지만 그보다 AI를 의인화해 바라보면서 총체적이고 총론적으로 접근하고자 하는 태도를 보이는 경우도 종종 접하게 된다. 이런 태도는 자칫하면 피상적 제도 구상으로 이어지면서 또 다른 부작용을 초래할 가능성이 있다.
대부분의 AI는 통계적 추론과 관련이 높다. 통계적 추론은 오류 가능성을 항상 내포한다. 위양성이나 위음성 등 통계적 추론으로부터의 오류 기준을 어떻게 설정할지에 따라 해당 AI에 대한 평가가 달라질 수밖에 없다. 또 학습에 이용된 데이터에 한계가 있을 수도 있고 알고리즘이 적절하게 디자인되지 않아 문제가 생길 수도 있다. 기술적 측면에서 볼 때 매우 복잡한 고도의 기술이 이용되는 경우도 있지만 그 반대로 AI라고 부르기도 민망한 초보적 수준의 알고리즘이 유용하게 활용되는 경우도 적지 않다. 그 어떤 경우든 AI가 이용되는 개별 영역이나 기술별로 서로 다른 특징과 한계가 있다.
법 제도를 올바르게 정립하기 위해서는 개별 유형의 AI에 대한 이해도를 높이는 것에서 논의가 시작돼야 한다. 이해도가 갖춰지지 않으면 과도한 불안이나 불신을 조장하는 태도가 확산될 수 있고 반대의 경우엔 비현실적 기대감만 높아질 수도 있다. 세상의 거짓말에는 ‘거짓말, 새빨간 거짓말, 그리고 통계’가 있다는 표현이 있지 않은가. 통계에 대해 거짓말이라 생각하고 불신하는 것은 통계를 모르는 이가 쉽게 빠질 수 있는 함정이다. 통계에 대해 무조건적 신뢰를 하는 것도 문제이다. AI 또한 마찬가지이다. 과도하게 신뢰해서는 곤란하지만 불필요한 불안감을 가질 필요도 없다. 냉정하고 객관적으로 바라볼 필요가 있고, 그러기 위해서는 AI 리터러시가 우선시돼야 한다.
고학수 서울대 교수·한국인공지능법학회장