지금은 다소 잠잠해졌지만 올해 들어 전 세계 공통으로 세상을 가장 시끄럽게 한 뉴스 중 하나는 챗GPT였을 것이다. 챗GPT가 세상에 나온 뒤 인류는 몇 달간 열심히 이 주제에 대해 이야기해왔다. 다만 대부분의 논의는 챗GPT가 얼마나 유용한지, 얼마나 돈이 될지에 맞춰졌다. 관련 주식이 뜀박질하듯 오르고, 유수 IT 기업들이 경쟁에 뛰어들었지만 그에 대한 철학적이고 윤리적인 논의는 텅 비어있다시피 했다.
노엄 촘스키는 최근 미국 뉴욕타임스에 기고한 글에서 챗GPT가 그 어떤 도덕적 사고도 불가능하며, 단순히 어떤 데이터가 더 많은지에 의해 답변을 결정한다는 점을 지적했다. 도덕적 논란이 될 만한 주제에 챗GPT는 아예 답을 하지 않는 방법을 택한다. 스스로가 답하는 지식이 어떤 식으로 편향돼 있는지, 어떤 점에서 문제가 있는지 판단할 능력이 거세돼 있다. 때문에 촘스키는 챗GPT에 ‘진짜’ 지능이 없다고 적었다.
챗GPT는 빅데이터를 활용해 인간이 지어낼 법한 문장을 만들어내는 인공지능이다. 사실 비슷한 인공지능이 먼저 도입됐다 할 수 있는 건 기계번역 분야다. 기계번역의 도구로 흔히 접하는 구글번역, 네이버 파파고도 인간의 번역물이라는 빅데이터를 학습해 그럴듯한 문장을 만든다는 점에서 챗GPT와 원리가 다르지 않다. 번역이라는 일 자체가 어떤 내용을 뉘앙스, 은유, 관용구, 맥락을 고려해 언어로 최대한 온전히 표현하는 일이라서다.
기계번역은 2016년 인공지능이 처음 도입된 이래 급속도로 발전했다. 여행지에서 스마트폰을 꺼내 번역 애플리케이션으로 의사소통하는 풍경은 더이상 낯설지 않다. 하지만 기계번역은 가벼운 용도가 아닌 실무에 적용할 때는 결국 감수자인 인간을 필요로 한다. 아무리 기술이 번역의 완성도를 높여놓는다 해도 오역의 가능성에 책임을 질 수 있는 건 결국 인간이라서다. 의료·법률처럼 오역 하나로 불가역적 피해가 생길 수 있는 분야는 더 그렇다.
인간 번역가의 설 자리는 기계번역의 완성도가 높아질수록 사라질 수밖에 없다. 번역가가 10명 필요했던 자리에 감수 역할을 할 단 1명의 번역가만 남을 것이다. 이 체제는 지속될 수 없다. 그렇게 수요가 적고 무한책임만 지는 직업을 아무도 하려 하지 않을 테니 말이다. 결국 인공지능이 기반해온 ‘진짜’ 번역문을 추가로 생산할, 또 기계번역의 질을 감수할 주체가 모두 사라지는 셈이다. 그 세상은 과연 진일보한, 혹은 그럴 가능성을 여전히 가진 세상일까.
우리가 챗GPT를 보며 떠올려야 할 질문에는 돈을 어떻게 빨리 벌 수 있을지, 일을 얼마나 많이 할 수 있을지 뿐만이 아니라 지능이란 어떤 것인지, 어떻게 쓰여야 옳은지 역시 포함해야 한다. 단순한 가치 판단조차도 하지 못하는 ‘가짜’ 지능의 챗GPT가 변호사 시험과 의사 시험을 손쉽게 통과했다는 소식은 우리에게 높은 경제적 보상을 약속해온 지식체계란 게 사실 얼마나 공허한 것인지를 역설적으로 알려준다.
최근 대학가에서 들려오는 소식에서도 우리는 비슷한 교훈을 얻을 수 있다. 학생들이 과제를 챗GPT를 사용해 제출하면서 이를 가려내지 못한 교수들이 골머리를 앓고 있다는 소식이다. 그간 대학이 생산해온 지식이란 챗GPT처럼 타자에 대한 이해나 가치에 대한 판단 기준이 없이도 그저 남을 모방하며 습득하고 가르치는 데 아무 어려움이 없는 ‘가짜 지식’에 가깝다는 걸 증명하는 셈이라서다.
사회의 진보란 단순히 우리가 해온 일을 인공지능에 맡긴다고 해서 이뤄지진 않는다. 어떤 책임이 누구에게 새로 지워질 것인지, 우리에게 진짜 필요한 지식이 뭔지 그리고 이 새 기술의 발견으로 우리가 얻게 되는 건 무엇이고 또 잃을 것은 뭔지를 부지런히 성찰해야 한다. 인공지능이 손쉽게 따라 할 수 있는, 겉보기에 번드르르하고 그럴듯한 수식 대신 지식과 스스로를 향한 통찰만이 세상을 앞으로 나아가게 할 수 있다.
조효석 뉴미디어팀 기자 promene@kmib.co.kr