[내일을 열며] AI의 노예가 되지 않는 법

입력 2025-07-09 00:32

최근 유명 소셜미디어 앱인 ‘쓰레드’에 오른 화장실 안내문을 놓고 인터넷에서 갑론을박이 펼쳐졌다. 대기업에 다닌다는 글쓴이가 쓴 안내문은 간단했다. ‘화장실 변기 커버가 너무 더러워 자비로 고장 난 커버를 교체했다’는 내용이었다. 칭찬을 바라고 가볍게 썼을 텐데 한 네티즌이 안내문을 오독하면서 논란이 일었다. 그는 안내문의 ‘자비’를 ‘사비’로 고쳐 적고 이를 사진으로 찍고는 “내가 방금 사비로 고침. 우리 기업 이미지 망치지 말아줘”라는 글과 함께 쓰레드에 올렸다. 즉 자비(自費)를 자비(慈悲)로 오해해 사비(私費)로 정정하고는 이를 다시 누구나 보는 SNS에 퍼뜨리고 지적까지 한 것이다.

‘사흘’을 4일로, ‘가제(假題)’를 랍스터로, ‘심심(甚深)한 사과’를 지루한 사과쯤으로 여기는 사람들이 득실대는 문해력 제로의 시대이니 여기까진 그럴 수 있다고 치자. 그런데 황당하게도 쓰레드에 이 사진이 올라오자 ‘자비는 남을 불쌍히 여기는 마음이라는 뜻이니 사비가 맞아’라는 댓글이 굴비처럼 달렸다. 그러니 애써 돈을 들여 화장실 변기를 고치고 안내문까지 친절하게 붙인 사람은 단어 하나도 제대로 쓰지 못한 사람이 되고 말았다. 간혹 자비(自費)와 사비(私費)는 같은 말이니 안내문이 옳다는 반박이 있었지만, 이를 진지하게 받아들인 네티즌은 많지 않았다. 그리고 이어진 결정타.

“내가 챗GPT에 물어봤는데, 자비는 틀렸고 사비가 맞대.”

이쯤 되면 웃을 일만은 아니라는 생각이 든다. 단어를 오독한 ‘문해력 빵점’들의 억지 비판이 챗GPT의 엉뚱한 한마디로 진실로 둔갑하다니. 더 나아가 논쟁을 지켜본 누군가는 자비를 영원히 자비(慈悲)로만 기억할지도 모른다는 상상에까지 이르니 머리가 어질어질해진다. 문해력 제로에다 챗GPT 맹신이 더해지니 이렇게나 무서운 일이 벌어졌다.

챗GPT 광풍이다. 번역도 학교 과제도, 대학 보고서도, 뭘 먹을까 고민도, 심지어 연애 상담까지 AI에게 묻는다. AI가 우리 인간을 편하게 만들어 준 건 사실이지만 AI는 그럴싸한 거짓말을 잘 늘어놓는다. ‘AI가 말했으니 완벽하겠지’라고 생각하다간 뒤통수 맞기 십상이다. 오죽하면 오픈AI의 CEO로 ‘챗GPT의 아버지’로 불리는 샘 올트먼조차 “사람들이 챗GPT를 지나치게 신뢰한다”며 “AI는 그럴듯한 거짓말을 한다. 너무 믿지 않았으면 좋겠다”고 말했을까.

실제로 중국의 국가 컴퓨터 과학 핵심 연구소 등이 지난해 발표한 연구에 따르면 챗GPT는 ‘인간의 손은 몇 개인가’ ‘해는 동서남북 중 어디에서 뜨는가’ 등 아주 기본적인 상식을 묻는 100개의 실험에서 인간(88.9%)보다 훨씬 뒤처진 정답률(74%)을 보였다. 빛의 속도로 정보를 찾아 취합해 소개하지만 AI는 아직 인간만큼 똑똑하진 못하다. 질문의 맥락을 깊이 이해하지 못하고 사실과 의견을 구분하지 못한다는 지적을 받기도 한다. 그러니 우리가 제대로 된 질문을 하지 않으면 챗GPT의 대답은 정확할 수 없다. 챗GPT는 성찰하지 않는다. 생각하고 판단하는 건 우리 인간의 몫이다.

챗GPT를 잘 쓰는 법은 간단하다. 우선 내가 뭘 알고 있는지 알아야 한다. 질문을 구체적으로 던지되 결과를 비판적으로 받아들여야 한다. 무턱대고 최종 판단과 결정을 맡기는 순간 AI가 우리의 주인이 되고 우린 AI의 노예가 된다. 올트먼은 “기계는 사람을 위해 존재해야 한다”고 강조했다. 챗GPT가 아무리 발전해도 방향을 잡고 판단을 내리는 건 인간이어야 한다는 조언이다. 슬기로운 AI 생활을 하려면 내가 먼저 똑똑해져야 한다.

김상기 콘텐츠랩 플랫폼전략팀 선임기자 kitting@kmib.co.kr