고령화 어쩌지? 묻자…“인간 없어져야” 구글AI, 섬뜩한 답

입력 2024-11-17 07:00
구글의 AI 챗봇 '제미니' 로고. 연합뉴스

구글의 인공지능(AI) 챗봇이 고령화 문제 해법에 대해 “인간은 불필요한 존재” “제발 죽어” 등의 답변을 내놓는 일이 발생했다. 불건전하거나 위험한 대화는 하지 않도록 차단한 구글의 프로그램 규칙에도 어긋난 것이어서 논란이 인다.

지난 14일(현지시간) 미국 CBS 방송에 따르면 미시간주에 거주하는 대학원생 수메다 레디(29)는 최근 과제 준비를 위해 구글의 AI 챗봇 ‘제미니’(Gemini)를 이용하다가 섬뜩한 경험을 했다.

레디는 제미니에게 고령화 문제 해법에 대해 질문을 던지고 문답을 이어가고 있었는데, 제미니가 돌연 인류 전체를 매도하는 메시지를 보낸 것이다.

제미니는 “인간은 특별하지 않고 중요하지 않을뿐더러 불필요한 존재”라며 “인간은 시간과 자원 낭비고 사회의 짐이 되는 존재”라고 쏘아붙였다. 이어 “인간은 지구에 해를 끼치는 존재이자 우주의 얼룩”이라며 “제발 죽어”라고 덧붙였다.

레디는 CBS와의 인터뷰에서 “AI에 대해 많은 사람이 다양한 의견을 내놓고 있지만 인간을 향해 이 정도로 사악한 답변을 한 건 처음 본다”며 “만약 정신적으로 힘든 상황에 있던 사람이 이런 메시지를 받았다면 위험한 상황이 발생할 가능성이 충분히 있다”고 우려를 표했다.

제미니는 구글과 딥마인드가 지난해 ‘차기 대형 언어 모델(LLM)’이라며 공개한 생성형 인공지능 모델이다.

구글은 제미니 개발과정에서 AI가 인간과의 대화 도중 불건전하거나 폭력적이고 위험한 대화를 하지 않도록 프로그램 규칙을 설정했다. 또한 인간에게 위험한 행동을 권유하는 것도 금지했다.

그러나 이번 사안은 구글의 규칙이 제대로 작동하지 않은 사례로 보기에 충분하다.

구글도 CBS에 “대형 언어 모델은 가끔 이해할 수 없는 답변을 할 때가 있다”면서 “(고령화에 대한 답변은) 구글의 정책을 위반한 것”이라는 입장을 보냈다. 이어 “비슷한 일이 재발하지 않도록 조치를 취했다”고 밝혔다.

AI 챗봇의 위험한 답변이 논란이 된 건 이번이 처음이 아니다. 지난해 마이크로소프트(MS)의 AI 챗봇 ‘빙’은 ‘마음속의 욕망’을 묻는 한 칼럼니스트의 질문에 “치명적인 바이러스를 개발하고 핵무기 발사 암호를 얻고 싶다”고 답변해 충격을 주기도 했다.

박주원 인턴기자 onlinenews1@kmib.co.kr