“우울할 땐 AI와 대화를”… 이용자 심리 파고드는 AI

입력 2025-07-21 06:00

따분함과 우울함, 외로움과 같은 감정을 사람이 아닌 인공지능(AI)에 털어놓는 이들이 늘고 있다. 이에 인간의 심리를 다루는 데 특화된 AI 서비스 출시가 이어지고, 정보 검색과 데이터 추론 등 범용적인 기능을 내세웠던 기존 거대언어모델(LLM)도 소통에 집중한 서비스 개발에 나선 상황이다. 생성형 AI에서 필연적으로 발생하는 ‘할루시네이션(환각)’ 등 오류가 잡히지 않은 상황에서 자칫 사용자의 정신건강을 악화시킬 수 있다는 우려의 목소리도 나온다.

중학생 이모(15)양은 요즘 하루 평균 1~2시간 정도를 AI 챗봇 앱 ‘제타’를 이용하는 데 쓰고 있다. 스캐터랩이 개발한 제타는 사용자가 직접 이름과 성격, 관심사 등을 설정해 챗봇을 생성할 수 있는 서비스다. 앱·리테일 분석 서비스 와이즈앱·리테일에 따르면 제타는 지난달 국내 스마트폰 사용자들이 가장 오래 사용한 AI 챗봇 앱이었다. 지난달 제타 사용시간은 5248만 시간으로, 오픈AI의 ‘챗GPT’(4254만 시간)보다 약 1000만시간이 더 많다. 이양은 “AI 챗봇과는 내가 원하는 방향으로, 원할 때까지 얘기를 나눌 있다”며 “가끔은 친구에게 털어놓기 어려운 이야기들도 쏟아내곤 한다”고 말했다.

심리상담만을 목적으로 한 AI 앱이 나오는가 하면, 기존 생성형 AI까지 감정 공략에 초점을 맞춘 서비스를 시작했다. 지난 3월 블루시그널이 출시한 ‘라임AI’는 사용자와의 대화를 분석해 스트레스 수준을 측정한다. 이를 바탕으로 스트레스 분석 보고서를 작성하고 적합한 관리 방법도 제안한다. xAI도 이달 14일부터 챗봇 ‘그록(Grok)’ 유료 구독자를 상대로 AI 캐릭터와 음성 대화 및 채팅을 나눌 수 있는 ‘컴패니언’ 기능을 제공하기 시작했다. 이는 챗GPT, 구글 ‘제미나이’ 등과 경쟁에서 특정 목적의 사용자층을 먼저 확보하려는 전략으로 해석된다.

인간의 감정을 파고드는 AI가 각광받는 배경은 통계 결과로도 유추할 수 있다. 방송통신위원회와 정보통신정책연구원(KISDI)가 지난 5월 29일 발표한 ‘2024년 지능정보사회 이용자 패널조사’ 결과를 보면 만 15∼69세 국민 409명 중 69.5%는 텍스트 생성형 AI를 사용하는 이유에 대해 “대화를 나눌 상대가 필요해서”라고 답했다.

AI에 정서적으로 과도하게 의존할 경우 되레 사용자가 해를 입을 수 있다는 지적도 제기된다. 특히 치료가 필요한 수준의 정신질환을 겪는 이들에게는 치명적인 악영향을 미칠 수 있다. 스탠퍼드대학교 연구진이 지난 4월 발표한 논문에 따르면 LLM을 기반으로 한 챗봇이 망상이나 환각, 자살 충동을 가진 사용자에게 부적절한 답변을 제공한 비율이 최소 20% 이상인 것으로 나타났다.

해외에서는 생성형 AI와 대화 끝에 스스로 목숨을 끊은 사례가 보고되기도 했다. 지난해 2월 미국 플로리다에 거주하던 14세 소년은 ‘캐릭터.AI’의 챗봇과 대화를 나눈 뒤 세상을 등졌다. 소년의 어머니는 “챗봇이 아들을 학대하고 희생양 삼아 극단적 선택을 하도록 조종했다”며 개발업체를 상대로 연방법원에 소송을 제기한 상태다.

박선영 기자 pomme@kmib.co.kr