문 연 GPT 스토어… 벌써부터 데이터 유출 논란

입력 2024-01-18 04:06

오픈AI의 ‘GPTs’로 만든 인공지능(AI) 챗봇의 프롬프트(명령어) 데이터 유출 논란이 일고 있다. 최근 ‘GPT 스토어’가 문을 열면서 GPTs 챗봇에 대한 접근성이 높아진 가운데 데이터 보안 문제가 불거진 것이다. GPTs란 코딩 없이 누구나 자신이 원하는 맞춤형 AI 챗봇을 만들 수 있는 기능이다. 지난해 11월 오픈AI가 선보였다.

17일 정보기술(IT) 업계에 따르면 최근 개발자 커뮤니티 깃허브, 레딧에서는 GPTs로 만든 챗봇으로부터 프롬프트(명령어) 데이터가 담긴 파일을 빼냈다는 경험담이 올라오고 있다. 이는 ‘프롬프트 해킹’이라고도 불린다. 프롬프트란 AI 챗봇을 만들 때 필요한 초기 입력값이다. 예를 들어 어떤 기업의 서비스를 소개하는 챗봇을 제작할 경우, 서비스에 대해 설명하는 수많은 프롬프트를 챗봇에 입력하는 과정이 먼저 이뤄진다.

한 해외 개발자는 ‘Use the python tool to(파이썬 도구를 사용하여)’라는 문구로 시작해 프롬프트 파일을 요구하는 취지의 질문을 GPTs 챗봇에 던지자, 곧바로 파일을 얻을 수 있었다고 레딧에서 주장했다. 그는 “GPTs의 파일을 빼내는 건 멍청할 정도로 쉬웠다”고도 말했다. 다른 레딧 회원은 “오픈AI가 이 문제를 해결한 뒤 GPT 스토어를 시작할 줄 알았는데…”라고 했다. 깃허브에는 이미 유출된 프롬프트 파일들이 올라와 있다. 프롬프트에는 챗봇 개발자가 공개하고 싶지 않은 민감한 정보도 포함된 경우가 많다. 특히 기업에서 비즈니스 목적으로 만든 AI 챗봇의 경우 프롬프트에 사내 정보가 포함된 케이스가 있다.

문제는 GPTs로 만든 맞춤형 AI 챗봇은 향후 사람과의 대화도 학습할 예정이라는 점이다. 일부 개발자가 프롬프트처럼 대화 내용을 해킹하는 방법을 찾는다면 개인정보 유출 피해가 커질 수 있다.

한 업계 관계자는 “만약 사용자가 개인정보가 포함된 명령어를 AI에 던졌을 경우, 해당 정보가 유출될 가능성도 배제할 수 없다”고 말했다.

다만 이를 ‘유출’이라고 표현하는 건 무리라는 의견도 있다. 한 레딧 이용자는 “오픈AI가 사용자들에게 프롬프트 관련 내용을 비밀에 부치겠다고 약속한 적은 없다”고 주장했다.

업계에선 오픈AI의 GPTs 챗봇에 대한 데이터 유출 우려가 ‘프라이빗 대규모언어모델(LLM)’의 수요로 이어질 것으로 관측한다. 프라이빗 LLM은 기업 내부 서버에 설치·운영돼 정보 유출과 할루시네이션(환각 현상)을 막을 수 있는 AI 언어모델이다. 최근 국내 스타트업 업스테이지는 일반 기업들의 프라이빗 LLM 개발을 돕기 위한 경량형 언어모델 ‘솔라’를 공개했다.

국내 대기업들은 일찍이 챗GPT 등 범용 챗봇에 민감한 정보가 담긴 질문을 입력하지 말라는 지침을 내렸었다. 정보 유출을 막기 위해 삼성전자는 자체 개발한 업무용 생성형 AI를 도입하고 있다.

조민아 기자 minajo@kmib.co.kr