딥리서치가 인공지능(AI) 활용 연구 범위를 획기적으로 확장할 것이라는 전망이 나오지만, 학계에서는 부작용에 대한 우려의 목소리도 커지고 있다. 지난 2022년 생성형 AI 첫 등장 이후 여전히 활용 지침이 정착하지 못한 데다 AI 남용 대응책도 뚜렷하지 않은 것이 현실이기 때문이다.
생성형 AI를 활용한 연구가 확산하며 국내외 학술지와 주요 대학은 AI 활용 가이드라인을 발표하고 있지만 역부족이라는 평가가 지배적이다. 미국 학술 출판사 와일리가 지난해 8~9월 사이 전 세계 연구자를 대상으로 시행한 설문조사 결과를 보면 응답자의 63%는 “AI 활용 관련 학계 합의나 가이드라인의 부재, 기술력에 대한 불신 등이 생성형 AI 활용의 걸림돌이 되고 있다”고 답했다. 이들은 AI를 활용할 때 우려하는 대목으로 연구 윤리(54%), 보안·사생활 침해 가능성(47%) 등을 꼽았다.
AI 활용 시 개인정보 침해, 저작권 등 연구 윤리를 훼손하지 않을 방법은 아직 명확하지 않다. 최지웅 미국 신시내티대학교 교육공학과 조교수는 10일 “사회과학부터 생명 의료 분야까지 사람의 데이터를 다루는 거의 모든 논문은 연구 윤리 심의 절차를 거쳐야 하는데, 현재 생성형 AI를 활용하는 단계에서는 해당 데이터 보호를 장담할 수 없다는 점이 문제”라고 말했다.
더 큰 문제는 AI가 만들어낸 연구물을 걸러내기 어려워지고 있다는 점이다. 각 학술지는 이미 AI가 작성한 부실 논문을 분류하는 일로 홍역을 치르고 있다. 과학 학술지 네이처에 따르면 2021년까지 4000건을 넘지 않았던 세계 논문 철회 건수는 AI 활용 급증과 함께 2023년 1만건으로 급증했다. 반복되는 어색한 표현이나 조악한 완성도로 그나마 구분이 가능했던 기존 AI 대필 논문들과 달리 딥리서치 이후 모델이 작성하는 논문을 솎아내는 것은 더 어려워질 것이라는 우려가 나온다. 정재훈 고려대 의과대학 예방의학교실 교수는 “현재는 기존 연구 흐름을 잘 정리한 논문들도 가치를 인정받고 있지만 AI 작성 논문을 구분하는 것이 점점 어려워지면 거대언어모델(LLM)이 구현하지 못하는 ‘독창적 문제의식’을 갖춘 연구만이 인정받는 미래가 올 수 있다”고 내다봤다.
석·박사 과정 학생들이 독립 연구자로 성장하는 수련 과정에 있어 AI 활용을 어느 정도 권장해야 할지도 쟁점이다. 적극 활용을 권장하는 측에서는 학습의 효율성을 강조한다. 전종홍 한국전자통신연구원 책임연구원은 “딥리서치를 사용하기 시작한 지 일주일도 지나지 않았지만 기존 문헌과 데이터를 들여다볼 시간을 10시간 넘게 아낄 수 있었다”면서 “AI 모델 활용 능력과 연구 과정에 적용할 방법을 개발하고 연구자들에게 교육해야 한다”고 말했다. 반면 최 교수는 “신규 연구자들은 기존 문헌 검색, 요약 및 정리 등을 끊임없이 반복하며 성장하는데 이 작업을 AI를 이용해 자동화할 때 학자로서 내공이 쌓일 수 있을지는 의문”이라고 밝혔다.
윤준식 기자 semipro@kmib.co.kr