AI, 무기가 된다… 초거대 AI의 ‘그림자’

입력 2023-02-15 17:10

챗GPT와 같은 초거대 생성형 인공지능(AI)이 일상으로 진입하면서 부작용을 걱정하는 목소리가 커지고 있다. 이미 학계, 교육계에서는 ‘대필’ 논란이 불거졌다. 저작권 분쟁, 혐오 표현뿐 아니라 범죄에 악용되는 ‘무기’가 될 수 있다는 우려에 직면했다.

언어 생성형 AI는 질문과 답을 하는 과정에서 사람과 비슷한 언어로 결과물을 만들어낸다. 표절이나 저작권 침해를 양산하는 주범이라는 꼬리표가 따라붙는 이유다. 한 일본인은 네이버의 AI번역기 파파고로 한국 웹툰을 일본어로 번역했고, 관련 업계의 번역 신인상을 수상했다는 사실이 최근에 밝혀지기도 했다. 한국의 한 국제학교에서는 일부 학생들이 챗GPT를 활용해 영문 에세지를 작성해 제출했다가 전원 0점을 처리됐다. IT업계 관계자는 “생성형 AI가 일상화할수록 콘텐츠에 대한 신뢰성이 떨어질 것이다. 표절 여부 등을 검증하는 데 사회적 자원도 더 많이 필요할 것”이라고 15일 말했다.


생성형 AI가 범죄 등에 악용될 수도 있다. 챗GPT의 경우 우회적 질문으로 답을 유도하면 범죄에 필요한 피싱 이메일까지 작성해준다. 과거 해커가 보내는 피싱 이메일은 “친애하는 A씨”와 같이 일상에서 잘 쓰지 않는 문구를 담고 있어 ‘스팸 메일’로 자동 분류됐다. 반면 챗GPT로 만든 자연스러운 한국어 피싱 이메일의 경우 필터링이 제대로 작동하지 않아 피해자가 빠르게 늘 수밖에 없다.

고도화한 해킹 도구를 스스로 만들지 못하는 사람도 챗GPT를 활용해 쉽게 악성코드를 만들 수도 있다. 실제로 이스라엘 사이버보안업체 체크포인트는 지난달에 해커가 활동하는 사이버 포럼 등의 공간에서 챗GPT가 악성코드, 피싱 메일 등의 해킹 도구를 개발하는 데 활용됐다고 발표했다.

이 때문에 생성형 AI를 ‘나쁜 의도’로 사용하는 걸 막는 ‘장치’가 필요하다는 지적이 나온다. 미라 무라티 오픈AI 최고기술책임자(CTO)는 “챗GPT는 사실을 꾸며내고, 나쁜 의도를 가진 이용자들에게 얼마든지 악용될 수 있다. 개발자 홀로 이 문제를 해결할 수 없다. 정부, 철학자 등 모두가 참여해 규제를 논의해야 한다”고 말했다.

전성필 기자 feel@kmib.co.kr