시사 > 전체기사

요한슨 목소리 모방 논란 오픈AI, 안전장치 갖춘다

기존 안전팀 해체뒤 위원회 구성
차세대 AI모델 앞둔 조치 관측도


챗GPT 개발사 오픈AI가 차세대 인공지능(AI) 모델에 대한 훈련을 시작했다. 이와 함께 안전 및 보안 위원회를 꾸려 윤리 문제를 점검키로 했다. 배우 스칼렛 요한슨의 목소리를 무단으로 학습시킨 의혹 이후 안전장치를 마련하는 차원으로 해석된다.

오픈AI는 생성형 AI 관련 기술 개발 과정에서 불거지는 안전과 윤리 문제를 점검하기 위한 위원회를 구성했다고 28일(현지시간) 밝혔다. 앞서 오픈AI는 기존 안전팀을 해체했고, 이 팀을 이끌었던 수석과학자 일리야 수츠케버와 또 다른 임원인 얀 레이케가 회사를 떠났다. 이들은 AI 윤리 문제를 우려하며 샘 올트먼 최고경영자(CEO)와 대척점에 서 있었다.

오픈AI는 “다음 프런티어 모델을 훈련하기 시작했다”며 “그 결과물이 범용인공지능(AGI)으로 가는 다음 단계의 역량을 이끌 것으로 기대한다”고 밝혔다. AGI는 사람과 유사한 수준 또는 그 이상의 지능을 갖춘 AI를 뜻한다. 당장 AGI가 가능한 수준까지는 나아가지 않았지만, 차세대 AI 모델 GPT-5의 공개를 앞두고 안전 조치를 취하는 것이란 평가가 나온다. 오픈AI의 안나 마칸주 글로벌 담당 부사장은 파이낸셜타임스와의 인터뷰에서 “AGI는 아직 존재하지 않고, 안전할 때까지 출시되지 않을 것”이라고 말했다.

심희정 기자 simcity@kmib.co.kr

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재, 수집, 재배포 및 AI학습 이용 금지

국민일보 신문구독
X 페이스북 카카오톡