챗GPT를 개발한 오픈AI가 인공지능(AI) 기술의 위험에 대비해 최근 조직한 ‘대비(Preparedness)팀’ 역할을 공개했다. 지난달 샘 올트먼(사진) 오픈AI 최고경영자(CEO)의 해고와 복귀 사태 이후 오픈AI가 급속도로 상업화할 것이라는 우려에 대응하는 포석으로 풀이된다.
오픈AI는 18일(현지시간) 홈페이지에 “갈수록 강력해지는 (AI) 모델이 초래하는 재앙적 위험을 추적·평가·예측하고 방지하기 위한 것”이라며 대비팀의 기능을 소개했다.
AI 연구원, 컴퓨터 과학자, 국가안보 전문가 등으로 꾸려지는 대비팀은 오픈AI 이사회나 경영진 입김에서 벗어난 리스크 관리 업무를 전담할 전망이다. 오픈AI의 AI 기술을 모니터링하면서 각종 위험 문제를 회사에 경고하는 역할을 맡는다.
이사회는 대비팀 보고서를 근거로 경영진의 사업 결정을 바꾸도록 할 수 있다. 예를 들어 AI 모델이 핵이나 생화학 무기 등의 위협이나 해킹 위험을 일정 수준 이상 높인다고 판단될 경우 개발을 중단하도록 하는 방식이다. 출시돼 있는 AI 모델의 안전을 점검하는 ‘안전시스템팀’도 신설됐다.
오픈AI는 지난달 올트먼 CEO 해고 사태 이후 새 이사진을 꾸리는 절차를 진행 중이다. 대비팀의 수장 격인 알렉산더 매드리 매사추세츠공대(MIT) 교수는 올트먼 CEO 해고 당시 그와 함께 회사를 그만뒀다가 복귀한 인물이다.
매드리 교수는 “AI가 사회에 어떤 영향을 끼치고 있는지 정말로 확인하고 싶다면, 실제로 그러한 회사에 들어가지 않을 이유가 없다는 것을 깨달았다”고 말했다고 워싱턴포스트(WP)가 보도했다.
김경택 기자 ptyx@kmib.co.kr