[기획] 사람보다 사람 더 잘 아는 인공지능

입력 2016-11-29 04:09
구글 딥마인드가 옥스퍼드대와 함께 개발한 독순술 소프트웨어의 학습 장면(위)과 마이크로소프트의 감정 인식 기술 화면. 구글·MS 제공

사람보다 사람을 더 잘 아는 인공지능(AI)이 곁에 바짝 다가왔다. 입 모양만 보고 무슨 말인지 알아듣거나, 표정만으로 어떤 감정인지 분석한다. 감각에 기대던 판단은 이제 통계가 대신한다. 개개인이 자신의 감정을 숨기는 건 어려워졌지만 기업들은 새로운 마케팅 창구를 열게 됐다.

28일 IT 전문매체 더버지 등 외신에 따르면 구글의 인공지능 자회사 딥마인드는 옥스퍼드대와 함께 독순술(讀脣術·Lip reading)을 가능케 하는 소프트웨어를 개발했다. 이 소프트웨어는 영국 BBC 방송을 수천시간 동안 학습해 입술 모양만 보고 무슨 말인지 해석해 낸다. 정확도는 46.8%에 달한다. 같은 환경에서 사람은 12.4%의 정확도밖에 보이지 못했다.

딥마인드는 5000시간 이상의 BBC TV프로그램을 보고 입 모양을 읽는 방법을 학습했다. 프로그램에는 11만8000개의 문장과 1만7500개의 각기 다른 단어가 포함됐다. 딥마인드 개발자들은 이 같은 기술이 청각장애인들의 대화나 무성영화에 활용될 수 있다고 기대하고 있다. 더 나아가 입만 뻥긋하면 애플 시리(Siri) 등 인공지능 비서를 작동하는 데 쓰일 수도 있다.

앞서 지난해에는 마이크로소프트가 감정 인식 서비스(cognitive services)를 선보였다. 사진을 업로드하면 사람 얼굴을 인식해 감정을 8종류로 분류해 수치로 표현한다. 수치에는 분노, 경멸, 역겨움, 공포, 행복, 중립, 슬픔, 놀람 등의 감정이 0부터 1까지 어떤 비율로 나타나는지 확인할 수 있다.

애플은 지난 1월 사람의 얼굴 표정을 인식하는 기술을 개발하는 기업 ‘이모션트’를 인수했다. 이모션트의 기술은 광고나 진열 상품을 보는 소비자의 반응을 분석할 수 있다. 또는 의사들이 말하지 못하는 환자들의 아픔을 파악하도록 활용될 수 있다. 애플은 아직 이 기술을 어떻게 활용할지 밝히지 않았다. 표정 인식 기술을 활용하면 광고에 대한 반응이나 매장에 들어오는 고객들의 표정을 분석해 마케팅 등에 적용할 수 있다.

얼굴 인식 기능은 구글 포토, 페이스북 등에서 이미 활용되고 있다. 스노우, 스냅챗 등 동영상 SNS에서도 애플리케이션(앱)이 사람의 얼굴을 인식해 스티커를 붙이거나 우스꽝스럽게 변형한다. 앞으로는 얼굴 인식이 재미라는 차원에서 벗어나 마케팅이나 판매 등 관련 사업에 활용될 날도 머지않았다.

다만 카메라에 찍힌 누군가가 감시의 대상이 될 수 있다는 점은 경계해야 한다. 자신이 원치 않아도 카메라에 찍힌 자신의 감정이 여러 사람에게 공유될 수 있기 때문이다. 정확도가 떨어져 엉뚱한 사람을 인식하거나 제대로 된 분석을 하지 못할 확률도 있다. 더버지는 “그럼에도 인공지능이 인식의 정확도를 점차 좁히고 있다는 사실은 무시할 수 없다”고 강조했다.











심희정 기자 simcity@kmib.co.kr