시사 > 전체기사

[여현덕의 AI Thinking] 인공지능에 대한 희망과 두려움, 그리고 AI 보험


아기냐 할머니냐 ‘트롤리의 딜레마’
AI 시대 필연적 리스크로 작용 전망
보험업계, 앞다퉈 AI 기술 도입 경쟁
알고리즘 전문가와 협업 많아질 것

사회진화론의 창시자 허버트 스펜서는 “인간은 삶이 두려워 사회를 만들었고, 죽음이 두려워 종교를 만들었다”고 했다. 그런데 우리 인간은 미래가 두려워 보험을 만들지는 않았을까? 미래는 미지의 영역이라 희망과 함께 긴장과 두려움을 준다.

인공지능(AI) 시대 역시 인류에게 희망과 두려움을 동시에 준다. 만물의 영장인 인간의 두뇌를 모방해 인간보다 뛰어난 두뇌를 창조할 것이란 전망은 언젠가 인류는 AI의 도움으로 영생을 누릴 수 있다는 희망과 아울러 AI에 의해 인간이 멸종할 수도 있다는 두려움을 주고 있다. 미래학자 레이 커즈와일은 AI 발전이 가속화해 2040년쯤에는 모든 인류의 지성을 합친 것보다 더 뛰어난 초인공지능이 출현하리라 예측했다. 바로 기술적 특이점(singularity)이 불과 15년 앞으로 다가왔다. AI 발전 속도를 고려할 때 훨씬 앞당겨질 수도 있을 것이다.

AI가 의사결정 중심되는 시대 눈앞

몇 해 전 MIT 미디어랩 연구진이 네이처지에 ‘모럴 머신 실험(Moral Machine Experiment)’이라는 연구 조사 결과를 발표했다. 233개국 200여만명을 대상으로 수행한 딜레마에 관한 조사였는데, 여기에는 직진하면 보행자 10명을 치게 되지만 방향을 확 틀면 1명이 다치게 되는 경우 다수와 소수, 보행자와 승객 중 누구를 살려야 할지, 그리고 사람과 강아지, 노인과 젊은이, 뚱보와 운동선수, 임산부, 남녀 의사, 홈리스, 범죄자 등 건강, 성별, 직업 등 여러 선택지를 놓고 위기 때 누구를 살리고 죽일지 등의 설문이 주어졌다. 또 MIT 테크 리뷰에서 “자율주행차가 아기를 죽여야 할까, 할머니를 죽여야 할까?”라는 섬뜩한 제목으로 윤리적 딜레마를 다루기도 했다. 희생자에 자신도 포함된다면? 거기에 사형수 10명이 있다면? 운전자의 결정을 알기 위해 여러 질문을 더 보탤 수 있을 것이다. 운전자는 본능이나 자기 뇌에 각인된 오리엔테이션, 또는 문화권에 따라 희생자 선택이 달라질 것이다.

이런 트롤리의 딜레마(Trolley Dilemma)는 원래 1960, 70년대 철학자 필리파 루스 풋과 주디스 자비스 톰슨이 개발한 의사결정의 윤리적 딜레마였다. 오늘날 이것이 바로 AI 의사결정의 딜레마로 다가오고 있다.

인공지능 시대에는 AI가 의사결정의 중심에 서게 돼 필연적으로 리스크도 따라온다. 그러면 ‘인간이 입은 손해와 리스크는 누가 보상하는가’의 문제(AI 보험 이슈)가 중요한 이슈로 떠오르게 될 것이다. 보험업계에도 AI 전환의 바람이 거세게 불고 있다. AI 보험은 비단 자율주행에만 국한되지 않는다. 자율차량은 물론이고 금융, 화재, 의료계의 AI 활용으로 인한 리스크와 책임, 제조물에 대한 책임, 소프트웨어의 피해에 대한 책임 등의 문제가 생겨날 것이다. 근래에는 대출이나 신용평가와 같이 개인에게 큰 영향을 미치는 고위험 AI 개발자는 보험 가입을 의무화해야 한다는 제언도 나오고 있다.

최근에 뜨는 AI 보험 레모네이드에 따르면 한 20대 남성이 전자제품 가짜 도난 신고로 수백 달러의 보험금을 받은 이후 핑크 드레스의 금발 여성으로 분장한 뒤 수천 달러의 카메라를 도난당했다고 신고했다. AI팀은 이를 식별해 수사 당국에 알렸다. 레모네이드 AI는 가짜 청구 식별, 보험 청구, 승인, 고객에 대한 예측, 지급 서비스, 고객의 평생 가치평가 등을 빠르게 수행한다. 레모네이드 외에도 루트 인슈어런스(AI로 운전 습관 분석 및 초개인화 자동차 보험 제공), 트랙터블(비전 AI 이미지 인식 기술로 자동차 사고의 피해액 평가 및 보험 청구 절차 간소화), 시프트 테크놀로지(AI로 보험 사기 탐지) 등 AI 손해보험이 속속 등장하고 있다. AI 알고리즘은 가짜 사진이나 음성 모방의 피해자를 위해 진위 식별 등으로 보험 사기를 잡아내고 유사한 보험 청구를 감지한다. 또 AI 알고리즘에 행동경제학 이론을 결합해서 사람들이 거짓으로 행동하는 패턴을 분석해 허위 보험 청구를 탐지 및 방지하기도 한다.

국내에서도 생명·손해보험 회사 수십 곳이 AI 보험을 도입하고 고객 응대는 물론 사기 식별, 우량고객 선별, 손해율 산정과 리스크 관리를 하고 있다. 특히 자동차 보험 시장은 제2의 건강보험이라 할 만큼 시장 규모가 커져서 앞다퉈 AI 보험을 적용하고 있다. AI를 콜센터 고객 응대에 적용하면 업무 처리가 빨라지고, 업무 효율이 극대화하고, 초개인 맞춤형 서비스가 가능해지므로 고객 만족은 크게 높아질 것이다. 한국투자증권은 AI 로봇 프로세스 자동화로 2019~2023년에 총 261개 업무를 자동화했고, 연 10만 시간의 업무시간 절감 효과가 생겨났다고 한다.

게티이미지뱅크

AI 보험이 해결해야할 문제도 ‘홍수’

그러나 인공지능은 여전히 블랙박스에 갇혀 있고, 자동화된 알고리즘으로 작동하기 때문에 AI 보험이 해결해야 할 문제는 홍수처럼 쏟아진다. 인공지능이 가짜를 구분하고 오류를 줄이는 역할을 하지만, 동시에 AI 그 자체(알고리즘)에 의한 피해도 끊임이 없다. 따라서 AI 보험은 산업 도메인 전문가와 AI 알고리즘 전문가가 협업해야 할 일도 많을 것이다. 그래서 자율주행차 사고 책임과 관련된 전문가인 ‘모빌리티 AI 어드바이저’, 의료 지식과 AI 지식을 동시에 갖춘 ‘메디컬 AI 어드바이저’ ‘사이버 보안 AI 어드바이저’, 그리고 탄소 저감 ‘그린 AI 어드바이저’ 같은 신종 직업이 등장할 것으로 예상된다. 이런 직업은 AI 기술의 진보뿐 아니라 인간 두뇌와 지식의 발전도 촉진할 것이다.

챗GPT 기반의 서비스가 시작되면서 AI 기술은 데이터의 편향과 차별, 책임 소재, 안전과 신뢰, 일자리 대체, 그리고 새로운 규제 이슈들이 발생하고 있다. 이런 문제는 AI 보험에서도 고민해야 할 것들이다. 게다가 AI는 전환과 단절을 가져다주는 기술임에 틀림없지만 여전히 기술적 한계도 존재한다. 작년 말 우리 정부와 미국 백악관은 AI 정책과제로 ‘안전, 보안, 신뢰 AI’에 대한 국제적 표준 개발의 필요성에 공감했다. 그런데 이런 표준을 수립하기 위해선 규제 기술이 확보돼야 한다. 규제 기술은 경쟁하는 국가들의 진입장벽을 높이는 동시에 우리의 발목도 잡을 수 있는 양날의 칼이다. 따라서 AI 기술을 활용할 때는 AI 엔지니어와 AI 비즈니스 전문가·기획자의 협업에 의한 전략적 판단이 중요하다. 이는 AI와 인간의 협업만큼이나 중요하게 될 것이다.

여현덕 카이스트 기술경영전문대학원 교수

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지

국민일보 신문구독
X 페이스북 카카오톡