1000억개에 달하는 뉴런(신경세포)이 있는 인간의 뇌는 현대 과학에서 미지의 영역으로 남아있다. 인공지능(AI) 기술이 급속도로 발전하고 있지만, 인간처럼 생각하고 행동하는 AI는 아직 나오지 못하는 이유 중 하나다. AI가 사람의 뇌를 완벽하게 모방할 수 있을지에 대해서도 여전히 물음표가 따라붙는다.
뇌 기반 AI 연구는 두 가지 비밀을 풀 수 있는 열쇠다. 사람의 지능을 AI 알고리즘의 틀 안에서 해석하는 것으로 머릿속에서 일어나는 복잡한 문제 해결 과정과 지능이 형성된 이유를 수학적으로 정의한다. 이 연구에 뛰어든 이상완 한국과학기술원(KAIST) 뇌인지과학과 교수는 AI로 뇌의 고차원적 기능을 이해하고, 그 결과를 바탕으로 ‘뇌처럼 생각하는 AI’를 개발하는 것을 목표로 하고 있다.
지난달 25일 대전 유성구 카이스트 본원에서 이 교수를 만났다. 사물인터넷(IoT) 환경에서 인간의 의도를 추론하는 강화학습 관련 연구로 2009년 박사 과정을 마친 그는 행동 데이터만 가지고 의도를 파악하고 예측하는 것은 한계가 있다고 생각했다. 이후 뇌 기반 AI 연구에 뛰어들었다. 이 교수는 2019년부터 카이스트 신경과학-인공지능 융합연구센터장을 맡고 있다. 그는 “인간과 AI의 접점이 있는 모든 분야에 뇌 기반 AI 기술을 활용할 수 있을 것”이라고 말했다.
챗GPT 등 AI 챗봇을 사용할 때 사람과 대화하는 것처럼 느껴지는 이유는 출력 과정에서 세밀한 교정 작업(파인 튜닝)이 들어가기 때문이다. 그러나 인간과 AI의 사고 체계는 근본적으로 다르다는 게 이 교수의 설명이다. 그는 “AI 모델의 크기가 커질수록 사람과 비슷한 방식으로 상황을 해석하다가, 어느 임계점을 넘어가면 다르게 판단한다는 연구 결과들이 보고되고 있다”며 “인간과 AI는 기억이나 데이터를 담는 그릇 자체가 다른 것”이라고 말했다.
편향성 문제도 있다. AI는 맞춤형 정보를 제공하기 위해 질문이나 자료 등 프롬프트(명령어)를 바탕으로 사용자에 대해 추론한다. 이 교수는 “예컨대 AI가 한국에 사는 40대 남성의 취향과 성격 등 사용자의 배경 정보를 추론하는 과정에서 편향된 문맥이 형성될 수밖에 없다”고 말했다. AI가 학습하는 데이터 자체가 가치 중립적이지 못한 탓도 있다.
이 교수는 “인간이 AI와 상호작용해야 하는 시대에 믿을 수 있는 AI 개발을 위해선 사람처럼 생각하는 기술이 필요하다”며 “뇌처럼 생각하는 AI에 인간의 복잡한 가치 판단 기준을 최대한 반영하는 것을 목표로 하고 있어, 현재의 기술보다 신뢰성이 높고 윤리적 문제는 적을 것”이라고 말했다.
한편으로 AI가 인간의 사고 체계와 다르기 때문에 도움되는 면도 있다. 공학적 관점에서 수많은 데이터를 해석하고, 단시간 내 문제 풀이에 특화된 AI는 뇌 연구를 도울 수 있다. 이 교수는 “심리학이나 인지과학의 발전으로 사람의 사고 체계와 감정에 대해 깊게 이해하기 시작했지만, 뇌의 고수준 기능으로 갈수록 해석이 어려워졌다”며 “AI 알고리즘은 복잡한 뇌 데이터를 잘 정리하고 해석할 수 있다”고 말했다.
생성형 AI 열풍 이후 뇌 과학 연구에 AI 모델을 보다 적극적으로 활용하는 분위기도 생겼다. 언어 모델이나 딥러닝 기술을 이용해 뇌 데이터를 해석하는 식이다. 예를 들어 공간과 맥락 정보를 추상화하는 해마(대뇌 측두엽에 있는 기관)의 작동 원리, 과거 경험을 토대로 상황을 예측할 수 있는 인간의 ‘물리적 직관’ 등의 연구에 AI 이론과 모델을 적용할 수 있다. 고차원적인 뇌 기능에 대한 연구가 진전되면 관련 정신 질환 진단에도 도움이 될 수 있다.
뇌에 대한 이해도가 높아질수록 인간처럼 생각하는 AI를 개발할 가능성은 높아진다. 이 교수가 연구하는 ‘안정성과 유동성의 딜레마’를 예로 들 수 있다. 이 이론에 따르면 인간과 동물은 스스로 가설을 세우고 상황을 의심·검증하며 기존 행동을 유지할지, 변화시킬지 결정할 수 있다. 다시 말해 행동의 일관성과 변화 사이에서 끊임 없이 균형점을 찾는다는 것이다. 반면 AI에게는 이 같은 능력이 없다.
최근 이 교수는 안정성과 유동성의 딜레마가 적용된 AI 모델을 개발하고 관련 논문을 발표했다. AI에 이 모델을 적용하면 인간과 동물처럼 ‘의심하는 AI’를 만들 수 있다는 게 이 교수의 설명이다. AI가 의심을 하지 못해서 생기는 ‘할루시네이션’(환각) 현상을 줄이는 데에도 활용될 수 있다.
해당 이론은 인간의 성격과도 연관이 있다. 기존 행동을 유지하려는 경향이 강하면 안정 지향적인 반면, 변화를 추구하면 유연한 성격을 갖는 식이다. 이 교수는 “AI도 인간에 가까운 다양한 캐릭터를 만들어갈 수 있을 것”이라고 말했다.
그렇다면 결국 AI가 인간의 사고 능력을 뛰어넘는 순간이 올까. 이 교수는 방대한 데이터를 기반으로 문제 풀이에 특화된 일부 분야에서 이미 AI가 인간을 앞선다고 보고 있다. 그는 “어떤 분야에서는 우리는 이미 특이점을 지난 것 같다”고 말했다. 서울대병원이 개발한 ‘한국형 의료 거대언어모델(LLM)’은 최근 3년간 한국의사국가고시 데이터로 실험한 결과 정답률 86.2%를 기록하며 의사들의 평균 정답률(79.7%)을 넘어섰다.
그러나 인간의 사고 체계도 아직 밝혀지지 않은 영역이 많은 만큼, 실질적으로 사람의 지능보다 우위에 있다고 볼 순 없다는 것이 이 교수의 생각이다. 현존하는 데이터를 거의 모두 학습하고, 운영에 큰 비용이 드는 AI와 사람 한 명을 서로 비교하는 게 적절한지도 생각해볼 문제다. 이 교수는 “최근 AI가 경량화되고 시스템 효율이 높아지면서 인간의 지능을 뛰어넘는 순간이 다가오는 것 같긴 하지만, 사람과 AI를 일대일로 비교하는 건 까다로운 문제”라고 말했다.
대전=조민아 기자 minajo@kmib.co.kr