Research Stories

설명가능한 뇌영상 인공지능 모델 분석 파이프라인 개발

뇌영상 분야에서 인공지능 모델의 설명가능성 평가 시스템 구축

글로벌바이오메디컬공학과 우충완 교수 · 라다 코호토바 연구원

  • 설명가능한 뇌영상 인공지능 모델 분석 파이프라인 개발
  • 설명가능한 뇌영상 인공지능 모델 분석 파이프라인 개발
Scroll Down

인공지능과 기계학습의 인기는 날이 갈수록 증가하고 있다. 뇌인지과학 분야도 예외가 아니다. 최근 인공지능과 기계학습 알고리즘을 뇌영상에 적용하여 병의 진단이나 치료 효과를 예측하는 식의 연구가 인기를 얻고 있다. 심지어 뇌영상을 이용하여 개인의 지능도 측정한다. 하지만 우리는 뇌영상 기반 인공지능 모델의 결정을 얼마나 신뢰할 수 있을까? 


인공지능은 종종 안이 들여다보이지 않는 블랙박스로 묘사된다. 인공지능 모델이 왜, 그리고 어떻게 작동하는지 정확히 알기 어렵기 때문이다. 하지만 이를 모른다면 우리는 인공지능 모델이 언제 실패할 것인지, 언제 편파적인 결정을 내릴 것인지에 대해서도 알 수 없을 뿐 아니라, 뇌질환과 뇌의 작동 원리를 파악하는 데에도 도움이 되지 않는다. 이와 같이 뇌영상 인공지능 모델의 해석과 설명은 매우 중요하지만, 이를 통합적으로 분석하고 평가할 수 있는 접근법은 존재하지 않았다. 


이러한 한계를 극복하기 위해 성균관대학교 글로벌바이오메디컬공학과, 기초과학연구원 뇌과학이미징연구단 우충완 교수 연구팀은 동대학교 전자전기공학부 문태섭 교수 연구팀, 미국 다트머스 대학 토어 웨이거 교수 연구팀과 함께 뇌영상 인공지능 모델의 설명가능성을 분석하고 평가할 수 있는 통합 분석 파이프라인을 새롭게 구축하고 연구자들이 쉽게 따라할 수 있도록 구체적인 분석 프로토콜을 개발하였다.


이번 연구를 이끈 우충완 교수는 “뇌영상을 이용한 다양한 분야에서 기계학습과 인공지능의 사용이 일반화되고 있어, 뇌영상 기반 인공지능 모델의 해석과 설명의 필요성이 날로 커지고 있다”라며, “이번 연구를 통해 향후 설명가능하고 신뢰할 수 있는 뇌영상 인공지능 모델의 개발, 더 나아가 뇌질환과 뇌작동원리에 대한 더 깊은 이해의 촉진에 도움이 될 것으로 기대된다”고 하였다. 


이번 연구의 제1저자인 성균관대학교 글로벌바이오메디컬공학과 박사과정 대학원생 라다 코호토바는 “뇌영상 기반 인공지능 모델의 해석은 실제로 매우 복잡하며 아직 잘 정립되지 않은 연구 분야이다. 이 연구가 앞으로 더욱 철저하고 체계적인 뇌영상 인공지능 모델 해석의 기본 토대를 제공하길 바란다”고 하였다. 


본 연구는 기초과학연구원(IBS-R015-D1), 한국연구재단에서 지원하는 신진연구(2019R1C1C1004512), 과학기술정보통신부에서 지원하는 혁신성장동력프로젝트(2019-0-01367-BabyMind), 한국뇌연구원에서 지원하는 3개 국가뇌연구기관 뇌연구협의체과제(18-BR-03)의 연구결과물이다. 


이번 연구는 세계적인 학술지인 네이쳐 프로토콜스 (Nature Protocols, IF 11.334)에 3월 18일 게재됐다.


블랙박스라고 알려진 뇌영상 기반 인공지능 모델의 해석을 모델, 예측 변수, 생물학의 세 가지 수준으로 병렬적으로 접근, 위계적이고 체계적인 새로운 분석 시스템을 구축 및 제안하였음.


COPYRIGHT ⓒ 2017 SUNGKYUNKWAN UNIVERSITY ALL RIGHTS RESERVED. Contact us