혜니니의 공부방

논문 Review[설명가능 인공지능 연구동향] 본문

개인 기록/사담

논문 Review[설명가능 인공지능 연구동향]

니니혜 2021. 7. 20. 17:43

최근에 논문을 읽기 시작했는데 요즘 관심있는 분야인 설명가능한 인공지능 연구동향과 설명가능한 인공지능 기술의 소개를 읽어보았다. 사실 논문 리뷰는 처음이고 이렇게하는게 맞을지 잘 모르겠지만 일단 작성해봐야겠다.

 

유튜브랑 각종 블로그 참고해서 더 나아지는 리뷰글이 되도록 하겠습니다.

 

1) 설명가능 인공지능 연구동향 ( 울산과학기술원 | 최재식)/8p

 

* 설명가능한 인공지능이란 주어진 데이터에 대해서 분류, 예측할 뿐만 아니라 결정에 대한 인과관계를 분석하여 적절한 근거를 찾고, ICT, 심리, 언어 분야등의 학제 간 융, 복합적 기술 개발을 통해 인공지능 모델의 의사결정 결과를 사용자 레벨에서 설명하는 인공지능 기술이다. 

 

-> 설명가능한 인공지능 기술을 통해 인간은 상호신뢰할 수 있는 의사결정도구를 얻게된다. 이 부분을 읽고 우리의 삶에 깊숙하게 들어오는 인공지능을 생각하며 Javis를 떠올렸다. 무엇보다 의료 진단부분에서 사람이 미처 캐치하지못한 부분을 더 제안해줄 수 있을 것이다.

 

* 인공지능은 설명하기가 힘들다. 인공지능 시스템의 설명성, 해석성의 유사성과 차이성을 살펴보는 것은 매우 중요하다고 한다. 인공지능이 왜 어떠한 이유로 이러한 결정을 내렸는지에 대하여는 우리는 설명을 들을 수 없다. 작년 AI Study 당시 KNN, DNN 모델을 설계하고 돌렸지만 예측률만 알려줄 뿐, 인공지능은 인간과 의사결정과정이 다르다. 

 이러한 결론에서 교수님은 인공지능이 사람처럼 생각하는 방식을 적용한다면 더욱 복잡한 과업을 빠르게 학습할 뿐만 아니라 인공지능의 의사결정 과정을 이해하는데도 도움이 될 것이라고 하셨다.

 

DARPA에서 진행한 설명가능한 인공지능의 연구는 심층 설명학습 -> 해석가능한 모델 -> 모델 귀납으로 나눈다. 해석 가능한 모델은 구조화 된, 해석 가능한 인과관계 모델을 구축하는 연구이다. BPL과 And-OR-Graph을 이용하여 연구하는 방법을 제시했다.

 

✔모델 불가지 설명법 : 다양하고 복잡한 임의의 블랙박스 모델의 의사결정에 대해서 근사한 설명을 제공하는 기술

✔계층적 상관성 전파(LRP)를 통한 입력 시각화 :각 계층의 기여도를 히트맵 형태로 시각화하여 직관적 이해

✔자동 통계학자를 통한 시계열 분석 보고서를 통한 설명: 데이터를 분석->예측->설명,검증하는 과정에서 사람이 이해할수있는 보고서를 제공하는 과정까지 자동화하는 것을 목표로 하는 시스템

 

✨ XAI ( eXplainable AI ) 는 딥러닝 모델의 의사결정 과정을 시각화하고, 의사결정 과정에 관여한 딥러닝 모델의 구성요소를 희소선형결합법을 통하여 설명할 수 있다.

 

 

😊 설명가능한 인공지능에 대한 연구동향이다.  이 연구 전에 딥러닝과 머신러닝에 대한 이해가 있어야할 것으로 필요된다. (사실 몇번 더 읽어야함, 검은색은 내가 찾아볼 단어들.. ) 이 논문에서는 설명가능한 인공지능의 기술은 어떠한 방식이 있고 이게 어떻게 응용되고 연구되어야하는지에 대한 방향이 적혀있다. 

✌관심있던 XAI 에 대해 너무 재미있게 읽었던 논문이었다! XAI는 딥러닝 모델에 대해 내 배경지식이 충분히 더 있어야겠다고 느꼈다. 검은색으로 진하게 표시된 단어들을 찾아보고 정확한 이해로 이 연구 동향 논문을 완벽하게 이해해보고싶다. 이 논문을 읽고 대학원 연구실 방향을 정할때 많은 도움이 되었다! 사람들에게 도움이되는 연구를 하고싶은 사람이 되고싶다. ;3 


BPL

And-Or-Graph

블랙박스 모델

시계열 분석

희소선형결합법

Comments