지난 15년간 AI에서 엄청난 발전이 있었는데, object recognition, NLP, recommendation system, digital assistant 등이 있다.
예측 성능은 매우 놀랍지만, 왜 그러한 결과를 가져오게 되었는지 인간이 이해할 수 있는 수준에서 설명을 할 수 있을만한 transparency나 interpretability에서는 다소 부족하다.
방법론적 관점에서는 다음과 같은 문제가 발생한다.
1) 예측 결과에 대해 설명, 감시가 불가능한다면 예측결과가 초래할 수 있는 의도치 않은 결과에 대해 책임을 어떻게 질 수 있는가.
2) AI를 사용하는 목적을 단순히 예측 결과를 알아내는 것에 그쳐서는 안된다. Machine learning이 결과를 도출해내는 과정을 배우고 해석하여, 새로운 발견을 해내거나 오류를 잡아내고 지식을 더 쌓는데 도움이 될 수 있다.
3) 인간의 직관이나 경험과 상반되는 결과를 도출해낼 여지가 있다. (-> bias 이야기하는 것 같음. 인종차별, 성차별 등)
따라서 높은 성능을 유지하면서 해석가능함을 갖는 것은 기술적, 사회적, 경제적, 법적, 심리적 측면에 있어서 중요하고 가치가 있음.
- 설명가능 모델은 다음을 만족시킬 수 있어야함:
모델의 최적화와 디버깅, 차별적 패턴 감지, 학습 과정 모니터링, 타겟 유저에 최적화, 책임감, 인간의 지식과 기술을 향상시킬 수 있는 모델.
Bauer, K., Hinz, O., van der Aalst, W. et al. Expl(AI)n It to Me – Explainable AI and Information Systems Research. Bus Inf Syst Eng 63, 79–82 (2021). https://doi.org/10.1007/s12599-021-00683-2
'XAI' 카테고리의 다른 글
[논문앞부분읽기] Enhancing Neural Network Explainability with Variational Autoencoders (0) | 2021.09.06 |
---|---|
[논문앞부분읽기] Enhancing Neural Network Explainability with Variational Autoencoders (0) | 2021.08.27 |
[논문앞부분읽기] A Look Inside the Black-Box (0) | 2021.08.27 |
[논문 앞부분 읽기] Application of Artificial Intelligence for Medical Research (0) | 2021.08.24 |
Explainable Artificial Intelligence (0) | 2021.07.02 |
댓글