그렇다면, autoencoder도 black box모델이고 explainability라는 제한점을 갖게 되는것인가?
보통 deep learning에서는 수많은 parameter를 사용해서 학습을 해나감.
하지만 복잡성 때문에 내부가 어떻게 구성되어있고 어떻게 작동하는지 알기가 함들다.
따라서 이 논문에서는 variational autoencoder를 사용하여 NN의 결정 방식에 대해서 설명을 하고자 함.
Tran, Loc & Dolph, Chester & Zhao, Derek. (2021). Enhancing Neural Network Explainability with Variational Autoencoders. 10.2514/6.2021-1886.
'XAI' 카테고리의 다른 글
[논문앞부분읽기] Enhancing Neural Network Explainability with Variational Autoencoders (0) | 2021.08.27 |
---|---|
[논문앞부분읽기] A Look Inside the Black-Box (0) | 2021.08.27 |
[논문 앞부분 읽기] Application of Artificial Intelligence for Medical Research (0) | 2021.08.24 |
[논문 앞부분 읽기] Expl(AI)n It to Me – Explainable AI and Information Systems Research (0) | 2021.08.24 |
Explainable Artificial Intelligence (0) | 2021.07.02 |
댓글