

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 리소스
<a name="resources"></a>

**참조**

1. Adadi, Amina 및 Mohammed Berrada. 2018. “블랙박스 내부 엿보기: 설명 가능한 인공 지능(XAI)에 대한 설문조사.” *IEEE Access 6*: 52138–52160.

1. 안코나, 마르코, 에네아 첼리니, 첸기즈 오스티렐리, 마르쿠스 그로스 2018. “심층 신경망의 그래디언트 기반 어트리뷰션 방법을 더 잘 이해하기 위해.” *학습 표현에 관한 국제 컨퍼런스(ICLR) 자료집*. [arXiv:1711.06104](https://arxiv.org/pdf/1711.06104.pdf).

1. Dhamdhere, Kedar, Mukund Sundararajan, Qiqi Yan. 2018. “뉴런은 얼마나 중요한가요?” *제36회 국제 기계 학습 컨퍼런스(ICML) 논문집*. [arXiv:1805.12233](https://arxiv.org/pdf/1805.12233.pdf).

1. Dua, Dheeru and Casey Graff. 2019. UCI Machine Learning 리포지토리[[http://archive.ics.uci.edu/ml](http://archive.ics.uci.edu/ml)]. Irvine, CA: University of California, School of Information and Computer Science.

1. Kapishnikov, Andrei, Tolga Bolukbasi, Fernanda Viegas, Michael Terry. 2019. “XRAI: 리전을 통한 더 나은 어트리뷰션.” *IEEE/CVF 국제 컴퓨터 비전 컨퍼런스(ICCV) 논문집*: 4948–4957. [arXiv:1906.02825](https://arxiv.org/pdf/1906.02825.pdf).

1. Kim, Been, Martin Wattenberg, Justin Gilmer, Carrie Cai, James Wexler, Fernanda Viegas, Rory Sayres. 2018. “특징 어트리뷰션을 뛰어넘는 해석 가능성: 개념 활성화 벡터(TCAV)를 사용한 정량적 테스트.” [arXiv:1711.11279](https://arxiv.org/pdf/1711.11279.pdf).

1. Lundberg, Scott M., Gabriel G. Erion, Su-In Lee. 2019. “Tree Ensembles에 대한 일관된 개별화된 특징 어트리뷰션.” [arXiv:1802.03888](https://arxiv.org/pdf/1802.03888.pdf).

1. Lundberg, Scott M. Su-In Lee. 2017. “모델 예측 해석에 대한 통합 접근법.” *신경 정보 처리 시스템(NIPS)의 발전 30*. [arXiv:1705.07874](https://arxiv.org/pdf/1705.07874.pdf).

1. Rajpurkar, Pranav, Jian Zhang, Konstantin Lopyrev, Percy Liang. 2016. “스쿼드: 텍스트의 기계 이해를 위한 10만 개 이상의 질문.” [arXiv:1606.05250](https://arxiv.org/pdf/1606.05250.pdf).

1. Ribeiro, Marco T., Sameer Singh, Carlos Guestrin. 2016. “‘내가 왜 당신을 믿어야 하죠?’ : 모든 분류기의 예측 설명하기.” *KDD '16: 지식 탐색 및 데이터 마이닝에 관한 제22회 ACM SIGKDD 국제 컨퍼런스 논문집*: 1135–1144. [arXiv:1602.04938](https://arxiv.org/abs/1602.04938).

1. Sundararajan, Mukund, Ankur Taly, and Qiqi Yan. 2017. “딥 네트워크를 위한 Axiomatic Attribution.” *제34회 기계 학습 국제 컨퍼런스 70 논문집*: 3319–3328. [arXiv:1703.01365](https://arxiv.org/pdf/1703.01365.pdf).

**외부 소프트웨어 패키지**
+ SHAP: [https://github.com/slundberg/shap](https://github.com/slundberg/shap)
+ Captum: [https://captum.ai/](https://captum.ai/)

**추가 읽기 자료**
+ [Amazon SageMaker AI 모델 설명력 명확화](https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-model-explainability.html)(SageMaker AI 설명서)
+ [Amazon SageMaker AI Clarify 리포지토리](https://github.com/aws/amazon-sagemaker-clarify)(GitHub)
+ Molnar, Christoph. [해석 가능한 기계 학습. 블랙박스 모델을 설명 가능하게 만들기 위한 가이드, 2019](https://christophm.github.io/interpretable-ml-book/).