

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 資源


**參考**

1. Adadi、Amina 和 Mohammed Berrada。2018 年。“探索黑盒內部：有關可解釋人工智慧 (XAI) 的調查。” *IEEE 存取 6*：52138–52160。

1. Ancona、Marco、Enea Ceolini、Cengiz Oztireli 和 Markus Gross。2018 年。「更好地了解 Deep Neural Networks 的梯度型屬性方法。」 *國際學習會議陳述式 (ICLR) 的進展*。[arXiv：1711.06104](https://arxiv.org/pdf/1711.06104.pdf)。

1. Dhamdhere、Kedar、Mukund Sundararajan 和 Qiqi Yan。2018 年。「神經元有多重要？」 第 *36 次Machine Learning國際會議 (ICML) 的進展*。[arXiv：1805.12233](https://arxiv.org/pdf/1805.12233.pdf)。

1. Dua、Dheeru 和 Casey Graff。2019 年。UCI Machine Learning Repository [[http://archive.ics.uci.edu/ml](http://archive.ics.uci.edu/ml)]。Irvine， CA：加利佛尼亞大學資訊與電腦科學學院。

1. Kapishnikov、Andrei、Tolga Bolukbasi、Fernanda Viegas 和 Michael Terry。2019 年。「XRAI：跨區域更好的屬性」。*IEEE/CVF 國際電腦視覺會議 (ICCV) 的進展*：4948–4957. [arXiv：1906.02825](https://arxiv.org/pdf/1906.02825.pdf)。

1. Kim、Been、Martin Wattenberg、Justin Gilmer、Carrie Cai、James Wexler、Fernanda Viegas 和 Rory Sayres。2018 年。“功能屬性之外的可解釋性：使用概念啟動向量 (TCAV) 進行量化測試。” [arXiv：1711.11279](https://arxiv.org/pdf/1711.11279.pdf)。

1. Lundberg、Scott M.、Gabriel G. Erion 和 Su-In Lee。2019 年。「樹狀結構集合的一致性個人化特徵屬性」。[arXiv：1802.03888](https://arxiv.org/pdf/1802.03888.pdf)。

1. Lundberg、Scott M. 和 Su-In Lee。2017 年。「解釋模型預測的統一方法」。*神經資訊處理系統 (NIPS) 30. arXiv： 的進展*。 [arXiv1705.07874](https://arxiv.org/pdf/1705.07874.pdf)

1. Rajpurkar、Pranav、Jian Zhang、Konstantin Lopyrev 和 Percy Liang。2016 年。“SQuAD：100，000\$1 個機器理解文字的問題。” [arXiv：1606.05250](https://arxiv.org/pdf/1606.05250.pdf)。

1. Ribeiro、Marco T.、Simer Singh 和 Carlos Guestrin。2016 年。「為什麼我應該信任您？」：解釋任何分類器的預測。」 *KDD '16：有關知識探索和資料探勘的第 22 屆 ACM SIGKDD 國際會議程序*：1135–1144. [arXiv：1602.04938](https://arxiv.org/abs/1602.04938)。

1. Sundararajan、Mukund、Ankur Taly 和 Qiqi Yan。2017 年。「Deep Networks 的軸向屬性」。第 *34 屆 Machine Learning 國際會議 70：3319–3328. arXiv： 的進展*。 [arXiv1703.01365](https://arxiv.org/pdf/1703.01365.pdf)

**外部軟體套件**
+ SHAP：https：//[https://github.com/slundberg/shap](https://github.com/slundberg/shap)
+ Captum：https：//[https://captum.ai/](https://captum.ai/)

**其他讀取**
+ [Amazon SageMaker AI Clarify 模型可解釋性](https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-model-explainability.html) (SageMaker AI 文件）
+ [Amazon SageMaker AI Clarify 儲存庫](https://github.com/aws/amazon-sagemaker-clarify) (GitHub)
+ Molnar、Christoph。[可解釋的機器學習。制定黑盒子模型可解釋的指南](https://christophm.github.io/interpretable-ml-book/)，2019 年。