

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# リソース


**リファレンス**

1. Adadi、Amina および Mohammed Berrada。2018. 「ブラックボックスの中を覗く：説明可能な人工知能 (XAI) に関する調査。」 IEEE Access 6: 52138–52160.

1. Ancona、Marco、Enea Ceolini、Cengiz Oztireli、および Markus Gross。2018. 「ディープニューラルネットワークの勾配ベースのアトリビューション手法のより良い理解に向けて。」 表現学習に関する国際会議 (ICLR) の議事録。[arXiv:1711.06104](https://arxiv.org/pdf/1711.06104.pdf)。

1. Dhamdhere、Kedar、Mukund Sundararajan、および Qiqi Yan。2018. 「ニューロンはどれほど重要ですか？」 第36回 機械学習に関する国際会議 (ICML) の議事録。[arXiv:1805.12233](https://arxiv.org/pdf/1805.12233.pdf)。

1. Dua、Dheeru および Casey Graff。2019. UCI 機械学習リポジトリ [[http://archive.ics.uci.edu/ml](http://archive.ics.uci.edu/ml)]。カリフォルニア州アーバイン: カリフォルニア大学情報コンピュータサイエンス学部。)

1. Kapishnikov、Andrei、Tolga Bolukbasi、Fernanda Viegas、および Michael Terry。2019. 「XRAI: 地域を通じたアトリビューションの向上。」 コンピュータビジョンに関する IEEE/CVF 国際会議 (ICCV) の議事録: 4948—4957。[arXiv:1906.02825](https://arxiv.org/pdf/1906.02825.pdf)。

1. Kim、Been、Martin Wattenberg、Justin Gilmer、Carrie Cai、James Wexler、Fernanda Viegas、および Rory Sayres。2018. 「特徴の帰属を超えた解釈可能性: 概念活性化ベクター (TCAV) による定量的テスト。」 [arXiv:1711.11279](https://arxiv.org/pdf/1711.11279.pdf)。

1. Lundberg、Scott M.、Gabriel G. Erion、および Su-In Lee。2019. 「ツリーアンサンブルの一貫した個別化された特徴帰属。」 [arXiv:1802.03888](https://arxiv.org/pdf/1802.03888.pdf)。

1. Lundberg、Scott M、および Su-In Lee。2017. 「モデル予測を解釈するための統一アプローチ。」 神経情報処理システム (NIPS) の進歩 30。[arXiv:1705.07874](https://arxiv.org/pdf/1705.07874.pdf)。

1. Rajpurkar、Pranav、Jian Zhang、Konstantin Lopyrev、および Percy Liang。2016 年。「SQuAD: テキストの機械理解に関する 100,000 以上の質問。」 [arXiv:1606.05250](https://arxiv.org/pdf/1606.05250.pdf)。

1. Ribeiro、Marco T.、Sameer Singh、および Carlos Guestrin。2016 年。「『どうしてあなたを信用すべきなの？』: あらゆる分類器の予測を説明します。」 KDD '16: 知識発見とデータマイニングに関する第22回 ACM SIGKDD 国際会議の議事録: 1135—1144。[arXiv:1602.04938](https://arxiv.org/abs/1602.04938)。

1. Sundararajan、Mukund、Ankur Taly、および Qiqi Yan。2017. 「ディープネットワークの公理的アトリビューション。」 第34回 機械学習に関する国際会議の議事録 70: 3319—3328。[arXiv:1703.01365](https://arxiv.org/pdf/1703.01365.pdf)。

**外部ソフトウェアパッケージ**
+ SHAP: [https://github.com/slundberg/shap](https://github.com/slundberg/shap)
+ Captum: [https://captum.ai/](https://captum.ai/)

**その他の参考資料**
+ [Amazon SageMaker AI Clarify モデルの説明可能性](https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-model-explainability.html) (SageMaker AI ドキュメント)
+ [Amazon SageMaker AI Clarify リポジトリ](https://github.com/aws/amazon-sagemaker-clarify) (GitHub)
+ Molnar、Christoph。[解釈可能な機械学習。ブラックボックスモデルを説明可能にするためのガイド](https://christophm.github.io/interpretable-ml-book/)、2019年。