

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Risorse
<a name="resources"></a>

**Riferimenti**

1. Adadi, Amina e Mohammed Berrada. 2018. «Sbirciando all'interno della scatola nera: un sondaggio sull'intelligenza artificiale spiegabile (XAI)». *Accesso IEEE* 6:52138—52160. 

1. Ancona, Marco, Enea Ceolini, Cengiz Oztireli e Markus Gross. 2018. «Verso una migliore comprensione dei metodi di attribuzione basati sul gradiente per le reti neurali profonde». *Atti della Conferenza internazionale sulle rappresentazioni dell'apprendimento* (ICLR). [arXiv:1711.06104.](https://arxiv.org/pdf/1711.06104.pdf)

1. Dhamdhere, Kedar, Mukund Sundararajan e Qiqi Yan. 2018. «Quanto è importante un neurone?» *Atti della trentaseiesima Conferenza Internazionale sul Machine Learning (ICML)*. [ArXiv: 1805.12233.](https://arxiv.org/pdf/1805.12233.pdf)

1. Dua, Dheeru e Casey Graff. 2019. UCI Machine Learning Repository [[http://archive.ics.uci.edu/ml](http://archive.ics.uci.edu/ml)]. Irvine, CA: Università della California, Scuola di Informazione e Informatica.

1. Kapishnikov, Andrei, Tolga Bolukbasi, Fernanda Viegas e Michael Terry. 2019. «XRAI: migliori attribuzioni attraverso le regioni». *Atti della Conferenza internazionale IEEE/CVF sulla visione artificiale* (ICCV): 4948—4957. [ArXiv: 1906.02825.](https://arxiv.org/pdf/1906.02825.pdf)

1. Kim, Ben, Martin Wattenberg, Justin Gilmer, Carrie Cai, James Wexler, Fernanda Viegas e Rory Sayres. 2018. «L'interpretabilità oltre l'attribuzione delle caratteristiche: test quantitativi con vettori di attivazione concettuale (TCAV)». [ArXiv:1711.11279](https://arxiv.org/pdf/1711.11279.pdf).

1. Lundberg, Scott M., Gabriel G. Erion e Su-In Lee. 2019. «Attribuzione coerente e personalizzata delle funzionalità per Tree Ensembles». [ArXiv](https://arxiv.org/pdf/1802.03888.pdf): 1802.03888.

1. Lundberg, Scott M. e Su-In Lee. 2017. «Un approccio unificato all'interpretazione delle previsioni dei modelli». *Progressi nei sistemi di elaborazione delle informazioni neurali* (NIPS) 30. [ArXiv](https://arxiv.org/pdf/1705.07874.pdf): 1705,07874.

1. Rajpurkar, Pranav, Jian Zhang, Konstantin Lopyrev e Percy Liang. 2016. «ADSQu: oltre 100.000 domande per la comprensione automatica del testo». [ArXiv: 1606.05250.](https://arxiv.org/pdf/1606.05250.pdf)

1. Ribeiro, Marco T., Sameer Singh e Carlos Guestrin. 2016. «'Perché dovrei fidarmi di te? ' : Spiegazione delle previsioni di qualsiasi classificatore.» *KDD '16: Atti della 22a conferenza internazionale ACM SIGKDD sulla* scoperta della conoscenza e il data mining: 1135-1144. [ArXiv](https://arxiv.org/abs/1602.04938): 1602.04938.

1. Sundararajan, Mukund, Ankur Taly e Qiqi Yan. 2017. «Attribuzione assiomatica per reti profonde». *Atti della 34a Conferenza Internazionale sul Machine Learning 70*: 3319—3328. [ArXiv: 1703.01365.](https://arxiv.org/pdf/1703.01365.pdf)

**Pacchetti software esterni**
+ [FORMA: https://github.com/slundberg/ forma](https://github.com/slundberg/shap)
+ [Captum: https://captum.ai/](https://captum.ai/)

**Lettura aggiuntiva**
+ [Spiegabilità del modello Amazon SageMaker AI Clarify (SageMaker documentazione](https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-model-explainability.html) AI)
+ [Archivio Amazon SageMaker AI Clarify](https://github.com/aws/amazon-sagemaker-clarify) () GitHub
+ Molnar, Christoph. [Apprendimento automatico interpretabile. Una guida per rendere spiegabili i modelli Black Box](https://christophm.github.io/interpretable-ml-book/), 2019.