

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 具有 AWS 的机器学习模型可解释性
<a name="welcome"></a>

*Adewale Akinfaderin、Matthew Chasse、Michele Donini 和 Benjamin Fenker，Amazon Web Services (AWS)*

*2022 年 2 月*（[文档历史记录](doc-history.md)）

当最终用户能够理解某模型为何做出某具体预测时，他们更易负责任地使用机器学习算法。对于模型开发人员，更深入洞悉模型如何做出预测可以辅助特征工程化和选择。解释某模型的含义没有标准定义，例外是某解释应当是诸如信任、稳健性、因果关系、信息性、模型可转移性以及决策公平与合乎道德等标准的先决条件。有一些生成解释的常用方法，但它们有不同的弱点和优点。这并不意外：通常，您用来解释一个复杂模型的启发式假设或一组简化假设可能同时成为解释过程的不准确性源。

本指南为机器学习从业者提供关于模型可解释性方法的一般指导。为简洁起见，指南省略了许多细节和实现过程详情，并提供参考资料，以帮助您更深入地研究具体用例。

## 目标业务成果
<a name="business-outcomes"></a>

在某些情况下，法规如医疗保健和金融行业中那些法规要求模型的可解释性作为所需的业务成果。模型解释还提供了模型开发人员和用户都可以利用的额外见解。采用模型可解释性的其他目标业务成果包括以下：
+ 当公平性至关重要时，合理说明影响客户福祉的重要决策（例如医疗保健和金融领域）。
+ 做出业务决策时控制模型不准确性和失真。
+ 当数据科学家使用模型解释时，改进并且加快模型开发和特征工程化。
+ 发现通用模型行为的原因，并提供关于数据和模型二者的新见解。

这些业务成果直接映射到 [[1](resources.md)] 中确定的四个可解释性原因。