

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 使用 的機器學習模型可解譯性 AWS
<a name="welcome"></a>

*Adewale Akinfaderin、Matthew Chasse、Michele Donini 和 Benjamin Fenker、Amazon Web Services (AWS)*

*2022 年 2 月* ([文件歷史記錄](doc-history.md))

當最終使用者可以了解模型進行特定預測的原因時，更容易以負責任的方式使用機器學習演算法。對於模型開發人員而言，更深入地了解模型如何進行預測，有助於特徵工程和選擇。解釋模型的意義沒有標準定義，但解釋應該是標準的先決條件，例如信任、穩健性、因果關係、資訊性、模型可轉移性，以及公平且符合道德的決策。有一些常見的方法可以產生解釋，但它們具有不同的弱點和優勢。這並不意外：通常，您用來解譯複雜模型的啟發式或一組簡化假設，可以同時成為解譯的不準確來源。

本指南提供機器學習從業人員模型可解譯性方法的一般指引。為了簡潔起見，本指南省略了許多詳細資訊和實作詳細資訊，並提供參考，以協助您更深入地調查特定使用案例。

## 目標業務成果
<a name="business-outcomes"></a>

在某些情況下，醫療保健和金融產業中的法規等需要模型可解譯性作為所需的業務成果。模型解譯也提供模型開發人員和使用者可以利用的其他洞見。採用模型可解釋性的其他目標業務成果包括：
+ 合理化在公平性至關重要時影響客戶良好狀態的重要決策 （例如，在醫療保健和金融領域）。
+ 在做出業務決策時，控制模型不正確和扭曲。
+ 當資料科學家使用模型解釋時，改善和加速模型開發和特徵工程。
+ 探索一般模型行為的原因，並提供有關資料和模型的新洞見。

這些業務成果會直接映射到 【[1](resources.md)】 中識別的四個可解釋性原因。