

# 內容領域 4： 負責任 AI 的指南
<a name="ai-practitioner-01-domain4"></a>

領域 4 涵蓋負責任 AI 的指南，佔考試計分內容的 14%。

**Topics**
+ [任務説明 4.1： 說明負責任 AI 系統的開發。](#ai-practitioner-01-task4.1)
+ [任務説明 4.2： 認識透明且可解釋的模型的重要性。](#ai-practitioner-01-task4.2)

## 任務説明 4.1： 說明負責任 AI 系統的開發。
<a name="ai-practitioner-01-task4.1"></a>

目標：
+ 識別負責任 AI 的特徵 (例如：偏差、公平、包容性、穩健性、安全性、真實性)。
+ 說明如何使用工具來識別負責任 AI 的特徵 (例如：Amazon Bedrock 防護機制)。
+ 定義負責任的做法以選取模型 (例如：環境考量，永續性)。
+ 識別使用 GenAI 的法律風險 (例如：智慧財產權侵權聲明、偏差模型輸出、失去客戶信任、終端使用者風險、幻覺)。
+ 識別資料集的特性 (例如：包容性、多樣性、策管資料來源、平衡資料集)。
+ 描述偏差和差異的影響 (例如：對人口統計群組的影響、不準確、過度擬合、擬合度不足)。
+ 描述用於偵測和監控偏差、可信度和真實性的工具 (例如：分析標籤品質、人力稽核、子群組分析、Amazon SageMaker Clarify、SageMaker Model Monitor、Amazon Augmented AI [Amazon A2I])。

## 任務説明 4.2： 認識透明且可解釋的模型的重要性。
<a name="ai-practitioner-01-task4.2"></a>

目標：
+ 描述透明且可解釋的模型，與不透明但可解釋的模型之間的差異。
+ 描述用於識別透明且可解釋的模型 (例如：SageMaker 模型卡、開放原始碼模型、資料、授權) 的工具。
+ 識別模型安全性與透明度之間的權衡 (例如：測量可解釋性和效能)。
+ 描述可解釋的 AI 以人為中心進行設計的原則。