コンテンツ分野 4: 責任ある AI に関するガイドライン
第 4 分野は、責任ある AI のガイドラインに関する設問で構成されており、試験の採点対象コンテンツの 14% を占めています。
タスクステートメント 4.1: 責任ある AI システムの開発について説明する。
対象:
責任ある AI の特徴 (バイアス、公平性、包括性、堅牢性、安全性、信憑性など) を特定する。
責任ある AI の特徴を特定するためのツール (Amazon Bedrock のガードレールなど) の使用方法を説明する。
モデルを選択するうえでの責任ある慣行 (環境への配慮、持続可能性など) を定義する。
GenAI を使用する際の法的リスク (知的財産権侵害の申し立て、偏ったモデル出力、顧客の信頼喪失、エンドユーザーリスク、ハルシネーションなど) を特定する。
データセットの特徴 (包括性、多様性、キュレートされたデータソース、バランスの取れたデータセットなど) を特定する。
バイアスと分散の影響 (人口統計グループへの影響、不正確さ、オーバーフィット、アンダーフィットなど) を説明する。
バイアス、信頼性、真実性を検出およびモニタリングするためのツール [ラベル品質の分析、人間による監査、サブグループ分析、Amazon SageMaker Clarify、SageMaker Model Monitor、Amazon Augmented AI (Amazon A2I) など] について説明する。
タスクステートメント 4.2: 透明性の高い説明可能なモデルの重要性を認識する。
対象:
透明性の高い説明可能なモデルと、透明性の低い説明不可能なモデルの違いを説明する。
透明で説明可能なモデルを識別するためのツール (SageMaker Model Cards、オープンソースモデル、データ、ライセンスなど) を説明する。
モデルの安全性と透明性の間のトレードオフ (解釈可能性とパフォーマンスを測定するなど) を特定する。
説明可能な AI のための人間中心設計の原則を説明する。