内容领域 4: 负责任 AI 准则
领域 4 涵盖了负责任 AI 准则,占考试计分内容的 14%。
任务说明 4.1: 解释负责任 AI 系统的开发。
目标:
确定负责任 AI 的特征(例如,偏见、公平性、包容性、稳健性、安全性、真实性)。
说明如何使用工具识别负责任 AI 的特征(例如,Amazon Bedrock 防护机制)。
定义选择模型的负责任做法(例如,环境考量、可持续性)。
确定使用生成式人工智能的法律风险(例如,知识产权侵权索赔、存在偏见的模型输出、失去客户信任、终端用户风险、幻觉)。
确定数据集的特征(例如,包容性、多样性、数据来源经策管、数据集平衡)。
描述偏差和方差的影响(例如,对人口统计群体的影响、不准确、过拟合、欠拟合)。
描述检测和监控偏见、可信度和真实性的工具(例如,分析标记质量、人工审计、亚组分析、Amazon SageMaker Clarify、SageMaker Model Monitor、Amazon Augmented AI [Amazon A2I])。
任务说明 4.2: 了解模型透明且可解释的重要性。
目标:
描述透明且可解释的模型与不透明且不可解释的模型之间的区别。
描述用于识别透明且可解释的模型的工具(例如,SageMaker Model Cards、开源模型、数据、许可)。
确定模型安全性和透明度之间的权衡(例如,衡量可解释性和性能)。
描述为实现可解释 AI 而应遵循的以人为本的设计原则。