View a markdown version of this page

在 Amazon SageMaker Inference 滥用检测中部署 Amazon Nova Forge 模型 - Amazon Nova

在 Amazon SageMaker Inference 滥用检测中部署 Amazon Nova Forge 模型

AWS 致力于以负责任的方式使用人工智能。为防止潜在滥用,在 Amazon SageMaker Inference 中部署 Amazon Nova Forge 模型时,SageMaker Inference 将启用自动化滥用检测机制,用于识别可能违反 AWS 可接受使用政策(AUP)和服务条款(包括负责任的人工智能政策)相关规定的行为。

我们的滥用检测机制是完全自动化的,因此无需人工审核或者访问用户输入或模型输出。

自动化滥用检测包括:

  • 对内容进行分类:我们使用分类器来检测用户输入和模型输出中的有害内容(例如煽动暴力的内容)。分类器是一种处理模型输入和输出,并指定危害类型和置信度级别的算法。我们可能会在 Amazon Nova Forge 模型使用过程中运行这些分类器。分类过程是自动化的,不涉及对用户输入或模型输出进行人工审核。

  • 识别模式:我们使用分类器指标来识别潜在的违规行为和反复出现的行为。我们可能会编译和分享匿名的分类器指标。Amazon SageMaker Inference 不会存储用户输入或模型输出。

  • 检测并屏蔽儿童性虐待素材(CSAM):您需对自己(及终端用户)上传到 Amazon SageMaker Inference 的内容承担责任,并确保相关内容不含非法图像。为阻止 CSAM 的传播,当在 Amazon SageMaker Inference 中部署 Amazon Nova Forge 模型时,SageMaker Inference 可能会使用自动化滥用检测机制(例如哈希匹配技术或分类器)来检测明显的 CSAM。如果 Amazon SageMaker Inference 在您的图片输入中检测到明显的 CSAM,Amazon SageMaker Inference 将拦截该请求,并且您将收到一条自动发出的错误消息。Amazon SageMaker Inference 还可能向美国国家失踪与受虐儿童中心(NCMEC)或相关机构提交报告。我们高度重视 CSAM 问题,并将持续改进我们的检测、拦截和报告机制。您可能需要按照相关法律采取其他措施,并对这些行为负责。

自动化滥用检测机制识别出潜在的违规行为之后,我们可能会要求您说明自己如何使用 Amazon SageMaker Inference,以及如何遵守我们的服务条款。如果您未作出回应、不愿意或无法遵守这些条款或策略,AWS 可能会暂停您对 Amazon SageMaker Inference 的访问。如果我们的自动化测试检测到模型响应未遵守我们的条款和政策,您可能仍需要为失败的推理作业付费。

如有其他疑问,请联系 AWS Support。有关更多信息,请参阅 Amazon SageMaker 常见问题