Amazon SageMaker 推論不正検出での Amazon Nova Forge モデルのデプロイ
AWS は AI の責任ある利用に取り組んでいます。誤用の可能性を防ぐために、Amazon SageMaker 推論に Amazon Nova Forge Models をデプロイする際、SageMaker 推論は自動不正検出メカニズムを実装して、責任ある AI ポリシー
Amazon の不正検出メカニズムは完全に自動化されているため、ユーザー入力やモデル出力を人間が確認したりアクセスしたりする必要はありません。
不正利用の自動検出には以下が含まれます。
-
コンテンツの分類 – 分類子を使用して、ユーザー入力やモデル出力に含まれる有害なコンテンツ (暴力を扇動するコンテンツなど) を検出します。分類子は、モデルの入力と出力を処理し、攻撃の種類と信頼度を割り当てるアルゴリズムです。Amazon Nova Forge モデルの使用時にこれらの分類子を実行する場合があります。分類プロセスは自動化されており、ユーザー入力やモデル出力を人間が確認する必要はありません。
-
パターンの特定 – 分類メトリクスを使用して、違反の芽や繰り返し発生する動作を特定します。匿名化された分類子メトリクスをコンパイルして共有する場合があります。Amazon SageMaker Inference はユーザー入力またはモデル出力を保存しません。
-
児童性的虐待コンテンツ (CSAM) の検出とブロック – お客様は、お客様自身 (およびエンドユーザー) が Amazon SageMaker 推論にアップロードするコンテンツについて責任を負い、こうした違法な画像が含まれるコンテンツを確実に排除する必要があります。CSAM の拡散を防止するために、Amazon SageMaker 推論で Amazon Nova Forge モデルをデプロイする際、SageMaker 推論は自動不正検出メカニズム (ハッシュマッチング技術や分類子など) を使用して、CSAM とみられるコンテンツの検出が行われる場合があります。画像入力に CSAM とみられるコンテンツが検出されると、Amazon SageMaker 推論はリクエストをブロックし、ユーザーに自動エラーメッセージを送信します。Amazon SageMaker 推論は、National Center for Missing and Exploited Children (NCMEC) または関連機関に報告を提出する場合もあります。当社では、CSAM の問題を重く受け止め、検出、ブロック、報告のメカニズムを引き続き更新していきます。お客様は、適用される法律により追加のアクションを求められる場合があり、こうしたアクションの実施は、お客様の責任となります。
当社の自動不正検出メカニズムによって違反の芽が特定されると、お客様による Amazon SageMaker 推論の使用状況、および当社のサービス利用規約の遵守について、当社から情報を求める場合があります。お客様がこれらの規約またはポリシーを遵守するための対策を取らない場合、遵守する意思がない場合、または遵守することができない場合、AWS は Amazon SageMaker 推論へのアクセスを停止することがあります。また、自動テストでモデルのレスポンスが当社の利用規約やポリシーに反していることが検出された場合、失敗した推論ジョブに対して課金される場合があります。
ご質問がある場合は、AWS サポートまでご連絡ください。詳細については、「Amazon SageMaker に関するよくある質問