Einsatz von Amazon Nova Forge-Modellen bei der Missbrauchserkennung von Amazon SageMaker Inference - Amazon Nova

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Einsatz von Amazon Nova Forge-Modellen bei der Missbrauchserkennung von Amazon SageMaker Inference

AWS setzt sich für den verantwortungsvollen Umgang mit KI ein. Um potenziellen Missbrauch zu verhindern, implementiert Inference bei der Bereitstellung von Amazon Nova Forge-Modellen in Amazon SageMaker Inference automatisierte Mechanismen zur Missbrauchserkennung, SageMaker um potenzielle Verstöße gegen die Acceptable Use Policy (AUP) und die Servicebedingungen, einschließlich der Responsible AI Policy, zu identifizieren. AWS

Unsere Mechanismen zur Missbrauchserkennung sind vollständig automatisiert, sodass es keine menschliche Überprüfung von oder menschlichen Zugriff auf Benutzereingaben oder Modellausgaben gibt.

Die automatische Missbrauchserkennung umfasst:

  • Inhalte kategorisieren — Wir verwenden Klassifikatoren, um schädliche Inhalte (z. B. Inhalte, die zu Gewalt aufrufen) in Benutzereingaben und Modellausgaben zu erkennen. Ein Klassifizierer ist ein Algorithmus, der Modellein- und -ausgaben verarbeitet und die Art des Schadens und das Maß der Zuverlässigkeit zuweist. Wir können diese Klassifikatoren bei Verwendung des Amazon Nova Forge-Modells ausführen. Der Klassifizierungsprozess ist automatisiert und umfasst keine menschliche Überprüfung von Benutzereingaben oder Modellausgaben.

  • Identifizieren Sie Muster — Wir verwenden Klassifikator-Metriken, um potenzielle Verstöße und wiederkehrendes Verhalten zu identifizieren. Wir können anonymisierte Klassifikator-Metriken zusammenstellen und weitergeben. Amazon SageMaker Inference speichert keine Benutzereingaben oder Modellausgaben.

  • Erkennen und Blockieren von Material über sexuellen Missbrauch von Kindern (CSAM) — Sie sind für die Inhalte verantwortlich, die Sie (und Ihre Endbenutzer) auf Amazon SageMaker Inference hochladen, und müssen sicherstellen, dass diese Inhalte frei von illegalen Bildern sind. Um die Verbreitung von CSAM zu verhindern, kann Inference bei der Bereitstellung eines Amazon Nova Forge-Modells in Amazon SageMaker Inference automatisierte Mechanismen zur Missbrauchserkennung (wie Hash-Matching-Technologie oder Klassifikatoren) einsetzen, um offensichtliche CSAMs zu erkennen. SageMaker Wenn Amazon SageMaker Inference offensichtliches CSAM in Ihren Bildeingaben erkennt, blockiert Amazon SageMaker Inference die Anfrage und Sie erhalten eine automatische Fehlermeldung. Amazon SageMaker Inference kann auch einen Bericht beim National Center for Missing and Exploited Children (NCMEC) oder einer zuständigen Behörde einreichen. Wir nehmen CSAM sehr ernst und werden unsere Erkennungs-, Blockier- und Meldemechanismen weiterhin aktualisieren. Möglicherweise sind Sie nach geltendem Recht verpflichtet, zusätzliche Maßnahmen zu ergreifen, und Sie sind für diese Maßnahmen verantwortlich.

Sobald unsere automatisierten Mechanismen zur Missbrauchserkennung potenzielle Verstöße erkennen, können wir Informationen über Ihre Nutzung von Amazon SageMaker Inference und die Einhaltung unserer Nutzungsbedingungen anfordern. Falls Sie nicht antworten, nicht bereit oder nicht in der Lage sind, diese Bedingungen oder Richtlinien einzuhalten, AWS können Sie Ihren Zugriff auf Amazon SageMaker Inference sperren. Möglicherweise wird Ihnen auch der fehlgeschlagene Inferenzauftrag in Rechnung gestellt, wenn unsere automatisierten Tests feststellen, dass Modellantworten nicht mit unseren Bedingungen und Richtlinien vereinbar sind.

Falls Sie weitere Fragen haben, wenden Sie sich an den AWS Support. Weitere Informationen finden Sie auf Amazon SageMaker FAQs.