Implementazione di modelli Amazon Nova Forge nel rilevamento degli abusi di Amazon SageMaker Inference - Amazon Nova

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Implementazione di modelli Amazon Nova Forge nel rilevamento degli abusi di Amazon SageMaker Inference

AWS si impegna a utilizzare l'IA in modo responsabile. Per aiutare a prevenire potenziali abusi, quando distribuisci modelli Amazon Nova Forge in Amazon SageMaker Inference, SageMaker Inference implementa meccanismi automatici di rilevamento degli abusi per identificare potenziali violazioni della Politica di utilizzo accettabile (AUP) e dei Termini AWS di servizio di Amazon, inclusa la Politica sull'IA responsabile.

I nostri meccanismi di rilevamento degli abusi sono completamente automatizzati, quindi non è prevista alcuna revisione umana o accesso agli input degli utenti o agli output dei modelli.

Il rilevamento automatico degli abusi include:

  • Categorizza i contenuti: utilizziamo classificatori per rilevare contenuti dannosi (come contenuti che incitano alla violenza) negli input degli utenti e negli output dei modelli. Un classificatore è un algoritmo che elabora gli input e gli output del modello e che assegna il tipo di danno e il livello di confidenza. Possiamo eseguire questi classificatori sull'utilizzo del modello Amazon Nova Forge. Il processo di classificazione è automatizzato e non prevede la revisione umana degli input degli utenti o degli output del modello.

  • Identifica i modelli: utilizziamo le metriche dei classificatori per identificare potenziali violazioni e comportamenti ricorrenti. Possiamo compilare e condividere metriche di classificazione anonime. Amazon SageMaker Inference non memorizza l'input dell'utente o l'output del modello.

  • Rilevamento e blocco di materiale pedopornografico (CSAM): sei responsabile dei contenuti che tu (e i tuoi utenti finali) caricate su Amazon SageMaker Inference e devi assicurarti che tali contenuti siano privi di immagini illegali. Per contribuire a fermare la diffusione di CSAM, durante la distribuzione di un modello Amazon Nova Forge in Amazon SageMaker Inference, SageMaker Inference può utilizzare meccanismi automatici di rilevamento degli abusi (come la tecnologia di hash matching o i classificatori) per rilevare CSAM apparente. Se Amazon SageMaker Inference rileva un CSAM apparente negli input delle tue immagini, SageMaker Amazon Inference bloccherà la richiesta e riceverai un messaggio di errore automatico. Amazon SageMaker Inference può anche presentare una segnalazione al National Center for Missing and Exploited Children (NCMEC) o a un'autorità competente. Prendiamo molto sul serio il problema dei materiali pedopornografici e continueremo ad aggiornare i nostri meccanismi di rilevamento, blocco e segnalazione. Le leggi applicabili potrebbero richiedere l’adozione di ulteriori misure, di cui l’utente è responsabile.

Una volta che i nostri meccanismi automatici di rilevamento degli abusi identificano potenziali violazioni, possiamo richiedere informazioni sull'utilizzo di Amazon SageMaker Inference e sulla conformità ai nostri termini di servizio. Nel caso in cui tu non risponda, non voglia o non sia in grado di rispettare questi termini o politiche, puoi AWS sospendere il tuo accesso ad Amazon Inference. SageMaker Inoltre, se i nostri test automatici rilevano che le risposte del modello non sono coerenti con i nostri termini e politiche, potresti ricevere una fattura per il processo di inferenza non riuscito.

Contatta AWS l'assistenza se hai altre domande. Per ulteriori informazioni, consulta Amazon SageMaker FAQs.