

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Migliorare la precisione con la moderazione personalizzata
<a name="moderation-custom-moderation"></a>

 L'[DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)API di Amazon Rekognition ti consente di rilevare contenuti inappropriati, indesiderati o offensivi. La funzione Rekognition Custom Moderation consente di migliorare la precisione utilizzando adattatori. [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) Gli adattatori sono componenti modulari che possono essere aggiunti a un modello di deep learning Rekognition esistente, estendendone le funzionalità per le attività su cui è addestrato. Creando un adattatore e fornendolo all'[DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)operazione, è possibile ottenere una maggiore precisione per le attività di moderazione dei contenuti relative al caso d'uso specifico.

Quando personalizzi il modello di moderazione dei contenuti di Rekognition per etichette di moderazione specifiche, devi creare un progetto e addestrare un adattatore su un set di immagini che fornisci. È quindi possibile verificare in modo iterativo le prestazioni dell'adattatore e riaddestrarlo al livello di precisione desiderato. I progetti vengono utilizzati per contenere le diverse versioni degli adattatori. 

Puoi utilizzare la console Rekognition per creare progetti e adattatori. In alternativa, puoi utilizzare un AWS SDK e i relativi componenti APIs per creare un progetto, addestrare un adattatore e gestire gli adattatori. 



# Creazione e utilizzo di adattatori
<a name="creating-and-using-adapters"></a>

Gli adattatori sono componenti modulari che possono essere aggiunti a un modello di deep learning Rekognition esistente, estendendone le funzionalità per le attività su cui è addestrato. Addestrando un modello di deep learning con adattatori, puoi ottenere una maggiore precisione per le attività di analisi delle immagini relative al tuo caso d'uso specifico. 

Per creare e utilizzare un adattatore, è necessario fornire dati di addestramento e test a Rekognition. Puoi farlo in uno di questi due modi:
+ Analisi e verifica in blocco: puoi creare un set di dati di formazione analizzando in blocco le immagini che Rekognition analizzerà e alle quali assegnerà le etichette. È quindi possibile rivedere le annotazioni generate per le immagini e verificare o correggere le previsioni. Per ulteriori informazioni su come funziona l'analisi in blocco delle immagini, consulta [Analisi in blocco](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).
+ Annotazione manuale: con questo approccio puoi creare i tuoi dati di allenamento caricando e annotando le immagini. Puoi creare i tuoi dati di test caricando e annotando le immagini o suddividendoli automaticamente. 

Scegli uno dei seguenti argomenti per avere ulteriori informazioni:

**Topics**
+ [Analisi e verifica di massa](adapters-bulk-analysis.md)
+ [Annotazione manuale](adapters-manual-annotation.md)

# Analisi e verifica di massa
<a name="adapters-bulk-analysis"></a>

Con questo approccio, carichi un gran numero di immagini che desideri utilizzare come dati di allenamento e poi usi Rekognition per ottenere previsioni per queste immagini, che assegna loro automaticamente delle etichette. Puoi utilizzare queste previsioni come punto di partenza per il tuo adattatore. È possibile verificare l'accuratezza delle previsioni e quindi addestrare l'adattatore in base alle previsioni verificate. Questo può essere fatto con la AWS console.



 Il video seguente mostra come utilizzare la funzionalità Bulk Analysis di Rekognition per ottenere e verificare previsioni per un gran numero di immagini e quindi addestrare un adattatore con tali previsioni. 

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY)


## Carica immagini per l'analisi di massa
<a name="adapters-bulk-analysis-upload-images"></a>

Per creare un set di dati di addestramento per il tuo adattatore, carica immagini in blocco per Rekognition per cui prevedere le etichette. Per ottenere i migliori risultati, fornite quante più immagini possibile per l'addestramento, fino al limite di 10000, e assicuratevi che le immagini siano rappresentative di tutti gli aspetti del vostro caso d'uso. 

Quando usi la AWS console puoi caricare immagini direttamente dal tuo computer o fornire un bucket Amazon Simple Storage Service per archiviare le tue immagini. Tuttavia, quando si utilizza APIs Rekognition con un SDK, è necessario fornire un file manifest che faccia riferimento alle immagini archiviate in un bucket Amazon Simple Storage Service. Per ulteriori informazioni, consulta [Analisi in blocco](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).

## Rivedi le previsioni
<a name="adapters-bulk-analysis-review-predictions"></a>

Dopo aver caricato le immagini sulla console Rekognition, Rekognition genererà delle etichette per esse. Puoi quindi verificare le previsioni in una delle seguenti categorie: vero positivo, falso positivo, vero negativo, falso negativo. Dopo aver verificato le previsioni, puoi addestrare un adattatore in base al tuo feedback.

## Addestramento dell'adattatore
<a name="adapters-bulk-analysis-train-adapter"></a>

Una volta terminata la verifica delle previsioni restituite dall'analisi di massa, puoi avviare il processo di formazione dell'adattatore. 

## Ottieni il AdapterId
<a name="adapters-bulk-analysis-get-adapter"></a>

Una volta che l'adattatore è stato addestrato, puoi ottenere l'ID univoco da utilizzare con l'analisi delle immagini di Rekognition. APIs

## Richiama l’operazione API
<a name="adapters-bulk-analysis-call-operation"></a>

Per applicare il tuo adattatore personalizzato, fornisci il suo ID quando chiami uno dei centri di analisi delle immagini APIs che supporta gli adattatori. Ciò migliora l'accuratezza delle previsioni per le tue immagini.

# Annotazione manuale
<a name="adapters-manual-annotation"></a>

Con questo approccio puoi creare i tuoi dati di allenamento caricando e annotando le immagini manualmente. Puoi creare i tuoi dati di test caricando e annotando le immagini di test o suddividendoli automaticamente per fare in modo che Rekognition utilizzi automaticamente una parte dei tuoi dati di allenamento come immagini di test.

## Caricamento e annotazione di immagini
<a name="adapters-upload-sample-images"></a>

Per addestrare l'adattatore, dovrai caricare una serie di immagini di esempio rappresentative del tuo caso d'uso. Per ottenere i migliori risultati, fornite quante più immagini possibile per l'addestramento, fino al limite di 10000, e assicuratevi che le immagini siano rappresentative di tutti gli aspetti del vostro caso d'uso. 

![\[Interfaccia che mostra le opzioni per importare immagini di allenamento, con opzioni per importare un file manifest, importare da un bucket S3 o caricare immagini dal computer. Include un campo URI S3 e una nota sulla garanzia delle autorizzazioni. read/write\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/adapters-11-traiing-dataset.png)


Quando usi la AWS console puoi caricare immagini direttamente dal tuo computer, fornire un file manifest o fornire un bucket Amazon S3 per archiviare le tue immagini.

 Tuttavia, quando si utilizza APIs Rekognition con un SDK, è necessario fornire un file manifest che faccia riferimento alle immagini archiviate in un bucket Amazon S3. 

Puoi utilizzare l'interfaccia di annotazione della [console Rekognition](https://console.aws.amazon.com/rekognition) per annotare le tue immagini. Annota le tue immagini etichettandole con etichette, questo stabilisce una «verità di base» per l'addestramento. È inoltre necessario designare set di formazione e test o utilizzare la funzione di suddivisione automatica, prima di poter addestrare un adattatore. Al termine della designazione dei set di dati e dell'annotazione delle immagini, è possibile creare un adattatore basato sulle immagini annotate del set di test. È quindi possibile valutare le prestazioni dell'adattatore. 

## Crea un test di prova
<a name="adapters-training-testing"></a>

Dovrai fornire un set di test annotato o utilizzare la funzione di divisione automatica. Il set di addestramento viene utilizzato per addestrare effettivamente l'adattatore. L'adattatore apprende gli schemi contenuti in queste immagini annotate. Il set di test viene utilizzato per valutare le prestazioni del modello prima di finalizzare l'adattatore. 

## Addestramento dell'adattatore
<a name="adapters-train-adapter"></a>

 Dopo aver completato l'annotazione dei dati di addestramento o aver fornito un file manifesto, è possibile avviare il processo di addestramento dell'adattatore. 

## Ottieni l'ID adattatore
<a name="adapter-get-adapter"></a>

Una volta che l'adattatore è stato addestrato, puoi ottenere l'ID univoco da utilizzare con l'analisi delle immagini di Rekognition. APIs

## Richiama l’operazione API
<a name="adapter-call-operation"></a>

Per applicare il tuo adattatore personalizzato, fornisci il suo ID quando chiami uno dei centri di analisi delle immagini APIs che supporta gli adattatori. Ciò migliora l'accuratezza delle previsioni per le tue immagini. 

# Preparazione dei set di dati
<a name="preparing-datasets-adapters"></a>

La creazione di un adattatore richiede di fornire a Rekognition due set di dati, un set di dati di addestramento e un set di dati di test. Ogni set di dati è composto da due elementi: immagini e annotazioni/etichette. Le sezioni seguenti spiegano a cosa servono etichette e immagini e come si uniscono per creare set di dati. 

## Immagini
<a name="preparing-datasets-adapters-images"></a>

Dovrai addestrare un adattatore su esempi rappresentativi delle tue immagini. Quando selezionate le immagini per l'addestramento, provate a includere almeno alcune immagini che dimostrino la risposta prevista per ciascuna delle etichette che avete scelto come target con l'adattatore. 

Per creare un set di dati di addestramento è necessario fornire uno dei due tipi di immagine seguenti:
+ Immagini con previsioni false positive. Ad esempio, quando un modello base prevede che un'immagine contenga alcol, ma non è così.
+ Immagini con previsioni false negative. Ad esempio, quando un modello base prevede che un'immagine non contenga alcol, ma in realtà ne contiene. 

Per creare un set di dati bilanciato, si consiglia di fornire uno dei due tipi di immagine seguenti:
+ Immagini con previsioni vere positive. Ad esempio, quando un modello base prevede correttamente che un'immagine contenga alcol. Si consiglia di fornire queste immagini se si forniscono immagini false positive.
+ Immagini con previsioni vere negative. Ad esempio, quando un modello base prevede correttamente che un'immagine non contenga alcol. Si consiglia di fornire queste immagini se si forniscono immagini false negative.

## Etichette
<a name="preparing-datasets-adapters-labels"></a>

Un'etichetta si riferisce a uno qualsiasi dei seguenti elementi: oggetti, eventi, concetti o attività. Per moderazione dei contenuti, un'etichetta è un esempio di contenuto inappropriato, indesiderato o offensivo. 

Nel contesto della creazione di un adattatore mediante l'addestramento del modello base di Rekognition, quando un'etichetta viene assegnata a un'immagine viene chiamata annotazione. Durante l'addestramento di un adattatore con la Rekognition Console, utilizzerai la Console per aggiungere annotazioni alle tue immagini scegliendo un'etichetta e quindi taggando le immagini che corrispondono all'etichetta. Attraverso questo processo, il modello impara a identificare gli elementi delle immagini in base all'etichetta assegnata. Questo processo di collegamento consente al modello di concentrarsi sui contenuti più pertinenti quando viene creato un adattatore, con conseguente maggiore precisione per l'analisi delle immagini. 

In alternativa, è possibile fornire un file manifesto, che contiene informazioni sulle immagini e le relative annotazioni.

## Allenare e testare set di dati
<a name="preparing-datasets-adapters-datasets"></a>

Il set di dati di addestramento è la base per la messa a punto del modello e la creazione di un adattatore personalizzato. È necessario fornire un set di dati di addestramento annotato da cui il modello possa imparare. Il modello impara da questo set di dati per migliorare le proprie prestazioni sul tipo di immagini fornite. 

 Per migliorare la precisione, è necessario creare il set di dati di allenamento mediante annotation/labeling immagini. Puoi farlo in due modi: 
+  Assegnazione manuale delle etichette: puoi utilizzare la Rekognition Console per creare un set di dati di allenamento caricando le immagini che desideri contengano nel set di dati e quindi assegnando manualmente le etichette a queste immagini.
+  File manifest: è possibile utilizzare un file manifest per addestrare l'adattatore. Il file manifest contiene informazioni sulle annotazioni di base relative alle immagini di addestramento e test, nonché sulla posizione delle immagini di allenamento. È possibile fornire il file manifest durante l'addestramento di un adattatore utilizzando APIs Rekognition o quando si utilizza la Console. AWS 

Il set di dati di test viene utilizzato per valutare le prestazioni dell'adattatore dopo l'allenamento. Per garantire una valutazione affidabile, il set di dati di test viene creato utilizzando una parte del set di dati di addestramento originale che il modello non ha mai visto prima. Questo processo garantisce che le prestazioni dell'adattatore vengano valutate con nuovi dati, creando misurazioni e metriche accurate. Per un miglioramento ottimale della precisione, consultare [Best practice per l'addestramento degli adattatori](using-adapters-best-practices.md).

# Gestione degli adattatori con la AWS CLI e SDKs
<a name="managing-adapters"></a>

 Rekognition ti consente di utilizzare molteplici funzionalità che sfruttano modelli di visione artificiale preaddestrati. Con questi modelli puoi svolgere attività come il rilevamento delle etichette e la moderazione dei contenuti. È inoltre possibile personalizzare questi determinati modelli utilizzando un adattatore. 

Puoi utilizzare la creazione e la gestione dei progetti di Rekognition APIs (come and [CreateProjectVersion](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProjectVersion.html)) per creare [CreateProject](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProject.html)e addestrare adattatori. Le pagine seguenti descrivono come utilizzare le operazioni API per creare, addestrare e gestire gli adattatori, utilizzando la AWS console, l' AWS SDK scelto o la AWS CLI. 

Dopo aver addestrato un adattatore, è possibile utilizzarlo per eseguire l'inferenza con le funzionalità supportate. Attualmente, gli adattatori sono supportati quando si utilizza la funzione di moderazione dei contenuti.

Quando addestrate un adattatore utilizzando un AWS SDK, dovete fornire le vostre etichette di base (annotazioni sulle immagini) sotto forma di file manifest. In alternativa, puoi utilizzare la Rekognition Console per creare e addestrare un adattatore.

**Nota**  
 Gli adattatori non possono essere copiati. È possibile copiare solo le versioni del progetto Rekognition Custom Labels. 

**Topics**
+ [Stati dell'adattatore](#managing-adapters-project-versions-statuses)
+ [Creare un progetto](managing-adapters-create-project.md)
+ [Descrizione di progetti](managing-adapters-describe-projects.md)
+ [Eliminazione di un progetto](managing-adapters-delete-project.md)
+ [Creazione di una versione del progetto](managing-adapters-create-project-version.md)
+ [Descrivere una versione del progetto](managing-adapters-describe-project.md)
+ [Eliminazione di una versione di progetto](managing-adapters-delete-project-version.md)

## Stati dell'adattatore
<a name="managing-adapters-project-versions-statuses"></a>

L'adattatore di moderazione personalizzato (versioni del progetto) può avere uno dei seguenti stati: 
+ TRAINING\$1IN\$1PROGRESS: l'adattatore è in corso di formazione sui file che hai fornito come documenti di formazione.
+ TRAINING\$1COMPLETED - L'adattatore ha completato con successo l'addestramento ed è pronto per consentirvi di esaminarne le prestazioni. 
+ TRAINING\$1FAILED - L'adattatore non è riuscito a completare l'addestramento per qualche motivo. Consultate il file manifesto di output e il riepilogo del manifesto di output per informazioni sulla causa dell'errore.
+ ELIMINAZIONE - L'adattatore è in fase di eliminazione.
+ OBSOLETO: l'adattatore è stato addestrato su una versione precedente del modello base di Content Moderation. È in un periodo di prova e scadrà entro 60-90 giorni dal rilascio della nuova versione del modello base. Durante il periodo di prova, è comunque possibile utilizzare l'adattatore per l'inferenza con [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)le nostre operazioni [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html)API. Fai riferimento alla Custom Moderation Console per la data di scadenza degli adattatori.
+ SCADUTO: l'adattatore è stato addestrato su una versione precedente del modello base di moderazione dei contenuti e non può più essere utilizzato per ottenere risultati personalizzati con le operazioni o l'API. DetectModerationLabels StartMediaAnalysisJob Se in una richiesta di inferenza viene specificato un adattatore scaduto, verrà ignorato e la risposta verrà invece restituita dalla versione più recente del modello base di moderazione personalizzata. 

# Creare un progetto
<a name="managing-adapters-create-project"></a>

Con l'[CreateProject](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProject.html)operazione è possibile creare un progetto che conterrà un adattatore per le operazioni di rilevamento delle etichette di Rekognition. Un progetto è un gruppo di risorse e, nel caso di operazioni di rilevamento di etichette come DetectModerationLabels, un progetto consente di memorizzare adattatori che è possibile utilizzare per personalizzare il modello Rekognition di base. Quando si richiama CreateProject, si fornisce il nome del progetto che si desidera creare all'argomento. ProjectName 

 Per creare un progetto con la AWS console: 
+ Accedi alla Rekognition Console
+ Fai clic su **Moderazione personalizzata**
+ Scegliere **Crea progetto**
+ Seleziona **Crea un nuovo progetto** o **Aggiungi a un progetto esistente**
+ Aggiungi un **nome di progetto**
+ Aggiungi un **nome per l'adattatore**
+ Se lo desideri, aggiungi una descrizione
+ Scegli come importare le immagini di allenamento: file Manifest, dal bucket S3 o dal tuo computer
+ Scegli se vuoi dividere automaticamente i dati di allenamento o importare un file manifest
+ Seleziona se desideri o meno che il progetto si aggiorni automaticamente
+ Fare clic su **Crea progetto**

Per creare un progetto con AWS CLI e SDK:

1. Se non l'hai già fatto, installa e configura la AWS CLI e il. AWS SDKs Per ulteriori informazioni, consulta [Passaggio 2: configura AWS CLI e AWS SDKs](setup-awscli-sdk.md).

1. Usa il seguente codice per creare un progetto:

------
#### [ CLI ]

```
# Request
# Creating Content Moderation Project
aws rekognition create-project \
    --project-name "project-name" \
    --feature CONTENT_MODERATION \
    --auto-update ENABLED
    --profile profile-name
```

------

# Descrizione di progetti
<a name="managing-adapters-describe-projects"></a>

Puoi utilizzare l'[DescribeProjects](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjects.html)API per ottenere informazioni sui tuoi progetti, incluse informazioni su tutti gli adattatori associati a un progetto. 

Per descrivere i progetti con AWS CLI e SDK:

1. Se non l'hai già fatto, installa e configura la AWS CLI e il. AWS SDKs Per ulteriori informazioni, consulta [Passaggio 2: configura AWS CLI e AWS SDKs](setup-awscli-sdk.md).

1. Utilizza il seguente codice per descrivere un progetto:

------
#### [ CLI ]

```
# Request
# Getting CONTENT_MODERATION project details 
aws rekognition describe-projects \
    --features CONTENT_MODERATION
    --profile profile-name
```

------

# Eliminazione di un progetto
<a name="managing-adapters-delete-project"></a>

Puoi eliminare un progetto utilizzando la console Rekognition o chiamando l'API. [DeleteProject](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteProject.html) Per eliminare un progetto, devi prima eliminare ogni adattatore associato. Un progetto o un modello eliminato non può essere ripristinato. 

 Per eliminare un progetto con la console: AWS 
+ Accedi alla Rekognition Console.
+ Fai clic su **Moderazione personalizzata**.
+ Prima di eliminare il progetto stesso, devi eliminare ogni adattatore associato al progetto. Eliminate tutti gli adattatori associati al progetto selezionando l'adattatore e quindi selezionando **Elimina**.
+ Selezionate il progetto, quindi fate clic sul pulsante **Elimina**.

Per eliminare un progetto con AWS CLI e SDK:

1. Se non l'hai già fatto, installa e configura la AWS CLI e il. AWS SDKs Per ulteriori informazioni, consulta [Passaggio 2: configura AWS CLI e AWS SDKs](setup-awscli-sdk.md).

1. Utilizza il seguente codice per eliminare un progetto: 

------
#### [ CLI ]

```
aws rekognition delete-project 
  --project-arn project_arn \
  --profile profile-name
```

------

# Creazione di una versione del progetto
<a name="managing-adapters-create-project-version"></a>

È possibile addestrare un adattatore per la distribuzione utilizzando l'[CreateProjectVersion](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProjectVersion.html)operazione. CreateProjectVersion crea prima una nuova versione di un adattatore associato a un progetto e poi inizia ad addestrare l'adattatore. La risposta CreateProjectVersion è un Amazon Resource Name (ARN) per la versione del modello. Il completamento dell’addestramento richiede tempo. Puoi conoscere lo stato attuale DescribeProjectVersions chiamando. Quando si addestra un modello, Rekognition utilizza addestramento e i set di dati di test associati al progetto. È possibile creare un set di dati utilizzando la console. Per ulteriori informazioni, consulta la sezione sui set di dati. 

 Per creare una versione di progetto con la console Rekognition: 
+  Accedi alla Rekognition Console AWS 
+  Fai clic su Moderazione personalizzata 
+  Scelta di un progetto. 
+  Nella pagina dei dettagli del progetto, scegli **Crea adattatore** 
+  Nella pagina «Crea un progetto», inserisci i dettagli richiesti per Dettagli del progetto, Immagini di formazione e Immagini di test, quindi seleziona **Crea progetto**. 
+  Nella pagina «Assegna etichette alle immagini», aggiungi delle etichette alle immagini e, al termine, seleziona **Inizia la formazione** 

Per creare una versione del progetto con AWS CLI e SDK:

1. Se non l'hai già fatto, installa e configura la AWS CLI e il. AWS SDKs Per ulteriori informazioni, consulta [Passaggio 2: configura AWS CLI e AWS SDKs](setup-awscli-sdk.md).

1. Usa il codice seguente per creare una versione del progetto: 

------
#### [ CLI ]

```
# Request
aws rekognition create-project-version \
 --project-arn project-arn \
 --training-data '{Assets=[GroundTruthManifest={S3Object="amzn-s3-demo-source-bucket",Name="manifest.json"}]}' \
 --output-config S3Bucket=amzn-s3-demo-destination-bucket,S3KeyPrefix=my-results \
 --feature-config "ContentModeration={ConfidenceThreshold=70}"
 --profile profile-name
```

------

# Descrivere una versione del progetto
<a name="managing-adapters-describe-project"></a>

È possibile elencare e descrivere gli adattatori associati a un progetto utilizzando l'[DescribeProjectVersions](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjectVersions.html)operazione. È possibile specificare fino a 10 versioni del modello in ProjectVersionArns. Se non specifichi un valore, vengono restituite descrizioni per tutte le versioni del modello nel progetto. 

Per descrivere una versione del progetto con AWS CLI e SDK:

1. Se non l'hai già fatto, installa e configura la AWS CLI e il. AWS SDKs Per ulteriori informazioni, consulta [Passaggio 2: configura AWS CLI e AWS SDKs](setup-awscli-sdk.md).

1. Usa il codice seguente per descrivere una versione del progetto:

------
#### [ CLI ]

```
aws rekognition describe-project-versions 
  --project-arn project_arn \
  --version-names [versions]
```

------

# Eliminazione di una versione di progetto
<a name="managing-adapters-delete-project-version"></a>

È possibile eliminare un adattatore Rekognition associato a un progetto utilizzando l'operazione. [DeleteProjectVersion](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteProjectVersion.html) Non puoi eliminare un adattatore se è in esecuzione o in fase di addestramento. Per verificare lo stato di un adattatore, richiamate l' DescribeProjectVersions operazione e controllate il campo Status da essa restituito. Per interrompere una chiamata all'adattatore in esecuzione StopProjectVersion. Se un modello è in fase di addestramento, attendi che finisca prima di eliminarlo. Prima di eliminare il progetto stesso, devi eliminare ogni adattatore associato al progetto.

 Per eliminare una versione del progetto con la console Rekognition: 
+ Accedi alla Rekognition Console
+ Fai clic su Moderazione personalizzata
+ Dalla scheda Progetti puoi vedere tutti i tuoi progetti e gli adattatori associati. Seleziona un adattatore, quindi seleziona **Elimina**.

Per eliminare una versione del progetto con AWS CLI e SDK:

1. Se non l'hai già fatto, installa e configura la AWS CLI e il. AWS SDKs Per ulteriori informazioni, consulta [Passaggio 2: configura AWS CLI e AWS SDKs](setup-awscli-sdk.md).

1. Usa il codice seguente per eliminare una versione del progetto:

------
#### [ CLI ]

```
# Request
aws rekognition delete-project-version 
  --project-version-arn model_arn \
  --profile profile-name
```

------

# Tutorial sull'adattatore di moderazione personalizzato
<a name="using-adapters-tutorial"></a>

Questo tutorial mostra come creare, addestrare, valutare, utilizzare e gestire gli adattatori utilizzando la Rekognition Console. Per creare, utilizzare e gestire gli adattatori con l' AWS SDK, consulta. [Gestione degli adattatori con la AWS CLI e SDKs](managing-adapters.md)

Gli adattatori consentono di migliorare la precisione delle operazioni API di Rekognition, personalizzando il comportamento del modello in base alle proprie esigenze e ai propri casi d'uso. Dopo aver creato un adattatore con questo tutorial, sarete in grado di utilizzarlo per analizzare le vostre immagini con operazioni come [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html), oltre a riaddestrare l'adattatore per ulteriori miglioramenti futuri. 

In questo tutorial, apprenderai come:
+ Creare un progetto utilizzando Rekognition Console
+ Annotare dei dati di addestramento
+ Addestrare il tuo adattatore sulla base del tuo set di dati di allenamento
+ Verificare le prestazioni del tuo adattatore
+ Usare l'adattatore per l'analisi delle immagini

## Prerequisiti
<a name="using-adapters-tutorial-prereqs"></a>

Prima di completare questo tutorial si consiglia di leggere [Creazione e utilizzo di adattatori](creating-and-using-adapters.md).

Per creare un adattatore, puoi utilizzare lo strumento Rekognition Console per creare un progetto, caricare e annotare le tue immagini e quindi addestrare un adattatore su queste immagini. Per iniziare, consulta [Creazione di un progetto e formazione di un adattatore](#using-adapters-tutorial-annotation).

In alternativa, puoi utilizzare la console o l'API di Rekognition per recuperare le previsioni per le immagini e poi verificarle prima di addestrare un adattatore su queste previsioni. Per iniziare, consulta [Analisi in blocco, verifica delle previsioni e formazione di un adattatore](#using-adapters-tuorial-annotation-bulk-analysis).

## Annotazione dell'immagine
<a name="using-adapters-tutorial-image-annotation"></a>

Puoi annotare tu stesso le immagini etichettandole con la console Rekognition oppure utilizzare l'analisi Rekognition Bulk per annotare le immagini che puoi poi verificare che siano state etichettate correttamente. Scegli uno degli argomenti seguenti per iniziare.

**Topics**
+ [Creazione di un progetto e formazione di un adattatore](#using-adapters-tutorial-annotation)
+ [Analisi in blocco, verifica delle previsioni e formazione di un adattatore](#using-adapters-tuorial-annotation-bulk-analysis)

### Creazione di un progetto e formazione di un adattatore
<a name="using-adapters-tutorial-annotation"></a>

Completa le operazioni seguenti per addestrare l'adattatore annotando le immagini utilizzando la console Rekognition.

**Creazione di un progetto**

Prima di poter addestrare o utilizzare un adattatore, devi creare il progetto che lo conterrà. È inoltre necessario fornire le immagini utilizzate per addestrare l'adattatore. Per creare un progetto, un adattatore e i tuoi set di dati di immagini: 

1. Accedi alla console di AWS gestione e apri la console Rekognition all'indirizzo. https://console.aws.amazon.com/rekognition/

1. Nel riquadro a sinistra, scegliere **Moderazione personalizzata**. Viene visualizzata la pagina iniziale di Rekognition Custom Moderation.  
![\[L'interfaccia di moderazione personalizzata di Rekognition non mostra adattatori e opzioni ottimizzati esistenti per creare un nuovo progetto o una nuova ricerca.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/adapters-1-landing-page.png)

1. La pagina di destinazione Custom Moderation mostra un elenco di tutti i tuoi progetti e adattatori, e c'è anche un pulsante per creare un adattatore. Scegli **Crea progetto** per creare un nuovo progetto e un adattatore.

1. Se è la prima volta che crei un adattatore, ti verrà richiesto di creare un bucket Amazon S3 per archiviare i file relativi al tuo progetto e al tuo adattatore. Scegli **Crea bucket Amazon S3**.

1. Nella pagina seguente, inserisci il **nome dell'adattatore** e il **nome del progetto**. Se lo desideri, fornisci una descrizione dell'adattatore.   
![\[Modulo per inserire i dettagli del progetto, tra cui il nome del progetto, il nome dell'adattatore e una descrizione opzionale dell'adattatore. Opzioni per importare il set di dati delle immagini di addestramento da un file manifest o da un bucket S3.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/adapters-2-project-details.png)

1. In questo passaggio, fornirai anche le immagini per l'adattatore. Puoi selezionare: **Importa immagini dal tuo computer**, **Importa file manifest** o **Importa immagini dal bucket Amazon S3**. Se scegli di importare le tue immagini da un bucket Amazon S3, fornisci il percorso del bucket e della cartella che contiene le immagini di allenamento. Se carichi le immagini direttamente dal computer, tieni presente che puoi caricare solo fino a 30 immagini alla volta. Se utilizzi un file manifesto che contiene annotazioni, puoi saltare i passaggi elencati di seguito relativi all'annotazione delle immagini e passare alla sezione relativa a [Visualizzazione delle prestazioni dell'adattatore](#using-adapters-tutorial-performance).

1. Nella sezione **Dettagli del set di dati di test**, scegli **Autosplit** per fare in modo che Rekognition selezioni automaticamente la percentuale appropriata delle immagini come dati di test, oppure puoi scegliere **Importa manualmente il file manifest**.

1. Dopo aver inserito queste informazioni, seleziona **Crea progetto**.

**Addestramento dell'adattatore**

Per addestrare un adattatore sulle tue immagini non annotate:

1. Seleziona il progetto che contiene l'adattatore, quindi scegli l'opzione **Assegna etichetta alle immagini**. 

1. Nella pagina **Assegna etichetta alle immagini**, puoi vedere tutte le immagini che sono state caricate come immagini di formazione. Puoi filtrare queste immagini sia per labeled/unlabeled stato che per categoria di etichetta utilizzando i due pannelli di selezione degli attributi sulla sinistra. È possibile aggiungere altre immagini al set di dati di allenamento selezionando il pulsante **Aggiungi immagini**.  
![\[Interfaccia di etichettatura delle immagini con istruzioni, dettagli sull'adattatore e pannello immagine vuoto.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/adapters-4-assign-labels-to-images.png)

1. Dopo aver aggiunto immagini al set di dati di allenamento, è necessario annotare le immagini con delle etichette. Dopo aver caricato le immagini, la pagina «Assegna etichette alle immagini» si aggiornerà per mostrare le immagini che hai caricato. Ti verrà richiesto di selezionare l'etichetta appropriata per le tue immagini da un elenco a discesa di etichette supportate da Rekognition Moderation. È possibile selezionare più di un’etichetta. 

1. Continua questo processo finché non avrai aggiunto etichette a ciascuna delle immagini nei tuoi dati di allenamento.

1. Dopo aver etichettato tutti i dati, seleziona **Inizia addestramento** per iniziare ad addestrare il modello, che crea l'adattatore.  
![\[Interfaccia che mostra 2 immagini con opzioni per assegnare etichette a categorie come nudità esplicita, contenuti allusivi, violenza, simboli di odio, alcol, droghe, tabacco, ecc.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/adapters-5-labels-images-blurred.png)

1. Prima di iniziare il processo di formazione, puoi aggiungere qualsiasi **tag** all'adattatore che desideri. È inoltre possibile fornire all'adattatore una chiave di crittografia personalizzata o utilizzare una chiave KMS. AWS Una volta che hai finito di aggiungere i tag che desideri e di personalizzare la crittografia a tuo piacimento, seleziona **Addestra adattatore** per avviare il processo di formazione del tuo adattatore. 

1. Attendi che l'adattatore finisca l’addestramento. Una volta completato l'addestramento, riceverai una notifica che indica che l'adattatore è terminato.

Una volta che lo stato dell'adattatore è «Addestramento completato», puoi rivedere le metriche dell'adattatore

### Analisi in blocco, verifica delle previsioni e formazione di un adattatore
<a name="using-adapters-tuorial-annotation-bulk-analysis"></a>

Completa i seguenti passaggi per addestrare il tuo adattatore verificando le previsioni delle analisi di massa basate sul modello di moderazione dei contenuti di Rekognition.

 Per addestrare un adattatore verificando le previsioni del modello di moderazione dei contenuti di Rekognition, devi: 

1.  Eseguire un'analisi collettiva delle tue immagini 

1.  Verificare le previsioni restituite per le tue immagini 

Puoi ottenere previsioni per le immagini eseguendo analisi in blocco con il modello base di Rekognition o con un adattatore che hai già creato. 

**Eseguire un'analisi collettiva delle tue immagini**

Per addestrare un adattatore sulle previsioni che hai verificato, devi prima avviare un processo di analisi in blocco per analizzare un batch di immagini utilizzando il modello base di Rekognition o un adattatore di tua scelta. Per eseguire un processo di analisi in blocco: 

1. Accedi Console di gestione AWS e apri la console Amazon Rekognition all'indirizzo. [https://console.aws.amazon.com/rekognition/](https://console.aws.amazon.com/rekognition/)

1. Nel riquadro a sinistra, scegliere **Analisi in blocco**. Viene visualizzata la pagina iniziale dedicata all'analisi di massa. Scegli **Avvia analisi in blocco**. La panoramica della funzionalità Bulk Analysis mostra i passaggi per caricare le immagini, attendere l'analisi, rivedere i risultati e, facoltativamente, verificare le previsioni dei modelli. Elenca i lavori recenti di Bulk Analysis per la moderazione dei contenuti utilizzando il modello base.  
![\[Panoramica delle funzionalità di analisi di massa che mostra il flusso di lavoro ed elenca i recenti lavori di Bulk Analysis per la moderazione dei contenuti utilizzando il modello base.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/BA-1-create-bulk-analysis.png)

1. Se è la prima volta che crei un adattatore, ti verrà richiesto di creare un bucket Amazon Simple Storage Service per archiviare i file relativi al tuo progetto e al tuo adattatore. Scegli **Crea bucket Amazon S3**.

1. Seleziona l'adattatore che desideri utilizzare per l'analisi di massa utilizzando il menu a tendina **Scegli un adattatore**. Se non viene scelto alcun adattatore, per impostazione predefinita verrà utilizzato il modello base. Ai fini del presente tutorial non selezionare un adattatore.  
![\[Interfaccia Bulk Analysis con menu a discesa per scegliere una funzionalità di Rekognition, un adattatore, impostare un nome di lavoro e una soglia minima di confidenza per le etichette. Alcuni campi sono obbligatori.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/BA-2-bulk-analysis-job.png)

1.  Nel campo **Nome del processo di analisi in blocco**, inserisci il nome del processo di analisi in blocco. 

1. Scegliete un valore per la **soglia di confidenza minima**. Le previsioni delle etichette con un valore inferiore alla soglia di confidenza prescelta non verranno restituite. Tieni presente che quando valuterai le prestazioni del modello in un secondo momento, non sarai in grado di regolare la soglia di confidenza al di sotto della soglia di confidenza minima scelta.

1. In questo passaggio, fornirai anche le immagini che desideri analizzare con l'analisi in blocco. Queste immagini possono essere utilizzate anche per addestrare l'adattatore. Puoi scegliere **Carica immagini dal tuo computer** o **Importa immagini dal bucket Amazon S3**. Se scegli di importare i tuoi documenti da un bucket Amazon S3, fornisci il percorso del bucket e della cartella che contiene le immagini di allenamento. Se carichi i documenti direttamente dal computer, tieni presente che puoi caricare solo fino a 50 immagini alla volta.

1. Dopo aver inserito queste informazioni, scegli **Avvia analisi**. Questo avvierà il processo di analisi utilizzando il modello base di Rekognition.

1.  Puoi controllare lo stato del tuo processo di analisi in blocco controllando lo stato dell'analisi di massa del lavoro nella pagina principale di analisi in blocco. Quando lo stato di analisi in blocco diventa «Riuscito», i risultati dell'analisi sono pronti per essere esaminati.   
![\[Tabella dei lavori di Bulk Analysis che mostra un lavoro denominato «Valutazione 01" con lo stato «Riuscito», utilizzando l'API di riconoscimento della moderazione dei contenuti e il modello Base.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/BA-3-bulk-analysis-status.png)

1.  Scegli l'analisi che hai creato dall'elenco dei lavori di **Analisi in blocco**. 

1. Nella pagina dei dettagli di analisi in blocco puoi vedere le previsioni che il modello base di Rekognition ha fatto per le immagini che hai caricato. 

1. Esamina le prestazioni del modello base. È possibile modificare la soglia di confidenza che l'adattatore deve avere per assegnare un'etichetta a un'immagine utilizzando il cursore della soglia di confidenza. Il numero di istanze contrassegnate e non contrassegnate cambierà man mano che regolate la soglia di confidenza. Il pannello Categorie di etichette mostra le categorie di primo livello riconosciute da Rekognition ed è possibile selezionare una categoria in questo elenco per visualizzare tutte le immagini a cui è stata assegnata quell'etichetta.   
![\[Il grafico a barre di Bulk Analysis che mostra il numero di immagini contrassegnate per varie etichette.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/BA-4-bulk-analysis-complete.png)

**Verifica le previsioni**

Se hai verificato l'accuratezza del modello base di Rekognition o di un adattatore scelto e desideri migliorarla, puoi utilizzare il flusso di lavoro di verifica: 

1. Dopo aver esaminato le prestazioni del modello base, dovrai verificare le previsioni. La correzione delle previsioni consentirà di addestrare un adattatore. Scegli **Verifica le previsioni** nella parte superiore della pagina di analisi in blocco.  
![\[Un pannello che ti chiede di verificare le previsioni per calcolare i tassi di falsi positivi e negativi oppure di addestrare un adattatore di moderazione personalizzato per una maggiore precisione.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/BA-6-start-verification.png)

1. Nella pagina Verifica le previsioni, puoi vedere tutte le immagini che hai fornito al modello base di Rekognition o a un adattatore scelto, insieme all'etichetta prevista per ogni immagine. È necessario verificare che ogni previsione sia corretta o errata utilizzando i pulsanti sotto l'immagine. Usa il pulsante «X» per contrassegnare una previsione come errata e il pulsante con il segno di spunta per contrassegnare una previsione come corretta. Per addestrare un adattatore dovrai verificare almeno 20 previsioni false positive e 50 previsioni false negative per una determinata etichetta. Maggiore è il numero di previsioni verificate, migliori saranno le prestazioni dell'adattatore.   
![\[Tre immagini che ritraggono persone che tengono bevande alcoliche, utilizzate per illustrare la previsione della categoria «Alcol» per le etichette delle immagini.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/BA-7-verify-predictions-1.png)

   Dopo aver verificato una previsione, il testo sotto l'immagine cambierà per mostrarti il tipo di previsione che hai verificato. Dopo aver verificato un'immagine, puoi anche aggiungere altre etichette all'immagine utilizzando il menu **Assegna etichette all'immagine**. Puoi vedere quali immagini sono contrassegnate o meno dal modello in base alla soglia di confidenza prescelta o filtrare le immagini per categoria.   
![\[Immagine che mostra tre esempi di moderazione dei contenuti relativi all'alcol e un menu per applicare le etichette.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/BA-8-verify-predictions-2.png)

1. Una volta terminata la verifica di tutte le previsioni che desideri verificare, puoi visualizzare le statistiche relative alle previsioni verificate nella sezione **Prestazioni per etichetta** della pagina Verifica. Puoi anche tornare alla pagina dei dettagli dell'analisi in blocco per visualizzare queste statistiche.  
![\[Pagina di verifica della moderazione dei contenuti che mostra percentuali di falsi positivi per le etichette relative a nudità esplicita, allusiva e alcol alla soglia di confidenza del 50%.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/BA-8.5-predictions-stats.png)

1. Quando sei soddisfatto delle statistiche relative alle **prestazioni per etichetta**, vai nuovamente alla pagina **Verifica le previsioni**, quindi seleziona il pulsante **Addestra un adattatore** per iniziare ad addestrare l'adattatore.  
![\[Pagina di verifica delle previsioni che mostra i dettagli del lavoro, tra cui nome, data di creazione, versione del modello, posizioni di input e output. È presente un pulsante dell'adattatore Train.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/BA-9-train-adapter.png)

1. Nella pagina Addestra un adattatore ti verrà richiesto di creare un progetto o scegliere un progetto esistente. Assegna un nome al progetto e all'adattatore che saranno contenuti nel progetto. È inoltre necessario specificare la fonte delle immagini di test. Quando si specificano le immagini, è possibile scegliere Autosplit per fare in modo che Rekognition utilizzi automaticamente una parte dei dati di allenamento come immagini di test, oppure è possibile specificare manualmente un file manifest. Si consiglia di scegliere Autosplit.   
![\[Interfaccia per la creazione di un nuovo progetto di adattatore con campi per inserire il nome del progetto, il nome dell'adattatore, la descrizione dell'adattatore, specificare l'origine dei dati di test e suddividere automaticamente i dati o importare un file manifest.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/BA-10-train-adapter-project.png)

1. Specificate i tag che desiderate, oltre a una AWS KMS chiave se non desiderate utilizzare la chiave predefinita AWS . Si consiglia di lasciare abilitato **l'aggiornamento automatico**. 

1. Seleziona **Addestra adattatore**.  
![\[Impostazioni di configurazione per un adattatore, incluse opzioni per l'aggiunta di tag, crittografia dei dati, soglia di confidenza e aggiornamento automatico. L'adattatore può essere addestrato da questa interfaccia.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/BA-11-train-adapter.png)

1. Una volta che lo stato del tuo adattatore nella pagina iniziale di Custom Moderation è diventato «Addestramento completata», puoi verificarne le prestazioni. Per ulteriori informazioni, consulta [Visualizzazione delle prestazioni dell'adattatore](#using-adapters-tutorial-performance).

## Visualizzazione delle prestazioni dell'adattatore
<a name="using-adapters-tutorial-performance"></a>

Per verificare le prestazioni del tuo adattatore:

1. Quando usi la console, potrai vedere lo stato di tutti gli adattatori associati a un progetto nella scheda Progetti della pagina iniziale sulla moderazione personalizzata. Vai alla pagina iniziale dedicata alla moderazione personalizzata.  
![\[Pagina iniziale di moderazione personalizzata che mostra un elenco di progetti di moderazione con dettagli come stato, ID dell'adattatore, posizione dei dati di input, versione del modello base, data di creazione e messaggi di stato. I progetti possono essere creati, eliminati o ripresi.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/adapters-7-status-alt.png)

1. Seleziona l'adattatore che desideri recensire da questo elenco. Nella seguente pagina dei dettagli dell'adattatore, puoi visualizzare una serie di metriche relative all'adattatore.  
![\[Le metriche prestazionali degli adattatori mostrano un miglioramento del 25% dei falsi positivi e una riduzione del 24% dei falsi negativi per diverse categorie di etichette come Suggestive e Alcohol, con dati relativi ai veri positivi, al modello base e ai falsi negativi degli adattatori.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/adapters-8.5-new-performance-review.png)

1. Tramite il pannello **Soglia** è possibile modificare la soglia di confidenza minima che l'adattatore deve avere per assegnare un'etichetta a un'immagine. Il numero di istanze contrassegnate e non contrassegnate cambierà man mano che regolate la soglia di confidenza. Puoi anche filtrare per categoria di etichette per visualizzare le metriche relative alle categorie che hai selezionato. Imposta la soglia prescelta.

1. Puoi valutare le prestazioni dell'adattatore sulla base dei dati di test esaminando le metriche nel pannello Adapter Performance. Queste metriche vengono calcolate confrontando le estrazioni dell'adattatore con le annotazioni «verità di base» sul set di test. 

Il pannello delle prestazioni dell'adattatore mostra i tassi di miglioramento dei falsi positivi e dei falsi negativi relativi all'adattatore che avete creato. La scheda performance per etichetta può essere utilizzata per confrontare le prestazioni dell'adattatore e del modello base per ciascuna categoria di etichette. Mostra il conteggio delle previsioni false positive e false negative sia per il modello di base che per l'adattatore, stratificate per categoria di etichette. Esaminando queste metriche è possibile determinare dove è necessario migliorare l'adattatore. Per ulteriori informazioni su tali parametri, consulta [Valutazione e miglioramento dell'adattatore](using-adapters-evaluating-improving.md). 

Per migliorare le prestazioni, puoi raccogliere più immagini di allenamento e quindi creare un nuovo adattatore basato sull'interno del progetto. Basta tornare alla pagina di destinazione moderazione personalizzata e creare un nuovo adattatore all'interno del progetto, fornendo altre immagini di formazione su cui addestrare l'adattatore. Questa volta scegli l'**opzione Aggiungi a un progetto esistente** anziché **Crea un nuovo progetto** e seleziona il progetto in cui desideri creare il nuovo adattatore dal menu a tendina **Nome progetto**. Come prima, annota le tue immagini o fornisci un file manifesto con le annotazioni.

![\[Interfaccia per creare un nuovo adattatore per la moderazione dei contenuti o aggiungerlo a un progetto esistente, con opzioni per assegnare un nome all'adattatore e al progetto.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/adapters-9-create-new-adapter.png)


## Utilizzo dell'adattatore
<a name="using-adapters-tutorial-using-adapter"></a>

Dopo aver creato l'adattatore, puoi fornirlo a un'operazione Rekognition supportata come. [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) Per vedere esempi di codice che puoi usare per eseguire inferenze con il tuo adattatore, seleziona la scheda «Usa adattatore», dove puoi vedere esempi di codice sia per la AWS CLI che per Python. Puoi anche visitare la rispettiva sezione della documentazione relativa all'operazione per cui hai creato un adattatore per vedere altri esempi di codice, istruzioni di configurazione e un esempio di JSON. 

![\[Interfaccia che mostra le posizioni dei dati di test, dei dati di addestramento e dei dati di output con i campi URL S3 corrispondenti. Opzioni per utilizzare un adattatore, visualizzare immagini e tag di formazione e accedere ai dettagli dell'adattatore, inclusi ID e esempi di codice per AWS CLI e Python per utilizzare l'adattatore addestrato.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/adapters-12-use-adapter.png)


## Eliminazione dell'adattatore e del progetto
<a name="using-adapters-tutorial-deleting-adapter"></a>

Puoi eliminare singoli adattatori o eliminare il tuo progetto. Prima di eliminare il progetto stesso, devi eliminare ogni adattatore associato al progetto.

1. Per eliminare un adattatore associato al progetto, scegliete l'adattatore, quindi scegliete **Elimina**.

1. Per eliminare un progetto, scegli il progetto che desideri eliminare, quindi seleziona **Elimina**.

# Valutazione e miglioramento dell'adattatore
<a name="using-adapters-evaluating-improving"></a>

Dopo ogni ciclo di formazione sugli adattatori, ti consigliamo di esaminare le metriche delle prestazioni nello strumento Rekognition Console per determinare quanto l'adattatore si avvicina al livello di prestazioni desiderato. Puoi quindi migliorare ulteriormente la precisione dell'adattatore per le tue immagini caricando un nuovo batch di immagini di addestramento e addestrando un nuovo adattatore all'interno del tuo progetto. Dopo aver creato una versione migliorata dell'adattatore, puoi utilizzare la console per eliminare tutte le versioni precedenti dell'adattatore che non ti servono più. 

Puoi anche recuperare le metriche utilizzando l'operazione API. [DescribeProjectVersions](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjectVersions.html)

## Metriche delle prestazioni
<a name="using-adapters-performance-metrics"></a>

Una volta terminato il processo di formazione e creato l'adattatore, è importante valutare in che modo l'adattatore estrae le informazioni dalle immagini.

Nella Rekognition Console sono disponibili due metriche per aiutarti ad analizzare le prestazioni dell'adattatore: miglioramento falso positivo e miglioramento falso negativo. 

Puoi visualizzare queste metriche per qualsiasi adattatore selezionando la scheda «Prestazioni dell'adattatore» nella parte dedicata agli adattatori della console. Il pannello delle prestazioni dell'adattatore mostra i tassi di miglioramento dei falsi positivi e dei falsi negativi relativi all'adattatore che avete creato. 

Il miglioramento dei falsi positivi misura il miglioramento del riconoscimento dei falsi positivi da parte dell'adattatore rispetto al modello base. Se il valore di miglioramento dei falsi positivi è del 25%, significa che l'adattatore ha migliorato il riconoscimento dei falsi positivi del 25% nel set di dati del test.

Il miglioramento dei falsi negativi misura il miglioramento del riconoscimento dei falsi negativi da parte dell'adattatore rispetto al modello base. Se il valore di miglioramento dei falsi negativi è del 25%, significa che l'adattatore ha migliorato il riconoscimento dei falsi negativi del 25% nel set di dati del test.

La scheda performance per etichetta può essere utilizzata per confrontare le prestazioni dell'adattatore e del modello base per ciascuna categoria di etichette. Mostra il conteggio delle previsioni false positive e false negative sia per il modello di base che per l'adattatore, stratificate per categoria di etichette. Esaminando queste metriche è possibile determinare dove è necessario migliorare l'adattatore.

Ad esempio, se il tasso di falsi negativi del modello di base per la categoria etichetta alcol è 15 mentre il tasso di falsi negativi dell'adattatore è 15 o superiore, sapete che dovreste concentrarvi sull'aggiunta di altre immagini contenenti l'etichetta alcol quando create un nuovo adattatore.

Quando si utilizzano le operazioni dell'API Rekognition, la metrica F1-Score viene restituita quando si chiama l'operazione. [DescribeProjectVersions](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjectVersions.html)

## Migliora il tuo modello
<a name="using-adapters-improving-model"></a>

L'implementazione degli adattatori è un processo iterativo, poiché probabilmente dovrai addestrare un adattatore più volte per raggiungere il livello di precisione desiderato. Dopo aver creato e addestrato l'adattatore, ti consigliamo di testarlo e valutarne le prestazioni su vari tipi di etichette. 

Se la precisione dell'adattatore è carente in qualsiasi area, aggiungi nuovi esempi di quelle immagini per aumentare le prestazioni dell'adattatore per quelle etichette. Provate a fornire all'adattatore esempi diversi e aggiuntivi che riflettano i casi in cui non funziona. Fornire all'adattatore immagini rappresentative e varie consente di gestire diversi esempi del mondo reale.

Dopo aver aggiunto nuove immagini al set di allenamento, riabilita l'adattatore, quindi rivalutalo sul set di test e sulle etichette. Ripeti questa procedura finché l'adattatore non raggiunge il livello di prestazioni desiderato. Se fornite immagini e annotazioni più rappresentative, i punteggi falsi positivi e falsi negativi miglioreranno gradualmente nel corso delle successive iterazioni di allenamento.

# Formati di file manifest
<a name="using-adapters-manifest-files"></a>

Le seguenti sezioni mostrano esempi dei formati di file manifest per i file di input, output e valutazione.

## Manifest di input
<a name="using-adapters-manifest-files-input"></a>

Un file manifest è un file delimitato da righe json, in cui ogni riga contiene un codice JSON che contiene informazioni su una singola immagine. 

Ogni voce del manifest di input deve contenere il campo `source-ref` con il percorso dell'immagine nel bucket Amazon S3 e, per la moderazione personalizzata, il campo `content-moderation-groundtruth` con le annotazioni di base. Tutte le immagini in un set di dati dovrebbero trovarsi nello stesso bucket. La struttura è comune sia ai file manifest di addestramento che a quelli di test.

L'operazione `CreateProjectVersion` di moderazione personalizzata utilizza le informazioni fornite nel manifest di input per addestrare un adattatore. 

L'esempio seguente è una riga di un file manifest per una singola immagine che contiene una sola classe non sicura:

```
{
   "source-ref": "s3://foo/bar/1.jpg",
   "content-moderation-groundtruth": {
        "ModerationLabels": [
            { 
                "Name": "Rude Gesture"
            }
        ]
   }
}
```

L'esempio seguente è una riga di un file manifest per una singola immagine non sicura che contiene più classi non sicure, in particolare nudità e gesti maleducati.

```
{
   "source-ref": "s3://foo/bar/1.jpg",
   "content-moderation-groundtruth": {
        "ModerationLabels": [
            { 
                "Name": "Rude Gesture"
            },
            {
                "Name": "Nudity"
            }
        ]
   }
}
```

L'esempio seguente è una riga di un file manifest per una singola immagine che contiene una sola classe non sicura:

```
{
   "source-ref": "s3://foo/bar/1.jpg",
   "content-moderation-groundtruth": {
        "ModerationLabels": []
   }
}
```

Per l'elenco completo delle etichette supportate, consulta [Moderazione dei contenuti](https://docs.aws.amazon.com/rekognition/latest/dg/moderation.html).



## Manifest di output
<a name="using-adapters-manifest-files-output"></a>

Al termine di un processo di formazione, viene restituito un file manifest di output. Un file manifest è un file delimitato da righe JSON, in cui ogni riga contiene un codice JSON che contiene informazioni su una singola immagine. Amazon S3 Path to the OutputManifest può essere ottenuto dalla `DescribeProjectVersion` risposta:
+  `TrainingDataResult.Output.Assets[0].GroundTruthManifest.S3Object` per il set di dati di addestramento 
+  `TestingDataResult.Output.Assets[0].GroundTruthManifest.S3Object` per testare il set di dati 

Le seguenti informazioni vengono restituite per ogni voce del manifest di output:


|  |  | 
| --- |--- |
| Nome chiave | Description | 
|  source-ref  | Riferimento a un'immagine in s3 fornita nel manifesto di input | 
|  content-moderation-groundtruth  | Annotazioni di base relative alla verità fornite nel manifesto di input | 
|  detect-moderation-labels  | Previsioni dell'adattatore, solo parte del set di dati di test | 
|  detect-moderation-labels-base-model  | Previsioni del modello di base, solo parte del set di dati di test | 

Le previsioni dell'adattatore e del modello di base vengono restituite alla ConfidenceTrehsold versione 5.0 nel formato simile alla risposta. [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)

L'esempio seguente mostra la struttura delle previsioni dei modelli Adapter e Base:

```
{
   "ModerationLabels": [ 
      { 
         "Confidence": number,
         "Name": "string",
         "ParentName": "string"
      }
   ],
   "ModerationModelVersion": "string",
   "ProjectVersion": "string"
}
```

Per l'elenco completo delle etichette restituite, consulta [Moderazione dei contenuti](https://docs.aws.amazon.com/rekognition/latest/dg/moderation.html).

## Risultati della valutazione manifest
<a name="using-adapters-manifest-files-eval"></a>

Al termine di un processo di addestramento, viene restituito un file manifest. Il manifest dei risultati della valutazione è un file JSON generato dal processo di addestramento e contiene informazioni sulle prestazioni dell'adattatore sui dati del test.

Il percorso di Amazon S3 verso il manifesto dei risultati della valutazione può essere ottenuto dal `EvaluationResult.Summary.S3Object` campo nella DescribeProejctVersion risposta.

Il seguente esempio illustra la struttura dei risultati della valutazione manifest:

```
{
    "AggregatedEvaluationResults": {
       "F1Score": number
    },

    "EvaluationDetails": {
        "EvaluationEndTimestamp": "datetime",
        "Labels": [
            "string"
        ],
        "NumberOfTestingImages": number,
        "NumberOfTrainingImages": number,
        "ProjectVersionArn": "string"
    },

    "ContentModeration": {
        "InputConfidenceThresholdEvalResults": {
            "ConfidenceThreshold": float,
            "AggregatedEvaluationResults": {
                "BaseModel": {
                    "TruePositive": int,
                    "TrueNegative": int,
                    "FalsePositive": int,
                    "FalseNegative": int
                },
                "Adapter": {
                    "TruePositive": int,
                    "TrueNegative": int,
                    "FalsePositive": int,
                    "FalseNegative": int
                }
            },
            "LabelEvaluationResults": [
                {
                    "Label": "string",
                    "BaseModel": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    },
                    "Adapter": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    }
                }
            ]
        }
        "AllConfidenceThresholdsEvalResults": [
            {
                "ConfidenceThreshold": float,
                "AggregatedEvaluationResults": {
                    "BaseModel": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    },
                    "Adapter": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    }
                },
                "LabelEvaluationResults": [
                    {
                       "Label": "string",
                        "BaseModel": {
                            "TruePositive": int,
                            "TrueNegative": int,
                            "FalsePositive": int,
                            "FalseNegative": int
                        },
                        "Adapter": {
                            "TruePositive": int,
                            "TrueNegative": int,
                            "FalsePositive": int,
                            "FalseNegative": int
                        }
                    }
                ]
            }
        ]
    }
}
```

Il file della valutazione manifest contiene:
+ Risultati aggregati come definiti da `F1Score` 
+ Dettagli sul lavoro di valutazione ProjectVersionArn, tra cui il numero di immagini di formazione, il numero di immagini di test e le etichette su cui è stato addestrato l'adattatore.
+  FalseNegative Risultati aggregati TruePositive, TrueNegative FalsePositive, e relativi alle prestazioni sia del modello base che dell'adattatore.
+ Per etichetta TruePositive, TrueNegative FalsePositive, e FalseNegative risultati relativi alle prestazioni del modello base e dell'adattatore, calcolati in base alla soglia di confidenza di input.
+ Risultati aggregati e per etichetta TruePositive, TrueNegative FalsePositive, e FalseNegative risultati relativi alle prestazioni del modello base e dell'adattatore a diverse soglie di confidenza. La soglia di confidenza varia da 5 a 100 a intervalli di 5.

# Best practice per l'addestramento degli adattatori
<a name="using-adapters-best-practices"></a>

Si consiglia di attenersi alle seguenti best practice durante la creazione, l'addestramento e l'utilizzo degli adattatori:



1.  I dati dell'immagine di esempio devono catturare gli errori rappresentativi che i clienti intendono eliminare. Se il modello commette errori ripetuti su immagini visivamente simili, assicurati di portare molte di quelle immagini per l'addestramento. 

1.  Invece di inserire solo immagini in cui la modella commette errori su una particolare etichetta di moderazione, assicurati anche di inserire immagini che dimostrino che la modella non commette errori sull'etichetta Moderazione. 

1.  Fornire un minimo di 50 campioni di falsi negativi OPPURE 20 campioni di falsi positivi per l'addestramento e un minimo di 20 campioni per i test. Tuttavia, fornite quante più immagini annotate possibile per migliorare le prestazioni dell'adattatore. 

1.  Annotazione di tutte le etichette che ritieni importanti per tutte le immagini: se decidi di dover annotare l'occorrenza di un'etichetta su un'immagine, assicurati di annotare l'occorrenza di questa etichetta su tutte le altre immagini. 

1.  I dati dell'immagine di esempio devono contenere quante più varianti possibili sull'etichetta, concentrandosi su istanze rappresentative delle immagini che verranno analizzate in un ambiente di produzione. 

# Impostazione delle AutoUpdate autorizzazioni
<a name="using-adapters-autoupdate"></a>

Rekognition supporta AutoUpdate la funzionalità per adattatori personalizzati. Ciò significa che la riqualificazione automatizzata viene data la massima priorità quando AutoUpdate Flag è ABILITATO su un progetto. Questi aggiornamenti automatici richiedono l'autorizzazione ad accedere ai Training/Testing set di dati e alla AWS KMS chiave con cui addestrare l'adattatore del cliente. Puoi fornire queste autorizzazioni seguendo la procedura seguente.



## Autorizzazioni Bucket Amazon S3
<a name="using-adapters-autoupdate-s3"></a>

 Per impostazione predefinita, tutti gli oggetti e i bucket Amazon S3 sono privati. Solo il proprietario della risorsa, l' AWS account che ha creato il bucket, può accedere al bucket e a tutti gli oggetti in esso contenuti. Tuttavia, il proprietario della risorsa può concedere le autorizzazioni di accesso ad altre risorse e ad altri utenti mediante una policy di bucket.

 Se desideri creare o modificare un bucket Amazon S3 da utilizzare come fonte di set di dati di input e destinazione dei risultati di addestramento in un corso di addestramento dell'adattatore personalizzato, devi modificare ulteriormente la policy del bucket. Per leggere o scrivere in un bucket Amazon S3, Rekognition deve disporre delle seguenti autorizzazioni. 

**Rekognition ha richiesto la policy Amazon S3**

Rekognition richiede una politica di autorizzazione con i seguenti attributi:
+ Statement ID SID
+ Nome del bucket
+ Nome principale del servizio per Rekognition.
+ Le risorse necessarie per Rekognition, il bucket e tutto il suo contenuto
+ Le azioni necessarie che Rekognition deve intraprendere.

La seguente policy consente a Rekognition di accedere a un bucket Amazon S3 durante la riqualificazione automatica.

```
{
    "Statement": [
        {
            "Effect": "Allow",
            "Sid": "AllowRekognitionAutoUpdateActions",
            "Principal": {
                "Service": "rekognition.amazonaws.com"
            },
            "Action": [
                "s3:ListBucket",
                "s3:GetObject",
                "s3:PutObject",
                "s3:HeadObject",
                "s3:HeadBucket"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket",
                "arn:aws:s3:::amzn-s3-demo-bucket/*"
            ]
        }
    ]
}
```

Puoi seguire [questa guida](https://docs.aws.amazon.com/AmazonS3/latest/userguide/add-bucket-policy.html) per aggiungere la policy sui bucket di cui sopra al tuo bucket S3.

Puoi trovare ulteriori informazioni sulle policy relative ai bucket [qui](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-policies.html).

## AWS KMS Autorizzazioni chiave
<a name="using-adapters-autoupdate-KMS"></a>

 Rekognition ti consente di fornire un adattatore personalizzato KmsKeyId opzionale durante l'allenamento. Se fornita, Rekognition utilizza questa chiave per crittografare le immagini di addestramento e test copiate nel servizio per l'addestramento dei modelli. La chiave viene anche utilizzata per crittografare i risultati della formazione e i file manifest scritti nel OutputConfig bucket di output Amazon S3 (). 

 Se scegli di fornire una chiave KMS come input per il corso di addestramento personalizzato per gli adattatori (ad esempio `Rekognition:CreateProjectVersion`), devi modificare ulteriormente la policy della chiave KMS per consentire al principale del servizio Rekognition di utilizzare questa chiave per la riqualificazione automatica in futuro. Rekognition deve disporre delle seguenti autorizzazioni. 

**Politica chiave di Rekognition Required AWS KMS **

Amazon Rekognition richiede una politica di autorizzazione con i seguenti attributi:
+ Statement ID SID
+ Nome principale del servizio per Amazon Rekognition.
+ Le azioni necessarie che Amazon Rekognition deve intraprendere.

La seguente policy della chiave consente ad Amazon Rekognition di accedere a una chiave Amazon KMS durante la riqualificazione automatica:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "KeyPermissions",
            "Effect": "Allow",
            "Principal": {
                "Service": "rekognition.amazonaws.com"
            },
            "Action": [
                "kms:DescribeKey",
                "kms:GenerateDataKey",
                "kms:Decrypt"
            ],
            "Resource": "*"
        }
    ]
}
```

------

Puoi seguire [questa guida](https://docs.aws.amazon.com/kms/latest/APIReference/API_PutKeyPolicy.html) per aggiungere la AWS KMS politica di cui sopra alla tua chiave. AWS KMS 

Puoi trovare ulteriori informazioni sulle AWS KMS politiche [qui](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html).

# AWS Notifica Health Dashboard per Rekognition
<a name="using-adapters-health-notification"></a>

 Your AWS Health Dashboard fornisce supporto per le notifiche provenienti da Rekognition. Queste notifiche forniscono informazioni e indicazioni sulla correzione delle modifiche programmate nei modelli Rekognition che potrebbero influire sulle tue applicazioni. Al momento sono disponibili solo gli eventi specifici della funzionalità di moderazione dei contenuti di Rekognition. 

L' AWS Health Dashboard fa parte del servizio AWS sanitario. Questo servizio non richiede l'installazione e può essere visualizzato da qualsiasi utente autenticato nell'account. Per ulteriori informazioni, consulta [Nozioni di base su Dashboard AWS Health](https://docs.aws.amazon.com/health/latest/ug/getting-started-phd.html).

Se visualizzi una notifica simile a uno dei seguenti, questo deve essere gestito come un allarme su cui intervenire.

**Esempio di notifica: è disponibile una nuova versione del modello per Rekognition Content Moderation.**

Rekognition pubblica `AWS_MODERATION_MODEL_VERSION_UPDATE_NOTIFICATION` l'evento su Health Dashboard per AWS indicare che è stata rilasciata una nuova versione del modello di moderazione. Questo evento è importante se si utilizza l' DetectModerationLabels API e gli adattatori con questa API. I nuovi modelli possono influire sulla qualità a seconda del caso d'uso e alla fine sostituiranno le versioni precedenti del modello. Si consiglia di convalidare la qualità del modello e di tenere presente le tempistiche di aggiornamento del modello quando si riceve questo avviso. 

Se ricevi una notifica di aggiornamento della versione del modello, devi trattarla come un allarme per intervenire. Se non utilizzi adattatori, dovresti valutare la qualità del modello aggiornato in base al tuo caso d'uso esistente. Se si utilizzano adattatori, è necessario addestrare nuovi adattatori con il modello aggiornato e valutarne la qualità. Se disponi di un set di addestramento automatico, i nuovi adattatori verranno addestrati automaticamente e quindi potrai valutarne la qualità.

```
{
   "version": "0",
    "id": "id-number",
    "detail-type": "AWS Health Event",
    "source": "aws.health",
    "account": "123456789012",
    "time": "2023-10-06T06:27:57Z",
    "region": "region",
    "resources": [],
    "detail": {
        "eventArn": "arn:aws:health:us-east-1::event/AWS_MODERATION_MODEL_UPDATE_NOTIFICATION_event-number",
        "service": "Rekognition",
        "eventTypeCode": "AWS_MODERATION_MODEL_VERSION_UPDATE_NOTIFICATION",
        "eventScopeCode": "ACCOUNT_SPECIFIC",
        "communicationId": "communication-id-number",
        "eventTypeCategory": "scheduledChange",
        "startTime": "Fri, 05 Apr 2023 12:00:00 GMT",
        "lastUpdatedTime": "Fri, 05 Apr 2023 12:00:00 GMT",
        "statusCode": "open",
        "eventRegion": "us-east-1",
        "eventDescription": [
            {
                "language": "en_US",
                "latestDescription": "A new model version is available for Rekognition Content Moderation."
            }
        ]
    }
}
```

 Consulta [Monitoraggio degli eventi di AWS Health con Amazon EventBridge](https://docs.aws.amazon.com/health/latest/ug/cloudwatch-events-health.html) per rilevare e reagire agli eventi AWS Health utilizzando EventBridge. 