

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Creazione e utilizzo di adattatori
<a name="creating-and-using-adapters"></a>

Gli adattatori sono componenti modulari che possono essere aggiunti a un modello di deep learning Rekognition esistente, estendendone le funzionalità per le attività su cui è addestrato. Addestrando un modello di deep learning con adattatori, puoi ottenere una maggiore precisione per le attività di analisi delle immagini relative al tuo caso d'uso specifico. 

Per creare e utilizzare un adattatore, è necessario fornire dati di addestramento e test a Rekognition. Puoi farlo in uno di questi due modi:
+ Analisi e verifica in blocco: puoi creare un set di dati di formazione analizzando in blocco le immagini che Rekognition analizzerà e alle quali assegnerà le etichette. È quindi possibile rivedere le annotazioni generate per le immagini e verificare o correggere le previsioni. Per ulteriori informazioni su come funziona l'analisi in blocco delle immagini, consulta [Analisi in blocco](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).
+ Annotazione manuale: con questo approccio puoi creare i tuoi dati di allenamento caricando e annotando le immagini. Puoi creare i tuoi dati di test caricando e annotando le immagini o suddividendoli automaticamente. 

Scegli uno dei seguenti argomenti per avere ulteriori informazioni:

**Topics**
+ [Analisi e verifica di massa](adapters-bulk-analysis.md)
+ [Annotazione manuale](adapters-manual-annotation.md)

# Analisi e verifica di massa
<a name="adapters-bulk-analysis"></a>

Con questo approccio, carichi un gran numero di immagini che desideri utilizzare come dati di allenamento e poi usi Rekognition per ottenere previsioni per queste immagini, che assegna loro automaticamente delle etichette. Puoi utilizzare queste previsioni come punto di partenza per il tuo adattatore. È possibile verificare l'accuratezza delle previsioni e quindi addestrare l'adattatore in base alle previsioni verificate. Questo può essere fatto con la AWS console.



 Il video seguente mostra come utilizzare la funzionalità Bulk Analysis di Rekognition per ottenere e verificare previsioni per un gran numero di immagini e quindi addestrare un adattatore con tali previsioni. 

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY)


## Carica immagini per l'analisi di massa
<a name="adapters-bulk-analysis-upload-images"></a>

Per creare un set di dati di addestramento per il tuo adattatore, carica immagini in blocco per Rekognition per cui prevedere le etichette. Per ottenere i migliori risultati, fornite quante più immagini possibile per l'addestramento, fino al limite di 10000, e assicuratevi che le immagini siano rappresentative di tutti gli aspetti del vostro caso d'uso. 

Quando usi la AWS console puoi caricare immagini direttamente dal tuo computer o fornire un bucket Amazon Simple Storage Service per archiviare le tue immagini. Tuttavia, quando si utilizza APIs Rekognition con un SDK, è necessario fornire un file manifest che faccia riferimento alle immagini archiviate in un bucket Amazon Simple Storage Service. Per ulteriori informazioni, consulta [Analisi in blocco](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).

## Rivedi le previsioni
<a name="adapters-bulk-analysis-review-predictions"></a>

Dopo aver caricato le immagini sulla console Rekognition, Rekognition genererà delle etichette per esse. Puoi quindi verificare le previsioni in una delle seguenti categorie: vero positivo, falso positivo, vero negativo, falso negativo. Dopo aver verificato le previsioni, puoi addestrare un adattatore in base al tuo feedback.

## Addestramento dell'adattatore
<a name="adapters-bulk-analysis-train-adapter"></a>

Una volta terminata la verifica delle previsioni restituite dall'analisi di massa, puoi avviare il processo di formazione dell'adattatore. 

## Ottieni il AdapterId
<a name="adapters-bulk-analysis-get-adapter"></a>

Una volta che l'adattatore è stato addestrato, puoi ottenere l'ID univoco da utilizzare con l'analisi delle immagini di Rekognition. APIs

## Richiama l’operazione API
<a name="adapters-bulk-analysis-call-operation"></a>

Per applicare il tuo adattatore personalizzato, fornisci il suo ID quando chiami uno dei centri di analisi delle immagini APIs che supporta gli adattatori. Ciò migliora l'accuratezza delle previsioni per le tue immagini.

# Annotazione manuale
<a name="adapters-manual-annotation"></a>

Con questo approccio puoi creare i tuoi dati di allenamento caricando e annotando le immagini manualmente. Puoi creare i tuoi dati di test caricando e annotando le immagini di test o suddividendoli automaticamente per fare in modo che Rekognition utilizzi automaticamente una parte dei tuoi dati di allenamento come immagini di test.

## Caricamento e annotazione di immagini
<a name="adapters-upload-sample-images"></a>

Per addestrare l'adattatore, dovrai caricare una serie di immagini di esempio rappresentative del tuo caso d'uso. Per ottenere i migliori risultati, fornite quante più immagini possibile per l'addestramento, fino al limite di 10000, e assicuratevi che le immagini siano rappresentative di tutti gli aspetti del vostro caso d'uso. 

![\[Interfaccia che mostra le opzioni per importare immagini di allenamento, con opzioni per importare un file manifest, importare da un bucket S3 o caricare immagini dal computer. Include un campo URI S3 e una nota sulla garanzia delle autorizzazioni. read/write\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/adapters-11-traiing-dataset.png)


Quando usi la AWS console puoi caricare immagini direttamente dal tuo computer, fornire un file manifest o fornire un bucket Amazon S3 per archiviare le tue immagini.

 Tuttavia, quando si utilizza APIs Rekognition con un SDK, è necessario fornire un file manifest che faccia riferimento alle immagini archiviate in un bucket Amazon S3. 

Puoi utilizzare l'interfaccia di annotazione della [console Rekognition](https://console.aws.amazon.com/rekognition) per annotare le tue immagini. Annota le tue immagini etichettandole con etichette, questo stabilisce una «verità di base» per l'addestramento. È inoltre necessario designare set di formazione e test o utilizzare la funzione di suddivisione automatica, prima di poter addestrare un adattatore. Al termine della designazione dei set di dati e dell'annotazione delle immagini, è possibile creare un adattatore basato sulle immagini annotate del set di test. È quindi possibile valutare le prestazioni dell'adattatore. 

## Crea un test di prova
<a name="adapters-training-testing"></a>

Dovrai fornire un set di test annotato o utilizzare la funzione di divisione automatica. Il set di addestramento viene utilizzato per addestrare effettivamente l'adattatore. L'adattatore apprende gli schemi contenuti in queste immagini annotate. Il set di test viene utilizzato per valutare le prestazioni del modello prima di finalizzare l'adattatore. 

## Addestramento dell'adattatore
<a name="adapters-train-adapter"></a>

 Dopo aver completato l'annotazione dei dati di addestramento o aver fornito un file manifesto, è possibile avviare il processo di addestramento dell'adattatore. 

## Ottieni l'ID adattatore
<a name="adapter-get-adapter"></a>

Una volta che l'adattatore è stato addestrato, puoi ottenere l'ID univoco da utilizzare con l'analisi delle immagini di Rekognition. APIs

## Richiama l’operazione API
<a name="adapter-call-operation"></a>

Per applicare il tuo adattatore personalizzato, fornisci il suo ID quando chiami uno dei centri di analisi delle immagini APIs che supporta gli adattatori. Ciò migliora l'accuratezza delle previsioni per le tue immagini. 