

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Come funziona Amazon Rekognition
<a name="how-it-works"></a>

Amazon Rekognition fornisce due set di API per l'analisi visiva:
+  Amazon Rekognition Image per l'analisi delle immagini 
+  Amazon Rekognition Video per l'analisi video 

**Analisi delle immagini**

Con Amazon Rekognition Image le tue applicazioni possono:
+ Rileva oggetti, scene e concetti nelle immagini
+ Riconosci le celebrità
+ Rileva il testo in diverse lingue
+ Rileva contenuti o immagini espliciti, inappropriati o violenti
+ Rileva, analizza e confronta volti e caratteristiche facciali come età ed emozioni
+ Rileva la presenza di DPI

I casi d'uso includono il miglioramento delle app fotografiche, la catalogazione di immagini e la moderazione dei contenuti.

**Analisi video**

Con Amazon Rekognition Video, le tue applicazioni possono:
+ Tieni traccia di persone e oggetti attraverso i frame video
+ Riconosci gli oggetti
+ Riconosci le celebrità
+ Cerca video archiviati e in streaming per persone di interesse
+ Analizza i volti per caratteristiche come età ed emozioni
+ Rileva contenuti o immagini espliciti, inappropriati o violenti
+ Aggrega e ordina i risultati dell'analisi per timestamp e segmenti
+ Rileva persone, animali domestici e pacchi nei video in streaming

I casi d'uso includono l'analisi video, la catalogazione di video e il filtraggio di contenuti inappropriati.

**Caratteristiche principali**
+ Potente analisi del deep learning
+ Rilevamento ad alta precisione di oggetti, scene, volti, testo
+ API facile da usare per l'integrazione nelle app
+ Modelli personalizzabili adattati ai tuoi dati
+ Analisi scalabile delle librerie multimediali



Amazon Rekognition ti consente di migliorare la precisione di determinati modelli di deep learning addestrando un adattatore personalizzato. Ad esempio, con Amazon Rekognition Custom Moderation, puoi adattare il modello di analisi delle immagini di base di Amazon Rekognition addestrando un adattatore personalizzato con le tue immagini. Per ulteriori informazioni, consulta [Migliorare la precisione con la moderazione personalizzata](https://docs.aws.amazon.com/rekognition/latest/dg/moderation-custom-moderation.html).

Le seguenti sezioni illustrano i tipi di analisi forniti da Amazon Rekognition e una panoramica delle operazioni di Amazon Rekognition Image e Amazon Rekognition Video. Viene inoltre trattata la differenza tra le operazioni basate su storage e non basate su storage.

Per una demo di APIs Amazon Rekognition, [consulta la Fase 3: Guida introduttiva all'uso dell'interfaccia a riga di comando di AWS e dell'API SDK AWS](https://docs.aws.amazon.com/rekognition/latest/dg/get-started-exercise.html), che illustra come provare Rekognition nella console. AWS 

**Topics**
+ [Comprendere i tipi di analisi di Rekognition](how-it-works-types.md)
+ [Comprendere le operazioni relative alle immagini e ai video di Rekognition](how-it-works-operations-intro.md)
+ [Comprensione delle operazioni delle API diverse dallo storage e dallo storage](how-it-works-storage-non-storage.md)
+ [Comprendere il controllo delle versioni dei modelli](face-detection-model.md)

# Comprendere i tipi di analisi di Rekognition
<a name="how-it-works-types"></a>

Di seguito sono riportati i tipi di analisi che possono eseguire l'API Immagini Amazon Rekognition e l'API Video Amazon Rekognition. Per informazioni su APIs, vedere[Comprendere le operazioni relative alle immagini e ai video di Rekognition](how-it-works-operations-intro.md).

La tabella seguente elenca le operazioni da utilizzare in base al tipo di supporto con cui stai lavorando e al tuo caso d'uso:


****  

| Caso d'uso | Tipo di media | Operazioni | 
| --- | --- | --- | 
|  [Moderazione dei contenuti](moderation.md)  | Immagini |  [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html), [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html), [GetMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetMediaAnalysisJob.html), [ListMediaAnalysisJobs](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListMediaAnalysisJobs.html)  | 
|  | Video archiviato  |  [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html), [GetContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetContentModeration.html)   | 
| Verifica dell'identità | [Immagini](collections.md) | [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html), [CreateUser](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateUser.html), [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html), [AssociateFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_AssociateFaces.html), [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html), [SearchUsersByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchUsersByImage.html) | 
|  | [Video archiviato](procedure-person-search-videos.md) | [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html), [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html), [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html), [GetFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceSearch.html) | 
|  | Video in streaming ([Rilevamento del riconoscimento facciale](face-liveness.md)) |  [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html), [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceLivenessSession.html), [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html),  | 
| [Analisi facciale](faces.md) | Immagini | [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html), [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html) | 
|  | Video archiviato  | [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html), [GetFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceDetection.html) | 
|  | Video in streaming  | [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html), [StartStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartStreamProcessor.html) | 
| [Riconoscimento di oggetti e attività](labels.md) | Immagini | [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html) | 
|  | Video archiviato  | [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartLabelDetection.html), [GetLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetLabelDetection.html) | 
| [Casa connessa](https://github.com/aws-samples/rekognition-streaming-video-events) | Video in streaming  | [StartStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartStreamProcessor.html) | 
| [Analisi dei media](segments.md) | Video archiviato  | [StartSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartSegmentDetection.html), [GetSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetSegmentDetection.html) | 
| [Sicurezza sul posto di lavoro](ppe-detection.md) | Immagini | [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html) | 
| [Rilevamento del testo](text-detection.md) | Immagini | [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html) | 
|  | Video | [StartTextDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartTextDetection.html), [GetTextDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetTextDetection.html) | 
| [Rilevamento dei movimenti delle persone](persons.md) | Video | [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html), [GetPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetPersonTracking.html) | 
| [Riconoscimento di volti celebri](celebrities.md) | Immagini | [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html) | 
|  | Video | [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html), [GetCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetCelebrityRecognition.html) | 
| [Rilevamento di etichette personalizzate](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html) | Immagini | [DetectCustomLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectCustomLabels.html) | 
|  | Training del modello | [Consulta la guida per sviluppatori di Custom Labels](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html) | 

## Etichette
<a name="how-it-works-labels-intro"></a>

Un'*etichetta* si riferisce a uno dei seguenti elementi: oggetti (ad esempio fiori, alberi o tavolo), eventi (ad esempio un matrimonio, una laurea o una festa di compleanno), concetti (ad esempio un paesaggio, una sera e la natura) o attività (ad esempio correre o giocare a basket). Amazon Rekognition è in grado rilevare volti in immagini e video. Per ulteriori informazioni, consulta [Rilevamento di oggetti e concetti](labels.md).

Rekognition è in grado di rilevare un ampio elenco di etichette nelle immagini e nei video archiviati. Rekognition è anche in grado di rilevare un numero limitato di etichette nei video in streaming.

Utilizza le seguenti operazioni per rilevare le etichette in base al proprio caso d'uso:
+ Per rilevare le etichette nelle immagini: Usa [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html). È possibile identificare le proprietà dell'immagine come i colori dominanti e la qualità dell'immagine. Per ottenere ciò, usa [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html)with `IMAGE_PROPERTIES` come parametro di input.
+ Per rilevare le etichette nei video archiviati: Usa [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartLabelDetection.html). Il rilevamento dei colori e della qualità dell'immagine dominanti non è supportato per i video archiviati.
+ Per rilevare le etichette nei video in streaming: Usa [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html). Il rilevamento dei colori e della qualità dell'immagine dominanti non è supportato per i video in streaming.

È possibile specificare i tipi di etichette che si desidera vengano restituiti per il rilevamento delle etichette di immagini e video archiviati utilizzando opzioni di filtro complete ed esclusive.

## Custom Labels
<a name="how-it-works-custom-labels-intro"></a>

Etichette personalizzate Amazon Rekognition può identificare gli oggetti e le scene nelle immagini secondo le tue necessità aziendali addestrando un modello di machine learning. Ad esempio, puoi addestrare un modello per rilevare loghi o parti di macchine su una linea di assemblaggio.

**Nota**  
Per informazioni su Etichette personalizzate Amazon Rekognition, consulta la [Guida per gli sviluppatori di Etichette personalizzate Amazon Rekognition](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html).

Amazon Rekognition fornisce una console che puoi utilizzare per creare, addestrare, valutare ed eseguire un modello di machine learning. Per ulteriori informazioni, consulta la pagina relativa alle [nozioni di base su Etichette personalizzate Amazon Rekognition](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/gs-introduction.html) nella *Guida per gli sviluppatori di Etichette personalizzate Amazon Rekognition*. Inoltre puoi utilizzare l'API Etichette personalizzate Amazon Rekognition per addestrare ed eseguire un modello. *Per ulteriori informazioni, consulta la sezione [Guida introduttiva all'SDK Amazon Rekognition Custom Labels nella Amazon Rekognition Developer](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/gs-cli.html) Guide. CustomLabels *

Per analizzare le immagini utilizzando un modello addestrato, usa. [DetectCustomLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectCustomLabels.html)

## Rilevamento Face Liveness
<a name="face-liveness-detection"></a>

Amazon Rekognition Face Liveness può aiutarti a verificare che un utente sottoposto a verifica dell'identità basata sul volto sia fisicamente presente davanti alla telecamera e non sia un malintenzionato che falsifica il volto dell’utente. Rileva lo spoofing rivolto a una telecamera o attacchi che bypassano una telecamera. Un utente può completare un controllo di Face Liveness scattando un breve video selfie e a tale scopo viene restituito un punteggio Liveness. Il riconoscimento facciale viene determinato con un calcolo probabilistico e a seguito del controllo viene fornito un punteggio di confidenza (compreso tra 0 e 100). Più alto è il punteggio, maggiore è la fiducia che la persona che effettua il controllo sia effettivamente presente sul posto. 

Per ulteriori informazioni su Face Liveness, consulta[Rilevamento del riconoscimento facciale](face-liveness.md).

## Rilevamento e analisi facciali
<a name="how-it-works-faces-intro"></a>

Amazon Rekognition è in grado rilevare volti in immagini e video. Con Amazon Rekognition, puoi ottenere informazioni su:
+ Dove vengono rilevati i volti in un'immagine o in un video
+ Punti di riferimento facciali, ad esempio la posizione degli occhi
+ La presenza di occlusione facciale nelle immagini
+ Emozioni rilevate, come felicità o tristezza
+ Direzione dello sguardo di una persona nelle immagini

Puoi anche interpretare informazioni demografiche come sesso o età. È possibile confrontare un volto in un'immagine con i volti rilevati in un'altra immagine. Le informazioni sui volti possono anche essere memorizzate per il successivo recupero. Per ulteriori informazioni, consulta [Rilevamento e analisi facciale](faces.md).

Per rilevare i volti nelle immagini, utilizzare [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html). Per rilevare i volti nei video archiviati, utilizzare [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html).

## Ricerca di volti
<a name="how-it-works-search-faces-intro"></a>

Amazon Rekognition può cercare volti. Le informazioni facciali sono indicizzate in un container noto come raccolta. Le informazioni sui volti contenute nella raccolta possono quindi essere abbinate ai volti rilevati nelle immagini, nei video memorizzati e nello streaming video. Per ulteriori informazioni, consultare [Ricerca di volti in una raccolta](collections.md).

Per cercare volti conosciuti nelle immagini, utilizzare [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html). Per cercare volti conosciuti nei video archiviati, utilizzare [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html). Per cercare volti conosciuti nei video in streaming, utilizzare [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html).

## Percorsi delle persone
<a name="how-it-works-persons-intro"></a>

Video Amazon Rekognition può tracciare i movimenti delle persone in un video archiviato. Video Amazon Rekognition fornisce tracciamento, dettagli facciali e informazioni sulla posizione in-frame per le persone rilevate in un video. Per ulteriori informazioni, consulta [Rilevamento dei movimenti delle persone](persons.md). 

Per rilevare le persone nei video archiviati, utilizzare [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html).

## Dispositivi di protezione individuale
<a name="how-it-works-ppe-intro"></a>

 Amazon Rekognition è in grado di rilevare i dispositivi di protezione individuale (DPI) indossati dalle persone rilevati in un'immagine. Amazon Rekognition rileva protezioni per volto, mani e testa. Amazon Rekognition prevede se un dispositivo di DPI copre la parte del corpo appropriata. Puoi anche ottenere riquadri di delimitazione per le persone rilevate e gli articoli DPI. Per ulteriori informazioni, consulta [Rilevamento dei dispositivi di protezione individuale](ppe-detection.md). 

Per rilevare i PPE nelle immagini, utilizzare [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html).

## Volti celebri
<a name="how-it-works-celebrities-intro"></a>

 Amazon Rekognition può identificare migliaia di celebrità nelle immagini e nei video archiviati. È possibile ottenere informazioni su dove si trova il volto di una celebrità su un'immagine, sui punti di riferimento facciali e sulla posa del volto. È possibile ottenere informazioni di monitoraggio sulle celebrità quando appaiono in un video archiviato. Puoi anche ottenere ulteriori informazioni su una celebrità riconosciuta, come l'emozione espressa e la presentazione del genere. Per ulteriori informazioni, consulta [Riconoscimento delle celebrità](celebrities.md). 

Per riconoscere volti celebri in un'immagine, utilizzare [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html). Per riconoscere volti celebri in un video archiviato, utilizzare [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html).

## Rilevamento del testo
<a name="how-it-works-text-intro"></a>

Amazon Rekognition Text in Image è in grado di rilevare il testo nelle immagini e convertirlo in un formato leggibile dal computer. Per ulteriori informazioni, consulta [Rilevamento del testo](text-detection.md).

Per rilevare il testo nelle immagini, utilizzare [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html).

## Contenuti inappropriati o offensivi
<a name="how-it-works-moderation-intro"></a>

Amazon Rekognition è in grado di analizzare immagini e video archiviati per contenuti per adulti e violenti. Per ulteriori informazioni, consulta [Moderazione dei contenuti](moderation.md).

Per rilevare immagini sconsigliate, utilizzare [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html). Per rilevare i contenuti sconsigliati nei video archiviati, utilizzare [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html).

## Personalizzazione
<a name="how-it-works-customization"></a>

Alcune analisi delle immagini APIs offerte da Rekognition consentono di migliorare l'accuratezza dei modelli di deep learning creando adattatori personalizzati addestrati sui propri dati. Gli adattatori sono componenti che si collegano al modello di deep learning pre-addestrato di Rekognition, che ne migliorano la precisione grazie alla conoscenza del dominio basata sulle immagini. Addestra un adattatore per soddisfare le tue esigenze fornendo e annotando immagini di esempio. 

Dopo aver creato un adattatore, ti viene fornito un. AdapterId Puoi fornirlo AdapterId a un'operazione per specificare che desideri utilizzare l'adattatore che hai creato. Ad esempio, fornisci l'[DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)API AdapterId per l'analisi sincrona delle immagini. Forniscili AdapterId come parte della richiesta e Rekognition li utilizzerà automaticamente per migliorare le previsioni per le tue immagini. Ciò consente di sfruttare le funzionalità di Rekognition personalizzandola in base alle proprie esigenze. 

Hai anche la possibilità di ottenere previsioni per le immagini in blocco con l'API. [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html) Per ulteriori informazioni, consulta [Analisi in blocco](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).

Puoi valutare l'accuratezza delle operazioni di Rekognition caricando immagini sulla console Rekognition ed eseguendo analisi su queste immagini. Rekognition annoterà le tue immagini utilizzando la funzionalità selezionata e potrai quindi rivedere le previsioni, utilizzando le previsioni verificate per determinare quali etichette trarrebbero vantaggio dalla creazione di un adattatore.

Attualmente è possibile utilizzare adattatori con. [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) Per ulteriori informazioni sull'utilizzo dell'adattatore, consulta [Migliorare la precisione con la moderazione personalizzata](moderation-custom-moderation.md).

## Analisi in blocco
<a name="how-it-works-bulk"></a>

Rekognition Bulk Analysis consente di elaborare un'ampia raccolta di immagini in modo asincrono utilizzando un file manifest insieme all'operazione. [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html) Per ulteriori informazioni, consulta [Analisi in blocco](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).

# Comprendere le operazioni relative alle immagini e ai video di Rekognition
<a name="how-it-works-operations-intro"></a>

Amazon Rekognition offre due set di API principali per l'analisi di immagini e video:
+ Amazon Rekognition Image: questa API è progettata per l'analisi delle immagini.
+ Amazon Rekognition Video: questa API si concentra sull'analisi dei video archiviati e in streaming.

Entrambe sono APIs in grado di rilevare varie entità come volti e oggetti. Per una comprensione completa dei tipi di confronto e rilevamento supportati, consulta la sezione dedicata[Comprendere i tipi di analisi di Rekognition](how-it-works-types.md).

## Operazioni di Immagini Amazon Rekognition
<a name="how-it-works-operations-images"></a>

Le operazioni di Amazon Rekognition Image sono sincrone. L'input e la risposta sono in formato JSON. Le operazioni di Immagini Amazon Rekognition analizzano un'immagine di input in formato .jpg o .png. L'immagine trasmessa a un'operazione di Immagini Amazon Rekognition Image può essere archiviata in un bucket Amazon S3. Se non utilizzi l'AWS CLI, puoi anche passare byte di immagini codificate Base64 direttamente a un'operazione Amazon Rekognition. [Per ulteriori informazioni, consulta Lavorare con le immagini.](https://docs.aws.amazon.com/rekognition/latest/dg/images.html)

## Operazioni di Video Amazon Rekognition
<a name="how-it-works-operations-video-intro"></a>

L'API Amazon Rekognition Video facilita l'analisi dei video archiviati in un bucket Amazon S3 o trasmessi in streaming tramite Amazon Kinesis Video Streams.

Per le operazioni relative ai video archiviati, tieni presente quanto segue:
+ Le operazioni sono asincrone.
+ L'analisi deve essere avviata con un'operazione «Start» (ad esempio, [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html)per il rilevamento dei volti nei video memorizzati).
+ Lo stato di completamento dell'analisi viene pubblicato su un argomento di Amazon SNS.
+ Per recuperare i risultati di un'analisi, usa l'operazione «Get» corrispondente (ad esempio, [GetFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceDetection.html)).
+ Per ulteriori informazioni, consultate [Utilizzo dell'analisi video memorizzata](https://docs.aws.amazon.com/rekognition/latest/dg/video.html).

Per l'analisi dei video in streaming:
+ Le funzionalità includono la ricerca facciale nelle raccolte Rekognition Video e il rilevamento di etichette (oggetti o concetti).
+ I risultati dell'analisi per le etichette vengono inviati come notifiche Amazon SNS e Amazon S3.
+ I risultati della ricerca facciale vengono inviati a un flusso di dati Kinesis.
+ La gestione dell'analisi dei video in streaming viene effettuata tramite un processore di streaming Amazon Rekognition Video (ad esempio, creando un processore utilizzando). [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html)
+ Per ulteriori informazioni, consulta [Lavorare con gli eventi video in streaming](https://docs.aws.amazon.com/rekognition/latest/dg/streaming-video.html).

Ogni operazione di analisi video restituisce i metadati relativi al video analizzato, oltre a un ID del lavoro e un tag di lavoro. Operazioni come il rilevamento delle etichette e la moderazione dei contenuti per i video consentono l'ordinamento per timestamp o nome dell'etichetta e l'aggregazione dei risultati per timestamp o per segmento.

## Operazioni basate su storage e non basate su storage
<a name="how-it-works-operations-video-storage"></a>

Le operazioni di Amazon Rekognition sono raggruppate nelle seguenti categorie.
+ **Operazioni API non basate su storage** – In queste operazioni, Amazon Rekognition non mantiene alcuna informazione. Si forniscono immagini e video di input, l'operazione esegue l'analisi e restituisce i risultati, ma nulla viene salvato da Amazon Rekognition. Per ulteriori informazioni, consulta [Operazioni non basate su storage](how-it-works-storage-non-storage.md#how-it-works-non-storage).
+ **Operazioni API basate su storage** – i server Amazon Rekognition possono memorizzare le informazioni sul volto rilevate in container noti come raccolte. Amazon Rekognition fornisce ulteriori operazioni API che è possibile utilizzare per cercare le informazioni sui volti mantenute per le corrispondenze dei volti stessi. Per ulteriori informazioni, consulta [Operazioni API basate su storage](how-it-works-storage-non-storage.md#how-it-works-storage-based).

## Utilizzo dell'AWS SDK o di HTTP per richiamare le operazioni API di Amazon Rekognition
<a name="images-java-http"></a>

È possibile chiamare le operazioni API di Amazon Rekognition utilizzando l'AWS SDK o direttamente tramite HTTP. A meno che non si abbia una buona ragione per non farlo, è consigliato sempre utilizzare l'SDK AWS. Gli esempi di Java in questa sezione utilizzano l'[SDK AWS](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/setup-install.html). Non viene fornito un file di progetto Java, ma è possibile utilizzare [AWS Toolkit for Eclipse](https://docs.aws.amazon.com/AWSToolkitEclipse/latest/GettingStartedGuide/) per sviluppare applicazioni AWS utilizzando Java. 

Negli esempi di .NET riportati in questa sezione viene utilizzato [AWS SDK per .NET](https://docs.aws.amazon.com/sdk-for-net/latest/developer-guide/welcome.html). È possibile utilizzare [AWS Toolkit for Visual Studio](https://docs.aws.amazon.com/AWSToolkitVS/latest/UserGuide/welcome.html) per sviluppare applicazioni AWS tramite .NET. Include modelli utili e AWS Explorer per l'implementazione delle applicazioni e la gestione dei servizi. 

La [documentazione di riferimento API](https://docs.aws.amazon.com/rekognition/latest/APIReference/Welcome.html) di questa guida riguarda la procedura di chiamata delle operazioni di Amazon Rekognition con HTTP. Per le informazioni di riferimento su Java, consulta [AWS SDK per Java](https://docs.aws.amazon.com/sdk-for-java/latest/reference/index.html).

Gli endpoint del servizio Amazon Rekognition che è possibile utilizzare sono documentati su [regioni ed endpoint AWS](https://docs.aws.amazon.com/general/latest/gr/rande.html#rekognition_region). 

Quando si richiama Amazon Rekognition con HTTP, utilizzare le operazioni POST HTTP.

# Comprensione delle operazioni delle API diverse dallo storage e dallo storage
<a name="how-it-works-storage-non-storage"></a>

Amazon Rekognition fornisce due tipi di operazioni API. Si tratte delle operazioni non basate su storage in cui non sono memorizzate informazioni da parte di Amazon Rekognition e delle operazioni basate su storage in cui alcune informazioni sui volti sono memorizzate da Amazon Rekognition. 

## Operazioni non basate su storage
<a name="how-it-works-non-storage"></a>

Amazon Rekognition fornisce le seguenti operazioni API non basate su storage per le immagini:
+ [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html)
+ [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html) 
+ [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html) 
+ [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) 
+ [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html) 
+ [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html) 
+ [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html) 
+ [GetCelebrityInfo](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetCelebrityInfo.html) 

Amazon Rekognition fornisce le seguenti operazioni API non basate su storage per i video:
+ [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartlabelDetection.html) 
+ [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html) 
+ [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html)
+ [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html)
+ [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html)

Queste sono indicate come operazioni API *non basate su storage* perché quando si chiama l'operazione, Amazon Rekognition non mantiene alcuna informazione individuata riguardante l'immagine di input. Come tutte le altre operazioni API di Amazon Rekognition, nessun byte di immagine di input viene mantenuto da operazioni API non basate su storage. 

I seguenti scenari di esempio mostrano dove è possibile integrare le operazioni API non basate su storage nell'applicazione. Questi scenari presuppongono il possesso di un repository locale di immagini.

**Example 1: un'applicazione che trova immagini nel repository locale che contengono etichette specifiche**  
Innanzitutto, è possibile rilevare le etichette (oggetti e concetti) usando l'operazione di Amazon Rekognition `DetectLabels` in ciascuna delle immagini nel repository e costruire un indice lato client, come mostrato di seguito:  

```
Label        ImageID

tree          image-1
flower        image-1
mountain      image-1
tulip         image-2
flower        image-2
apple         image-3
```
Quindi, l'applicazione può cercare all'interno di questo indice per trovare immagini nel repository locale che contengono un'etichetta specifica. Ad esempio, può mostrare le immagini che contengono un albero.  
Ogni etichetta che Amazon Rekognition rileva ha un valore di affidabilità associato. Indica il livello di affidabilità che l'immagine di input contenga quella determinata etichetta. È possibile utilizzare questo valore di affidabilità per eseguire facoltativamente un ulteriore filtraggio lato client sulle etichette, a seconda dei requisiti dell'applicazione in base al livello di affidabilità nel rilevamento. Ad esempio, se si richiedono etichette precise, è possibile filtrare e scegliere solo le etichette con maggiore affidabilità (ad esempio 95% o superiore). Se l'applicazione non richiede un valore di affidabilità superiore, è possibile scegliere di filtrare le etichette con un valore di affidabilità inferiore (vicino al 50%).

**Example 2: un'applicazione per visualizzare immagini del volto migliorate**  
Innanzitutto, è possibile rilevare i volti in ciascuna delle immagini nel repository locale usando l'operazione `DetectFaces` di Amazon Rekognition e costruendo un indice lato client. Per ogni volto, l'operazione restituisce metadata che includono un riquadro di delimitazione, punti di riferimento facciali (ad esempio, la posizione della bocca e dell'orecchio) e attributi facciali (ad esempio, sesso). È possibile archiviare questi metadata in un indice locale lato client, come indicato di seguito:  

```
ImageID     FaceID     FaceMetaData

image-1     face-1     <boundingbox>, etc.
image-1     face-2     <boundingbox>, etc.
image-1     face-3     <boundingbox>, etc.
...
```
In questo indice, la chiave primaria è una combinazione di `ImageID` e `FaceID`.  
Pertanto, è possibile utilizzare le informazioni contenute nell'indice per migliorare le immagini quando l'applicazione le visualizza dal repository locale. Ad esempio, è possibile aggiungere un riquadro di delimitazione attorno al volto o evidenziare le caratteristiche facciali.  
 

## Operazioni API basate su storage
<a name="how-it-works-storage-based"></a>

Amazon Rekognition Image [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html)supporta l'operazione, che puoi utilizzare per rilevare i volti in un'immagine e mantenere le informazioni sui tratti del viso rilevati in una raccolta Amazon Rekognition. Di seguito è riportato un esempio di un'operazione API *basata su storage*, poiché le informazioni vengono mantenute nel server. 

Immagini Amazon Rekognition fornisce le seguenti operazioni API basate su storage:
+ [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html)
+ [ListFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListFaces.html) 
+ [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html) 
+ [SearchFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFaces.html) 
+ [DeleteFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteFaces.html) 
+ [DescribeCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeCollection.html) 
+ [DeleteCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteCollection.html)
+ [ListCollections](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListCollections.html)
+ [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html) 

Video Amazon Rekognition fornisce le seguenti operazioni API basate su storage:
+ [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html) 
+ [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html)

Per archiviare le informazioni sui volti, è necessario creare una raccolta di volti in una delle regioni AWS nell'account. La raccolta di volti viene specificata chiamando l'operazione `IndexFaces`. Dopo aver creato una raccolta di volti e aver archiviato le informazioni sulle caratteristiche facciali per tutti i volti, sarà possibile cercare le corrispondenze di volti al suo interno. Ad esempio, è possibile rilevare il volto più grande di un'immagine e cercare i volti corrispondenti in una raccolta richiamando `searchFacesByImage.`

Le informazioni facciali memorizzate in raccolte da `IndexFaces` sono accessibili alle operazioni di Video Amazon Rekognition. Ad esempio è possibile effettuare una ricerca all'interno di un video delle persone i cui volti corrispondono a quelli in una raccolta esistente richiamando [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html).

Per ulteriori informazioni sulla creazione e la gestione di raccolte, consulta [Ricerca di volti in una raccolta](collections.md).

**Nota**  
Le raccolte memorizzano i vettori dei volti, che sono rappresentazioni matematiche dei volti. Le raccolte non memorizzano immagini di volti.

**Example 1: un'applicazione che autentica l'accesso a un edificio**  
Per iniziare, si crea una raccolta di volti per memorizzare le immagini dei badge scansionate utilizzando l'operazione `IndexFaces`, che estrae i volti e li memorizza come vettori di immagini con possibilità di ricerca. Quindi, quando un dipendente entra nell'edificio, un'immagine del suo volto viene acquisita e inviata all'operazione `SearchFacesByImage`. Se la corrispondenza del volto produce un punteggio di somiglianza sufficientemente alto (pari al 99%), è possibile autenticare il collaboratore.

# Comprendere il controllo delle versioni dei modelli
<a name="face-detection-model"></a>

Amazon Rekognition usa modelli di deep learning per eseguire il rilevamento del volto e per cercare volti nelle raccolte. Continua a migliorare la precisione dei suoi modelli in base al feedback dei clienti e ai progressi nella ricerca sul deep learning. Questi miglioramenti vengono forniti come aggiornamenti del modello. Ad esempio, con la versione 1.0 del modello, [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html) può indicizzare i 15 volti più grandi in un'immagine. Le versioni successive del modello consentono a `IndexFaces` di indicizzare i 100 volti di maggiori dimensioni in un'immagine.

Quando si crea una nuova raccolta, viene associata con la versione più recente del modello. Per migliorare la precisione, il modello viene aggiornato periodicamente.

 Quando viene rilasciata una nuova versione del modello, avviene quanto segue: 
+ Le nuove raccolte create vengono associate all'ultimo modello. I volti che si aggiungono alle nuove raccolte utilizzando [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html) vengono rilevati utilizzando il modello più recente.
+ Le raccolte esistenti continuano a utilizzare la versione del modello con cui sono state create. I vettori facciali memorizzati in queste raccolte non vengono aggiornati automaticamente all'ultima versione del modello.
+ I nuovi volti aggiunti a una raccolta esistente vengono rilevati utilizzando il modello già associato alla raccolta.

Versioni differenti del modello non sono compatibili tra loro. In particolare, se un'immagine viene indicizzata in più raccolte che utilizzano versioni diverse del modello, gli identificatori del volto per gli stessi volti rilevati sono diversi. Se un'immagine viene indicizzata in più raccolte che sono associate allo stesso modello, gli identificatori del volto sono gli stessi. 

L'applicazione potrebbe avere problemi di compatibilità se la gestione della raccolta non tiene conto degli aggiornamenti del modello. È possibile determinare la versione del modello utilizzato da una raccolta utilizzando il campo `FaceModelVersion` che viene restituito dalle risposte di un'operazione di raccolta (ad esempio, `CreateCollection`). È possibile ottenere la versione del modello di una raccolta esistente chiamando [DescribeCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeCollection.html). Per ulteriori informazioni, consulta [Descrizione di una raccolta](describe-collection-procedure.md).

I vettori del volto esistenti in una raccolta non possono essere aggiornati a una versione successiva del modello. Dal momento che Amazon Rekognition non memorizza i byte dell'immagine di origine, non può reindicizzare automaticamente le immagini utilizzando una versione successiva del modello.

Per utilizzare il modello più recente su volti che sono memorizzati in una raccolta esistente, creare una nuova raccolta ([CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html)) e reindicizzare le immagini di origine nella nuova raccolta (`Indexfaces`). È necessario aggiornare qualsiasi identificatore del volto archiviato dall'applicazione in quanto gli identificatori del volto nella nuova raccolta sono diversi dagli identificatori del volto nella vecchia raccolta. Se non si ha più bisogno della vecchia raccolta, è possibile eliminarla utilizzando [DeleteCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteCollection.html). 

Le operazioni stateless, come ad esempio [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html), utilizzano la versione più recente del modello.