

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Fonctionnement d’Amazon Rekognition
<a name="how-it-works"></a>

Amazon Rekognition fournit deux ensembles d'API pour l'analyse visuelle :
+  Amazon Rekognition Image pour l'analyse d'images 
+  Amazon Rekognition Video pour l'analyse vidéo 

**Analyse d'image**

Avec Amazon Rekognition Image, vos applications peuvent :
+ Détectez des objets, des scènes et des concepts dans les images
+ Reconnaître les célébrités
+ Détecter du texte dans différentes langues
+ Détectez le contenu ou les images explicites, inappropriés ou violents
+ Détectez, analysez et comparez les visages et leurs attributs tels que l'âge et les émotions
+ Détecter la présence d'EPI

Les cas d'utilisation incluent l'amélioration des applications photo, le catalogage d'images et la modération du contenu.

**Analyse vidéo**

Avec Amazon Rekognition Video, vos applications peuvent :
+ Suivez des personnes et des objets sur des images vidéo
+ Reconnaître les objets
+ Reconnaître les célébrités
+ Rechercher des vidéos stockées et diffusées en streaming pour les personnes d'intérêt
+ Analysez les visages pour détecter des attributs tels que l'âge et les émotions
+ Détectez le contenu ou les images explicites, inappropriés ou violents
+ Agréger et trier les résultats d'analyse par horodatage et par segment
+ Détectez les personnes, les animaux domestiques et les colis dans les vidéos en streaming

Les cas d'utilisation incluent l'analyse vidéo, le catalogage de vidéos et le filtrage de contenus inappropriés.

**Fonctions principales**
+ Puissante analyse du deep learning
+ Détection de haute précision pour les objets, les scènes, les visages, le texte
+ API facile à utiliser pour l'intégration dans les applications
+ Modèles personnalisables adaptés à vos données
+ Analyse évolutive des médiathèques



Amazon Rekognition vous permet d'améliorer la précision de certains modèles d'apprentissage profond en formant un adaptateur personnalisé. Par exemple, avec Amazon Rekognition Custom Moderation, vous pouvez adapter le modèle d’analyse d’image de base d’Amazon Rekognition en formant un adaptateur personnalisé avec vos images. Voir [Améliorer la précision grâce à la modération personnalisée](https://docs.aws.amazon.com/rekognition/latest/dg/moderation-custom-moderation.html) pour plus d'informations.

Les sections suivantes décrivent les types d'analyses proposés par Amazon Rekognition et présentent un aperçu des opérations Amazon Rekognition Image et Amazon Rekognition Video. La différence entre les opérations hors stockage et de stockage est également expliquée.

Pour faire une démonstration d' APIsAmazon Rekognition, vous [pouvez consulter l'étape 3 : Commencer à utiliser l'AWS CLI et l'API du SDK AWS](https://docs.aws.amazon.com/rekognition/latest/dg/get-started-exercise.html), qui explique comment essayer Rekognition dans la console. AWS 

**Topics**
+ [Comprendre les types d'analyse de Rekognition](how-it-works-types.md)
+ [Comprendre les opérations d'imagerie et de vidéo de Rekognition](how-it-works-operations-intro.md)
+ [Comprendre les opérations non liées au stockage et aux API de stockage](how-it-works-storage-non-storage.md)
+ [Comprendre le versionnement des modèles](face-detection-model.md)

# Comprendre les types d'analyse de Rekognition
<a name="how-it-works-types"></a>

Les types d’analyse que l’API Image Amazon Rekognition et l’API Vidéo Amazon Rekognition peuvent effectuer sont les suivants. Pour plus d'informations sur le APIs, voir[Comprendre les opérations d'imagerie et de vidéo de Rekognition](how-it-works-operations-intro.md).

Le tableau suivant répertorie les opérations que vous devez utiliser en fonction du type de média avec lequel vous travaillez et de votre cas d’utilisation :


****  

| Cas d’utilisation | Type de support | Opérations | 
| --- | --- | --- | 
|  [Modération du contenu](moderation.md)  | Images |  [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html), [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html), [GetMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetMediaAnalysisJob.html), [ListMediaAnalysisJobs](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListMediaAnalysisJobs.html)  | 
|  | Vidéo stockée |  [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html), [GetContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetContentModeration.html)   | 
| Vérification d’identité | [Images](collections.md) | [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html), [CreateUser](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateUser.html), [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html), [AssociateFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_AssociateFaces.html), [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html), [SearchUsersByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchUsersByImage.html) | 
|  | [Vidéo stockée](procedure-person-search-videos.md) | [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html), [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html), [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html), [GetFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceSearch.html) | 
|  | Vidéo en streaming ([Détection de la vivacité faciale](face-liveness.md)) |  [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html), [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceLivenessSession.html), [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html),  | 
| [Analyse faciale](faces.md) | Images | [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html), [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html) | 
|  | Vidéo stockée | [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html), [GetFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceDetection.html) | 
|  | Vidéo en streaming | [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html), [StartStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartStreamProcessor.html) | 
| [Reconnaissance d’objets et d’activités](labels.md) | Images | [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html) | 
|  | Vidéos stockées | [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartLabelDetection.html), [GetLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetLabelDetection.html) | 
| [Maison connectée](https://github.com/aws-samples/rekognition-streaming-video-events) | Vidéo en streaming | [StartStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartStreamProcessor.html) | 
| [Analyse des médias](segments.md) | Vidéo stockée | [StartSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartSegmentDetection.html), [GetSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetSegmentDetection.html) | 
| [Sécurité au travail](ppe-detection.md) | Images | [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html) | 
| [Détection de texte](text-detection.md) | Images | [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html) | 
|  | Vidéo | [StartTextDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartTextDetection.html), [GetTextDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetTextDetection.html) | 
| [Tracé du chemin de personnes](persons.md) | Vidéo | [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html), [GetPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetPersonTracking.html) | 
| [Reconnaissance de célébrités](celebrities.md) | Images | [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html) | 
|  | Vidéo | [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html), [GetCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetCelebrityRecognition.html) | 
| [Détection d’étiquettes personnalisées](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html) | Images | [DetectCustomLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectCustomLabels.html) | 
|  | Entraînement d’un modèle | [Voir le guide du développeur de Custom Labels](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html) | 

## Étiquettes
<a name="how-it-works-labels-intro"></a>

Sont considérés comme *étiquettes* les éléments suivants : les objets (ex. : une fleur, un arbre, une table), les événements (ex : un mariage, une cérémonie de remise de diplômes, un anniversaire), les concepts (ex. : un paysage, une soirée, la nature) ou les activités (ex. : courir ou jouer au basket). Amazon Rekognition peut détecter les étiquettes dans les images et les vidéos. Pour de plus amples informations, veuillez consulter [Détection d’objets et de concepts](labels.md).

Rekognition peut détecter une longue liste d’étiquettes dans les images et les vidéos enregistrées. Rekognition peut également détecter un petit nombre d’étiquettes dans les vidéos en streaming.

Utilisez les opérations suivantes pour détecter les étiquettes en fonction des cas d’utilisation :
+ Pour détecter les étiquettes dans les images : utilisez [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html). Vous pouvez identifier les propriétés de l’image, telles que les couleurs dominantes et la qualité de l’image. Pour ce faire, utilisez [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html)with `IMAGE_PROPERTIES` comme paramètre d'entrée.
+ Pour détecter les libellés dans les vidéos enregistrées : utilisez [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartLabelDetection.html). La détection des couleurs et de la qualité d’image dominantes n’est pas prise en charge pour les vidéos stockées.
+ Pour détecter les libellés dans une vidéo en streaming : utilisez [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html). La détection des couleurs et de la qualité d’image dominantes n’est pas prise en charge pour le streaming vidéo.

Vous pouvez spécifier les types d’étiquettes que vous souhaitez renvoyer pour la détection d’étiquettes d’images et de vidéos stockées en utilisant des options de filtrage inclusives et exclusives.

## Étiquettes personnalisées
<a name="how-it-works-custom-labels-intro"></a>

Étiquettes personnalisées Amazon Rekognition peuvent identifier les objets et les scènes dans des images spécifiques aux besoins de votre entreprise en formant un modèle de machine learning. Par exemple, vous pouvez former un modèle de sorte qu’il détecte des logos ou des pièces de machines d’ingénierie sur une ligne d’assemblage.

**Note**  
Pour des informations sur les Étiquettes personnalisées Amazon Rekognition, veuillez consulter le [manuel du développeur Étiquettes personnalisées Amazon Rekognition](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html).

Amazon Rekognition fournit une console que vous utilisez pour créer, former, évaluer et exécuter un modèle de machine learning. Pour de plus amples informations, veuillez consulter [Mise en route sur Étiquettes personnalisées Amazon Rekognition](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/gs-introduction.html) dans le manuel *Guide du développeur Étiquettes personnalisées Amazon Rekognition*. Vous pouvez également utiliser l’API Étiquettes personnalisées Amazon Rekognition pour former et exécuter un modèle. *Pour plus d'informations, consultez [Getting Started with the Amazon Rekognition Custom Labels SDK dans le manuel du développeur Amazon Rekognition](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/gs-cli.html). CustomLabels *

Pour analyser des images à l'aide d'un modèle entraîné, utilisez [DetectCustomLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectCustomLabels.html).

## Détection de la vivacité faciale
<a name="face-liveness-detection"></a>

Amazon Rekognition Face Liveness peut vous aider à vérifier qu’un utilisateur soumis à une vérification d’identité basée sur le visage est physiquement présent devant la caméra et qu’il ne s’agit pas d’un mauvais acteur qui usurpe le visage de l’utilisateur. Il détecte également les attaques frauduleuses présentées à une caméra ou qui tentent de contourner une caméra. Un utilisateur peut effectuer un test de vivacité faciale en prenant un court selfie vidéo, et un score de vivacité est renvoyé pour le contrôle. La vivacité faciale d’un visage est déterminée à l’aide d’un calcul probabiliste, et un score de confiance (compris entre 0 et 100) est renvoyé après le contrôle. Plus le score est élevé, plus on est sûr que la personne qui reçoit le chèque est en direct. 

Pour plus d’informations sur la vivacité faciale, consultez[Détection de la vivacité faciale](face-liveness.md).

## Détection et analyse faciales
<a name="how-it-works-faces-intro"></a>

Amazon Rekognition peut détecter les visages dans les images et les vidéos. Avec Amazon Rekognition, vous pouvez obtenir des informations sur :
+ Où des visages sont détectés dans une image ou une vidéo
+ Des repères faciaux tels que la position des yeux
+ La présence d’une occlusion faciale dans les images
+ Émotions détectées, telles que le bonheur ou la tristesse
+ Orientation du regard d’une personne dans les images

Vous pouvez également interpréter des informations démographiques telles que le sexe ou l’âge. Vous pouvez comparer un visage sur une image à des visages détectés sur une autre image. Les informations sur les visages peuvent également être stockées pour une récupération ultérieure. Pour de plus amples informations, veuillez consulter [Détection et analyse des visages](faces.md).

Pour détecter des visages dans des images, utilisez [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html). Pour détecter des visages dans des vidéos stockées, utilisez [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html).

## Recherche faciale
<a name="how-it-works-search-faces-intro"></a>

Amazon Rekognition peut rechercher des visages. Les informations sur les visages sont indexées dans un conteneur appelé « collection ». Les informations sur les visages de la collection peuvent ensuite être comparées aux visages détectés dans les images, les vidéos stockées et les vidéos en streaming. Pour plus d’informations, veuillez consulter [Recherche de visages dans une collection](collections.md).

Pour rechercher des visages connus dans des images, utilisez [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html). Pour rechercher des visages connus dans des vidéos stockées, utilisez [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html). Pour rechercher des visages connus dans des vidéos en streaming, utilisez [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html).

## Chemins de personnes
<a name="how-it-works-persons-intro"></a>

Amazon Rekognition peut retracer les chemins des personnes détectées dans une vidéo stockée. Vidéo Amazon Rekognition fournit un suivi du chemin, des informations sur les visages et la localisation de trames pour les personnes détectées dans une vidéo. Pour de plus amples informations, veuillez consulter [Tracé du parcours de personnes](persons.md). 

Pour détecter des personnes dans des vidéos stockées, utilisez [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html).

## Equipement de protection individuelle
<a name="how-it-works-ppe-intro"></a>

 Amazon Rekognition peut détecter les équipements de protection individuelle (EPI) portés par les personnes détectées sur une image. Amazon Rekognition détecte les couvre-mains, les couvre-visages et les couvre-chefs. Amazon Rekognition prédit si un article d’EPI couvre la partie du corps appropriée. Vous pouvez également vous procurer des cadres de délimitations pour les personnes détectées et des éléments de protection individuelle. Pour de plus amples informations, veuillez consulter [Détection des équipements de protection individuelle](ppe-detection.md). 

Pour détecter les équipements de protection individuelle sur les images, utilisez [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html).

## Célébrités
<a name="how-it-works-celebrities-intro"></a>

 Amazon Rekognition peut reconnaître des milliers de célébrités dans des images et des vidéos stockées. Vous pouvez obtenir des informations sur la place du visage d’une célébrité sur une image, sur des repères faciaux et sur l’expression du visage d’une célébrité. Vous pouvez obtenir des informations de suivi sur des célébrités, à mesure qu’elles apparaissent dans une vidéo stockée. Vous pouvez également obtenir de plus amples informations sur une célébrité reconnue, comme l’émotion exprimée et la présentation du genre. Pour de plus amples informations, veuillez consulter [Reconnaissance de célébrités](celebrities.md). 

Pour reconnaître des célébrités sur des images, utilisez [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html). Pour reconnaître des célébrités dans des vidéos stockées, utilisez [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html).

## Détection de texte
<a name="how-it-works-text-intro"></a>

La fonction Amazon Rekognition Texte dans les images peut détecter du texte dans des images et le convertir en texte lisible par une machine. Pour de plus amples informations, veuillez consulter [Détection de texte](text-detection.md).

Pour détecter du texte dans des images, utilisez [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html).

## Contenus inappropriés ou offensants
<a name="how-it-works-moderation-intro"></a>

Amazon Rekognition peut analyser des images et des vidéos stockées à la recherche de contenus pour adultes et violents. Pour de plus amples informations, veuillez consulter [Modération du contenu](moderation.md).

Pour détecter des images inappropriées, utilisez [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html). Pour détecter des vidéos stockées inappropriées, utilisez [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html).

## Personnalisation
<a name="how-it-works-customization"></a>

Certaines analyses d'images APIs proposées par Rekognition vous permettent d'améliorer la précision des modèles d'apprentissage profond en créant des adaptateurs personnalisés entraînés sur vos propres données. Les adaptateurs sont des composants qui s’intègrent au modèle deep learning préentraîné de Rekognition, améliorant ainsi sa précision grâce à une connaissance du domaine basée sur vos images. Vous formez un adaptateur pour répondre à vos besoins en fournissant et en annotant des exemples d’images. 

Une fois que vous avez créé un adaptateur, vous recevez un AdapterId. Vous pouvez le fournir AdapterId à une opération pour spécifier que vous souhaitez utiliser l'adaptateur que vous avez créé. Par exemple, vous fournissez le AdapterId à l'[DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)API pour l'analyse synchrone des images. AdapterId En les fournissant dans le cadre de la demande, Rekognition les utilisera automatiquement pour améliorer les prédictions relatives à vos images. Cela vous permet de tirer parti des fonctionnalités de Rekognition tout en les personnalisant en fonction de vos besoins. 

Vous avez également la possibilité d'obtenir des prédictions pour des images en masse avec l'[StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html)API. Pour plus d'informations, consultez [Analyse en bloc](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).

Vous pouvez évaluer la précision des opérations de Rekognition en téléchargeant des images sur la console Rekognition et en exécutant une analyse sur ces images. Rekognition annote vos images à l’aide de la fonction sélectionnée, et vous pouvez ensuite revoir les prédictions, en utilisant les prédictions vérifiées pour déterminer quelles étiquettes bénéficieraient de la création d’un adaptateur.

À l'heure actuelle, vous pouvez utiliser des adaptateurs avec le [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html). Pour plus d’informations sur la création et l’utilisation d’adaptateurs, consultez [Amélioration de la précision grâce à la modération personnalisée](moderation-custom-moderation.md).

## Analyse en bloc
<a name="how-it-works-bulk"></a>

Rekognition Bulk Analysis vous permet de traiter une grande collection d'images de manière asynchrone en utilisant un fichier manifeste en même temps que l'opération. [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html) Pour plus d'informations, consultez [Analyse en bloc](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).

# Comprendre les opérations d'imagerie et de vidéo de Rekognition
<a name="how-it-works-operations-intro"></a>

Amazon Rekognition propose deux ensembles d'API principaux pour l'analyse d'images et de vidéos :
+ Amazon Rekognition Image : cette API est conçue pour analyser des images.
+ Amazon Rekognition Video : cette API se concentre sur l'analyse des vidéos stockées et en streaming.

Les deux APIs peuvent détecter diverses entités telles que des visages et des objets. Pour une compréhension complète des types de comparaison et de détection pris en charge, reportez-vous à la section sur[Comprendre les types d'analyse de Rekognition](how-it-works-types.md).

## Fonctionnement d’Image Amazon Rekognition
<a name="how-it-works-operations-images"></a>

Les opérations Amazon Rekognition Image sont synchrones. L’entrée et la réponse sont au format JSON. Les opérations Image Amazon Rekognition analysent une image d’entrée au format .jpg ou .png. L’image transmise à une opération Image Amazon Rekognition peut être stockée dans un compartiment Amazon S3. Si vous n'utilisez pas l'AWS CLI, vous pouvez également transmettre des octets d'images codés en Base64 directement à une opération Amazon Rekognition. Pour plus d'informations, consultez la section [Utilisation des images](https://docs.aws.amazon.com/rekognition/latest/dg/images.html).

## Opérations de Vidéo Amazon Rekognition
<a name="how-it-works-operations-video-intro"></a>

L'API Amazon Rekognition Video facilite l'analyse des vidéos stockées dans un compartiment Amazon S3 ou diffusées via Amazon Kinesis Video Streams.

Pour les opérations vidéo enregistrées, notez ce qui suit :
+ Les opérations sont asynchrones.
+ L'analyse doit être lancée par une opération « Démarrer » (par exemple, [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html)pour la détection de visages dans des vidéos enregistrées).
+ L'état d'achèvement de l'analyse est publié dans une rubrique Amazon SNS.
+ Pour récupérer les résultats d'une analyse, utilisez l'opération « Obtenir » correspondante (par exemple, [GetFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceDetection.html)).
+ Pour plus d'informations, voir [Utilisation de l'analyse vidéo stockée](https://docs.aws.amazon.com/rekognition/latest/dg/video.html).

Pour l'analyse des vidéos en streaming :
+ Les fonctionnalités incluent la recherche faciale dans les collections de vidéos de Rekognition et la détection d'étiquettes (objets ou concepts).
+ Les résultats d'analyse des étiquettes sont envoyés sous forme de notifications Amazon SNS et Amazon S3.
+ Les résultats de la recherche faciale sont envoyés dans un flux de données Kinesis.
+ La gestion de l'analyse des vidéos en streaming est effectuée via un processeur de streaming Amazon Rekognition Video (par exemple, créez un processeur à l'aide de). [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html)
+ Pour plus d'informations, voir [Utilisation des événements vidéo en streaming](https://docs.aws.amazon.com/rekognition/latest/dg/streaming-video.html).

Chaque opération d’analyse vidéo renvoie des métadonnées relatives à la vidéo analysée, ainsi qu’un identifiant de tâche et une étiquette de tâche. Des opérations telles que la détection d'étiquettes et la modération du contenu pour les vidéos permettent de trier par horodatage ou nom d'étiquette, et d'agréger les résultats par horodatage ou par segment.

## Opérations de stockage et opérations hors stockage
<a name="how-it-works-operations-video-storage"></a>

Les opérations d’Amazon Rekognition sont regroupées selon les catégories suivantes.
+ **Opérations API hors stockage** : dans ces opérations, Amazon Rekognition ne conserve aucune information. Vous fournissez des images et des vidéos d’entrée, l’opération exécute l’analyse et renvoie les résultats, mais rien n’est enregistré par Amazon Rekognition. Pour de plus amples informations, veuillez consulter [Opérations hors stockage](how-it-works-storage-non-storage.md#how-it-works-non-storage).
+ **Opérations API de stockage** : les serveurs d’Amazon Rekognition peuvent stocker des informations de reconnaissance faciale dans des conteneurs appelés collections. Grâce à d’autres opérations API, Amazon Rekognition permet de rechercher des informations conservées sur un visage, et de réaliser une correspondance de visages. Pour de plus amples informations, veuillez consulter [Opérations d’API de stockage](how-it-works-storage-non-storage.md#how-it-works-storage-based).

## Utilisation de l'AWS SDK ou de HTTP pour l’appel des opérations d’API Amazon Rekognition
<a name="images-java-http"></a>

Vous pouvez appeler les opérations d’API Amazon Rekognition à l’aide de l'AWS SDK ou directement en utilisant HTTP. Sauf si vous avez une bonne raison de ne pas le faire, vous devez toujours utiliser l’AWS SDK. Les exemples Java de cette section utilisent l’[AWS SDK ](https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/setup-install.html). Il n’est pas fourni de fichier de projet Java, mais vous pouvez utiliser [AWS Toolkit for Eclipse](https://docs.aws.amazon.com/AWSToolkitEclipse/latest/GettingStartedGuide/) pour développer des applications AWS à l’aide de Java. 

Les exemples .NET présentés dans cette section utilisent le kit [AWS SDK pour .NET](https://docs.aws.amazon.com/sdk-for-net/latest/developer-guide/welcome.html). Vous pouvez utiliser le kit [AWS Toolkit for Visual Studio](https://docs.aws.amazon.com/AWSToolkitVS/latest/UserGuide/welcome.html) pour développer des applications AWS avec .NET. Vous y trouverez des modèles utiles, ainsi qu’AWS Explorer pour le déploiement d’applications et la gestion des services. 

La [Référence de l’API](https://docs.aws.amazon.com/rekognition/latest/APIReference/Welcome.html) du présent guide couvre l’appel des opérations Amazon Rekognition à l’aide de HTTP. Pour en savoir plus sur la référence Java, consultez [AWS SDK pour Java](https://docs.aws.amazon.com/sdk-for-java/latest/reference/index.html).

Les points de terminaison de service d’Amazon Rekognition que vous pouvez utiliser sont définis dans [Régions et points de terminaison AWS](https://docs.aws.amazon.com/general/latest/gr/rande.html#rekognition_region). 

Lorsque vous appelez Amazon Rekognition avec HTTP, utilisez les opérations HTTP POST.

# Comprendre les opérations non liées au stockage et aux API de stockage
<a name="how-it-works-storage-non-storage"></a>

Amazon Rekognition offre deux types d’opérations API. Il s’agit des opérations hors stockage, au cours desquelles aucune information n’est stockée par Amazon Rekognition, et des opérations de stockage au cours desquelles certaines informations de visages sont stockées par Amazon Rekognition. 

## Opérations hors stockage
<a name="how-it-works-non-storage"></a>

Amazon Rekognition offre des opérations API hors stockage pour les images suivantes :
+ [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html)
+ [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html) 
+ [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html) 
+ [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) 
+ [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html) 
+ [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html) 
+ [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html) 
+ [GetCelebrityInfo](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetCelebrityInfo.html) 

Amazon Rekognition offre des opérations API hors stockage pour les vidéos suivantes :
+ [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartlabelDetection.html) 
+ [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html) 
+ [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html)
+ [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html)
+ [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html)

Ces opérations sont appelées opérations d’API *hors stockage*, car lorsque vous appelez l’opération, Amazon Rekognition ne conserve aucune information relative au sujet de l’image d’entrée. Comme toutes les autres opérations d’API Amazon Rekognition, aucun octet d’image d’entrée n’est conservé par les opérations d’API hors stockage. 

Les exemples de scénarios suivants montrent où peuvent être intégrées les opérations d’API hors stockage dans votre application. Ces scénarios partent du principe que vous disposez d’un référentiel d’images local.

**Example 1 : Une application trouve dans votre référentiel local des images contenant des étiquettes spécifiques**  
Tout d’abord, vous détectez des étiquettes à l’aide de l’opération `DetectLabels` d’Amazon Rekognition dans chacune des images de votre référentiel, puis vous créez un index côté client, comme indiqué ci-dessous :  

```
Label        ImageID

tree          image-1
flower        image-1
mountain      image-1
tulip         image-2
flower        image-2
apple         image-3
```
Ensuite, votre application peut consulter cet index pour rechercher dans votre référentiel local des images qui contiennent une étiquette spécifique. Par exemple, afficher des images qui contiennent un arbre.  
Chaque étiquette détectée par Amazon Rekognition est associée à une valeur de fiabilité. Celle-ci indique le niveau de fiabilité correspondant à la présence de l’étiquette dans l’image d’entrée. Vous pouvez utiliser cette valeur pour exécuter un filtrage supplémentaire côté client des étiquettes. Le filtrage dépend des exigences de votre application en matière de fiabilité de la détection. Par exemple, si vous avez besoin d’étiquettes précises, vous pouvez filtrer et sélectionner uniquement les étiquettes ayant une fiabilité plus élevée (95 % ou plus, par exemple). Si votre application ne nécessite pas une valeur de fiabilité très élevée, vous pouvez choisir de filtrer les étiquettes ayant une valeur de fiabilité plus faible (plus proche de 50 %).

**Example 2 : Une application permettant d’afficher des images de visage optimisées**  
Tout d’abord, vous pouvez détecter les visages dans chacune des images de votre référentiel local à l’aide de l’opération `DetectFaces` Amazon Rekognition, puis créer un index côté client. Pour chaque visage, l’opération renvoie des métadonnées qui incluent un cadre de délimitation, des repères faciaux (la position de la bouche et des oreilles, par exemple) et des attributs du visage (masculin ou féminin, par exemple). Vous pouvez stocker ces métadonnées dans un index local côté client, comme indiqué ci-dessous :  

```
ImageID     FaceID     FaceMetaData

image-1     face-1     <boundingbox>, etc.
image-1     face-2     <boundingbox>, etc.
image-1     face-3     <boundingbox>, etc.
...
```
Dans cet index, la clé primaire est une combinaison de `ImageID` et de `FaceID`.  
Ensuite, vous pouvez utiliser les informations contenues dans l’index pour améliorer les images de votre référentiel local lorsque votre application les affiche. Par exemple, vous pouvez ajouter un cadre de délimitation autour du visage ou mettre en évidence les caractéristiques faciales.  
 

## Opérations d’API de stockage
<a name="how-it-works-storage-based"></a>

Amazon Rekognition Image [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html)prend en charge cette opération, que vous pouvez utiliser pour détecter des visages sur une image et conserver les informations relatives aux traits faciaux détectés dans une collection Amazon Rekognition. Voici un exemple d’opération d’API *de stockage*, car le service conserve les informations sur le serveur. 

Image Amazon Rekognition offre des opérations API hors stockage pour les images suivantes :
+ [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html)
+ [ListFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListFaces.html) 
+ [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html) 
+ [SearchFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFaces.html) 
+ [DeleteFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteFaces.html) 
+ [DescribeCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeCollection.html) 
+ [DeleteCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteCollection.html)
+ [ListCollections](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListCollections.html)
+ [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html) 

Vidéo Amazon Rekognition offre des opérations API de stockage suivantes :
+ [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html) 
+ [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html)

Pour stocker des informations sur les visages, vous devez d’abord créer une collection de visages dans l’une des régions AWS de votre compte. Vous spécifiez cette collection de visages lorsque vous appelez l’opération `IndexFaces`. Une fois que vous avez créé une collection de visages et stocké les informations des caractéristiques faciales de tous les visages, vous pouvez explorer la collection à la recherche de correspondances de visage. Par exemple, vous pouvez détecter le plus grand visage dans une image et rechercher des visages semblables dans un ensemble en appelant `searchFacesByImage.`

Les informations de visage stockées dans les collections par `IndexFaces` sont accessibles pour les opérations Vidéo Amazon Rekognition. Par exemple, dans une vidéo, vous pouvez rechercher des personnes dont les visages correspondent à ceux contenus dans une collection existante, en appelant [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html).

Pour en savoir plus sur la création et la gestion des collections, consultez [Recherche de visages dans une collection](collections.md).

**Note**  
Les collections stockent des vecteurs de visages, qui sont des représentations mathématiques de visages. Les collections ne stockent pas d'images de visages.

**Example 1 : Une application qui authentifie l’accès à un bâtiment**  
Vous commencez par la création d’une collection de visages pour stocker les images de badges numérisés à l’aide de l’opération `IndexFaces`, qui extrait les visages et les stocke comme vecteurs d’image explorables. Puis, lorsqu’un employé entre dans le bâtiment, une image de son visage est capturée et envoyée à l’opération `SearchFacesByImage`. Si la correspondance des visages offre un score de similarité suffisamment élevé (par exemple, 99 %), vous pouvez authentifier l’employé.

# Comprendre le versionnement des modèles
<a name="face-detection-model"></a>

Amazon Rekognition utilise des modèles de deep learning pour détecter des visages dans des collections. Les retours des clients et les avancées de la recherche en matière d’apprentissage approfondi permettent d’améliorer en permanence la précision de ses modèles. Ces améliorations sont envoyées en tant que mises à jour de modèle. Par exemple, avec la version 1.0 du modèle, [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html) peut indexer les 15 plus grands visages dans une image. Les versions ultérieures du modèle permettent à `IndexFaces` d’indexer les 100 plus grandes visages d’une image.

Lorsque vous créez une nouvelle collection, elle est associée à la dernière version du modèle. Pour améliorer la précision, le modèle est régulièrement mis à jour.

 Lorsqu’une nouvelle version du modèle est publiée, voici ce qui se passe : 
+ Les nouvelles collections que vous créez sont associées au dernier modèle. Les visages que vous avez ajoutés aux nouvelles collections en utilisant [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html) sont détectés à l'aide du dernier modèle.
+ Vos collections existantes continuent d’utiliser la version du modèle avec lequel elles ont été créées. Les vecteurs faciaux stockés dans ces collections ne sont pas automatiquement mis à jour vers la dernière version du modèle.
+ Les nouveaux visages ajoutés à une collection existante sont détectés à l’aide du modèle déjà associé à la collection.

Les différentes versions du modèle ne sont pas compatibles les unes avec les autres. Plus précisément, si une image est indexée dans plusieurs collections utilisant différentes versions du modèle, les identificateurs de visage d’un même visage détecté seront différents. Si une image est indexée dans plusieurs collections associées au même modèle, les identificateurs de visage seront les mêmes. 

Votre application peut rencontrer des problèmes si la gestion de votre collection ne constitue pas de mises à jour du modèle. Vous pouvez déterminer la version du modèle utilisée par une collection grâce au champ `FaceModelVersion` renvoyé par les réponses de l’opération de collecte (par exemple, `CreateCollection`). Vous pouvez obtenir la version du modèle d'une collection existante en appelant [DescribeCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeCollection.html). Pour de plus amples informations, veuillez consulter [Description d’une collection](describe-collection-procedure.md).

Les vecteurs faciaux existant dans une collection ne peuvent pas être mis à jour vers une version plus récente du modèle. Dans la mesure où Amazon Rekognition ne stocke pas d’octets d’images sources, il ne peut pas automatiquement réindexer d’images en utilisant une version ultérieure du modèle.

Pour utiliser le dernier modèle sur des visages stockés dans une collection existante, créez une nouvelle collection ([CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html)) et réindexez les images sources dans la nouvelle collection (`Indexfaces`). Mettez à jour tous les identificateurs de visage stockés par votre application, car ceux de la nouvelle collection et de l’ancienne sont différents. Si vous n'avez plus besoin de l'ancienne collection, vous pouvez la supprimer grâce à l'opération [DeleteCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteCollection.html). 

Pour les opérations sans état, telles que [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html), utilisez la dernière version du modèle.