

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Comprendre les types d'analyse de Rekognition
<a name="how-it-works-types"></a>

Les types d’analyse que l’API Image Amazon Rekognition et l’API Vidéo Amazon Rekognition peuvent effectuer sont les suivants. Pour plus d'informations sur le APIs, voir[Comprendre les opérations d'imagerie et de vidéo de Rekognition](how-it-works-operations-intro.md).

Le tableau suivant répertorie les opérations que vous devez utiliser en fonction du type de média avec lequel vous travaillez et de votre cas d’utilisation :


****  

| Cas d’utilisation | Type de support | Opérations | 
| --- | --- | --- | 
|  [Modération du contenu](moderation.md)  | Images |  [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html), [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html), [GetMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetMediaAnalysisJob.html), [ListMediaAnalysisJobs](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_ListMediaAnalysisJobs.html)  | 
|  | Vidéo stockée |  [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html), [GetContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetContentModeration.html)   | 
| Vérification d’identité | [Images](collections.md) | [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html), [CreateUser](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateUser.html), [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html), [AssociateFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_AssociateFaces.html), [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html), [SearchUsersByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchUsersByImage.html) | 
|  | [Vidéo stockée](procedure-person-search-videos.md) | [CreateCollection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateCollection.html), [IndexFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_IndexFaces.html), [StartFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceSearch.html), [GetFaceSearch](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceSearch.html) | 
|  | Vidéo en streaming ([Détection de la vivacité faciale](face-liveness.md)) |  [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html), [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceLivenessSession.html), [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html),  | 
| [Analyse faciale](faces.md) | Images | [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html), [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html) | 
|  | Vidéo stockée | [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html), [GetFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceDetection.html) | 
|  | Vidéo en streaming | [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html), [StartStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartStreamProcessor.html) | 
| [Reconnaissance d’objets et d’activités](labels.md) | Images | [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html) | 
|  | Vidéos stockées | [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartLabelDetection.html), [GetLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetLabelDetection.html) | 
| [Maison connectée](https://github.com/aws-samples/rekognition-streaming-video-events) | Vidéo en streaming | [StartStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartStreamProcessor.html) | 
| [Analyse des médias](segments.md) | Vidéo stockée | [StartSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartSegmentDetection.html), [GetSegmentDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetSegmentDetection.html) | 
| [Sécurité au travail](ppe-detection.md) | Images | [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html) | 
| [Détection de texte](text-detection.md) | Images | [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html) | 
|  | Vidéo | [StartTextDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartTextDetection.html), [GetTextDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetTextDetection.html) | 
| [Tracé du chemin de personnes](persons.md) | Vidéo | [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html), [GetPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetPersonTracking.html) | 
| [Reconnaissance de célébrités](celebrities.md) | Images | [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html) | 
|  | Vidéo | [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html), [GetCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetCelebrityRecognition.html) | 
| [Détection d’étiquettes personnalisées](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html) | Images | [DetectCustomLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectCustomLabels.html) | 
|  | Entraînement d’un modèle | [Voir le guide du développeur de Custom Labels](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html) | 

## Étiquettes
<a name="how-it-works-labels-intro"></a>

Sont considérés comme *étiquettes* les éléments suivants : les objets (ex. : une fleur, un arbre, une table), les événements (ex : un mariage, une cérémonie de remise de diplômes, un anniversaire), les concepts (ex. : un paysage, une soirée, la nature) ou les activités (ex. : courir ou jouer au basket). Amazon Rekognition peut détecter les étiquettes dans les images et les vidéos. Pour de plus amples informations, veuillez consulter [Détection d’objets et de concepts](labels.md).

Rekognition peut détecter une longue liste d’étiquettes dans les images et les vidéos enregistrées. Rekognition peut également détecter un petit nombre d’étiquettes dans les vidéos en streaming.

Utilisez les opérations suivantes pour détecter les étiquettes en fonction des cas d’utilisation :
+ Pour détecter les étiquettes dans les images : utilisez [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html). Vous pouvez identifier les propriétés de l’image, telles que les couleurs dominantes et la qualité de l’image. Pour ce faire, utilisez [DetectLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectLabels.html)with `IMAGE_PROPERTIES` comme paramètre d'entrée.
+ Pour détecter les libellés dans les vidéos enregistrées : utilisez [StartLabelDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartLabelDetection.html). La détection des couleurs et de la qualité d’image dominantes n’est pas prise en charge pour les vidéos stockées.
+ Pour détecter les libellés dans une vidéo en streaming : utilisez [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html). La détection des couleurs et de la qualité d’image dominantes n’est pas prise en charge pour le streaming vidéo.

Vous pouvez spécifier les types d’étiquettes que vous souhaitez renvoyer pour la détection d’étiquettes d’images et de vidéos stockées en utilisant des options de filtrage inclusives et exclusives.

## Étiquettes personnalisées
<a name="how-it-works-custom-labels-intro"></a>

Étiquettes personnalisées Amazon Rekognition peuvent identifier les objets et les scènes dans des images spécifiques aux besoins de votre entreprise en formant un modèle de machine learning. Par exemple, vous pouvez former un modèle de sorte qu’il détecte des logos ou des pièces de machines d’ingénierie sur une ligne d’assemblage.

**Note**  
Pour des informations sur les Étiquettes personnalisées Amazon Rekognition, veuillez consulter le [manuel du développeur Étiquettes personnalisées Amazon Rekognition](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/what-is.html).

Amazon Rekognition fournit une console que vous utilisez pour créer, former, évaluer et exécuter un modèle de machine learning. Pour de plus amples informations, veuillez consulter [Mise en route sur Étiquettes personnalisées Amazon Rekognition](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/gs-introduction.html) dans le manuel *Guide du développeur Étiquettes personnalisées Amazon Rekognition*. Vous pouvez également utiliser l’API Étiquettes personnalisées Amazon Rekognition pour former et exécuter un modèle. *Pour plus d'informations, consultez [Getting Started with the Amazon Rekognition Custom Labels SDK dans le manuel du développeur Amazon Rekognition](https://docs.aws.amazon.com/rekognition/latest/customlabels-dg/gs-cli.html). CustomLabels *

Pour analyser des images à l'aide d'un modèle entraîné, utilisez [DetectCustomLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectCustomLabels.html).

## Détection de la vivacité faciale
<a name="face-liveness-detection"></a>

Amazon Rekognition Face Liveness peut vous aider à vérifier qu’un utilisateur soumis à une vérification d’identité basée sur le visage est physiquement présent devant la caméra et qu’il ne s’agit pas d’un mauvais acteur qui usurpe le visage de l’utilisateur. Il détecte également les attaques frauduleuses présentées à une caméra ou qui tentent de contourner une caméra. Un utilisateur peut effectuer un test de vivacité faciale en prenant un court selfie vidéo, et un score de vivacité est renvoyé pour le contrôle. La vivacité faciale d’un visage est déterminée à l’aide d’un calcul probabiliste, et un score de confiance (compris entre 0 et 100) est renvoyé après le contrôle. Plus le score est élevé, plus on est sûr que la personne qui reçoit le chèque est en direct. 

Pour plus d’informations sur la vivacité faciale, consultez[Détection de la vivacité faciale](face-liveness.md).

## Détection et analyse faciales
<a name="how-it-works-faces-intro"></a>

Amazon Rekognition peut détecter les visages dans les images et les vidéos. Avec Amazon Rekognition, vous pouvez obtenir des informations sur :
+ Où des visages sont détectés dans une image ou une vidéo
+ Des repères faciaux tels que la position des yeux
+ La présence d’une occlusion faciale dans les images
+ Émotions détectées, telles que le bonheur ou la tristesse
+ Orientation du regard d’une personne dans les images

Vous pouvez également interpréter des informations démographiques telles que le sexe ou l’âge. Vous pouvez comparer un visage sur une image à des visages détectés sur une autre image. Les informations sur les visages peuvent également être stockées pour une récupération ultérieure. Pour de plus amples informations, veuillez consulter [Détection et analyse des visages](faces.md).

Pour détecter des visages dans des images, utilisez [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html). Pour détecter des visages dans des vidéos stockées, utilisez [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html).

## Recherche faciale
<a name="how-it-works-search-faces-intro"></a>

Amazon Rekognition peut rechercher des visages. Les informations sur les visages sont indexées dans un conteneur appelé « collection ». Les informations sur les visages de la collection peuvent ensuite être comparées aux visages détectés dans les images, les vidéos stockées et les vidéos en streaming. Pour plus d’informations, veuillez consulter [Recherche de visages dans une collection](collections.md).

Pour rechercher des visages connus dans des images, utilisez [DetectFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html). Pour rechercher des visages connus dans des vidéos stockées, utilisez [StartFaceDetection](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartFaceDetection.html). Pour rechercher des visages connus dans des vidéos en streaming, utilisez [CreateStreamProcessor](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateStreamProcessor.html).

## Chemins de personnes
<a name="how-it-works-persons-intro"></a>

Amazon Rekognition peut retracer les chemins des personnes détectées dans une vidéo stockée. Vidéo Amazon Rekognition fournit un suivi du chemin, des informations sur les visages et la localisation de trames pour les personnes détectées dans une vidéo. Pour de plus amples informations, veuillez consulter [Tracé du parcours de personnes](persons.md). 

Pour détecter des personnes dans des vidéos stockées, utilisez [StartPersonTracking](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartPersonTracking.html).

## Equipement de protection individuelle
<a name="how-it-works-ppe-intro"></a>

 Amazon Rekognition peut détecter les équipements de protection individuelle (EPI) portés par les personnes détectées sur une image. Amazon Rekognition détecte les couvre-mains, les couvre-visages et les couvre-chefs. Amazon Rekognition prédit si un article d’EPI couvre la partie du corps appropriée. Vous pouvez également vous procurer des cadres de délimitations pour les personnes détectées et des éléments de protection individuelle. Pour de plus amples informations, veuillez consulter [Détection des équipements de protection individuelle](ppe-detection.md). 

Pour détecter les équipements de protection individuelle sur les images, utilisez [DetectProtectiveEquipment](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectProtectiveEquipment.html).

## Célébrités
<a name="how-it-works-celebrities-intro"></a>

 Amazon Rekognition peut reconnaître des milliers de célébrités dans des images et des vidéos stockées. Vous pouvez obtenir des informations sur la place du visage d’une célébrité sur une image, sur des repères faciaux et sur l’expression du visage d’une célébrité. Vous pouvez obtenir des informations de suivi sur des célébrités, à mesure qu’elles apparaissent dans une vidéo stockée. Vous pouvez également obtenir de plus amples informations sur une célébrité reconnue, comme l’émotion exprimée et la présentation du genre. Pour de plus amples informations, veuillez consulter [Reconnaissance de célébrités](celebrities.md). 

Pour reconnaître des célébrités sur des images, utilisez [RecognizeCelebrities](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_RecognizeCelebrities.html). Pour reconnaître des célébrités dans des vidéos stockées, utilisez [StartCelebrityRecognition](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartCelebrityRecognition.html).

## Détection de texte
<a name="how-it-works-text-intro"></a>

La fonction Amazon Rekognition Texte dans les images peut détecter du texte dans des images et le convertir en texte lisible par une machine. Pour de plus amples informations, veuillez consulter [Détection de texte](text-detection.md).

Pour détecter du texte dans des images, utilisez [DetectText](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectText.html).

## Contenus inappropriés ou offensants
<a name="how-it-works-moderation-intro"></a>

Amazon Rekognition peut analyser des images et des vidéos stockées à la recherche de contenus pour adultes et violents. Pour de plus amples informations, veuillez consulter [Modération du contenu](moderation.md).

Pour détecter des images inappropriées, utilisez [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html). Pour détecter des vidéos stockées inappropriées, utilisez [StartContentModeration](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartContentModeration.html).

## Personnalisation
<a name="how-it-works-customization"></a>

Certaines analyses d'images APIs proposées par Rekognition vous permettent d'améliorer la précision des modèles d'apprentissage profond en créant des adaptateurs personnalisés entraînés sur vos propres données. Les adaptateurs sont des composants qui s’intègrent au modèle deep learning préentraîné de Rekognition, améliorant ainsi sa précision grâce à une connaissance du domaine basée sur vos images. Vous formez un adaptateur pour répondre à vos besoins en fournissant et en annotant des exemples d’images. 

Une fois que vous avez créé un adaptateur, vous recevez un AdapterId. Vous pouvez le fournir AdapterId à une opération pour spécifier que vous souhaitez utiliser l'adaptateur que vous avez créé. Par exemple, vous fournissez le AdapterId à l'[DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)API pour l'analyse synchrone des images. AdapterId En les fournissant dans le cadre de la demande, Rekognition les utilisera automatiquement pour améliorer les prédictions relatives à vos images. Cela vous permet de tirer parti des fonctionnalités de Rekognition tout en les personnalisant en fonction de vos besoins. 

Vous avez également la possibilité d'obtenir des prédictions pour des images en masse avec l'[StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html)API. Pour plus d'informations, consultez [Analyse en bloc](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).

Vous pouvez évaluer la précision des opérations de Rekognition en téléchargeant des images sur la console Rekognition et en exécutant une analyse sur ces images. Rekognition annote vos images à l’aide de la fonction sélectionnée, et vous pouvez ensuite revoir les prédictions, en utilisant les prédictions vérifiées pour déterminer quelles étiquettes bénéficieraient de la création d’un adaptateur.

À l'heure actuelle, vous pouvez utiliser des adaptateurs avec le [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html). Pour plus d’informations sur la création et l’utilisation d’adaptateurs, consultez [Amélioration de la précision grâce à la modération personnalisée](moderation-custom-moderation.md).

## Analyse en bloc
<a name="how-it-works-bulk"></a>

Rekognition Bulk Analysis vous permet de traiter une grande collection d'images de manière asynchrone en utilisant un fichier manifeste en même temps que l'opération. [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html) Pour plus d'informations, consultez [Analyse en bloc](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).