

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Amélioration de la précision grâce à la modération personnalisée
<a name="moderation-custom-moderation"></a>

 L'[DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)API d'Amazon Rekognition vous permet de détecter le contenu inapproprié, indésirable ou offensant. La fonction de modération personnalisée de Rekognition vous permet d'améliorer la précision de en utilisant des adaptateurs. [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) Les adaptateurs sont des composants modulaires qui peuvent être ajoutés à un modèle de Rekognition deep learning existant, afin d’étendre ses capacités aux tâches pour lesquelles il a été entraîné. En créant un adaptateur et en le fournissant à l'[DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)opération, vous pouvez obtenir une meilleure précision pour les tâches de modération du contenu liées à votre cas d'utilisation spécifique.

Lorsque vous personnalisez le modèle de modération de contenu de Rekognition pour des étiquettes de modération spécifiques, vous devez créer un projet et former un adaptateur sur un ensemble d’images que vous fournissez. Vous pouvez ensuite vérifier de manière itérative les performances de l’adaptateur et le réentraîner au niveau de précision souhaité. Les projets sont utilisés pour contenir les différentes versions des adaptateurs. 

Vous pouvez créer des projets et des adaptateurs à l’aide de la console Rekognition. Vous pouvez également utiliser un AWS SDK et le kit associé APIs pour créer un projet, former un adaptateur et gérer vos adaptateurs. 



# Création et utilisation d’adaptateurs
<a name="creating-and-using-adapters"></a>

Les adaptateurs sont des composants modulaires qui peuvent être ajoutés au modèle deep learning de Rekognition existant afin d’étendre ses capacités aux tâches pour lesquelles il est entraîné. En formant un modèle de deep learning avec des adaptateurs, vous pouvez obtenir une meilleure précision pour les tâches d’analyse d’images liées à votre cas d’utilisation spécifique. 

Pour créer et utiliser un adaptateur, vous devez fournir des données d’entraînement et de test à Rekognition. Vous pouvez y parvenir de deux façons :
+ Analyse et vérification en bloc : vous pouvez créer un jeu de données d’entraînement en analysant en bloc des images que Rekognition analyse, et auxquelles Rekognition attribue des étiquettes. Vous pouvez ensuite consulter les annotations générées pour vos images et vérifier ou corriger les prédictions. Pour plus d’informations sur le fonctionnement de l’analyse en bloc d’images, voir [Analyse en bloc](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).
+ Annotation manuelle : avec cette approche, vous créez vos données d’entraînement en téléchargeant et en annotant des images. Vous créez vos données de test soit en téléchargeant et en annotant des images, soit en les divisant automatiquement. 

Choisissez l’une des rubriques suivantes pour en savoir plus :

**Topics**
+ [Analyse et vérification en bloc](adapters-bulk-analysis.md)
+ [Annotation manuelle](adapters-manual-annotation.md)

# Analyse et vérification en bloc
<a name="adapters-bulk-analysis"></a>

Avec cette approche, vous téléchargez un grand nombre d’images que vous souhaitez utiliser comme données d’entraînement, puis vous utilisez Rekognition pour obtenir des prédictions pour ces images, qui leur attribue automatiquement des étiquettes. Vous pouvez utiliser ces prédictions comme point de départ pour votre adaptateur. Vous pouvez vérifier l’exactitude des prévisions, puis entraîner l’adaptateur en fonction des prévisions vérifiées. Cela peut être fait avec la AWS console.



 La vidéo suivante montre comment utiliser la fonctionnalité d'analyse en bloc de Rekognition pour obtenir et vérifier des prédictions pour un grand nombre d'images, puis entraîner un adaptateur avec ces prédictions. 

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY)


## Téléchargez des images pour une analyse en bloc
<a name="adapters-bulk-analysis-upload-images"></a>

Pour créer un jeu de données d’entraînement pour votre adaptateur, téléchargez des images en bloc pour que Rekognition puisse prévoir les étiquettes. Pour de meilleurs résultats, fournissez autant d’images que possible pour l’entraînement, dans la limite de 10 000, et assurez-vous que les images sont représentatives de tous les aspects de votre cas d’utilisation. 

Lorsque vous utilisez la AWS console, vous pouvez télécharger des images directement depuis votre ordinateur ou fournir un bucket Amazon Simple Storage Service qui stocke vos images. Toutefois, lorsque vous utilisez APIs Rekognition avec un SDK, vous devez fournir un fichier manifeste qui fait référence aux images stockées dans un bucket Amazon Simple Storage Service. Pour plus d'informations, consultez [Analyse en bloc](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).

## Vérifiez les prédictions
<a name="adapters-bulk-analysis-review-predictions"></a>

Une fois que vous avez chargé vos images sur la console Rekognition, Rekognition génère des étiquettes pour celles-ci. Vous pouvez ensuite vérifier les prédictions dans l’une des catégories suivantes : vrai positif, faux positif, vrai négatif, faux négatif. Après avoir vérifié les prévisions, vous pouvez former un adaptateur en fonction de vos commentaires.

## Entraînez l’adaptateur
<a name="adapters-bulk-analysis-train-adapter"></a>

Une fois que vous avez terminé de vérifier les prédictions renvoyées par l’analyse en bloc, vous pouvez lancer le processus de formation de votre adaptateur. 

## Obtenez le AdapterId
<a name="adapters-bulk-analysis-get-adapter"></a>

Une fois que l'adaptateur a été formé, vous pouvez obtenir l'identifiant unique de votre adaptateur à utiliser avec l'analyse d'image de Rekognition. APIs

## Appelez l’opération de l’API
<a name="adapters-bulk-analysis-call-operation"></a>

Pour appliquer votre adaptateur personnalisé, fournissez son identifiant lorsque vous appelez l'une des analyses d'image compatibles avec APIs les adaptateurs. Cela améliore la précision des prédictions pour vos images.

# Annotation manuelle
<a name="adapters-manual-annotation"></a>

Avec cette approche, vous créez vos données d’entraînement en téléchargeant et en annotant des images manuellement. Vous créez vos données de test soit en téléchargeant et en annotant les images de test, soit en les divisant automatiquement pour que Rekognition utilise automatiquement une partie de vos données d’entraînement comme images de test.

## Téléchargement et annotation d’images
<a name="adapters-upload-sample-images"></a>

Pour entraîner l’adaptateur, vous devez télécharger un ensemble d’exemples d’images représentatifs de votre cas d’utilisation. Pour de meilleurs résultats, fournissez autant d’images que possible pour l’entraînement, dans la limite de 10 000, et assurez-vous que les images sont représentatives de tous les aspects de votre cas d’utilisation. 

![\[Interface présentant des options pour importer des images d'entraînement, avec des options pour importer un fichier manifeste, importer depuis un compartiment S3 ou télécharger des images depuis un ordinateur. Inclut un champ d'URI S3 et une note sur la garantie read/write des autorisations.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/adapters-11-traiing-dataset.png)


Lorsque vous utilisez la AWS console, vous pouvez télécharger des images directement depuis votre ordinateur, fournir un fichier manifeste ou fournir un compartiment Amazon S3 qui stocke vos images.

 Toutefois, lorsque vous utilisez APIs Rekognition avec un SDK, vous devez fournir un fichier manifeste qui fait référence aux images stockées dans un compartiment Amazon S3. 

Vous pouvez utiliser l’interface d’annotation de la [console Rekognition](https://console.aws.amazon.com/rekognition) pour annoter vos images. Annotez vos images en les repérant avec des étiquettes, cela constitue une « vérité de base » pour la formation. Vous devez également désigner des ensembles d’entraînement et de test, ou utiliser la fonctionnalité de division automatique, avant de pouvoir entraîner un adaptateur. Lorsque vous avez fini de désigner vos jeux de données et d’annoter vos images, vous pouvez créer un adaptateur basé sur les images annotées de votre ensemble de tests. Vous pouvez ensuite évaluer les performances de votre adaptateur. 

## Créez un ensemble de tests
<a name="adapters-training-testing"></a>

Vous devrez fournir un ensemble de tests annoté ou utiliser la fonction de division automatique. Le kit d’entraînement est utilisé pour entraîner réellement l’adaptateur. L’adaptateur apprend les motifs contenus dans ces images annotées. Le kit de test est utilisé pour évaluer les performances du modèle avant de finaliser l’adaptateur. 

## Entraînez l’adaptateur
<a name="adapters-train-adapter"></a>

 Une fois que vous avez terminé d’annoter les données d’entraînement, ou que vous avez fourni un fichier manifeste, vous pouvez lancer le processus de formation de votre adaptateur. 

## Obtenez l’ID de l’adaptateur
<a name="adapter-get-adapter"></a>

Une fois que l'adaptateur a été formé, vous pouvez obtenir l'identifiant unique de votre adaptateur à utiliser avec l'analyse d'image de Rekognition. APIs

## Appelez l’opération de l’API
<a name="adapter-call-operation"></a>

Pour appliquer votre adaptateur personnalisé, fournissez son identifiant lorsque vous appelez l'une des analyses d'image compatibles avec APIs les adaptateurs. Cela améliore la précision des prédictions pour vos images. 

# Préparation de vos jeux de données
<a name="preparing-datasets-adapters"></a>

Pour créer un adaptateur, vous devez fournir à Rekognition deux jeux de données, un jeu de données d’entraînement et un jeu de données de test. Chaque jeu de données est composé de deux éléments : des images et des annotations/étiquettes. Les sections suivantes expliquent à quoi servent les étiquettes et les images, et comment elles sont combinées pour créer des jeux de données. 

## Images
<a name="preparing-datasets-adapters-images"></a>

Vous devrez former un adaptateur sur des échantillons représentatifs de vos images. Lorsque vous sélectionnez des images pour l’entraînement, essayez d’inclure au moins quelques images illustrant la réponse attendue pour chacune des étiquettes que vous ciblez avec votre adaptateur. 

Pour créer un jeu de données d’entraînement, vous devez fournir l’un des deux types d’image suivants :
+ Images avec des prédictions de faux positifs. Par exemple, lorsqu’un modèle de base prédit qu’une image contient de l’alcool, mais ce n’est pas le cas.
+ Images avec des prédictions de faux négatifs. Par exemple, lorsqu’un modèle de base prédit qu’une image ne contient pas d’alcool, mais c’est le cas. 

Pour créer un jeu de données équilibré, il est recommandé de fournir l’un des deux types d’image suivants :
+ Images avec des prédictions de vrais positifs. Par exemple, lorsqu’un modèle de base prédit correctement qu’une image contient de l’alcool. Il est recommandé de fournir ces images si vous fournissez des images avec des faux positifs.
+ Images avec des prédictions de vrais négatifs. Par exemple, lorsqu’un modèle de base prédit correctement qu’une image ne contient pas d’alcool. Il est recommandé de fournir ces images si vous fournissez des images avec des faux négatifs.

## Étiquettes
<a name="preparing-datasets-adapters-labels"></a>

Une étiquette fait référence à l’un des éléments suivants : objets, événements, concepts ou activités. Pour la modération du contenu, une étiquette est une instance de contenu inapproprié, indésirable ou offensant. 

Dans le contexte de la création d’un adaptateur en entraînant le modèle de base de Rekognition, lorsqu’une étiquette est attribuée à une image, on parle d’annotation. Lorsque vous entraînez un adaptateur avec la console de Rekognition, vous utilisez la console pour ajouter des annotations à vos images en choisissant une étiquette, puis en étiquetant les images correspondant à cette étiquette. Grâce à ce processus, le modèle apprend à identifier les éléments de vos images en fonction de l’étiquette attribuée. Ce processus de liaison permet au modèle de se concentrer sur le contenu le plus pertinent lors de la création d’un adaptateur, ce qui améliore la précision de l’analyse des images. 

Vous pouvez également fournir un fichier manifeste contenant des informations sur les images et les annotations qui les accompagnent.

## Jeux de données d’entraînement et de test
<a name="preparing-datasets-adapters-datasets"></a>

Le jeu de données d’entraînement est la base pour affiner le modèle et créer un adaptateur personnalisé. Vous devez fournir un jeu de données d’entraînement annoté pour que le modèle puisse en tirer des leçons. Le modèle tire les leçons de ce jeu de données pour améliorer ses performances sur le type d’images que vous fournissez. 

 Pour améliorer la précision, vous devez créer votre jeu de données d'entraînement à l'aide d' annotation/labeling images. Vous pouvez y parvenir de deux façons : 
+  Attribution manuelle d’étiquettes : vous pouvez utiliser la console de Rekognition pour créer un jeu de données d’entraînement en téléchargeant les images que vous souhaitez que votre ensemble de données contienne, puis en attribuant manuellement des étiquettes à ces images.
+  Fichier manifeste : vous pouvez utiliser un fichier manifeste pour entraîner votre adaptateur. Le fichier manifeste contient des informations sur les annotations fondamentales pour vos images d’entraînement et de test, ainsi que sur l’emplacement de vos images d’entraînement. Vous pouvez fournir le fichier manifeste lorsque vous entraînez un adaptateur à l'aide de la APIs Rekognition ou de la console. AWS 

Le jeu de données de test est utilisé pour évaluer les performances de l’adaptateur après l’entraînement. Pour garantir une évaluation fiable, le jeu de données de test est créé en utilisant une tranche du jeu de données d’apprentissage d’origine que le modèle n’a jamais vue auparavant. Ce processus garantit que les performances de l’adaptateur sont évaluées à l’aide de nouvelles données, créant ainsi des mesures et des métriques précises. Pour des améliorations de précision optimales, voir [Bonnes pratiques relatives aux adaptateurs d’entraînement](using-adapters-best-practices.md).

# Gestion des adaptateurs à l'aide de la AWS CLI et SDKs
<a name="managing-adapters"></a>

 Rekognition vous permet d’utiliser de multiples fonctionnalités qui s’appuient sur des modèles de vision par ordinateur préentraînés. Avec ces modèles, vous pouvez effectuer des tâches telles que la détection des étiquettes et la modération du contenu. Vous pouvez également personnaliser certains modèles à l’aide d’un adaptateur. 

Vous pouvez utiliser la création et la gestion de projets de Rekognition APIs (comme et [CreateProjectVersion](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProjectVersion.html)) pour créer [CreateProject](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProject.html)et former des adaptateurs. Les pages suivantes décrivent comment utiliser les opérations d'API pour créer, entraîner et gérer vos adaptateurs à l'aide de la AWS console, du AWS SDK de votre choix ou de la AWS CLI. 

Après avoir entraîné un adaptateur, vous pouvez l’utiliser pour exécuter l’inférence avec les fonctionnalités prises en charge. Actuellement, les adaptateurs sont pris en charge lors de l’utilisation de la fonctionnalité de modération du contenu.

Lorsque vous entraînez un adaptateur à l'aide d'un AWS SDK, vous devez fournir vos étiquettes de base (annotations d'image) sous la forme d'un fichier manifeste. Vous pouvez également utiliser la console de Rekognition pour créer et entraîner un adaptateur.

**Note**  
 Les adaptateurs ne peuvent pas être copiés. Seules les versions du projet Rekognition Custom Labels peuvent être copiées. 

**Topics**
+ [Statuts des adaptateurs](#managing-adapters-project-versions-statuses)
+ [Création d’un projet](managing-adapters-create-project.md)
+ [Description des projets](managing-adapters-describe-projects.md)
+ [Suppression d’un projet](managing-adapters-delete-project.md)
+ [Création d’une version de projet](managing-adapters-create-project-version.md)
+ [Description d’une version de projet](managing-adapters-describe-project.md)
+ [Suppression d’une version de projet](managing-adapters-delete-project-version.md)

## Statuts des adaptateurs
<a name="managing-adapters-project-versions-statuses"></a>

L'adaptateur de modération personnalisé (versions du projet) peut avoir l'un des statuts suivants : 
+ TRAINING\$1IN\$1PROGRESS - L'adaptateur est en train de s'entraîner sur les fichiers que vous avez fournis en tant que documents de formation.
+ TRAINING\$1COMPLETED - L'adaptateur a terminé l'entraînement avec succès et vous êtes prêt à vérifier ses performances. 
+ TRAINING\$1FAILED - L'adaptateur n'a pas réussi à terminer sa formation pour une raison quelconque. Consultez le fichier manifeste de sortie et le résumé du manifeste de sortie pour obtenir des informations sur la cause de l'échec.
+ SUPPRESSION - L'adaptateur est en cours de suppression.
+ OBSOLÈTE - L'adaptateur a été formé sur une ancienne version du modèle de base de modération du contenu. Il est en période de grâce et expirera dans les 60 à 90 jours suivant la sortie de la nouvelle version du modèle de base. Pendant la période de grâce, vous pouvez toujours utiliser l'adaptateur pour les inférences [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)ou les opérations [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html)d'API. Reportez-vous à la console de modération personnalisée pour connaître la date d'expiration de vos adaptateurs.
+ EXPIRÉ - L'adaptateur a été formé sur une ancienne version du modèle de base de modération du contenu et il ne peut plus être utilisé pour obtenir des résultats personnalisés avec les opérations de l' StartMediaAnalysisJob API DetectModerationLabels or. Si un adaptateur expiré est spécifié dans une demande d'inférence, il sera ignoré et la réponse sera renvoyée à partir de la version la plus récente du modèle de base de modération personnalisée. 

# Création d’un projet
<a name="managing-adapters-create-project"></a>

Avec cette [CreateProject](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProject.html)opération, vous pouvez créer un projet qui contiendra un adaptateur pour les opérations de détection d'étiquettes de Rekognition. Un projet est un groupe de ressources. Dans le cas d'opérations de détection d'étiquettes telles que DetectModerationLabels, un projet vous permet de stocker des adaptateurs que vous pouvez utiliser pour personnaliser le modèle de Rekognition de base. Lors de l'appel CreateProject, vous fournissez le nom du projet que vous souhaitez créer à l' ProjectName argument. 

 Pour créer un projet à l'aide de la AWS console : 
+ Connectez-vous à la console de Rekognition
+ Cliquez sur **Modération personnalisée**
+ Choisissez **Créer un projet**
+ Sélectionnez **Créer un nouveau projet** ou **Ajouter à un projet existant**
+ Ajoutez un **nom de projet**
+ Ajoutez un **nom d’adaptateur**
+ Ajoutez une description si vous le souhaitez
+ Choisissez la manière dont vous souhaitez importer vos images d’entraînement : fichier manifeste, depuis le compartiment S3 ou depuis votre ordinateur
+ Choisissez si vous souhaitez diviser automatiquement vos données d’entraînement ou importer un fichier manifeste
+ Indiquez si vous souhaitez ou non que le projet soit automatiquement mis à jour
+ Cliquez sur **Créer un projet**

Pour créer un projet à l'aide de la AWS CLI et du SDK :

1. Si ce n'est pas déjà fait, installez et configurez la AWS CLI et le AWS SDKs. Pour plus d’informations, consultez [Étape 2 : configurer le AWS CLI et AWS SDKs](setup-awscli-sdk.md).

1. Utilisez le code suivant pour créer un projet :

------
#### [ CLI ]

```
# Request
# Creating Content Moderation Project
aws rekognition create-project \
    --project-name "project-name" \
    --feature CONTENT_MODERATION \
    --auto-update ENABLED
    --profile profile-name
```

------

# Description des projets
<a name="managing-adapters-describe-projects"></a>

Vous pouvez utiliser l'[DescribeProjects](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjects.html)API pour obtenir des informations sur vos projets, notamment des informations sur tous les adaptateurs associés à un projet. 

Pour décrire les projets avec la AWS CLI et le SDK :

1. Si ce n'est pas déjà fait, installez et configurez la AWS CLI et le AWS SDKs. Pour plus d’informations, consultez [Étape 2 : configurer le AWS CLI et AWS SDKs](setup-awscli-sdk.md).

1. Utilisez le code suivant pour créer un projet :

------
#### [ CLI ]

```
# Request
# Getting CONTENT_MODERATION project details 
aws rekognition describe-projects \
    --features CONTENT_MODERATION
    --profile profile-name
```

------

# Suppression d’un projet
<a name="managing-adapters-delete-project"></a>

Vous pouvez supprimer un projet à l'aide de la console Rekognition ou en appelant l'API. [DeleteProject](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteProject.html) Pour supprimer un projet, vous devez d’abord supprimer chacun des adaptateurs associés. Il est impossible de rétablir un projet ou un modèle supprimé. 

 Pour supprimer un projet à l'aide de la AWS console : 
+ Connectez-vous à la console de Rekognition.
+ Cliquez sur **Modération personnalisée**.
+ Vous devez supprimer chaque adaptateur associé à votre projet avant de pouvoir supprimer le projet lui-même. Supprimez tous les adaptateurs associés au projet en les sélectionnant, puis en sélectionnant **Supprimer**.
+ Sélectionnez le projet, puis cliquez sur le bouton **Supprimer**.

Pour supprimer un projet à l'aide de la AWS CLI et du SDK :

1. Si ce n'est pas déjà fait, installez et configurez la AWS CLI et le AWS SDKs. Pour plus d’informations, consultez [Étape 2 : configurer le AWS CLI et AWS SDKs](setup-awscli-sdk.md).

1. Utilisez le code suivant pour créer un projet : 

------
#### [ CLI ]

```
aws rekognition delete-project 
  --project-arn project_arn \
  --profile profile-name
```

------

# Création d’une version de projet
<a name="managing-adapters-create-project-version"></a>

Vous pouvez entraîner un adaptateur en vue de son déploiement à l'aide de [CreateProjectVersion](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProjectVersion.html)cette opération. CreateProjectVersion crée d'abord une nouvelle version d'un adaptateur associé à un projet, puis commence à entraîner l'adaptateur. La réponse de CreateProjectVersion est un Amazon Resource Name (ARN) pour la version du modèle. L’entraînement prend un certain temps. Vous pouvez obtenir le statut actuel en appelant DescribeProjectVersions. Lors de l’entraînement d’un modèle, Rekognition utilise les jeux de données d’entraînement et de test associés au projet. Vous créez des jeux de données à l’aide de la console. Pour de plus amples informations, consultez la section sur les jeux de données. 

 Pour créer une version de projet à l’aide de la console Rekognition : 
+  Connectez-vous à la console Rekognition AWS 
+  Cliquez sur Modération personnalisée 
+  Sélectionner un projet. 
+  Sur la page « Détails du projet », choisissez **Créer un adaptateur** 
+  Sur la page « Créer un projet », renseignez les informations requises pour les détails du projet, les images de formation et les images de test, puis sélectionnez **Créer un projet**. 
+  Sur la page « Attribuer des étiquettes aux images », ajoutez des étiquettes à vos images et, lorsque vous avez terminé, sélectionnez ** Commencer l’entraînement ** 

Pour créer une version de projet à l'aide de la AWS CLI et du SDK :

1. Si ce n'est pas déjà fait, installez et configurez la AWS CLI et le AWS SDKs. Pour plus d’informations, consultez [Étape 2 : configurer le AWS CLI et AWS SDKs](setup-awscli-sdk.md).

1. Utilisez le code suivant pour créer une version de projet : 

------
#### [ CLI ]

```
# Request
aws rekognition create-project-version \
 --project-arn project-arn \
 --training-data '{Assets=[GroundTruthManifest={S3Object="amzn-s3-demo-source-bucket",Name="manifest.json"}]}' \
 --output-config S3Bucket=amzn-s3-demo-destination-bucket,S3KeyPrefix=my-results \
 --feature-config "ContentModeration={ConfidenceThreshold=70}"
 --profile profile-name
```

------

# Description d’une version de projet
<a name="managing-adapters-describe-project"></a>

Vous pouvez répertorier et décrire les adaptateurs associés à un projet à l'aide de cette [DescribeProjectVersions](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjectVersions.html)opération. Vous pouvez spécifier jusqu'à 10 versions de modèles dans ProjectVersionArns. Si vous ne spécifiez aucune valeur, les descriptions de toutes les versions de modèle du projet sont renvoyées. 

Pour décrire une version de projet à l'aide de la AWS CLI et du SDK :

1. Si ce n'est pas déjà fait, installez et configurez la AWS CLI et le AWS SDKs. Pour plus d’informations, consultez [Étape 2 : configurer le AWS CLI et AWS SDKs](setup-awscli-sdk.md).

1. Utilisez le code suivant pour décrire la version d’un projet :

------
#### [ CLI ]

```
aws rekognition describe-project-versions 
  --project-arn project_arn \
  --version-names [versions]
```

------

# Suppression d’une version de projet
<a name="managing-adapters-delete-project-version"></a>

Vous pouvez supprimer un adaptateur de Rekognition associé à un projet à l'aide de cette opération. [DeleteProjectVersion](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteProjectVersion.html) Vous ne pouvez pas supprimer un adaptateur s’il fonctionne ou s’il est en cours d’entraînement. Pour vérifier l'état d'un adaptateur, appelez l' DescribeProjectVersions opération et vérifiez le champ Status renvoyé par celui-ci. Pour arrêter un appel d'adaptateur en cours d'exécution StopProjectVersion. Si le modèle est en cours d’entraînement, attendez la fin de l’entraînement pour le supprimer. Vous devez supprimer chaque adaptateur associé à votre projet avant de pouvoir supprimer le projet lui-même.

 Pour supprimer une version de projet à l’aide de la console Rekognition : 
+ Connectez-vous à la console de Rekognition
+ Cliquez sur Modération personnalisée
+ Dans l’onglet Projets, vous pouvez voir tous vos projets et les adaptateurs associés. Sélectionnez un adaptateur, puis sélectionnez **Supprimer**.

Pour supprimer une version de projet à l'aide de la AWS CLI et du SDK :

1. Si ce n'est pas déjà fait, installez et configurez la AWS CLI et le AWS SDKs. Pour plus d’informations, consultez [Étape 2 : configurer le AWS CLI et AWS SDKs](setup-awscli-sdk.md).

1. Utilisez le code suivant pour supprimer une version de projet :

------
#### [ CLI ]

```
# Request
aws rekognition delete-project-version 
  --project-version-arn model_arn \
  --profile profile-name
```

------

# Tutoriel sur l’adaptateur de modération personnalisé
<a name="using-adapters-tutorial"></a>

Ce didacticiel explique comment créer, former, évaluer, utiliser et gérer des adaptateurs à l’aide de la console de Rekognition. Pour créer, utiliser et gérer des adaptateurs à l'aide du AWS SDK, consultez[Gestion des adaptateurs à l'aide de la AWS CLI et SDKs](managing-adapters.md).

Les adaptateurs vous permettent d’améliorer la précision des opérations d’API de Rekognition en personnalisant le comportement du modèle en fonction de vos besoins et de vos cas d’utilisation. Après avoir créé un adaptateur à l'aide de ce didacticiel, vous pourrez l'utiliser pour analyser vos propres images à l'aide d'opérations telles [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)que le réentraînement de l'adaptateur en vue de futures améliorations. 

Dans ce didacticiel, vous allez découvrir comment :
+ Créer un projet à l’aide de la console de Rekognition
+ Annoter vos données d’entraînement
+ Former votre adaptateur sur votre jeu de données d’entraînement
+ Vérifier les performances de votre adaptateur
+ Utiliser votre adaptateur pour l’analyse d’images

## Conditions préalables
<a name="using-adapters-tutorial-prereqs"></a>

Avant de terminer ce didacticiel, il est recommandé de le lire attentivement [Création et utilisation d’adaptateurs](creating-and-using-adapters.md).

Pour créer un adaptateur, vous pouvez utiliser l’outil Rekognition Console pour créer un projet, télécharger et annoter vos propres images, puis entraîner un adaptateur sur ces images. Pour commencer, consultez [Création d’un projet et formation d’un adaptateur](#using-adapters-tutorial-annotation).

Vous pouvez également utiliser la console ou l’API de Rekognition pour récupérer des prédictions pour les images, puis vérifier les prédictions avant d’entraîner un adaptateur sur ces prédictions. Pour commencer, consultez [Analyse en bloc, vérification des prédictions et formation d’un adaptateur](#using-adapters-tuorial-annotation-bulk-analysis).

## Annotation d’image
<a name="using-adapters-tutorial-image-annotation"></a>

Vous pouvez annoter vous-même les images en les étiquetant à l’aide de la console Rekognition, ou utiliser l’analyse Rekognition Bulk pour annoter des images dont vous pouvez ensuite vérifier qu’elles ont été correctement étiquetées. Choisissez l’un des sujets ci-dessous pour commencer.

**Topics**
+ [Création d’un projet et formation d’un adaptateur](#using-adapters-tutorial-annotation)
+ [Analyse en bloc, vérification des prédictions et formation d’un adaptateur](#using-adapters-tuorial-annotation-bulk-analysis)

### Création d’un projet et formation d’un adaptateur
<a name="using-adapters-tutorial-annotation"></a>

Effectuez les étapes suivantes pour entraîner votre adaptateur en annotant des images à l’aide de la console Rekognition.

**Créer un projet**

Avant de pouvoir entraîner ou utiliser un adaptateur, vous devez créer le projet qui le contiendra. Vous devez également fournir les images utilisées pour entraîner votre adaptateur. Pour créer un projet, un adaptateur et vos jeux de données d’images : 

1. Connectez-vous à la console de AWS gestion et ouvrez la console de Rekognition à l'adresse. https://console.aws.amazon.com/rekognition/

1. Dans le volet gauche, sélectionnez **Modération personnalisée.** La page d’accueil de Rekognition Custom Moderation s’affiche.  
![\[L'interface de modération personnalisée de Rekognition ne montre aucun adaptateur ou option affiné existant pour créer un nouveau projet ou une nouvelle recherche.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/adapters-1-landing-page.png)

1. La page d’accueil de Modération personnalisée affiche une liste de tous vos projets et adaptateurs, ainsi qu’un bouton permettant de créer un adaptateur. Choisissez **Créer un projet** pour créer un nouveau projet et un nouvel adaptateur.

1. Si c’est la première fois que vous créez un adaptateur, vous serez invité à créer un compartiment Amazon S3 pour stocker les fichiers liés à votre projet et à votre adaptateur. Choisissez **Créez un compartiment Amazon S3**.

1. Sur la page suivante, saisissez le **nom de l’adaptateur** et le **nom du projet**. Fournissez une description de l’adaptateur si vous le souhaitez.   
![\[Formulaire permettant de saisir les détails du projet, y compris le nom du projet, le nom de l'adaptateur et la description de l'adaptateur facultatif. Options permettant d'importer un jeu de données d'images d'entraînement à partir d'un fichier manifeste ou d'un compartiment S3.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/adapters-2-project-details.png)

1. Dans cette étape, vous allez également fournir les images pour votre adaptateur. Vous pouvez sélectionner : **Importer des images depuis votre ordinateur**, **importer un fichier manifeste** ou **importer des images depuis le compartiment Amazon S3**. Si vous choisissez d’importer vos images depuis un compartiment Amazon S3, indiquez le chemin d’accès au compartiment et au dossier contenant vos images d’entraînement. Si vous téléchargez vos images directement depuis votre ordinateur, notez que vous ne pouvez télécharger que 30 images à la fois. Si vous utilisez un fichier manifeste contenant des annotations, vous pouvez ignorer les étapes répertoriées ci-dessous concernant les annotations d’image et passer à la section sur [Vérification des performances de l’adaptateur](#using-adapters-tutorial-performance).

1. Dans la section **Détails du jeu de données de test**, choisissez **Autosplit** pour que Rekognition sélectionne automatiquement le pourcentage approprié de vos images comme données de test, ou vous pouvez choisir **Importer manuellement le fichier manifeste.**

1. Après avoir renseigné ces informations, sélectionnez **Créer un projet**.

**Entraînez l’adaptateur**

Pour entraîner un adaptateur sur vos propres images non annotées :

1. Sélectionnez le projet qui contient votre adaptateur, puis choisissez l’option **Attribuer une étiquette aux images**. 

1. Sur la page **Attribuer une étiquette aux images**, vous pouvez voir toutes les images qui ont été téléchargées sous forme d’images d’entraînement. Vous pouvez filtrer ces images par labeled/unlabeled statut et par catégorie d'étiquette à l'aide des deux panneaux de sélection d'attributs sur la gauche. Vous pouvez ajouter des images supplémentaires à votre jeu de données d’entraînement en sélectionnant le bouton **Ajouter des images**.  
![\[Interface d'étiquetage d'images avec instructions, détails de l'adaptateur et panneau d'image vide.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/adapters-4-assign-labels-to-images.png)

1. Après avoir ajouté des images au jeu de données d’entraînement, vous devez annoter vos images à l’aide d’étiquettes. Après avoir chargé vos images, la page « Attribuer des étiquettes aux images » sera mise à jour pour afficher les images que vous avez téléchargées. Vous êtes invité à sélectionner l’étiquette appropriée pour vos images dans une liste déroulante d’étiquettes prises en charge par Rekognition Moderation. Vous pouvez sélectionner plusieurs étiquettes. 

1. Continuez ce processus jusqu’à ce que vous ayez ajouté des étiquettes à chacune des images de vos données d’entraînement.

1. Après avoir étiqueté toutes vos données, sélectionnez **Démarrer l’entraînement** pour commencer à entraîner le modèle, qui crée votre adaptateur.  
![\[Interface affichant 2 images avec des options pour attribuer des étiquettes à des catégories telles que la nudité explicite, le contenu suggestif, la violence, les symboles haineux, l'alcool, les drogues, le tabac, etc.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/adapters-5-labels-images-blurred.png)

1. Avant de commencer le processus de formation, vous pouvez ajouter les **balises** de votre choix à l’adaptateur. Vous pouvez également fournir à l'adaptateur une clé de chiffrement personnalisée ou utiliser une clé AWS KMS. Une fois que vous avez fini d’ajouter les balises de votre choix et de personnaliser le cryptage à votre guise, sélectionnez **Entraîner l’adaptateur** pour démarrer le processus de formation de votre adaptateur. 

1. Attendez que votre adaptateur ait terminé l’entraînement. Une fois la formation terminée, vous recevrez une notification indiquant que la création de votre adaptateur est terminée.

Une fois que le statut de votre adaptateur est « Entraînement terminé », vous pouvez consulter les métriques de votre adaptateur

### Analyse en bloc, vérification des prédictions et formation d’un adaptateur
<a name="using-adapters-tuorial-annotation-bulk-analysis"></a>

Procédez comme suit pour entraîner votre adaptateur en vérifiant les prévisions d’analyse en bloc issues du modèle de modération du contenu de Rekognition.

 Pour entraîner un adaptateur en vérifiant les prédictions issues du modèle de modération du contenu de Rekognition, vous devez : 

1.  Effectuer une analyse en bloc de vos images 

1.  Vérifier les prédictions renvoyées pour vos images 

Vous pouvez obtenir des prédictions pour les images en effectuant une analyse en bloc avec le modèle de base de Rekognition ou un adaptateur que vous avez déjà créé. 

**Effectuer une analyse en bloc de vos images**

Pour entraîner un adaptateur sur les prédictions que vous avez vérifiées, vous devez d’abord démarrer une tâche d’analyse en bloc pour analyser un lot d’images à l’aide du modèle de base de Rekognition ou d’un adaptateur de votre choix. Pour exécuter une tâche d’analyse en bloc, procédez comme suit : 

1. Connectez-vous à la console Amazon Rekognition AWS Management Console et ouvrez-la à l'adresse. [https://console.aws.amazon.com/rekognition/](https://console.aws.amazon.com/rekognition/)

1. Dans le volet gauche, sélectionnez **Analyse en bloc**. La page d’accueil de l’analyse en bloc s’affiche. Choisissez **Démarrer l’analyse en bloc**. Vue d'ensemble de la fonctionnalité d'analyse en bloc indiquant les étapes à suivre pour télécharger des images, attendre l'analyse, examiner les résultats et éventuellement vérifier les prédictions du modèle. Répertorie les tâches d'analyse en bloc récentes pour la modération du contenu à l'aide du modèle de base.  
![\[Présentation de la fonctionnalité d'analyse en bloc présentant le flux de travail et répertoriant les tâches d'analyse en bloc récentes pour la modération du contenu à l'aide du modèle de base.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/BA-1-create-bulk-analysis.png)

1. Si c’est la première fois que vous créez un adaptateur, vous serez invité à créer un compartiment Amazon Simple Storage Service pour stocker les fichiers liés à votre projet et à votre adaptateur. Choisissez **Créez un compartiment Amazon S3**.

1. Sélectionnez l’adaptateur que vous souhaitez utiliser pour l’analyse globale à l’aide du menu déroulant **Choisir un adaptateur**. Si aucun adaptateur n’est choisi, le modèle de base sera utilisé par défaut. Dans le cadre de ce didacticiel, ne choisissez pas d’adaptateur.  
![\[Interface d'analyse en bloc avec menus déroulants permettant de choisir une fonctionnalité de Rekognition, un adaptateur, de définir un nom de tâche et un seuil de confiance minimal pour les étiquettes. Certains champs sont obligatoires.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/BA-2-bulk-analysis-job.png)

1.  Dans le champ **Nom de la tâche d’analyse en bloc**, saisissez le nom de la tâche d’analyse en bloc. 

1. Choisissez une valeur pour le **seuil de confiance minimum**. Les prédictions d’étiquettes dont le seuil de confiance est inférieur au seuil de confiance que vous avez choisi ne seront pas renvoyées. Notez que lorsque vous évaluerez les performances du modèle ultérieurement, vous ne pourrez pas ajuster le seuil de confiance en dessous du seuil de confiance minimum que vous avez choisi.

1. Dans cette étape, vous allez également fournir les images que vous souhaitez analyser avec l’analyse en bloc. Ces images peuvent également être utilisées pour entraîner votre adaptateur. Vous pouvez choisir **Charger des images depuis votre ordinateur** ou **Importer des images depuis le compartiment Amazon S3**. Si vous choisissez d’importer vos documents depuis un compartiment Amazon S3, indiquez le chemin d’accès au compartiment et au dossier contenant vos images d’entraînement. Si vous téléchargez vos documents directement depuis votre ordinateur, notez que vous ne pouvez télécharger que 50 images à la fois.

1. Après avoir renseigné ces informations, choisissez **Démarrer l’analyse**. Cela lancera le processus d’analyse à l’aide du modèle de base de Rekognition.

1.  Vous pouvez vérifier le statut de votre tâche d’analyse en bloc en vérifiant le statut d’analyse en bloc de la tâche sur la page principale d’analyse en bloc. Lorsque le statut de l’analyse en bloc devient « Réussi », les résultats de l’analyse sont prêts à être examinés.   
![\[Tableau des tâches d'analyse en bloc présentant une tâche nommée « Evaluation 01 » avec le statut « Successed », à l'aide de l'API de reconnaissance de la modération du contenu et du modèle de base.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/BA-3-bulk-analysis-status.png)

1.  Choisissez l’analyse que vous avez créée dans la liste des **tâches d’analyse en bloc**. 

1. Sur la page de détails de l’analyse en bloc, vous pouvez voir les prédictions que le modèle de base de Rekognition a établies pour les images que vous avez téléchargées. 

1. Passez en revue les performances du modèle de base. Vous pouvez modifier le seuil de confiance que doit respecter votre adaptateur pour attribuer une étiquette à une image à l’aide du curseur du seuil de confiance. Le nombre d’instances signalées et non signalées change au fur et à mesure que vous ajustez le seuil de confiance. Le volet Catégories d’étiquettes affiche les catégories de haut niveau reconnues par Rekognition, et vous pouvez sélectionner une catégorie dans cette liste pour afficher toutes les images auxquelles cette étiquette a été attribuée.   
![\[Le graphique à barres Bulk Analysis indiquant le nombre d'images marquées pour différentes étiquettes.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/BA-4-bulk-analysis-complete.png)

**Vérifiez les prédictions**

Si vous avez vérifié la précision du modèle de base de Rekognition ou d’un adaptateur choisi, et que vous souhaitez améliorer cette précision, vous pouvez utiliser le flux de travail de vérification : 

1. Une fois que vous avez terminé d’examiner les performances du modèle de base, vous avez besoin de vérifier les prévisions. La correction des prédictions vous permet de former un adaptateur. Choisissez **Vérifier les prédictions** en haut de la page d’analyse en bloc.  
![\[Un panneau vous invitant à vérifier les prédictions pour calculer les taux de faux positifs et négatifs, ou à entraîner un adaptateur de modération personnalisé pour une précision accrue.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/BA-6-start-verification.png)

1. Sur la page Vérifier les prédictions, vous pouvez voir toutes les images que vous avez fournies au modèle de base de Rekognition, ou à un adaptateur choisi, ainsi que l’étiquette prévue pour chaque image. Vous devez vérifier que chaque prédiction est correcte ou incorrecte à l’aide des boutons situés sous l’image. Utilisez le bouton « X » pour marquer une prédiction comme incorrecte et le bouton de coche pour marquer une prédiction comme correcte. Pour entraîner un adaptateur, vous devez vérifier au moins 20 prédictions représentant des faux positifs, et 50 prédictions représentant des faux négatifs pour une étiquette donnée. Plus vous vérifiez de prédictions, meilleures seront les performances de l’adaptateur.   
![\[Trois images représentant des personnes en possession de boissons alcoolisées, utilisées pour illustrer la prédiction de la catégorie « Alcool » pour les étiquettes illustrées.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/BA-7-verify-predictions-1.png)

   Une fois que vous avez vérifié une prédiction, le texte sous l’image change pour indiquer le type de prédiction que vous avez vérifié. Une fois que vous avez vérifié une image, vous pouvez également ajouter des étiquettes supplémentaires à l’image à l’aide du menu **Attribuer des étiquettes à l’image**. Vous pouvez voir quelles images sont signalées ou non par le modèle pour le seuil de confiance que vous avez choisi, ou filtrer les images par catégorie.   
![\[Image montrant trois exemples de modération du contenu pour l'alcool, ainsi qu'un menu permettant d'appliquer des étiquettes.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/BA-8-verify-predictions-2.png)

1. Une fois que vous avez terminé de vérifier toutes les prédictions que vous souhaitez vérifier, vous pouvez consulter les statistiques concernant vos prévisions vérifiées dans la section **Performances par étiquette** de la page de vérification. Vous pouvez également revenir à la page des détails de l’analyse en bloc pour consulter ces statistiques.  
![\[Page de vérification de la modération du contenu indiquant les taux de faux positifs pour les étiquettes explicites relatives à la nudité, à la suggestion et à l'alcool à un seuil de confiance de 50 %.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/BA-8.5-predictions-stats.png)

1. Lorsque vous êtes satisfait des statistiques concernant les **performances par étiquette**, revenez sur la page **Vérifier les prévisions**, puis sélectionnez le bouton **Entraîner un adaptateur** pour commencer à entraîner votre adaptateur.  
![\[Vérifiez la page des prévisions indiquant les détails de la tâche, notamment le nom, la date de création, la version du modèle, les emplacements d'entrée et de sortie. Train, un bouton adaptateur est présent.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/BA-9-train-adapter.png)

1. Sur la page Former un adaptateur, vous êtes invité à créer un projet ou à choisir un projet existant. Nommez le projet et l’adaptateur qui sera inclus dans le projet. Vous devez également spécifier la source de vos images de test. Lorsque vous spécifiez les images, vous pouvez choisir Autosplit pour que Rekognition utilise automatiquement une partie de vos données d’entraînement comme images de test, ou vous pouvez spécifier manuellement un fichier manifeste. Il est recommandé de choisir Autosplit.   
![\[Interface permettant de créer un nouveau projet d'adaptateur avec des champs permettant de saisir le nom du projet, le nom de l'adaptateur, la description de l'adaptateur, de spécifier la source de données de test et de fractionner automatiquement les données ou d'importer un fichier manifeste.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/BA-10-train-adapter-project.png)

1. Spécifiez les balises que vous souhaitez, ainsi qu'une AWS KMS clé si vous ne souhaitez pas utiliser la AWS clé par défaut. Il est recommandé de laisser la **mise à jour automatique** activée. 

1. Choisissez **Former l’adaptateur**.  
![\[Paramètres de configuration d'un adaptateur, notamment les options d'ajout de balises, de chiffrement des données, de seuil de confiance et de mise à jour automatique. L'adaptateur peut être entraîné à partir de cette interface.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/BA-11-train-adapter.png)

1. Une fois que le statut de votre adaptateur sur la page d’accueil de la modération personnalisée est passé à « Entraînement terminé », vous pouvez vérifier les performances de votre adaptateur. Pour plus d’informations, consultez [Vérification des performances de l’adaptateur](#using-adapters-tutorial-performance).

## Vérification des performances de l’adaptateur
<a name="using-adapters-tutorial-performance"></a>

Pour vérifier les performances de votre adaptateur :

1. Lorsque vous utilisez la console, vous pouvez voir l’état de tous les adaptateurs associés à un projet sous l’onglet Projets de la page d’accueil de la modération personnalisée. Accédez à la page d’accueil de la modération personnalisée.  
![\[Page d'accueil de modération personnalisée affichant une liste de projets de modération avec des détails tels que le statut, l'ID de l'adaptateur, l'emplacement des données d'entrée, la version du modèle de base, la date de création et les messages d'état. Les projets peuvent être créés, supprimés ou repris.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/adapters-7-status-alt.png)

1. Sélectionnez l’adaptateur que vous souhaitez vérifier dans cette liste. Sur la page de détails de l’adaptateur suivante, vous pouvez voir diverses mesures relatives à l’adaptateur.  
![\[Les indicateurs de performance des adaptateurs indiquent une amélioration de 25 % des faux positifs et une réduction de 24 % des faux négatifs pour différentes catégories d'étiquettes, telles que Suggestive et Alcohol, avec des données sur le terrain, les vrais positifs, le modèle de base et les faux négatifs de l'adaptateur.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/adapters-8.5-new-performance-review.png)

1. Le volet **Seuil** vous permet de modifier le seuil de confiance minimum que doit respecter votre adaptateur pour attribuer une étiquette à une image. Le nombre d’instances signalées et non signalées changera au fur et à mesure que vous ajusterez le seuil de confiance. Vous pouvez également filtrer par catégorie d’étiquette pour voir les statistiques des catégories que vous avez sélectionnées. Définissez le seuil que vous avez choisi.

1. Vous pouvez évaluer les performances de votre adaptateur sur la base de vos données de test en examinant les mesures du panneau Performances de l’adaptateur. Ces mesures sont calculées en comparant les extractions de l’adaptateur aux annotations « réalistes » figurant sur le kit de test. 

Le volet des performances de l’adaptateur indique les taux d’amélioration de faux positifs et de faux négatifs de l’adaptateur que vous avez créé. L’onglet Performances par étiquette peut être utilisé pour comparer les performances de l’adaptateur et du modèle de base pour chaque catégorie d’étiquette. Il indique le nombre de prédictions représentant des faux positifs et des faux négatifs établies à la fois par le modèle de base et par l’adaptateur, stratifiées par catégorie d’étiquette. En consultant ces métriques, vous pouvez déterminer les domaines dans lesquels l’adaptateur doit être amélioré. Pour obtenir plus d’informations sur ces métriques, consultez [Évaluation et amélioration de votre adaptateur](using-adapters-evaluating-improving.md). 

Pour améliorer les performances, vous pouvez collecter davantage d’images d’entraînement, puis créer un nouvel adaptateur intégré au projet. Il vous suffit de retourner à la page d’accueil de la modération personnalisée et de créer un nouvel adaptateur dans votre projet, en fournissant davantage d’images d’entraînement sur lesquelles l’adaptateur sera entraîné. Cette fois, choisissez l’option **Ajouter à un projet existant** au lieu de **Créer un nouveau projet**, puis sélectionnez le projet dans lequel vous souhaitez créer le nouvel adaptateur dans le menu déroulant **Nom du projet**. Comme précédemment, annotez vos images ou fournissez un fichier manifeste contenant des annotations.

![\[Interface permettant de créer un nouvel adaptateur de modération de contenu ou de l'ajouter à un projet existant, avec des options permettant de nommer l'adaptateur et le projet.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/adapters-9-create-new-adapter.png)


## Utilisation de votre adaptateur
<a name="using-adapters-tutorial-using-adapter"></a>

Après avoir créé votre adaptateur, vous pouvez le fournir à une opération de Rekognition prise en charge telle que. [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) Pour voir des exemples de code que vous pouvez utiliser pour effectuer des inférences avec votre adaptateur, sélectionnez l'onglet « Utiliser l'adaptateur », où vous pouvez voir des exemples de code pour la AWS CLI et pour Python. Vous pouvez également consulter la section correspondante de la documentation relative à l’opération pour laquelle vous avez créé un adaptateur pour voir d’autres exemples de code, des instructions de configuration et un exemple de code JSON. 

![\[Interface indiquant les emplacements des données de test, des données d'entraînement et des données de sortie avec les champs d'URL S3 correspondants. Options permettant d'utiliser un adaptateur, d'afficher des images et des balises d'apprentissage, et d'accéder aux détails de l'adaptateur, notamment à son identifiant et à des exemples de code, pour que l'AWS CLI et Python puissent utiliser l'adaptateur entraîné.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/adapters-12-use-adapter.png)


## Suppression de votre adaptateur et de votre projet
<a name="using-adapters-tutorial-deleting-adapter"></a>

Vous pouvez supprimer des adaptateurs individuels ou supprimer votre projet. Vous devez supprimer chaque adaptateur associé à votre projet avant de pouvoir supprimer le projet lui-même.

1. Pour supprimer un adaptateur associé au projet, choisissez-le, puis choisissez **Supprimer**.

1. Pour supprimer un projet, sélectionnez le projet que vous souhaitez supprimer, puis choisissez **Supprimer**.

# Évaluation et amélioration de votre adaptateur
<a name="using-adapters-evaluating-improving"></a>

Après chaque cycle de formation sur l’adaptateur, vous devez examiner les indicateurs de performance de l’outil de console de Rekognition afin de déterminer à quel niveau l’adaptateur se situe par rapport au niveau de performance souhaité. Vous pouvez ensuite améliorer encore la précision de votre adaptateur pour vos images en téléchargeant un nouveau lot d’images d’entraînement, et en entraînant un nouvel adaptateur dans votre projet. Une fois que vous avez créé une version améliorée de l’adaptateur, vous pouvez utiliser la console pour supprimer les anciennes versions de l’adaptateur dont vous n’avez plus besoin. 

Vous pouvez également récupérer des métriques à l'aide de l'opération [DescribeProjectVersions](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjectVersions.html)API.

## Métriques de performances
<a name="using-adapters-performance-metrics"></a>

Une fois que vous avez terminé le processus de formation et créé votre adaptateur, il est important d’évaluer dans quelle mesure l’adaptateur extrait les informations de vos images.

Deux métriques sont fournis dans la console de Rekognition pour vous aider à analyser les performances de votre adaptateur : amélioration des faux positifs et amélioration des faux négatifs. 

Vous pouvez consulter ces mesures pour n’importe quel adaptateur en sélectionnant l’onglet « Performances de l’adaptateur » dans la partie adaptateur de la console. Le volet des performances de l’adaptateur indique les taux d’amélioration des faux positifs et des faux négatifs de l’adaptateur que vous avez créé. 

L’amélioration des faux positifs mesure en quoi la reconnaissance des faux positifs par l’adaptateur s’est améliorée par rapport au modèle de base. Si la valeur d’amélioration des faux positifs est de 25 %, cela signifie que l’adaptateur a amélioré sa reconnaissance des faux positifs de 25 % sur le jeu de données de test.

L’amélioration des faux négatifs mesure en quoi la reconnaissance des faux négatifs par l’adaptateur s’est améliorée par rapport au modèle de base. Si la valeur d’amélioration des faux négatifs est de 25 %, cela signifie que l’adaptateur a amélioré sa reconnaissance des faux négatifs de 25 % sur le jeu de données de test.

L’onglet Performances par étiquette peut être utilisé pour comparer les performances de l’adaptateur et du modèle de base pour chaque catégorie d’étiquette. Il indique le nombre de prédictions représentant des faux positifs et des faux négatifs établies à la fois par le modèle de base et par l’adaptateur, stratifiées par catégorie d’étiquette. En consultant ces métriques, vous pouvez déterminer les domaines dans lesquels l’adaptateur doit être amélioré.

Par exemple, si le taux de faux négatifs du modèle de base pour la catégorie des étiquettes alcoolisées est de 15 alors que le taux de faux négatifs de l’adaptateur est de 15 ou plus, vous savez que vous devez vous concentrer sur l’ajout d’images supplémentaires contenant l’étiquette d’alcool lors de la création d’un nouvel adaptateur.

Lorsque vous utilisez les opérations de l'API Rekognition, la métrique F1-Score est renvoyée lors de l'appel de l'opération. [DescribeProjectVersions](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjectVersions.html)

## Amélioration de votre modèle
<a name="using-adapters-improving-model"></a>

Le déploiement d’un adaptateur est un processus itératif, car vous devrez probablement entraîner un adaptateur plusieurs fois pour atteindre votre niveau de précision cible. Après avoir créé et entraîné votre adaptateur, vous devez tester et évaluer ses performances sur différents types d’étiquettes. 

Si la précision de votre adaptateur fait défaut dans un domaine, ajoutez de nouveaux exemples de ces images afin d’améliorer les performances de l’adaptateur pour ces étiquettes. Essayez de fournir à l’adaptateur des exemples supplémentaires et variés qui reflètent les cas où il rencontre des difficultés. En fournissant à votre adaptateur des images représentatives et variées, vous lui permettez de traiter divers exemples concrets.

Après avoir ajouté de nouvelles images à votre kit d’entraînement, réentraînez l’adaptateur, puis réévaluez-le sur votre ensemble de test et sur les étiquettes. Répétez ce processus jusqu’à ce que l’adaptateur atteigne le niveau de performance souhaité. Si vous fournissez des images et des annotations plus représentatives, les scores de faux positifs et de faux négatifs s’amélioreront progressivement au fil des itérations d’entraînement successives.

# Formats de fichiers manifestes
<a name="using-adapters-manifest-files"></a>

Les sections suivantes présentent des exemples de formats de fichier manifeste pour les fichiers d’entrée, de sortie et d’évaluation.

## Manifeste d’entrée
<a name="using-adapters-manifest-files-input"></a>

Un fichier manifeste est un fichier délimité par json-line, chaque ligne contenant un fichier JSON contenant des informations sur une seule image. 

Chaque entrée du manifeste d’entrée doit contenir le champ `source-ref` indiquant le chemin d’accès à l’image dans le compartiment Amazon S3 et, pour une modération personnalisée, le champ `content-moderation-groundtruth` contenant des annotations de base. Toutes les images d’un jeu de données doivent se trouver dans le même compartiment. La structure est commune aux fichiers manifestes de formation et de test.

L’opération de modération personnalisée `CreateProjectVersion` utilise les informations fournies dans le manifeste d’entrée pour entraîner un adaptateur. 

L’exemple suivant est une ligne d’un fichier manifeste pour une seule image contenant une seule classe dangereuse :

```
{
   "source-ref": "s3://foo/bar/1.jpg",
   "content-moderation-groundtruth": {
        "ModerationLabels": [
            { 
                "Name": "Rude Gesture"
            }
        ]
   }
}
```

L’exemple suivant est une ligne d’un fichier manifeste pour une seule image dangereuse contenant plusieurs classes dangereuses, en particulier Nudité et Gestes grossiers.

```
{
   "source-ref": "s3://foo/bar/1.jpg",
   "content-moderation-groundtruth": {
        "ModerationLabels": [
            { 
                "Name": "Rude Gesture"
            },
            {
                "Name": "Nudity"
            }
        ]
   }
}
```

L’exemple suivant est une ligne d’un fichier manifeste pour une seule image ne contenant aucune classe dangereuses :

```
{
   "source-ref": "s3://foo/bar/1.jpg",
   "content-moderation-groundtruth": {
        "ModerationLabels": []
   }
}
```

Pour obtenir la liste complète des étiquettes prises en charge, reportez-vous à la section [Modération du contenu](https://docs.aws.amazon.com/rekognition/latest/dg/moderation.html).



## Manifeste de sortie
<a name="using-adapters-manifest-files-output"></a>

À la fin d’une tâche de formation, un fichier manifeste de sortie est renvoyé. Le fichier manifeste de sortie est un fichier délimité par JSON-line, chaque ligne contenant un JSON avec des informations sur une seule image. Le chemin d'accès à Amazon S3 OutputManifest peut être obtenu à partir de `DescribeProjectVersion` la réponse :
+  `TrainingDataResult.Output.Assets[0].GroundTruthManifest.S3Object` pour jeux de données d’entraînement 
+  `TestingDataResult.Output.Assets[0].GroundTruthManifest.S3Object` pour jeux de données de test 

Les informations suivantes sont renvoyées pour chaque entrée du manifeste de sortie :


|  |  | 
| --- |--- |
| Nom de clé | Description | 
|  source-ref  | Référence à une image dans s3 qui a été fournie dans le manifeste d'entrée | 
|  content-moderation-groundtruth  | Annotations fondées sur la vérité fournies dans le manifeste d'entrée | 
|  detect-moderation-labels  | Prédictions de l'adaptateur, uniquement incluses dans l'ensemble de données de test | 
|  detect-moderation-labels-base-model  | Prédictions du modèle de base, faisant partie de l'ensemble de données de test uniquement | 

Les prédictions de l'adaptateur et du modèle de base sont renvoyées à la ConfidenceTrehsold version 5.0 dans un format similaire à celui de la [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)réponse.

L’exemple suivant montre la structure des prédictions de l’adaptateur et du modèle de base :

```
{
   "ModerationLabels": [ 
      { 
         "Confidence": number,
         "Name": "string",
         "ParentName": "string"
      }
   ],
   "ModerationModelVersion": "string",
   "ProjectVersion": "string"
}
```

Pour obtenir la liste complète des étiquettes renvoyées, reportez-vous à la section [Modération du contenu](https://docs.aws.amazon.com/rekognition/latest/dg/moderation.html).

## Manifeste des résultats d’évaluation
<a name="using-adapters-manifest-files-eval"></a>

À la fin d’une tâche de formation, un fichier manifeste des résultats d’évaluation est renvoyé. Le manifeste des résultats de l’évaluation est un fichier de sortie JSON généré par la tâche de formation. Il contient des informations concernant les performances de l’adaptateur sur les données de test.

Amazon S3 Le chemin d'accès au manifeste des résultats de l'évaluation peut être obtenu à partir du `EvaluationResult.Summary.S3Object` champ de la DescribeProejctVersion réponse.

La structure du manifeste des résultats d’évaluation est présentée dans l’exemple suivant :

```
{
    "AggregatedEvaluationResults": {
       "F1Score": number
    },

    "EvaluationDetails": {
        "EvaluationEndTimestamp": "datetime",
        "Labels": [
            "string"
        ],
        "NumberOfTestingImages": number,
        "NumberOfTrainingImages": number,
        "ProjectVersionArn": "string"
    },

    "ContentModeration": {
        "InputConfidenceThresholdEvalResults": {
            "ConfidenceThreshold": float,
            "AggregatedEvaluationResults": {
                "BaseModel": {
                    "TruePositive": int,
                    "TrueNegative": int,
                    "FalsePositive": int,
                    "FalseNegative": int
                },
                "Adapter": {
                    "TruePositive": int,
                    "TrueNegative": int,
                    "FalsePositive": int,
                    "FalseNegative": int
                }
            },
            "LabelEvaluationResults": [
                {
                    "Label": "string",
                    "BaseModel": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    },
                    "Adapter": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    }
                }
            ]
        }
        "AllConfidenceThresholdsEvalResults": [
            {
                "ConfidenceThreshold": float,
                "AggregatedEvaluationResults": {
                    "BaseModel": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    },
                    "Adapter": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    }
                },
                "LabelEvaluationResults": [
                    {
                       "Label": "string",
                        "BaseModel": {
                            "TruePositive": int,
                            "TrueNegative": int,
                            "FalsePositive": int,
                            "FalseNegative": int
                        },
                        "Adapter": {
                            "TruePositive": int,
                            "TrueNegative": int,
                            "FalsePositive": int,
                            "FalseNegative": int
                        }
                    }
                ]
            }
        ]
    }
}
```

Le fichier manifeste d’évaluation contient :
+ Résultats agrégés tels que définis par `F1Score` 
+ Détails du travail d'évaluation ProjectVersionArn, notamment le nombre d'images d'entraînement, le nombre d'images de test et les étiquettes sur lesquelles l'adaptateur a été formé.
+  FalseNegative Résultats agrégés TruePositive TrueNegative, FalsePositive, et pour les performances du modèle de base et de l'adaptateur.
+ Par étiquette TruePositive, TrueNegative FalsePositive, et FalseNegative résultats pour les performances du modèle de base et de l'adaptateur, calculés au seuil de confiance en entrée.
+ Agrégés et par étiquette TruePositive, TrueNegative FalsePositive, et FalseNegative résultats pour les performances du modèle de base et de l'adaptateur à différents seuils de confiance. Le seuil de confiance varie de 5 à 100 par paliers de 5.

# Bonnes pratiques relatives aux adaptateurs d’entraînement
<a name="using-adapters-best-practices"></a>

Il est recommandé de respecter les meilleures pratiques suivantes lors de la création, la formation et l’utilisation de vos adaptateurs :



1.  Les exemples de données d’image doivent capturer les erreurs représentatives que les clients ont l’intention de supprimer. Si le modèle commet des erreurs répétées sur des images visuellement similaires, assurez-vous d’apporter un grand nombre de ces images pour l’entraînement. 

1.  Au lieu de n’ajouter que des images indiquant que le modèle commet des erreurs sur une étiquette de modération en particulier, assurez-vous également d’inclure des images indiquant que le modèle ne commet pas d’erreurs sur cette étiquette de modération. 

1.  Fournir un minimum de 50 échantillons faussement négatifs OU 20 échantillons faussement positifs pour la formation et un minimum de 20 échantillons pour les tests. Toutefois, fournissez autant d’images annotées que possible pour améliorer les performances de l’adaptateur. 

1.  Annotez toutes les étiquettes qui vous intéressent pour toutes les images : si vous décidez que vous devez annoter l’occurrence d’une étiquette sur une image, veillez à annoter l’occurrence de cette étiquette sur toutes les autres images. 

1.  Les exemples de données d’image doivent contenir autant de variations que possible sur l’étiquette, en se concentrant sur les instances représentatives des images qui seront analysées dans un environnement de production. 

# Configuration des AutoUpdate autorisations
<a name="using-adapters-autoupdate"></a>

Rekognition prend en charge AutoUpdate cette fonctionnalité pour les adaptateurs personnalisés. Cela signifie que le recyclage automatique fait de son mieux lorsque le AutoUpdate drapeau est ACTIVÉ sur un projet. Ces mises à jour automatiques nécessitent l'autorisation d'accéder à vos Training/Testing ensembles de données et la AWS KMS clé avec laquelle vous formerez votre adaptateur client. Vous pouvez fournir ces autorisations en suivant les étapes ci-dessous.



## Autorisations pour le compartiment Amazon S3
<a name="using-adapters-autoupdate-s3"></a>

 Par défaut, tous les objets et les compartiments Amazon S3 sont privés. Seul le propriétaire de la ressource, le AWS compte qui a créé le compartiment, peut accéder au compartiment et aux objets qu'il contient. Le propriétaire de la ressource peut toutefois accorder des autorisations d’accès à d’autres ressources et à d’autres utilisateurs en créant une politique de compartiment.

 Si vous souhaitez créer ou modifier un compartiment Amazon S3 à utiliser comme source de jeux de données d’entrée et comme destination des résultats d’entraînement dans le cadre d’une formation d’adaptation personnalisée, vous devez modifier davantage la politique de compartiment. Pour lire ou écrire dans un compartiment Amazon S3, Rekognition doit disposer des autorisations suivantes. 

**Politique Amazon S3 requise pour Rekognition**

La Rekognition nécessite une politique d’autorisation comportant les attributs suivants :
+ ID d’instruction (Sid)
+ Nom du compartiment
+ Nom du principal de service pour Rekognition.
+ Ressources requises pour Rekognition, compartiment et ensemble de son contenu
+ Actions requises devant être effectuées par Rekognition.

La politique suivante autorise Rekognition à accéder à un compartiment Amazon S3 lors du recyclage automatique.

```
{
    "Statement": [
        {
            "Effect": "Allow",
            "Sid": "AllowRekognitionAutoUpdateActions",
            "Principal": {
                "Service": "rekognition.amazonaws.com"
            },
            "Action": [
                "s3:ListBucket",
                "s3:GetObject",
                "s3:PutObject",
                "s3:HeadObject",
                "s3:HeadBucket"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket",
                "arn:aws:s3:::amzn-s3-demo-bucket/*"
            ]
        }
    ]
}
```

Vous pouvez suivre [ce guide](https://docs.aws.amazon.com/AmazonS3/latest/userguide/add-bucket-policy.html) pour ajouter la politique de compartiment ci-dessus à votre compartiment S3.

Pour plus d’informations sur les politiques relatives aux compartiments, [cliquez ici](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-policies.html).

## AWS KMS Autorisations clés
<a name="using-adapters-autoupdate-KMS"></a>

 Rekognition vous permet de fournir un adaptateur personnalisé en KmsKeyId option lors de l'entraînement. Lorsqu’elle est fournie, Rekognition utilise cette clé pour chiffrer les images d’entraînement et de test copiées dans le service pour l’entraînement des modèles. La clé est également utilisée pour chiffrer les résultats d'entraînement et les fichiers manifestes écrits dans le compartiment Amazon S3 de sortie (OutputConfig). 

 Si vous choisissez de fournir une clé KMS comme entrée pour votre formation d’adaptateur personnalisée (c’est-à-dire `Rekognition:CreateProjectVersion`), vous devez modifier davantage la stratégie de clé KMS afin de permettre au principal du service de Rekognition d’utiliser cette clé pour un recyclage automatique à l’avenir. Rekognition doit disposer des autorisations suivantes. 

**Politique clé en matière de AWS KMS rekognition**

Amazon Rekognition nécessite une politique d’autorisation comportant les attributs suivants :
+ ID d’instruction (Sid)
+ Nom du principal de service pour Amazon Rekognition.
+ Actions requises qu’Amazon Rekognition doit effectuer.

La stratégie de clé suivante permet à Amazon Rekognition d’accéder à une clé Amazon KMS lors du recyclage automatique :

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "KeyPermissions",
            "Effect": "Allow",
            "Principal": {
                "Service": "rekognition.amazonaws.com"
            },
            "Action": [
                "kms:DescribeKey",
                "kms:GenerateDataKey",
                "kms:Decrypt"
            ],
            "Resource": "*"
        }
    ]
}
```

------

Vous pouvez suivre [ce guide](https://docs.aws.amazon.com/kms/latest/APIReference/API_PutKeyPolicy.html) pour ajouter la AWS KMS politique ci-dessus à votre AWS KMS clé.

Pour plus d'informations sur les AWS KMS politiques, [cliquez ici](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html).

# AWS Notification du Health Dashboard pour Rekognition
<a name="using-adapters-health-notification"></a>

 Votre AWS Health Dashboard fournit une assistance pour les notifications provenant de Rekognition. Ces notifications fournissent des conseils de sensibilisation et de correction concernant les modifications prévues dans les modèles de Rekognition susceptibles d’affecter vos applications. Seuls les événements spécifiques à la fonction de modération du contenu de Rekognition sont actuellement disponibles. 

Le AWS Health Dashboard fait partie du service AWS de santé. Il ne nécessite aucune configuration et peut être affiché par n’importe quel utilisateur authentifié dans votre compte. Pour de plus amples informations, veuillez consulter [Démarrez avec le tableau de bord AWS Health](https://docs.aws.amazon.com/health/latest/ug/getting-started-phd.html).

Si vous recevez un avis similaire aux messages suivants, il doit être traité comme une alarme incitant à une action.

**Exemple d’avis : une nouvelle version du modèle est disponible pour la modération du contenu Rekognition.**

Rekognition publie l'`AWS_MODERATION_MODEL_VERSION_UPDATE_NOTIFICATION`événement sur le AWS Health Dashboard pour indiquer qu'une nouvelle version du modèle de modération a été publiée. Cet événement est important si vous utilisez l' DetectModerationLabels API et les adaptateurs avec cette API. Les nouveaux modèles peuvent avoir un impact sur la qualité en fonction de votre cas d’utilisation, et remplacent éventuellement les versions précédentes. Il est recommandé de valider la qualité de votre modèle et de connaître les délais de mise à jour du modèle lorsque vous recevez cette alerte. 

Si vous recevez une notification de mise à jour de la version du modèle, vous devez la traiter comme une alarme vous demandant de prendre des mesures. Si vous n’utilisez pas d’adaptateurs, vous devez évaluer la qualité du modèle mis à jour en fonction de votre cas d’utilisation actuel. Si vous utilisez des adaptateurs, vous devez former de nouveaux adaptateurs avec le modèle mis à jour et évaluer leur qualité. Si vous avez configuré l’entraînement automatique, les nouveaux adaptateurs sont automatiquement entraînés, vous pouvez ensuite évaluer leur qualité.

```
{
   "version": "0",
    "id": "id-number",
    "detail-type": "AWS Health Event",
    "source": "aws.health",
    "account": "123456789012",
    "time": "2023-10-06T06:27:57Z",
    "region": "region",
    "resources": [],
    "detail": {
        "eventArn": "arn:aws:health:us-east-1::event/AWS_MODERATION_MODEL_UPDATE_NOTIFICATION_event-number",
        "service": "Rekognition",
        "eventTypeCode": "AWS_MODERATION_MODEL_VERSION_UPDATE_NOTIFICATION",
        "eventScopeCode": "ACCOUNT_SPECIFIC",
        "communicationId": "communication-id-number",
        "eventTypeCategory": "scheduledChange",
        "startTime": "Fri, 05 Apr 2023 12:00:00 GMT",
        "lastUpdatedTime": "Fri, 05 Apr 2023 12:00:00 GMT",
        "statusCode": "open",
        "eventRegion": "us-east-1",
        "eventDescription": [
            {
                "language": "en_US",
                "latestDescription": "A new model version is available for Rekognition Content Moderation."
            }
        ]
    }
}
```

 Consultez [Monitoring AWS Health events with Amazon EventBridge](https://docs.aws.amazon.com/health/latest/ug/cloudwatch-events-health.html) pour détecter les événements de AWS santé et y réagir en utilisant EventBridge. 