

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Création et utilisation d’adaptateurs
<a name="creating-and-using-adapters"></a>

Les adaptateurs sont des composants modulaires qui peuvent être ajoutés au modèle deep learning de Rekognition existant afin d’étendre ses capacités aux tâches pour lesquelles il est entraîné. En formant un modèle de deep learning avec des adaptateurs, vous pouvez obtenir une meilleure précision pour les tâches d’analyse d’images liées à votre cas d’utilisation spécifique. 

Pour créer et utiliser un adaptateur, vous devez fournir des données d’entraînement et de test à Rekognition. Vous pouvez y parvenir de deux façons :
+ Analyse et vérification en bloc : vous pouvez créer un jeu de données d’entraînement en analysant en bloc des images que Rekognition analyse, et auxquelles Rekognition attribue des étiquettes. Vous pouvez ensuite consulter les annotations générées pour vos images et vérifier ou corriger les prédictions. Pour plus d’informations sur le fonctionnement de l’analyse en bloc d’images, voir [Analyse en bloc](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).
+ Annotation manuelle : avec cette approche, vous créez vos données d’entraînement en téléchargeant et en annotant des images. Vous créez vos données de test soit en téléchargeant et en annotant des images, soit en les divisant automatiquement. 

Choisissez l’une des rubriques suivantes pour en savoir plus :

**Topics**
+ [Analyse et vérification en bloc](adapters-bulk-analysis.md)
+ [Annotation manuelle](adapters-manual-annotation.md)

# Analyse et vérification en bloc
<a name="adapters-bulk-analysis"></a>

Avec cette approche, vous téléchargez un grand nombre d’images que vous souhaitez utiliser comme données d’entraînement, puis vous utilisez Rekognition pour obtenir des prédictions pour ces images, qui leur attribue automatiquement des étiquettes. Vous pouvez utiliser ces prédictions comme point de départ pour votre adaptateur. Vous pouvez vérifier l’exactitude des prévisions, puis entraîner l’adaptateur en fonction des prévisions vérifiées. Cela peut être fait avec la AWS console.



 La vidéo suivante montre comment utiliser la fonctionnalité d'analyse en bloc de Rekognition pour obtenir et vérifier des prédictions pour un grand nombre d'images, puis entraîner un adaptateur avec ces prédictions. 

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY)


## Téléchargez des images pour une analyse en bloc
<a name="adapters-bulk-analysis-upload-images"></a>

Pour créer un jeu de données d’entraînement pour votre adaptateur, téléchargez des images en bloc pour que Rekognition puisse prévoir les étiquettes. Pour de meilleurs résultats, fournissez autant d’images que possible pour l’entraînement, dans la limite de 10 000, et assurez-vous que les images sont représentatives de tous les aspects de votre cas d’utilisation. 

Lorsque vous utilisez la AWS console, vous pouvez télécharger des images directement depuis votre ordinateur ou fournir un bucket Amazon Simple Storage Service qui stocke vos images. Toutefois, lorsque vous utilisez APIs Rekognition avec un SDK, vous devez fournir un fichier manifeste qui fait référence aux images stockées dans un bucket Amazon Simple Storage Service. Pour plus d'informations, consultez [Analyse en bloc](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).

## Vérifiez les prédictions
<a name="adapters-bulk-analysis-review-predictions"></a>

Une fois que vous avez chargé vos images sur la console Rekognition, Rekognition génère des étiquettes pour celles-ci. Vous pouvez ensuite vérifier les prédictions dans l’une des catégories suivantes : vrai positif, faux positif, vrai négatif, faux négatif. Après avoir vérifié les prévisions, vous pouvez former un adaptateur en fonction de vos commentaires.

## Entraînez l’adaptateur
<a name="adapters-bulk-analysis-train-adapter"></a>

Une fois que vous avez terminé de vérifier les prédictions renvoyées par l’analyse en bloc, vous pouvez lancer le processus de formation de votre adaptateur. 

## Obtenez le AdapterId
<a name="adapters-bulk-analysis-get-adapter"></a>

Une fois que l'adaptateur a été formé, vous pouvez obtenir l'identifiant unique de votre adaptateur à utiliser avec l'analyse d'image de Rekognition. APIs

## Appelez l’opération de l’API
<a name="adapters-bulk-analysis-call-operation"></a>

Pour appliquer votre adaptateur personnalisé, fournissez son identifiant lorsque vous appelez l'une des analyses d'image compatibles avec APIs les adaptateurs. Cela améliore la précision des prédictions pour vos images.

# Annotation manuelle
<a name="adapters-manual-annotation"></a>

Avec cette approche, vous créez vos données d’entraînement en téléchargeant et en annotant des images manuellement. Vous créez vos données de test soit en téléchargeant et en annotant les images de test, soit en les divisant automatiquement pour que Rekognition utilise automatiquement une partie de vos données d’entraînement comme images de test.

## Téléchargement et annotation d’images
<a name="adapters-upload-sample-images"></a>

Pour entraîner l’adaptateur, vous devez télécharger un ensemble d’exemples d’images représentatifs de votre cas d’utilisation. Pour de meilleurs résultats, fournissez autant d’images que possible pour l’entraînement, dans la limite de 10 000, et assurez-vous que les images sont représentatives de tous les aspects de votre cas d’utilisation. 

![\[Interface présentant des options pour importer des images d'entraînement, avec des options pour importer un fichier manifeste, importer depuis un compartiment S3 ou télécharger des images depuis un ordinateur. Inclut un champ d'URI S3 et une note sur la garantie read/write des autorisations.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/dg/images/adapters-11-traiing-dataset.png)


Lorsque vous utilisez la AWS console, vous pouvez télécharger des images directement depuis votre ordinateur, fournir un fichier manifeste ou fournir un compartiment Amazon S3 qui stocke vos images.

 Toutefois, lorsque vous utilisez APIs Rekognition avec un SDK, vous devez fournir un fichier manifeste qui fait référence aux images stockées dans un compartiment Amazon S3. 

Vous pouvez utiliser l’interface d’annotation de la [console Rekognition](https://console.aws.amazon.com/rekognition) pour annoter vos images. Annotez vos images en les repérant avec des étiquettes, cela constitue une « vérité de base » pour la formation. Vous devez également désigner des ensembles d’entraînement et de test, ou utiliser la fonctionnalité de division automatique, avant de pouvoir entraîner un adaptateur. Lorsque vous avez fini de désigner vos jeux de données et d’annoter vos images, vous pouvez créer un adaptateur basé sur les images annotées de votre ensemble de tests. Vous pouvez ensuite évaluer les performances de votre adaptateur. 

## Créez un ensemble de tests
<a name="adapters-training-testing"></a>

Vous devrez fournir un ensemble de tests annoté ou utiliser la fonction de division automatique. Le kit d’entraînement est utilisé pour entraîner réellement l’adaptateur. L’adaptateur apprend les motifs contenus dans ces images annotées. Le kit de test est utilisé pour évaluer les performances du modèle avant de finaliser l’adaptateur. 

## Entraînez l’adaptateur
<a name="adapters-train-adapter"></a>

 Une fois que vous avez terminé d’annoter les données d’entraînement, ou que vous avez fourni un fichier manifeste, vous pouvez lancer le processus de formation de votre adaptateur. 

## Obtenez l’ID de l’adaptateur
<a name="adapter-get-adapter"></a>

Une fois que l'adaptateur a été formé, vous pouvez obtenir l'identifiant unique de votre adaptateur à utiliser avec l'analyse d'image de Rekognition. APIs

## Appelez l’opération de l’API
<a name="adapter-call-operation"></a>

Pour appliquer votre adaptateur personnalisé, fournissez son identifiant lorsque vous appelez l'une des analyses d'image compatibles avec APIs les adaptateurs. Cela améliore la précision des prédictions pour vos images. 