

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Étape 4 : Analyser une image avec votre modèle
<a name="gs-step-get-a-prediction"></a>

Vous analysez une image en appelant l'[DetectCustomLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectCustomLabels)API. Dans cette étape, vous utilisez la commande `detect-custom-labels` AWS Command Line Interface (AWS CLI) pour analyser un exemple d'image. Vous obtenez la AWS CLI commande depuis la console Amazon Rekognition Custom Labels. La console configure la AWS CLI commande pour utiliser votre modèle. Il vous suffit de fournir une image stockée dans un compartiment Amazon S3. Cette rubrique fournit une image que vous pouvez utiliser pour chaque exemple de projet. 

**Note**  
La console fournit également un exemple de code Python.

Le résultat de `detect-custom-labels` inclut la liste des étiquettes détectées dans l’image, les cadres de délimitation (si le modèle recherche les emplacements d’objets) et le score de confiance du modèle concernant la précision des prédictions.

Pour plus d’informations, consultez [Analyse d’une image avec un modèle entraîné](detecting-custom-labels.md).

**Pour analyser une image (console)**

1. L'<textobject><phrase>état du modèle s'affiche comme étant en cours d'exécution, avec le bouton Stop pour arrêter le modèle en cours d'exécution. </phrase></textobject>

   Si ce n'est pas déjà fait, configurez le AWS CLI. Pour obtenir des instructions, veuillez consulter [Étape 4 : configurer le AWS CLI et AWS SDKs](su-awscli-sdk.md).

1. Commencez à exécuter votre modèle si vous ne l’avez pas déjà fait. Pour plus d’informations, consultez [Étape 3 : Démarrer votre modèle](gs-step-start-model.md).

1. Choisissez l’onglet **Utiliser le modèle**, puis **Code de l’API**. Le panneau d'état du modèle illustré ci-dessous indique que le modèle est en cours d'exécution, avec un bouton Stop pour arrêter le modèle en cours d'exécution et une option pour afficher l'API.  
![\[L'état du modèle s'affiche comme étant en cours d'exécution, avec le bouton Stop pour arrêter le modèle en cours d'exécution.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/customlabels-dg/images/get-started-use-model-api-code.png)

1. Choisissez **Commande de l’interface de ligne de commande AWS**.

1. Dans la section **Analyser l'image**, copiez la AWS CLI commande qui appelle`detect-custom-labels`. L'image suivante de la console Rekognition montre la section « Analyser l'image » avec la commande AWS CLI pour détecter les étiquettes personnalisées sur une image à l'aide d'un modèle d'apprentissage automatique, ainsi que des instructions pour démarrer le modèle et fournir des détails sur l'image.  
![\[Capture d'écran de la console avec la commande AWS CLI pour détecter les étiquettes personnalisées sur une image à l'aide d'un modèle d'apprentissage automatique, ainsi que des instructions pour démarrer le modèle et fournir les détails de l'image.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/customlabels-dg/images/get-started-cli-code-analyze.png)

1. Chargez un exemple d’image dans un compartiment Amazon S3. Pour obtenir des instructions, veuillez consulter [Obtention d’un exemple d’image](#gs-example-images).

1. À l'invite de commande, entrez la AWS CLI commande que vous avez copiée à l'étape précédente. Elle doit ressembler à l’exemple suivant. 

   La valeur de `--project-version-arn` doit être l’Amazon Resource Name (ARN) de votre modèle. La valeur de `--region` doit être la région AWS dans laquelle vous avez créé le modèle.

   Remplacez `MY_BUCKET` et `PATH_TO_MY_IMAGE` par le compartiment Amazon S3 et l’image que vous avez utilisés à l’étape précédente. 

   Si vous utilisez le [custom-labels-access](su-sdk-programmatic-access.md#su-sdk-programmatic-access-customlabels-examples)profil pour obtenir des informations d'identification, ajoutez le `--profile custom-labels-access` paramètre.

   ```
   aws rekognition detect-custom-labels \
     --project-version-arn "model_arn" \
     --image '{"S3Object": {"Bucket": "MY_BUCKET","Name": "PATH_TO_MY_IMAGE"}}' \
     --region us-east-1 \
     --profile custom-labels-access
   ```

   Si le modèle trouve des objets, des scènes et des concepts, la sortie JSON de la commande AWS CLI doit ressembler à ce qui suit. `Name` est le nom de l’étiquette au niveau de l’image trouvée par le modèle. `Confidence` (0 à 100) est le niveau de confiance du modèle dans l’exactitude de la prédiction.

   ```
   {
       "CustomLabels": [
           {
               "Name": "living_space",
               "Confidence": 83.41299819946289
           }
       ]
   }
   ```

   Si le modèle trouve des emplacements d’objets ou trouve une marque, les cadres de délimitation étiquetés sont renvoyés. `BoundingBox` contient l’emplacement d’un cadre qui entoure l’objet. `Name` est l’objet que le modèle a trouvé dans le cadre de délimitation. `Confidence` est le niveau de confiance du modèle que le cadre de délimitation contient l’objet. 

   ```
   {
       "CustomLabels": [
           {
               "Name": "textract",
               "Confidence": 87.7729721069336,
               "Geometry": {
                   "BoundingBox": {
                       "Width": 0.198987677693367,
                       "Height": 0.31296101212501526,
                       "Left": 0.07924537360668182,
                       "Top": 0.4037395715713501
                   }
               }
           }
       ]
   }
   ```

1. Continuez à utiliser le modèle pour analyser d’autres images. Arrêtez le modèle si vous ne l’utilisez plus. Pour plus d’informations, consultez [Étape 5 : Arrêter votre modèle](gs-step-stop-model.md).

## Obtention d’un exemple d’image
<a name="gs-example-images"></a>

Vous pouvez utiliser les images suivantes avec l’opération `DetectCustomLabels`. Il y a une image pour chaque projet. Pour utiliser les images, vous les chargez dans un compartiment S3. 

**Pour utiliser un exemple d’image**

1. Cliquez avec le bouton droit sur l’image suivante qui correspond à l’exemple de projet que vous utilisez. Choisissez ensuite **Enregistrer l’image** pour enregistrer l’image sur votre ordinateur. L’option du menu peut être différente selon le navigateur que vous utilisez.

1. Téléchargez l'image dans un compartiment Amazon S3 appartenant à votre AWS compte et situé dans la même AWS région que celle dans laquelle vous utilisez les étiquettes personnalisées Amazon Rekognition.

   Pour en savoir plus, consultez [Chargement d’objets dans Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UploadingObjectsintoAmazonS3.html) dans le *Guide de l’utilisateur Amazon Simple Storage Service*.

### Classification d’images
<a name="gs-example-image-classification"></a>

![\[Salon avec cheminée, canapé, fauteuil, tables de chevet, lampes et grandes fenêtres.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/customlabels-dg/images/image-classification.jpg)


### Classification à plusieurs étiquettes
<a name="gs-example-image-multi-label-classification"></a>

![\[Capsule vert sphérique composé de pétales ou de bractées superposés et densément entassés formant une boule.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/customlabels-dg/images/multi-label-classification.jpg)


### Détection des marques
<a name="gs-example-image-brand-detection"></a>

![\[Schéma illustrant les données d'activité des utilisateurs transmises de Lambda à Amazon Personalize pour les recommandations, et à Amazon Pinpoint pour les recommandations.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/customlabels-dg/images/brand-detection.png)


### Localisation d’objets
<a name="gs-example-image-object-localization"></a>

![\[Petit circuit avec divers composants électroniques et broches de connexion.\]](http://docs.aws.amazon.com/fr_fr/rekognition/latest/customlabels-dg/images/object-localization.jpg)
