

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Étiqueter des images
<a name="sms-label-images"></a>

Utilisez Ground Truth pour étiqueter les images. Sélectionnez l'un des types de tâches intégrés suivants pour en savoir plus sur ce type de tâche. Chaque page comprend des instructions destinées à vous aider à créer une tâche d'étiquetage à l'aide de ce type de tâche.

**Astuce**  
Pour en savoir plus sur les types de fichiers pris en charge et les quotas de données d'entrée, veuillez consulter [Données d’entrée](sms-data-input.md).

**Topics**
+ [Classification des objets d’image à l’aide d’un cadre de délimitation](sms-bounding-box.md)
+ [Identifier le contenu des images à l’aide de la segmentation sémantique](sms-semantic-segmentation.md)
+ [Outil de segmentation automatique](sms-auto-segmentation.md)
+ [Création d’une tâche d’étiquetage de classification d’images (à étiquette unique)](sms-image-classification.md)
+ [Créer d’une tâche de classification d’images (à plusieurs étiquettes)](sms-image-classification-multilabel.md)
+ [Vérification des étiquettes d’image](sms-label-verification.md)

# Classification des objets d’image à l’aide d’un cadre de délimitation
<a name="sms-bounding-box"></a>

Dans de nombreuses situations, les images utilisées pour entraîner un modèle de machine learning contiennent plus d’un objet. Pour classer et localiser un ou plusieurs objets dans des images, utilisez le type de tâche d'étiquetage Amazon SageMaker Ground Truth Bounding Box. Dans ce contexte, la localisation signifie l’emplacement du pixel du cadre de délimitation. Vous créez une tâche d'étiquetage de boîtes de délimitation à l'aide de la section Ground Truth de la console Amazon SageMaker AI ou de l'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)opération.

**Important**  
Pour ce type de tâche, si vous créez votre propre fichier manifeste, utilisez `"source-ref"` pour identifier l’emplacement dans Amazon S3 de chaque fichier image que vous souhaitez étiqueter. Pour de plus amples informations, veuillez consulter [Données d’entrée](sms-data-input.md).

## Création d’une tâche d’étiquetage de cadre de délimitation (Console)
<a name="sms-creating-bounding-box-labeling-job-console"></a>

Vous pouvez suivre les instructions [Création d’une tâche d’étiquetage (Console)](sms-create-labeling-job-console.md) pour apprendre à créer une tâche d'étiquetage de boîtes de délimitation dans la console SageMaker AI. À l’étape 10, choisissez **Image** dans le menu déroulant **Catégorie de tâche** puis choisissez **Cadre de délimitation** comme type de tâche. 

Ground Truth fournit une interface utilisateur employé similaire à la suivante pour l’étiquetage des tâches. Lorsque vous créez une tâche d’étiquetage avec la console, vous spécifiez des instructions pour aider les employés à effectuer la tâche et jusqu’à 50 étiquettes parmi lesquelles les employés peuvent choisir. 

![\[Gif montrant comment dessiner un cadre autour d’un objet pour une catégorie.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/gifs/bb-sample.gif)


## Créer une tâche d’étiquetage de cadre de délimitation (API)
<a name="sms-creating-bounding-box-labeling-job-api"></a>

Pour créer une tâche d'étiquetage de boîtes de délimitation, utilisez l'opération SageMaker `CreateLabelingJob` API. Cette API définit cette opération pour tous AWS SDKs. Pour consulter la liste des langues spécifiques prises SDKs en charge pour cette opération, consultez la section **Voir aussi** de. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)

Suivez les instructions présentées dans [Création d’une tâche d’étiquetage (API)](sms-create-labeling-job-api.md) et procédez comme suit pour configurer votre demande : 
+ Les fonctions Lambda de pré-annotation pour ce type de tâche se terminent par `PRE-BoundingBox`. Pour trouver l'ARN Lambda préalable à l'annotation pour votre région [PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_HumanTaskConfig.html#SageMaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn), consultez. 
+ Les fonctions Lambda de consolidation des annotations pour ce type de tâche se terminent par `ACS-BoundingBox`. Pour trouver l'ARN Lambda de consolidation des annotations pour votre région, consultez. [AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_AnnotationConsolidationConfig.html#SageMaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn) 

Voici un exemple de [requête du kit SDK AWS Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) pour créer une tâche d’étiquetage dans la région USA Est (Virginie du Nord). Tous les paramètres en rouge doivent être remplacés par vos spécifications et ressources. 

```
response = client.create_labeling_job(
    LabelingJobName='example-bounding-box-labeling-job,
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://bucket/path/manifest-with-input-data.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://bucket/path/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/path/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:region:*:workteam/private-crowd/*',
        'UiConfig': {
            'UiTemplateS3Uri': 's3://bucket/path/worker-task-template.html'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-BoundingBox',
        'TaskKeywords': [
            'Bounding Box',
        ],
        'TaskTitle': 'Bounding Box task',
        'TaskDescription': 'Draw bounding boxes around objects in an image',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-BoundingBox'
          }
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

### Fournir un modèle pour les tâches d’étiquetage de cadre de délimitation
<a name="sms-create-labeling-job-bounding-box-api-template"></a>

Si vous créez une tâche d’étiquetage à l’aide de l’API, vous devez fournir un modèle de tâche d’employé dans `UiTemplateS3Uri`. Copiez et modifiez le modèle suivant. Modifiez uniquement [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions), [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions), et `header`. Téléchargez ce modèle vers S3 et fournissez l’URI S3 pour ce fichier dans `UiTemplateS3Uri`.

```
<script src="https://assets.crowd.aws/crowd-html-elements.js"></script>
<crowd-form>
  <crowd-bounding-box
    name="boundingBox"
    src="{{ task.input.taskObject | grant_read_access }}"
    header="please draw box"
    labels="{{ task.input.labels | to_json | escape }}"
  >

    <full-instructions header="Bounding box instructions">
      <ol><li><strong>Inspect</strong> the image</li><li><strong>Determine</strong> 
      if the specified label is/are visible in the picture.</li>
      <li><strong>Outline</strong> each instance of the specified label in the image using the provided “Box” tool.</li></ol>
      <ul><li>Boxes should fit tight around each object</li>
      <li>Do not include parts of the object are overlapping or that cannot be seen, even though you think you can interpolate the whole shape.</li>
      <li>Avoid including shadows.</li>
      <li>If the target is off screen, draw the box up to the edge of the image.</li>    
    </full-instructions>
  
    <short-instructions>
      <h3><span style="color: rgb(0, 138, 0);">Good example</span></h3>
      <p>Enter description of a correct bounding box label and add images</p>
      <h3><span style="color: rgb(230, 0, 0);">Bad example</span></h3>
      <p>Enter description of an incorrect bounding box label and add images</p>
    </short-instructions>
  
  </crowd-bounding-box>
</crowd-form>
```

## Données de sortie du cadre de délimitation
<a name="sms-bounding-box-output-data"></a>

Une fois que vous avez créé une tâche d’étiquetage de cadre de délimitation, vos données de sortie seront situées dans le compartiment Amazon S3 spécifié dans le paramètre `S3OutputPath` lorsque vous utilisez l’API ou dans le champ **Output dataset location (Emplacement du jeu de données de sortie)** de la section **Job overview (Présentation de la tâche)** de la console. 

Par exemple, le fichier manifeste de sortie d’une tâche de cadre de délimitation à une seule classe exécutée avec succès contiendra les éléments suivants : 

```
[
  {
    "boundingBox": {
      "boundingBoxes": [
        {
          "height": 2832,
          "label": "bird",
          "left": 681,
          "top": 599,
          "width": 1364
        }
      ],
      "inputImageProperties": {
        "height": 3726,
        "width": 2662
      }
    }
  }
]
```

Le paramètre `boundingBoxes` identifie l’emplacement du cadre de délimitation tracé autour d’un objet identifié comme un « oiseau » par rapport au coin supérieur gauche de l’image qui est considéré comme la coordonnée pixel (0,0). Dans l’exemple précédent, **`left`** et **`top`** identifient l’emplacement du pixel dans le coin supérieur gauche du cadre de sélection par rapport au coin supérieur gauche de l’image. Les dimensions du cadre englobant sont identifiées par **`height`** et **`width`**. Le paramètre `inputImageProperties` donne les dimensions en pixels de l’image d’entrée d’origine.

Lorsque vous utilisez le type de tâche de zone de délimitation, vous pouvez créer des tâches d’étiquetage de zone de délimitation à une ou plusieurs classes. Le fichier manifeste de sortie d’un cadre délimitation à plusieurs classes exécuté avec succès contiendra les éléments suivants : 

```
[
  {
    "boundingBox": {
      "boundingBoxes": [
        {
          "height": 938,
          "label": "squirrel",
          "left": 316,
          "top": 218,
          "width": 785
        },
        {
          "height": 825,
          "label": "rabbit",
          "left": 1930,
          "top": 2265,
          "width": 540
        },
        {
          "height": 1174,
          "label": "bird",
          "left": 748,
          "top": 2113,
          "width": 927
        },
        {
          "height": 893,
          "label": "bird",
          "left": 1333,
          "top": 847,
          "width": 736
        }
      ],
      "inputImageProperties": {
        "height": 3726,
        "width": 2662
      }
    }
  }
]
```

Pour en savoir plus sur le fichier manifeste de sortie qui résulte d’une tâche d’étiquetage de cadre délimitation, consultez [Sortie de tâche de tracé de cadre de délimitation](sms-data-output.md#sms-output-box).

Pour en savoir plus sur le fichier manifeste de sortie généré par Ground Truth et sur la structure de fichier que ce dernier utilise pour stocker vos données de sortie, consultez [Étiquetage des données de sortie des tâches](sms-data-output.md). 

# Identifier le contenu des images à l’aide de la segmentation sémantique
<a name="sms-semantic-segmentation"></a>

Pour identifier le contenu d'une image au niveau des pixels, utilisez une tâche d'étiquetage par segmentation sémantique Amazon SageMaker Ground Truth. Lorsqu’on leur confie une tâche d’étiquetage par segmentation sémantique, les employés classent les pixels de l’image dans un ensemble d’étiquettes ou de classes prédéfinies. Ground Truth prend en charge les tâches d’étiquetage par segmentation sémantique à simple ou multiple classe. Vous créez une tâche d'étiquetage par segmentation sémantique à l'aide de la section Ground Truth de la console Amazon SageMaker AI ou de l'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)opération. 

Les images qui contiennent un grand nombre d’objets devant être segmentées nécessitent plus de temps. Pour aider les employés (d’une main-d’œuvre privée ou d’un fournisseur) à étiqueter ces objets en moins de temps et avec plus de précision, Ground Truth propose un outil de segmentation automatique assisté par l’IA. Pour plus d'informations, consultez [Outil de segmentation automatique](sms-auto-segmentation.md).

**Important**  
Pour ce type de tâche, si vous créez votre propre fichier manifeste, utilisez `"source-ref"` pour identifier l’emplacement dans Amazon S3 de chaque fichier image que vous souhaitez étiqueter. Pour de plus amples informations, veuillez consulter [Données d’entrée](sms-data-input.md).

## Création d’une tâche d’étiquetage de segmentation sémantique (Console)
<a name="sms-creating-ss-labeling-job-console"></a>

Vous pouvez suivre les instructions [Création d’une tâche d’étiquetage (Console)](sms-create-labeling-job-console.md) pour savoir comment créer une tâche d'étiquetage par segmentation sémantique dans la console SageMaker AI. À l’étape 10, choisissez **Image** dans le menu déroulant **Catégorie de tâches**, puis **Segmentation sémantique** comme type de tâche. 

Ground Truth fournit une interface utilisateur employé similaire à la suivante pour l’étiquetage des tâches. Lorsque vous créez la tâche d’étiquetage avec la console, vous spécifiez des instructions pour aider les collaborateurs à terminer la tâche et des étiquettes parmi lesquelles ceux-ci peuvent faire leur choix. 

![\[Gif montrant un exemple de création d'une tâche d'étiquetage par segmentation sémantique dans la console SageMaker AI.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/semantic_segmentation_sample.gif)


## Créer une tâche d’étiquetage de segmentation sémantique (API)
<a name="sms-creating-ss-labeling-job-api"></a>

Pour créer une tâche d'étiquetage par segmentation sémantique, utilisez l'opération SageMaker `CreateLabelingJob` API. Cette API définit cette opération pour tous AWS SDKs. Pour consulter la liste des langues spécifiques prises SDKs en charge pour cette opération, consultez la section **Voir aussi** de. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)

Suivez les instructions présentées dans [Création d’une tâche d’étiquetage (API)](sms-create-labeling-job-api.md) et procédez comme suit pour configurer votre demande : 
+ Les fonctions Lambda de pré-annotation pour ce type de tâche se terminent par `PRE-SemanticSegmentation`. Pour trouver l'ARN Lambda préalable à l'annotation pour votre région [PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_HumanTaskConfig.html#SageMaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn), consultez. 
+ Les fonctions Lambda de consolidation des annotations pour ce type de tâche se terminent par `ACS-SemanticSegmentation`. Pour trouver l'ARN Lambda de consolidation des annotations pour votre région, consultez. [AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_AnnotationConsolidationConfig.html#SageMaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn) 

Voici un exemple de [requête du kit SDK AWS Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) pour créer une tâche d’étiquetage dans la région USA Est (Virginie du Nord). Tous les paramètres en rouge doivent être remplacés par vos spécifications et ressources. 

```
response = client.create_labeling_job(
    LabelingJobName='example-semantic-segmentation-labeling-job,
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://bucket/path/manifest-with-input-data.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://bucket/path/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/path/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:region:*:workteam/private-crowd/*',
        'UiConfig': {
            'UiTemplateS3Uri': 's3://bucket/path/worker-task-template.html'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-SemanticSegmentation,
        'TaskKeywords': [
            'Semantic Segmentation',
        ],
        'TaskTitle': 'Semantic segmentation task',
        'TaskDescription': 'For each category provided, segment out each relevant object using the color associated with that category',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-SemanticSegmentation'
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

### Fournir un modèle pour les tâches d’étiquetage de segmentation sémantique
<a name="sms-create-labeling-job-ss-api-template"></a>

Si vous créez une tâche d’étiquetage à l’aide de l’API, vous devez fournir un modèle de tâche d’employé dans `UiTemplateS3Uri`. Copiez et modifiez le modèle suivant. Modifiez uniquement [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions), [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions), et `header`. 

Téléchargez ce modèle vers S3 et fournissez l’URI S3 pour ce fichier dans `UiTemplateS3Uri`.

```
<script src="https://assets.crowd.aws/crowd-html-elements.js"></script>
<crowd-form>
  <crowd-semantic-segmentation
    name="crowd-semantic-segmentation"
    src="{{ task.input.taskObject | grant_read_access }}"
    header="Please segment out all pedestrians."
    labels="{{ task.input.labels | to_json | escape }}"
  >
    <full-instructions header="Segmentation instructions">
      <ol><li><strong>Read</strong> the task carefully and inspect the image.</li>
      <li><strong>Read</strong> the options and review the examples provided to understand more about the labels.</li>
      <li><strong>Choose</strong> the appropriate label that best suits an object and paint that object using the tools provided.</li></ol>
    </full-instructions>
    <short-instructions>
      <h2><span style="color: rgb(0, 138, 0);">Good example</span></h2>
      <p>Enter description to explain a correctly done segmentation</p>
      <p><br></p><h2><span style="color: rgb(230, 0, 0);">Bad example</span></h2>
      <p>Enter description of an incorrectly done segmentation</p>
    </short-instructions>
  </crowd-semantic-segmentation>
</crowd-form>
```

## Données de sortie de segmentation sémantique
<a name="sms-ss-ouput-data"></a>

Une fois que vous avez créé une tâche d’étiquetage par segmentation sémantique, vos données de sortie seront situées dans le compartiment Amazon S3 spécifié dans le paramètre `S3OutputPath` lorsque vous utilisez l’API ou dans le champ **Output dataset location (Emplacement du jeu de données de sortie)** de la section **Job overview (Présentation de la tâche)** de la console. 

Pour en savoir plus sur le fichier manifeste de sortie généré par Ground Truth et sur la structure de fichier que ce dernier utilise pour stocker vos données de sortie, consultez [Étiquetage des données de sortie des tâches](sms-data-output.md). 

Pour afficher un exemple de fichier manifeste en sortie pour une tâche d’étiquetage de segmentation sémantique, consultez [Fichier de sortie de segmentation sémantique de nuage de points 3D](sms-data-output.md#sms-output-point-cloud-segmentation).

# Outil de segmentation automatique
<a name="sms-auto-segmentation"></a>

La segmentation d’image est le processus consistant à diviser une image en plusieurs segments, ou ensembles de pixels étiquetés. Dans Amazon SageMaker Ground Truth, le processus d’identification de tous les pixels qui correspondent à une étiquette donnée implique l’application d’un remplissage coloré, ou « masque », sur ces pixels. Certaines tâches d’étiquetage contiennent des images avec un grand nombre d’objets qui doivent être segmentés. Pour aider les employés à étiqueter ces objets en moins de temps et avec plus de précision, Ground Truth propose un outil de segmentation automatique pour les tâches de segmentation confiées à la main-d’œuvre privée et aux fournisseurs. Cet outil utilise un modèle de machine learning pour segmenter automatiquement des objets individuels dans l’image avec une entrée minimale de travail. Les employés peuvent affiner le masque généré par l’outil de segmentation automatique à l’aide d’autres outils trouvés dans la console de travail. Cela aide les employés à effectuer les tâches de segmentation d’image plus rapidement et plus précisément, ce qui permet de réduire les coûts et d’améliorer la qualité des étiquettes. La page suivante fournit des informations sur l’outil et sa disponibilité.

**Note**  
L’outil de segmentation automatique est disponible pour les tâches de segmentation envoyées à une main-d’œuvre privée ou fournisseur. Il n’est pas disponible pour les tâches envoyées au personnel public (Amazon Mechanical Turk). 

## Outil Aperçu
<a name="sms-auto-segment-tool-preview"></a>

Lorsque des employés se voient attribuer une tâche d’étiquetage qui fournit l’outil de segmentation automatique, ils reçoivent des instructions détaillées sur l’utilisation de l’outil. Par exemple, un employé peut voir ce qui suit sur la console de travail : 

![\[Exemple d’interface utilisateur contenant des instructions sur l’utilisation de l’outil dans la console de travail.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/sms/gifs/semantic-segmentation.gif)


Les employés peuvent utiliser **View full instructions (Afficher les instructions complètes)** pour apprendre à utiliser l’outil. Les employés devront placer un point sur quatre points extrêmes (points les plus hauts, les plus bas, les plus à gauche et les plus à droite) de l’objet d’intérêt, et l’outil générera automatiquement un masque pour l’objet. Les employés peuvent affiner davantage le masque à l’aide des autres outils fournis, ou en utilisant l’outil de segmentation automatique sur les petites portions de l’objet qui ont été manquées. 

## Disponibilité des outils
<a name="sms-auto-segment-tool-availability"></a>

L’outil de segmentation automatique apparaît automatiquement dans les consoles de vos employés si vous créez une tâche d’étiquetage de segmentation sémantique à l’aide de la console Amazon SageMaker AI. Lors de la création d’une tâche de segmentation sémantique dans la console SageMaker AI, vous pourrez avoir une prévisualisation de l’outil tout en créant des instructions pour les employés. Pour apprendre comment créer une tâche d’étiquetage par segmentation sémantique dans la console SageMaker AI, consultez [Mise en route : création d’une tâche d’étiquetage de cadre de délimitation avec Ground Truth](sms-getting-started.md). 

Si vous créez une tâche personnalisée d’étiquetage par segmentation d’instance dans la console SageMaker AI ou si vous créez une tâche d’étiquetage par segmentation d’instance ou sémantique à l’aide de l’API Ground Truth, vous devez créer un modèle de tâche personnalisé pour concevoir votre console de travail et vos instructions. Pour inclure l’outil de segmentation automatique dans votre console de travail, assurez-vous que les conditions suivantes sont remplies dans votre modèle de tâche personnalisé :
+ Pour les tâches d’étiquetage de segmentation sémantique créées à l’aide de l’API, la balise `<crowd-semantic-segmentation>` est présent dans le modèle de tâche. Pour les tâches d’étiquetage de segmentation d’instance personnalisées, la balise `<crowd-instance-segmentation>` est présente dans le modèle de tâche.
+ La tâche est affectée à une main-d’œuvre privée ou à une main-d’œuvre fournisseur. 
+ Les images à étiqueter sont des objets Amazon Simple Storage Service (Amazon S3) qui ont été pré-signés pour l’employé afin qu’il puisse y accéder. Ceci est vrai si le modèle de tâche inclut le filtre `grant_read_access`. Pour plus d’informations sur le filtre `grant_read_access`, consultez [Ajout de l’automatisation avec Liquid](sms-custom-templates-step2-automate.md).

Voici un exemple de modèle de tâche personnalisé pour une tâche d’étiquetage de segmentation d’instance personnalisée, qui inclut la balise `<crowd-instance-segmentation/>` et le filtre `grant_read_access` Liquid.

```
<script src="https://assets.crowd.aws/crowd-html-elements.js"></script>
<crowd-form>
  <crowd-instance-segmentation
    name="crowd-instance-segmentation"
    src="{{ task.input.taskObject | grant_read_access }}"
    labels="['Car','Road']"
   <full-instructions header="Segmentation instructions">
      Segment each instance of each class of objects in the image. 
    </full-instructions>

    <short-instructions>
      <p>Segment each instance of each class of objects in the image.</p>

      <h3 style="color: green">GOOD EXAMPLES</h3>
      <img src="path/to/image.jpg" style="width: 100%">
      <p>Good because A, B, C.</p>

      <h3 style="color: red">BAD EXAMPLES</h3>
      <img src="path/to/image.jpg" style="width: 100%">
      <p>Bad because X, Y, Z.</p>
    </short-instructions>
  </crowd-instance-segmentation>
</crowd-form>
```

# Création d’une tâche d’étiquetage de classification d’images (à étiquette unique)
<a name="sms-image-classification"></a>

Utilisez une tâche d'étiquetage de classification d'images Amazon SageMaker Ground Truth lorsque vous avez besoin de collaborateurs pour classer les images à l'aide d'étiquettes prédéfinies que vous spécifiez. Les images sont proposées aux employés, qui sont invités à choisir une étiquette pour chaque image. Vous pouvez créer une tâche d'étiquetage de classification d'images à l'aide de la section Ground Truth de la console Amazon SageMaker AI ou de l'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)opération. 

**Important**  
Pour ce type de tâche, si vous créez votre propre fichier manifeste, utilisez `"source-ref"` pour identifier l’emplacement dans Amazon S3 de chaque fichier image que vous souhaitez étiqueter. Pour de plus amples informations, veuillez consulter [Données d’entrée](sms-data-input.md).

## Créer une tâche d’étiquetage de classification d’images (Console)
<a name="sms-creating-image-classification-console"></a>

Vous pouvez suivre les instructions [Création d’une tâche d’étiquetage (Console)](sms-create-labeling-job-console.md) pour savoir comment créer une tâche d'étiquetage de classification d'images dans la console SageMaker AI. À l’étape 10, choisissez **Image** dans le menu déroulant **Catégorie de tâches**, puis **Classification d’images (une étiquette)** comme type de tâche. 

Ground Truth fournit une interface utilisateur employé similaire à la suivante pour l’étiquetage des tâches. Lorsque vous créez la tâche d’étiquetage avec la console, vous spécifiez des instructions pour aider les collaborateurs à terminer la tâche et des étiquettes parmi lesquelles ceux-ci peuvent faire leur choix. 

![\[Exemple d’interface utilisateur de travail pour les tâches d’étiquetage, fourni par Ground Truth.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/image-classification-example.png)


## Créer une tâche d’étiquetage de classification d’images (API)
<a name="sms-creating-image-classification-api"></a>

Pour créer une tâche d'étiquetage de classification d'images, utilisez l'opération SageMaker API`CreateLabelingJob`. Cette API définit cette opération pour tous AWS SDKs. Pour consulter la liste des langues spécifiques prises SDKs en charge pour cette opération, consultez la section **Voir aussi** de. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)

Suivez les instructions présentées dans [Création d’une tâche d’étiquetage (API)](sms-create-labeling-job-api.md) et procédez comme suit pour configurer votre demande : 
+ Les fonctions Lambda de pré-annotation pour ce type de tâche se terminent par `PRE-ImageMultiClass`. Pour trouver l'ARN Lambda préalable à l'annotation pour votre région [PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_HumanTaskConfig.html#SageMaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn), consultez. 
+ Les fonctions Lambda de consolidation des annotations pour ce type de tâche se terminent par `ACS-ImageMultiClass`. Pour trouver l'ARN Lambda de consolidation des annotations pour votre région, consultez. [AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_AnnotationConsolidationConfig.html#SageMaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn) 

Voici un exemple de [requête du kit SDK AWS Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) pour créer une tâche d’étiquetage dans la région USA Est (Virginie du Nord). Tous les paramètres en rouge doivent être remplacés par vos spécifications et ressources. 

```
response = client.create_labeling_job(
    LabelingJobName='example-image-classification-labeling-job',
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://bucket/path/manifest-with-input-data.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://bucket/path/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/path/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:region:*:workteam/private-crowd/*',
        'UiConfig': {
            'UiTemplateS3Uri': 's3://bucket/path/worker-task-template.html'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-ImageMultiClass,
        'TaskKeywords': [
            Image classification',
        ],
        'TaskTitle': Image classification task',
        'TaskDescription': 'Carefully inspect the image and classify it by selecting one label from the categories provided.',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-ImageMultiClass'
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

### Fournir un modèle pour les tâches d’étiquetage de classification d’image
<a name="worker-template-image-classification"></a>

Si vous créez une tâche d’étiquetage à l’aide de l’API, vous devez fournir un modèle de tâche d’employé dans `UiTemplateS3Uri`. Copiez et modifiez le modèle suivant. Modifiez uniquement [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions), [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions), et `header`. 

Téléchargez ce modèle vers S3 et fournissez l’URI S3 pour ce fichier dans `UiTemplateS3Uri`.

```
<script src="https://assets.crowd.aws/crowd-html-elements.js"></script>
<crowd-form>
  <crowd-image-classifier
    name="crowd-image-classifier"
    src="{{ task.input.taskObject | grant_read_access }}"
    header="please classify"
    categories="{{ task.input.labels | to_json | escape }}"
  >
    <full-instructions header="Image classification instructions">
      <ol><li><strong>Read</strong> the task carefully and inspect the image.</li>
      <li><strong>Read</strong> the options and review the examples provided to understand more about the labels.</li>
      <li><strong>Choose</strong> the appropriate label that best suits the image.</li></ol>
    </full-instructions>
    <short-instructions>
      <h3><span style="color: rgb(0, 138, 0);">Good example</span></h3>
      <p>Enter description to explain the correct label to the workers</p>
      <h3><span style="color: rgb(230, 0, 0);">Bad example</span></h3><p>Enter description of an incorrect label</p>
    </short-instructions>
  </crowd-image-classifier>
</crowd-form>
```

## Données de sortie de classification d’image
<a name="sms-image-classification-output-data"></a>

Une fois que vous avez créé une tâche d’étiquetage de classification d’image, vos données de sortie seront situées dans le compartiment Amazon S3 spécifié dans le paramètre `S3OutputPath` lorsque vous utilisez l’API ou dans le champ **Output dataset location (Emplacement du jeu de données de sortie)** de la section **Job overview (Présentation de la tâche)** de la console. 

Pour en savoir plus sur le fichier manifeste de sortie généré par Ground Truth et sur la structure de fichier que ce dernier utilise pour stocker vos données de sortie, consultez [Étiquetage des données de sortie des tâches](sms-data-output.md). 

Pour afficher un exemple de fichier manifeste en sortie à partir d’une tâche d’étiquetage de classification d’image, consultez [Sortie de la tâche de classification](sms-data-output.md#sms-output-class).

# Créer d’une tâche de classification d’images (à plusieurs étiquettes)
<a name="sms-image-classification-multilabel"></a>

Utilisez une tâche d'étiquetage de classification d'images multi-étiquettes Amazon SageMaker Ground Truth lorsque vous avez besoin de collaborateurs pour classer plusieurs objets dans une image. Par exemple, l’image suivante présente un chien et un chat. Vous pouvez utiliser la classification d’images à plusieurs étiquettes pour associer les étiquettes « chien » et « chat » à cette image. La page suivante fournit des informations sur la création d’une tâche de classification d’images.

![\[Photo d’Anusha Barwa sur Unsplash\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/dog-cat-photo.jpg)


Lorsque vous travaillez sur une tâche de classification d’images à plusieurs étiquettes, les collaborateurs peuvent choisir toutes les étiquettes applicables, et doivent en choisir au moins une. Lorsque vous créez une tâche à l’aide de ce type de tâche, vous pouvez fournir jusqu’à 50 catégories d’étiquettes. 

Lors de la création d’une tâche d’étiquetage dans la console, Ground Truth ne fournit pas de catégorie « aucune » pour le cas où aucune des étiquettes ne s’applique à une image. Pour fournir cette option aux collaborateurs, incluez une étiquette similaire à « aucune » ou « autre » lorsque vous créez une tâche de classification d’images à plusieurs étiquettes. 

Pour imposer aux collaborateurs de choisir une seule étiquette pour chaque image, utilisez le type de tâche [Création d’une tâche d’étiquetage de classification d’images (à étiquette unique)](sms-image-classification.md).

**Important**  
Pour ce type de tâche, si vous créez votre propre fichier manifeste, utilisez `"source-ref"` pour identifier l’emplacement dans Amazon S3 de chaque fichier image que vous souhaitez étiqueter. Pour de plus amples informations, veuillez consulter [Données d’entrée](sms-data-input.md).

## Création d’une tâche d’étiquetage de classification d’images à plusieurs étiquettes (console)
<a name="sms-creating-multilabel-image-classification-console"></a>

Vous pouvez suivre les instructions [Création d’une tâche d’étiquetage (Console)](sms-create-labeling-job-console.md) pour savoir comment créer une tâche d'étiquetage de classification d'images multi-étiquettes dans la console SageMaker AI. À l’étape 10, choisissez **Image** dans le menu déroulant **Catégorie de tâches** puis **Outil d’étiquetage pour la classification d’images (plusieurs étiquettes)** comme type de tâche. 

Ground Truth fournit une interface utilisateur employé similaire à la suivante pour l’étiquetage des tâches. Lorsque vous créez une tâche d’étiquetage dans la console, vous spécifiez des instructions pour aider les employés à terminer la tâche et des étiquettes parmi lesquelles les employés peuvent choisir. 

![\[Exemple d’interface utilisateur de travail pour les tâches d’étiquetage, fourni par Ground Truth.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/image-classification-multilabel-example.png)


## Création d’une tâche d’étiquetage de classification d’images à plusieurs étiquettes (API)
<a name="sms-create-multi-select-image-classification-job-api"></a>

Pour créer une tâche d'étiquetage de classification d'images à étiquettes multiples, utilisez l'opération SageMaker `CreateLabelingJob` API. Cette API définit cette opération pour tous AWS SDKs. Pour consulter la liste des langues spécifiques prises SDKs en charge pour cette opération, consultez la section **Voir aussi** de. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)

Suivez les instructions présentées dans [Création d’une tâche d’étiquetage (API)](sms-create-labeling-job-api.md) et procédez comme suit pour configurer votre demande : 
+ Les fonctions Lambda de pré-annotation pour ce type de tâche se terminent par `PRE-ImageMultiClassMultiLabel`. Pour trouver l'ARN Lambda préalable à l'annotation pour votre région [PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_HumanTaskConfig.html#SageMaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn), consultez. 
+ Les fonctions Lambda de consolidation des annotations pour ce type de tâche se terminent par `ACS-ImageMultiClassMultiLabel`. Pour trouver l'ARN Lambda de consolidation des annotations pour votre région, consultez. [AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_AnnotationConsolidationConfig.html#SageMaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn) 

Voici un exemple de [requête du kit SDK AWS Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) pour créer une tâche d’étiquetage dans la région USA Est (Virginie du Nord). Tous les paramètres en rouge doivent être remplacés par vos spécifications et ressources. 

```
response = client.create_labeling_job(
    LabelingJobName='example-multi-label-image-classification-labeling-job,
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://bucket/path/manifest-with-input-data.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://bucket/path/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/path/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:region:*:workteam/private-crowd/*',
        'UiConfig': {
            'UiTemplateS3Uri': 's3://bucket/path/worker-task-template.html'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-ImageMultiClassMultiLabel',
        'TaskKeywords': [
            'Image Classification',
        ],
        'TaskTitle': 'Multi-label image classification task',
        'TaskDescription': 'Select all labels that apply to the images shown',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-ImageMultiClassMultiLabel'
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

### Fournir un modèle pour la classification des images multiétiquettes
<a name="sms-custom-template-multi-image-label-classification"></a>

Si vous créez une tâche d’étiquetage à l’aide de l’API, vous devez fournir un modèle de tâche d’employé dans `UiTemplateS3Uri`. Copiez et modifiez le modèle suivant. Modifiez uniquement [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions), [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions), et `header`. 

Téléchargez ce modèle vers S3 et fournissez l’URI S3 pour ce fichier dans `UiTemplateS3Uri`.

```
<script src="https://assets.crowd.aws/crowd-html-elements.js"></script>
<crowd-form>
  <crowd-image-classifier-multi-select
    name="crowd-image-classifier-multi-select"
    src="{{ task.input.taskObject | grant_read_access }}"
    header="Please identify all classes in image"
    categories="{{ task.input.labels | to_json | escape }}"
  >
    <full-instructions header="Multi Label Image classification instructions">
      <ol><li><strong>Read</strong> the task carefully and inspect the image.</li>
      <li><strong>Read</strong> the options and review the examples provided to understand more about the labels.</li>
       <li><strong>Choose</strong> the appropriate labels that best suit the image.</li></ol>
    </full-instructions>
    <short-instructions>
      <h3><span style="color: rgb(0, 138, 0);">Good example</span></h3>
      <p>Enter description to explain the correct label to the workers</p>
      <h3><span style="color: rgb(230, 0, 0);">Bad example</span></h3>
      <p>Enter description of an incorrect label</p>
   </short-instructions>
  </crowd-image-classifier-multi-select>
</crowd-form>
```

## Données de sortie de classification d’images à plusieurs étiquettes
<a name="sms-image-classification-multi-output-data"></a>

Une fois que vous avez créé une tâche d’étiquetage de classification d’images à plusieurs étiquettes, vos données de sortie seront situées dans le compartiment Amazon S3 spécifié dans le paramètre `S3OutputPath` lorsque vous utilisez l’API ou dans le champ **Emplacement du jeu de données de sortie** de la section **Présentation de la tâche** de la console. 

Pour en savoir plus sur le fichier manifeste de sortie généré par Ground Truth et sur la structure de fichier que ce dernier utilise pour stocker vos données de sortie, consultez [Étiquetage des données de sortie des tâches](sms-data-output.md). 

Pour accéder à un exemple de fichiers manifestes de sortie pour la tâche d’étiquetage de classification d’images à plusieurs étiquettes, consultez [Sortie d’une tâche de classification à plusieurs étiquettes](sms-data-output.md#sms-output-multi-label-classification).

# Vérification des étiquettes d’image
<a name="sms-label-verification"></a>

La création d’un jeu de données d’entraînement très précis pour votre algorithme de machine learning (ML) est un processus itératif. Généralement, vous examinez et ajustez continuellement vos étiquettes jusqu’à ce que vous soyez convaincu qu’elles représentent avec précision la vérité réelle ou ce qui est directement observable dans le monde réel. Vous pouvez utiliser une tâche de vérification des étiquettes d’images Amazon SageMaker Ground Truth pour demander aux employés de vérifier les étiquettes d’un jeu de données et d’améliorer leur précision. Les employés peuvent indiquer si les étiquettes existantes sont correctes ou évaluer la qualité de l’étiquette. Ils peuvent également ajouter des commentaires pour expliquer leur raisonnement. Amazon SageMaker Ground Truth prend en charge la vérification des étiquettes pour les étiquettes de type [Classification des objets d’image à l’aide d’un cadre de délimitation](sms-bounding-box.md) et [Identifier le contenu des images à l’aide de la segmentation sémantique](sms-semantic-segmentation.md). Vous pouvez créer une tâche d’étiquetage de vérification d’images en utilisant la section Ground Truth de la console Amazon SageMaker AI ou l’opération [CreateLabelingJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html). 

Ground Truth fournit une console employé similaire à la suivante pour l’étiquetage des tâches. Lorsque vous créez le travail d’étiquetage avec la console, vous pouvez modifier les images et le contenu affichés. Pour découvrir comment créer une tâche d’étiquetage dans la console avec Ground Truth, consultez [Création d’une tâche d’étiquetage (Console)](sms-create-labeling-job-console.md).

![\[Exemple de console de travail pour les tâches d’étiquetage, fourni par Ground Truth.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/label-verification-example.png)


Vous pouvez créer une tâche d’étiquetage de vérification des étiquettes à l’aide de la console SageMaker AI ou de l’API. Pour apprendre à créer une tâche d’étiquetage à l’aide de l’opération `CreateLabelingJob` de l’API Ground Truth, consultez [Création d’une tâche d’étiquetage (API)](sms-create-labeling-job-api.md).