

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Beschriftungsimages
<a name="sms-label-images"></a>

Verwenden Sie Ground Truth, um Images zu beschriften. Wählen Sie einen der folgenden integrierten Aufgabentypen aus, um mehr über diesen Aufgabentyp zu erfahren. Jede Seite enthält Anweisungen, die Ihnen helfen, einen Beschriftungsauftrag mit diesem Aufgabentyp zu erstellen.

**Tipp**  
Weitere Informationen zu unterstützten Dateitypen und Eingabedatenkontingenten finden Sie unter [Eingabedaten](sms-data-input.md).

**Topics**
+ [Klassifizieren von Bildobjekten mithilfe eines Begrenzungsrahmens](sms-bounding-box.md)
+ [Identifizieren von Bildinhalten anhand der semantischen Segmentierung](sms-semantic-segmentation.md)
+ [Auto-Segmentierungstool](sms-auto-segmentation.md)
+ [Erstellen eines Bildklassifizierungsjobs (Single-Label)](sms-image-classification.md)
+ [Erstellen eines Bildklassifizierungsjobs (Multi-Label)](sms-image-classification-multilabel.md)
+ [Image Beschriftungsverifizierung](sms-label-verification.md)

# Klassifizieren von Bildobjekten mithilfe eines Begrenzungsrahmens
<a name="sms-bounding-box"></a>

Die zum Training eines Machine-Learning-Modells verwendeten Bilder enthalten oft mehrere Objekte. Um ein oder mehrere Objekte in Bildern zu klassifizieren und zu lokalisieren, verwenden Sie den Auftragstyp Amazon SageMaker Ground Truth Bounding Box Labeling. In diesem Zusammenhang bezeichnet Lokalisierung die Pixelposition des Begrenzungsrahmens. Sie erstellen einen Bounding-Box-Labeling-Job mithilfe des Ground-Truth-Abschnitts der Amazon SageMaker AI-Konsole oder der [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)Operation.

**Wichtig**  
Wenn Sie eine eigene Manifestdatei erstellen, verwenden Sie den Aufgabentyp `"source-ref"` zur Identifizierung des Speicherorts jeder Bilddatei in Amazon S3, die beschriftet werden soll. Weitere Informationen finden Sie unter [Eingabedaten](sms-data-input.md).

## Erstellen einer Labeling-Aufgabe für einen Begrenzungsrahmen (Konsole)
<a name="sms-creating-bounding-box-labeling-job-console"></a>

Sie können den Anweisungen folgen[Erstellen eines Kennzeichnungsauftrags (Konsole)](sms-create-labeling-job-console.md), um zu erfahren, wie Sie einen Bounding-Box-Label-Job in der SageMaker AI-Konsole erstellen. Wählen Sie in Schritt 10 im Dropdown-Menü **Aufgabenkategorie** die Option **Image** und als Aufgabentyp **Bounding Box** aus. 

Ground Truth stellt für die Beschriftungssaufgaben eine Worker-Benutzeroberfläche ähnlich der folgenden bereit. Wenn Sie den Beschriftungsauftrag mit der Konsole erstellen, müssen Sie Anweisungen bereitstellen, damit die Worker den Auftrag ausführen können, und bis zu 50 Beschriftungen, aus denen die Worker auswählen können. 

![\[GIF, das zeigt, wie man für eine Kategorie einen Rahmen um ein Objekt zeichnet\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/gifs/bb-sample.gif)


## Erstellen einer Labeling-Aufgabe für Begrenzungsrahmen (API)
<a name="sms-creating-bounding-box-labeling-job-api"></a>

Verwenden Sie die SageMaker API-Operation, um einen Bounding-Box-Labeling-Job zu erstellen. `CreateLabelingJob` Diese API definiert diesen Vorgang für alle AWS SDKs. Eine Liste der sprachspezifischen Sprachen, die für diesen Vorgang SDKs unterstützt werden, **finden Sie im Abschnitt Siehe auch** von. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)

Befolgen Sie diese Anweisungen unter [Erstellen eines Kennzeichnungsauftrags (API)](sms-create-labeling-job-api.md) und führen Sie die folgenden Schritte aus, während Sie Ihre Anforderung konfigurieren: 
+ Vorannotierende Lambda-Features für die Vorannotierung für diesen Aufgabentyp enden mit `PRE-BoundingBox`. Den Lambda-ARN vor der Anmerkung für Ihre Region finden Sie unter. [PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_HumanTaskConfig.html#SageMaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn) 
+ Annotations-Konsolidierende Lambda-Features für die Annotationskonsolidierung für diesen Aufgabentyp enden mit `ACS-BoundingBox`. Den Lambda-ARN zur Annotationskonsolidierung für Ihre Region finden Sie unter. [AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_AnnotationConsolidationConfig.html#SageMaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn) 

Im Folgenden finden Sie ein Beispiel für eine [AWS -Python-SDK-(Boto3)-Anforderung](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) zum Erstellen eines Beschriftungsauftrags in der Region USA Ost (Nord-Virginia). Alle Parameter in Rot sollten durch Ihre Spezifikationen und Ressourcen ersetzt werden. 

```
response = client.create_labeling_job(
    LabelingJobName='example-bounding-box-labeling-job,
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://bucket/path/manifest-with-input-data.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://bucket/path/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/path/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:region:*:workteam/private-crowd/*',
        'UiConfig': {
            'UiTemplateS3Uri': 's3://bucket/path/worker-task-template.html'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-BoundingBox',
        'TaskKeywords': [
            'Bounding Box',
        ],
        'TaskTitle': 'Bounding Box task',
        'TaskDescription': 'Draw bounding boxes around objects in an image',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-BoundingBox'
          }
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

### Bereitstellen einer Vorlage für Labeling-Aufgaben für Begrenzungsrahmen
<a name="sms-create-labeling-job-bounding-box-api-template"></a>

Wenn Sie eine Labeling-Aufgabe unter Verwendung der API erstellen, müssen Sie in `UiTemplateS3Uri` eine Worker-Aufgabenvorlage bereitstellen. Kopieren und ändern Sie die folgende Vorlage. Ändern Sie nur [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions), [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions) und `header`. Laden Sie diese Vorlage zu S3 hoch und geben Sie den S3-URI für diese Datei in `UiTemplateS3Uri` an.

```
<script src="https://assets.crowd.aws/crowd-html-elements.js"></script>
<crowd-form>
  <crowd-bounding-box
    name="boundingBox"
    src="{{ task.input.taskObject | grant_read_access }}"
    header="please draw box"
    labels="{{ task.input.labels | to_json | escape }}"
  >

    <full-instructions header="Bounding box instructions">
      <ol><li><strong>Inspect</strong> the image</li><li><strong>Determine</strong> 
      if the specified label is/are visible in the picture.</li>
      <li><strong>Outline</strong> each instance of the specified label in the image using the provided “Box” tool.</li></ol>
      <ul><li>Boxes should fit tight around each object</li>
      <li>Do not include parts of the object are overlapping or that cannot be seen, even though you think you can interpolate the whole shape.</li>
      <li>Avoid including shadows.</li>
      <li>If the target is off screen, draw the box up to the edge of the image.</li>    
    </full-instructions>
  
    <short-instructions>
      <h3><span style="color: rgb(0, 138, 0);">Good example</span></h3>
      <p>Enter description of a correct bounding box label and add images</p>
      <h3><span style="color: rgb(230, 0, 0);">Bad example</span></h3>
      <p>Enter description of an incorrect bounding box label and add images</p>
    </short-instructions>
  
  </crowd-bounding-box>
</crowd-form>
```

## Ausgabedaten für Begrenzungsrahmen
<a name="sms-bounding-box-output-data"></a>

Nach der Erstellung des Bounding Box Beschriftungsauftrags befinden sich bei Verwendung der API die Ausgabedaten in dem im `S3OutputPath` Parameter angegebenen Amazon-S3-Bucket oder im Feld **Ausgabedatensatz-Speicherort** im Abschnitt **Auftragsübersicht** der Konsole. 

Beispielsweise enthält die Ausgabemanifestdatei einer erfolgreich abgeschlossenen Aufgabe mit Begrenzungsrahmen einer Klasse Folgendes: 

```
[
  {
    "boundingBox": {
      "boundingBoxes": [
        {
          "height": 2832,
          "label": "bird",
          "left": 681,
          "top": 599,
          "width": 1364
        }
      ],
      "inputImageProperties": {
        "height": 3726,
        "width": 2662
      }
    }
  }
]
```

Der Parameter `boundingBoxes` identifiziert die Position des Begrenzungsrahmens, der um ein Objekt gezeichnet wird, das als „Vogel“ identifiziert wird, relativ zur linken oberen Ecke des Bildes, für die Pixel-Koordinate (0,0) festgelegt wird. Im vorherigen Beispiel geben **`left`** und **`top`** die Position des Pixels in der linken oberen Ecke des Begrenzungsrahmens relativ zur linken oberen Ecke des Bildes an. Die Abmessungen des Begrenzungsrahmens werden mit **`height`** und **`width`** identifiziert. Der Parameter `inputImageProperties` gibt die Pixel-Abmessungen des ursprünglichen Eingabebildes an.

Wenn Sie den Aufgabentyp mit Begrenzungsrahmen verwenden, können Sie Labeling-Aufträge mit Ein- und Mehrklassen-Begrenzungsrahmen erstellen. Die Ausgabemanifestdatei einer erfolgreich abgeschlossenen Aufgabe mit Begrenzungsrahmen für mehrere Klassen enthält Folgendes: 

```
[
  {
    "boundingBox": {
      "boundingBoxes": [
        {
          "height": 938,
          "label": "squirrel",
          "left": 316,
          "top": 218,
          "width": 785
        },
        {
          "height": 825,
          "label": "rabbit",
          "left": 1930,
          "top": 2265,
          "width": 540
        },
        {
          "height": 1174,
          "label": "bird",
          "left": 748,
          "top": 2113,
          "width": 927
        },
        {
          "height": 893,
          "label": "bird",
          "left": 1333,
          "top": 847,
          "width": 736
        }
      ],
      "inputImageProperties": {
        "height": 3726,
        "width": 2662
      }
    }
  }
]
```

Weitere Informationen zur Ausgabemanifestdatei zu einem Kennzeichnungsauftrag mit Begrenzungsrahmen finden Sie unter [Ausgabe des Begrenzungsrahmenauftrags](sms-data-output.md#sms-output-box).

Um mehr über die von Ground Truth erzeugte Ausgabemanifestdatei und die Dateistruktur zu erfahren, die Ground Truth zum Speichern Ihrer Ausgabedaten verwendet, siehe [Ausgabedaten von Kennzeichnungsaufträgen](sms-data-output.md). 

# Identifizieren von Bildinhalten anhand der semantischen Segmentierung
<a name="sms-semantic-segmentation"></a>

Verwenden Sie eine Amazon SageMaker Ground Truth Labeling-Aufgabe zur semantischen Segmentierung, um den Inhalt eines Bilds auf Pixelebene zu identifizieren. Bei der semantischen Segmentierung klassifizieren die Auftragnehmer die Pixel des Bildes in eine Reihe von vordefinierten Beschriftungen oder Klassen. Ground Truth unterstützt Beschriftungsaufträge mit semantischer Segmentierung für einzelne und mehrere Klassen. Sie erstellen einen Labeling-Job für semantische Segmentierung mithilfe des Ground Truth Truth-Abschnitts der Amazon SageMaker AI-Konsole oder der [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)Operation. 

Für Bilder, die eine große Anzahl von Objekten enthalten, die segmentiert werden müssen, wird mehr Zeit benötigt. Damit Auftragnehmer (private oder Anbieterarbeitskräfte) diese Objekte in kürzerer Zeit und mit größerer Genauigkeit beschriften können, stellt Ground Truth ein AI-gestütztes Tool für die automatische Segmentierung bereit. Weitere Informationen finden Sie unter [Auto-Segmentierungstool](sms-auto-segmentation.md).

**Wichtig**  
Wenn Sie eine eigene Manifestdatei erstellen, verwenden Sie den Aufgabentyp `"source-ref"` zur Identifizierung des Speicherorts jeder Bilddatei in Amazon S3, die beschriftet werden soll. Weitere Informationen finden Sie unter [Eingabedaten](sms-data-input.md).

## Erstellen einer Labeling-Aufgabe für eine semantische Segmentierung (Konsole)
<a name="sms-creating-ss-labeling-job-console"></a>

Sie können den Anweisungen folgen[Erstellen eines Kennzeichnungsauftrags (Konsole)](sms-create-labeling-job-console.md), um zu erfahren, wie Sie einen Labeling-Job für semantische Segmentierung in der AI-Konsole erstellen. SageMaker Wählen Sie in Schritt 10 im Dropdown-Menü **Aufgabenkategorie** die Option **Bild** und als Aufgabentyp **Semantische Segmentierung** aus. 

Ground Truth stellt für die Labeling-Aufgaben eine Auftragnehmer-Benutzeroberfläche ähnlich der folgenden bereit. Wenn Sie die Labeling-Aufgabe mit der Konsole erstellen, müssen Sie Anweisungen bereitstellen, damit die Worker die Aufgabe ausführen können, und Kennzeichnungen, aus denen die Worker auswählen können. 

![\[Das GIF zeigt ein Beispiel für die Erstellung eines Labeling-Jobs für semantische Segmentierung in der AI-Konsole. SageMaker\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/semantic_segmentation_sample.gif)


## Erstellen einer Labeling-Aufgabe für eine semantische Segmentierung (API)
<a name="sms-creating-ss-labeling-job-api"></a>

Verwenden Sie die API-Operation, um einen Labeling-Job für semantische Segmentierung zu erstellen. SageMaker `CreateLabelingJob` Diese API definiert diesen Vorgang für alle. AWS SDKs Eine Liste der sprachspezifischen Sprachen, die für diesen Vorgang SDKs unterstützt werden, **finden Sie im Abschnitt Siehe auch** von. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)

Befolgen Sie diese Anweisungen unter [Erstellen eines Kennzeichnungsauftrags (API)](sms-create-labeling-job-api.md) und führen Sie die folgenden Schritte aus, während Sie Ihre Anforderung konfigurieren: 
+ Vorannotierende Lambda-Features für die Vorannotierung für diesen Aufgabentyp enden mit `PRE-SemanticSegmentation`. Den Lambda-ARN vor der Anmerkung für Ihre Region finden Sie unter. [PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_HumanTaskConfig.html#SageMaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn) 
+ Annotations-Konsolidierende Lambda-Features für die Annotationskonsolidierung für diesen Aufgabentyp enden mit `ACS-SemanticSegmentation`. Den Lambda-ARN zur Annotationskonsolidierung für Ihre Region finden Sie unter. [AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_AnnotationConsolidationConfig.html#SageMaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn) 

Im Folgenden finden Sie ein Beispiel für eine [AWS -Python-SDK-(Boto3)-Anforderung](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) zum Erstellen eines Beschriftungsauftrags in der Region USA Ost (Nord-Virginia). Alle Parameter in Rot sollten durch Ihre Spezifikationen und Ressourcen ersetzt werden. 

```
response = client.create_labeling_job(
    LabelingJobName='example-semantic-segmentation-labeling-job,
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://bucket/path/manifest-with-input-data.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://bucket/path/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/path/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:region:*:workteam/private-crowd/*',
        'UiConfig': {
            'UiTemplateS3Uri': 's3://bucket/path/worker-task-template.html'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-SemanticSegmentation,
        'TaskKeywords': [
            'Semantic Segmentation',
        ],
        'TaskTitle': 'Semantic segmentation task',
        'TaskDescription': 'For each category provided, segment out each relevant object using the color associated with that category',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-SemanticSegmentation'
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

### Bereitstellen einer Vorlage für Labeling-Aufgaben für die semantische Segmentierung
<a name="sms-create-labeling-job-ss-api-template"></a>

Wenn Sie eine Labeling-Aufgabe unter Verwendung der API erstellen, müssen Sie in `UiTemplateS3Uri` eine Worker-Aufgabenvorlage bereitstellen. Kopieren und ändern Sie die folgende Vorlage. Ändern Sie nur [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions), [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions) und `header`. 

Laden Sie diese Vorlage zu S3 hoch und geben Sie den S3-URI für diese Datei in `UiTemplateS3Uri` an.

```
<script src="https://assets.crowd.aws/crowd-html-elements.js"></script>
<crowd-form>
  <crowd-semantic-segmentation
    name="crowd-semantic-segmentation"
    src="{{ task.input.taskObject | grant_read_access }}"
    header="Please segment out all pedestrians."
    labels="{{ task.input.labels | to_json | escape }}"
  >
    <full-instructions header="Segmentation instructions">
      <ol><li><strong>Read</strong> the task carefully and inspect the image.</li>
      <li><strong>Read</strong> the options and review the examples provided to understand more about the labels.</li>
      <li><strong>Choose</strong> the appropriate label that best suits an object and paint that object using the tools provided.</li></ol>
    </full-instructions>
    <short-instructions>
      <h2><span style="color: rgb(0, 138, 0);">Good example</span></h2>
      <p>Enter description to explain a correctly done segmentation</p>
      <p><br></p><h2><span style="color: rgb(230, 0, 0);">Bad example</span></h2>
      <p>Enter description of an incorrectly done segmentation</p>
    </short-instructions>
  </crowd-semantic-segmentation>
</crowd-form>
```

## Ausgabedaten der semantischen Segmentierung
<a name="sms-ss-ouput-data"></a>

Nach der Erstellung eines Beschriftungsauftrags für die semantische Segmentierung befinden sich bei Verwendung der API die Ausgabedaten in dem im `S3OutputPath` Parameter angegebenen Amazon-S3-Bucket oder im Feld **Ausgabedatensatz-Speicherort** im Abschnitt **Aufgabenübersicht** der Konsole. 

Um mehr über die von Ground Truth erzeugte Ausgabemanifestdatei und die Dateistruktur zu erfahren, die Ground Truth zum Speichern der Ausgabedaten verwendet, siehe [Ausgabedaten von Kennzeichnungsaufträgen](sms-data-output.md). 

Ein Beispiel für eine Ausgabemanifestdatei für eine Labeling-Aufgabe für die semantische Segmentierung finden Sie unter [Ausgabe der semantischen 3D-Punktwolkensegmentierung](sms-data-output.md#sms-output-point-cloud-segmentation).

# Auto-Segmentierungstool
<a name="sms-auto-segmentation"></a>

Bildsegmentierung ist der Prozess der Aufteilung eines Bildes in mehrere Segmente oder Gruppen von gekennzeichneten Pixeln. In Amazon SageMaker Ground Truth werden bei der Identifizierung aller Pixel, auf die eine bestimmte Beschriftung zutrifft, solche Pixel durch eine Farbfüllung, oder „Maske“, überlagert. Einige Aufgaben eines Kennzeichnungsauftrags umfassen Bilder mit einer großen Anzahl der Objekte, die segmentiert werden müssen. Damit Auftragnehmer diese Objekte in kürzerer Zeit und mit größerer Genauigkeit beschriften können, stellt Ground Truth ein Auto-Segmentierungstool für Segmentierungsaufgaben bereit, die privaten Arbeitskräften und Arbeitskräften von Anbietern zugeordnet sind. Dieses Werkzeug verwendet ein Machine-Learning-Modell zur automatischen Segmentierung einzelner Objekte im Bild mit minimaler Eingabe von Arbeitskräften. Arbeitskräfte können die vom Auto-Segmentierungstool generierte Maske mithilfe anderer Werkzeuge in der Konsole für Arbeitskräfte verfeinern. Auf diese Weise können Arbeitskräfte Bildsegmentierungsaufgaben schneller und genauer durchführen, was zu niedrigeren Kosten und einer höheren Kennzeichnungsqualität führt. Auf der folgenden Seite finden Sie Informationen über das Tool und seine Verfügbarkeit.

**Anmerkung**  
Das Auto-Segmentierungstool ist für Segmentierungsaufgaben verfügbar, die an private Arbeitskräfte oder an Arbeitskräfte von Anbietern gesendet werden. Sie ist nicht für Aufgaben verfügbar, die an die öffentlichen Arbeitskräfte (Amazon Mechanical Turk) gesendet werden. 

## Werkzeugvorschau
<a name="sms-auto-segment-tool-preview"></a>

Wenn Arbeitskräften einen Kennzeichnungsauftrag zugewiesen wird, der das Auto-Segmentierungstool bereitstellt, erhalten sie detaillierte Anweisungen zur Verwendung des Werkzeugs. Eine Arbeitskraft sieht z. B. möglicherweise Folgendes in der Konsole für Arbeitskräfte: 

![\[Beispiel-Benutzeroberfläche mit Anweisungen zur Verwendung des Tools in der Auftragnehmerkonsole\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/gifs/semantic-segmentation.gif)


Arbeitskräfte können mit **Vollständige Anweisungen anzeigen** lernen, wie das Werkzeug zu verwenden ist. Arbeitskräfte müssen an vier Extrempunkten (oberster, unterster, ganz linker und ganz rechter Punkt) des relevanten Objekts jeweils einen Punkt platzieren. Das Werkzeug generiert dann automatisch eine Maske für das Objekt. Arbeitskräfte können die Maske mit den anderen bereitgestellten Werkzeugen oder mit dem Auto-Segmentierungstool für kleinere Teile des Objekts, die verpasst wurden, weiter verfeinern. 

## Werkzeugverfügbarkeit
<a name="sms-auto-segment-tool-availability"></a>

Das Auto-Segmentierungstool erscheint automatisch in den Konsolen Ihrer Auftragnehmer, wenn Sie einen semantischen Segmentierungskennzeichnungsauftrag über die Konsole von Amazon SageMaker AI erstellen. Während Sie einen semantischen Segmentierungsauftrag in der SageMaker-AI-Konsole erstellen, können Sie beim Erstellen von Auftragnehmeranweisungen eine Vorschau des Tools anzeigen. Informationen zum Erstellen eines Kennzeichnungsauftrags der semantischen Segmentierung in der SageMaker-AI-Konsole finden Sie unter [Erste Schritte: Erstellen eines Kennzeichnungsauftrags mit Begrenzungsrahmen über Ground Truth](sms-getting-started.md). 

Wenn Sie einen benutzerdefinierten Instance-Segmentierungskennzeichnungsauftrag in der SageMaker-AI-Konsole oder einen Instance- oder semantischen Segmentierungskennzeichnungsauftrag mithilfe der Ground-Truth-API erstellen, müssen Sie eine benutzerdefinierte Aufgabenvorlage erstellen, um Konsole und Anweisungen für Ihre Auftragnehmer zu entwerfen. Um das Auto-Segmentierungstool in Ihre Konsole für Arbeitskräfte aufzunehmen, stellen Sie sicher, dass die folgenden Bedingungen in der benutzerdefinierten Aufgabenvorlage erfüllt sind:
+ Bei semantischen Segmentierungskennzeichnungsaufträgen, die mit der API erstellt wurden, ist `<crowd-semantic-segmentation>` in der Aufgabenvorlage vorhanden. Bei benutzerdefinierten Instance-Segmentierungskennzeichungsaufträgen ist das Tag `<crowd-instance-segmentation>` in der Aufgabenvorlage vorhanden.
+ Der Vorgang wird privaten Arbeitskräften oder Arbeitskräften von Anbietern zugewiesen. 
+ Die zu beschrifteten Bilder sind Amazon Simple Storage Service Amazon S3)-Objekte, die für die Auftragnehmer vorsigniert wurden, damit sie darauf zugreifen kann. Dies trifft bei Aufgabenvorlagen mit dem Filter `grant_read_access` zu. Informationen zum `grant_read_access`-Filter finden Sie unter [Hinzufügen von Automation mit Liquid](sms-custom-templates-step2-automate.md).

Im Folgenden finden Sie ein Beispiel für eine benutzerdefinierte Aufgabenvorlage für einen benutzerdefinierten Instance-Segmentierungskennzeichnungsauftrag, der das Tag `<crowd-instance-segmentation/>` und den Flüssigkeitsfilter `grant_read_access` enthält.

```
<script src="https://assets.crowd.aws/crowd-html-elements.js"></script>
<crowd-form>
  <crowd-instance-segmentation
    name="crowd-instance-segmentation"
    src="{{ task.input.taskObject | grant_read_access }}"
    labels="['Car','Road']"
   <full-instructions header="Segmentation instructions">
      Segment each instance of each class of objects in the image. 
    </full-instructions>

    <short-instructions>
      <p>Segment each instance of each class of objects in the image.</p>

      <h3 style="color: green">GOOD EXAMPLES</h3>
      <img src="path/to/image.jpg" style="width: 100%">
      <p>Good because A, B, C.</p>

      <h3 style="color: red">BAD EXAMPLES</h3>
      <img src="path/to/image.jpg" style="width: 100%">
      <p>Bad because X, Y, Z.</p>
    </short-instructions>
  </crowd-instance-segmentation>
</crowd-form>
```

# Erstellen eines Bildklassifizierungsjobs (Single-Label)
<a name="sms-image-classification"></a>

Verwenden Sie eine Amazon SageMaker Ground Truth Truth-Aufgabe zur Bildklassifizierung, wenn Mitarbeiter Bilder anhand von von Ihnen angegebenen vordefinierten Labels klassifizieren müssen. Workern werden Bilder gezeigt und sie werden aufgefordert, für jedes Bild eine Kennzeichnung auszuwählen. Sie können mithilfe des Ground Truth Truth-Abschnitts der Amazon SageMaker AI-Konsole oder mithilfe des [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)Vorgangs einen Job zur Bildklassifizierung erstellen. 

**Wichtig**  
Wenn Sie eine eigene Manifestdatei erstellen, verwenden Sie den Aufgabentyp `"source-ref"` zur Identifizierung des Speicherorts jeder Bilddatei in Amazon S3, die beschriftet werden soll. Weitere Informationen finden Sie unter [Eingabedaten](sms-data-input.md).

## Erstellen einer Labeling-Aufgabe für die Bildklassifizierung (Konsole)
<a name="sms-creating-image-classification-console"></a>

Sie können den Anweisungen folgen[Erstellen eines Kennzeichnungsauftrags (Konsole)](sms-create-labeling-job-console.md), um zu erfahren, wie Sie einen Job zur Bildklassifizierung in der SageMaker AI-Konsole erstellen. Wählen Sie in Schritt 10 im Dropdown-Menü **Aufgabenkategorie** die Option **Bild** und wählen Sie als Aufgabentyp **Bildklassifizierung (Einzelne Beschriftung)** aus. 

Ground Truth stellt für die Labeling-Aufgaben eine Arbeitnehmer-Benutzeroberfläche ähnlich der folgenden bereit. Wenn Sie die Labeling-Aufgabe mit der Konsole erstellen, müssen Sie Anweisungen bereitstellen, damit die Worker die Aufgabe ausführen können, und Kennzeichnungen, aus denen die Worker auswählen können. 

![\[Beispiel für eine Worker-Benutzeroberfläche für Kennzeichnungsaufgaben, bereitgestellt von Ground Truth\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/image-classification-example.png)


## Erstellen einer Labeling-Aufgabe für die Bildklassifizierung (API)
<a name="sms-creating-image-classification-api"></a>

Verwenden Sie den SageMaker API-Vorgang, um einen Job zur Kennzeichnung der Bildklassifizierung zu erstellen`CreateLabelingJob`. Diese API definiert diesen Vorgang für alle AWS SDKs. Eine Liste der sprachspezifischen Sprachen, die für diesen Vorgang SDKs unterstützt werden, **finden Sie im Abschnitt Siehe auch** von. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)

Befolgen Sie diese Anweisungen unter [Erstellen eines Kennzeichnungsauftrags (API)](sms-create-labeling-job-api.md) und führen Sie die folgenden Schritte aus, während Sie Ihre Anforderung konfigurieren: 
+ Vorannotierende Lambda-Features für die Vorannotierung für diesen Aufgabentyp enden mit `PRE-ImageMultiClass`. Den Lambda-ARN vor der Anmerkung für Ihre Region finden Sie unter. [PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_HumanTaskConfig.html#SageMaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn) 
+ Annotations-Konsolidierende Lambda-Features für die Annotationskonsolidierung für diesen Aufgabentyp enden mit `ACS-ImageMultiClass`. Den Lambda-ARN zur Annotationskonsolidierung für Ihre Region finden Sie unter. [AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_AnnotationConsolidationConfig.html#SageMaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn) 

Im Folgenden finden Sie ein Beispiel für eine [AWS -Python-SDK-(Boto3)-Anforderung](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) zum Erstellen eines Beschriftungsauftrags in der Region USA Ost (Nord-Virginia). Alle Parameter in Rot sollten durch Ihre Spezifikationen und Ressourcen ersetzt werden. 

```
response = client.create_labeling_job(
    LabelingJobName='example-image-classification-labeling-job',
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://bucket/path/manifest-with-input-data.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://bucket/path/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/path/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:region:*:workteam/private-crowd/*',
        'UiConfig': {
            'UiTemplateS3Uri': 's3://bucket/path/worker-task-template.html'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-ImageMultiClass,
        'TaskKeywords': [
            Image classification',
        ],
        'TaskTitle': Image classification task',
        'TaskDescription': 'Carefully inspect the image and classify it by selecting one label from the categories provided.',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-ImageMultiClass'
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

### Bereitstellen einer Vorlage für Labeling-Aufgaben für die Bildklassifizierung
<a name="worker-template-image-classification"></a>

Wenn Sie eine Labeling-Aufgabe unter Verwendung der API erstellen, müssen Sie in `UiTemplateS3Uri` eine Worker-Aufgabenvorlage bereitstellen. Kopieren und ändern Sie die folgende Vorlage. Ändern Sie nur [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions), [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions) und `header`. 

Laden Sie diese Vorlage zu S3 hoch und geben Sie den S3-URI für diese Datei in `UiTemplateS3Uri` an.

```
<script src="https://assets.crowd.aws/crowd-html-elements.js"></script>
<crowd-form>
  <crowd-image-classifier
    name="crowd-image-classifier"
    src="{{ task.input.taskObject | grant_read_access }}"
    header="please classify"
    categories="{{ task.input.labels | to_json | escape }}"
  >
    <full-instructions header="Image classification instructions">
      <ol><li><strong>Read</strong> the task carefully and inspect the image.</li>
      <li><strong>Read</strong> the options and review the examples provided to understand more about the labels.</li>
      <li><strong>Choose</strong> the appropriate label that best suits the image.</li></ol>
    </full-instructions>
    <short-instructions>
      <h3><span style="color: rgb(0, 138, 0);">Good example</span></h3>
      <p>Enter description to explain the correct label to the workers</p>
      <h3><span style="color: rgb(230, 0, 0);">Bad example</span></h3><p>Enter description of an incorrect label</p>
    </short-instructions>
  </crowd-image-classifier>
</crowd-form>
```

## Bildklassifizierungs-Ausgabedaten
<a name="sms-image-classification-output-data"></a>

Nach der Erstellung einer Labeling-Aufgabe für die Bildklassifizierung befinden sich bei Verwendung der API die Ausgabedaten in dem im `S3OutputPath` Parameter angegebenen Amazon-S3-Bucket oder im Feld **Output dataset location** im Abschnitt **Aufgabenübersicht** der Konsole. 

Weitere Informationen zu der von Ground Truth generierten Ausgabemanifestdatei und zur Dateistruktur, die zum Speichern Ihrer Ausgabedaten verwendet, finden Sie unter [Ausgabedaten von Kennzeichnungsaufträgen](sms-data-output.md). 

Ein Beispiel für eine Ausgabemanifestdatei für eine Labeling-Aufgabe für die Bildklassifizierung finden Sie unter [Ausgabe des Klassifizierungsauftrags](sms-data-output.md#sms-output-class).

# Erstellen eines Bildklassifizierungsjobs (Multi-Label)
<a name="sms-image-classification-multilabel"></a>

Verwenden Sie eine Amazon SageMaker Ground Truth Bildklassifizierungsaufgabe mit mehreren Labels, wenn Mitarbeiter mehrere Objekte in einem Bild klassifizieren müssen. Auf dem folgenden Bild beispielsweise sind ein Hund und eine Katze zu sehen. Sie können die Multi-Label-Bildklassifizierung verwenden, um die Bezeichnungen „Hund“ und „Katze“ mit diesem Bild zu verknüpfen. Auf der folgenden Seite finden Sie Informationen zum Erstellen eines Bildklassifizierungsjobs.

![\[Foto von Anusha Barwa auf Unsplash\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/dog-cat-photo.jpg)


Auftragnehmer, die an einer Aufgabe zur Multi-Label-Bildklassifizierung arbeiten, sollten alle anwendbaren Bezeichnungen (Label) auswählen, zumindest muss jedoch eine Bezeichnung ausgewählt werden. Beim Erstellen eines Auftrags mit diesem Aufgabentyp können Sie bis zu 50 Bezeichnungskategorien angeben. 

Wenn Sie einen Beschriftungsauftrag in der Konsole erstellen, stellt Ground Truth keine Kategorie „Keine“ für Fälle bereit, in denen keine der Beschriftungen auf ein Bild angewendet werden kann. Um den Auftragnehmern diese Option zur Verfügung zu stellen, fügen Sie beim Erstellen eines Multi-Label-Bildklassifizierungsauftrags eine Bezeichnung wie „Keine“ oder „Sonstiges“ hinzu. 

Verwenden Sie den Aufgabentyp [Erstellen eines Bildklassifizierungsjobs (Single-Label)](sms-image-classification.md), um Auftragnehmer auf die Auswahl einer einzelnen Bezeichnung für jedes Bild zu beschränken.

**Wichtig**  
Wenn Sie für diesen Aufgabentyp Ihre eigene Manifestdatei erstellen, verwenden Sie `"source-ref"`, um den Speicherort jeder Bilddatei in Amazon S3 zu identifizieren, die Sie beschriften möchten. Weitere Informationen finden Sie unter [Eingabedaten](sms-data-input.md).

## Erstellen eines Labeling-Auftrags für die Multi-Label-Bildklassifizierung (Konsole)
<a name="sms-creating-multilabel-image-classification-console"></a>

Sie können den Anweisungen folgen[Erstellen eines Kennzeichnungsauftrags (Konsole)](sms-create-labeling-job-console.md), um zu erfahren, wie Sie in der AI-Konsole einen Auftrag zur Klassifizierung von Bildern mit mehreren Labels erstellen. SageMaker Wählen Sie in Schritt 10 im Dropdown-Menü **Aufgabenkategorie** die Option **Bild** und als Aufgabentyp **Bildklassifizierung (Multi-Beschriftung)** aus. 

Ground Truth stellt für die Labeling-Aufgaben eine Worker-Benutzeroberfläche ähnlich der folgenden bereit. Wenn Sie eine Labeling-Aufgabe in der Konsole erstellen, müssen Sie Anweisungen bereitstellen, damit die Worker die Aufgabe ausführen können, und Kennzeichnungen, aus denen die Worker auswählen können. 

![\[Beispiel für eine Worker-Benutzeroberfläche für Kennzeichnungsaufgaben, bereitgestellt von Ground Truth\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/image-classification-multilabel-example.png)


## Erstellen eines Labeling-Auftrags für die Multi-Label-Bildklassifizierung (API)
<a name="sms-create-multi-select-image-classification-job-api"></a>

Verwenden Sie den SageMaker API-Vorgang, um einen Auftrag zur Kennzeichnung von Bildern mit mehreren Bezeichnungen zu erstellen. `CreateLabelingJob` Diese API definiert diesen Vorgang für alle AWS SDKs. Eine Liste der sprachspezifischen Sprachen, die für diesen Vorgang SDKs unterstützt werden, **finden Sie im Abschnitt Siehe auch** von. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)

Befolgen Sie diese Anweisungen unter [Erstellen eines Kennzeichnungsauftrags (API)](sms-create-labeling-job-api.md) und führen Sie die folgenden Schritte aus, während Sie Ihre Anforderung konfigurieren: 
+ Vorannotierende Lambda-Features für die Vorannotierung für diesen Aufgabentyp enden mit `PRE-ImageMultiClassMultiLabel`. Den Lambda-ARN vor der Anmerkung für Ihre Region finden Sie unter. [PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_HumanTaskConfig.html#SageMaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn) 
+ Annotations-Konsolidierende Lambda-Features für die Annotationskonsolidierung für diesen Aufgabentyp enden mit `ACS-ImageMultiClassMultiLabel`. Den Lambda-ARN zur Annotationskonsolidierung für Ihre Region finden Sie unter. [AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_AnnotationConsolidationConfig.html#SageMaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn) 

Im Folgenden finden Sie ein Beispiel für eine [AWS -Python-SDK-(Boto3)-Anforderung](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) zum Erstellen eines Beschriftungsauftrags in der Region USA Ost (Nord-Virginia). Alle Parameter in Rot sollten durch Ihre Spezifikationen und Ressourcen ersetzt werden. 

```
response = client.create_labeling_job(
    LabelingJobName='example-multi-label-image-classification-labeling-job,
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://bucket/path/manifest-with-input-data.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://bucket/path/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/path/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:region:*:workteam/private-crowd/*',
        'UiConfig': {
            'UiTemplateS3Uri': 's3://bucket/path/worker-task-template.html'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-ImageMultiClassMultiLabel',
        'TaskKeywords': [
            'Image Classification',
        ],
        'TaskTitle': 'Multi-label image classification task',
        'TaskDescription': 'Select all labels that apply to the images shown',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-ImageMultiClassMultiLabel'
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

### Bereitstellen einer Vorlage für die Bildklassifizierung mit mehreren Kennzeichnungen
<a name="sms-custom-template-multi-image-label-classification"></a>

Wenn Sie eine Labeling-Aufgabe unter Verwendung der API erstellen, müssen Sie in `UiTemplateS3Uri` eine Worker-Aufgabenvorlage bereitstellen. Kopieren und ändern Sie die folgende Vorlage. Ändern Sie nur [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-quick-instructions), [https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-creating-instruction-pages.html#sms-creating-full-instructions) und `header`. 

Laden Sie diese Vorlage zu S3 hoch und geben Sie den S3-URI für diese Datei in `UiTemplateS3Uri` an.

```
<script src="https://assets.crowd.aws/crowd-html-elements.js"></script>
<crowd-form>
  <crowd-image-classifier-multi-select
    name="crowd-image-classifier-multi-select"
    src="{{ task.input.taskObject | grant_read_access }}"
    header="Please identify all classes in image"
    categories="{{ task.input.labels | to_json | escape }}"
  >
    <full-instructions header="Multi Label Image classification instructions">
      <ol><li><strong>Read</strong> the task carefully and inspect the image.</li>
      <li><strong>Read</strong> the options and review the examples provided to understand more about the labels.</li>
       <li><strong>Choose</strong> the appropriate labels that best suit the image.</li></ol>
    </full-instructions>
    <short-instructions>
      <h3><span style="color: rgb(0, 138, 0);">Good example</span></h3>
      <p>Enter description to explain the correct label to the workers</p>
      <h3><span style="color: rgb(230, 0, 0);">Bad example</span></h3>
      <p>Enter description of an incorrect label</p>
   </short-instructions>
  </crowd-image-classifier-multi-select>
</crowd-form>
```

## Ausgabedaten der Multi-Label-Bildklassifizierung
<a name="sms-image-classification-multi-output-data"></a>

Nachdem Sie einen Beschriftungsauftrag für die Multi-Beschriftung-Bildklassifizierung erstellt haben, befinden sich die Ausgabedaten in dem im `S3OutputPath` Parameter angegebenen Amazon-S3-Bucket, wenn Sie die API verwenden, oder im Feld **Speicherort des Ausgabedatensatzes** im Abschnitt **Auftragsübersicht** der Konsole. 

Um mehr über die von Ground Truth erzeugte Ausgabemanifestdatei und die Dateistruktur zu erfahren, die Ground Truth zum Speichern der Ausgabedaten verwendet, siehe [Ausgabedaten von Kennzeichnungsaufträgen](sms-data-output.md). 

Ein Beispiel für Ausgabemanifestdateien für einen Labeling-Auftrag für die Multi-Label-Bildklassifizierung finden Sie unter [Ausgabe von Multi-Label-Klassifizierungsaufträgen](sms-data-output.md#sms-output-multi-label-classification).

# Image Beschriftungsverifizierung
<a name="sms-label-verification"></a>

Die Erstellung eines hochpräzisen Trainings-Datensatzes für Ihren Machine Learning(ML)-Algorithmus ist ein iterativer Prozess. In der Regel überprüfen Sie und passen Sie Ihre Kennzeichnungen kontinuierlich an, bis Sie davon überzeugt sind, dass sie die Grundwahrheit (Ground Truth) oder das, was direkt in der realen Welt zu beobachten ist, genau repräsentieren. Mit einer Amazon SageMaker Ground Truth-Beschriftungsverifizierungsaufgabe können Sie Auftragnehmer dazu anweisen, die Kennzeichnungen eines Datensatzes zu überprüfen und die Kennzeichnungsgenauigkeit zu verbessern. Arbeitskräfte können angeben, ob die vorhandenen Etiketten korrekt sind oder die Qualität der Etiketten bewerten. Sie können auch Kommentare hinzufügen, um ihre Argumentation zu erläutern. Amazon SageMaker Ground Truth unterstützt die Überprüfung von Etiketten für [Klassifizieren von Bildobjekten mithilfe eines Begrenzungsrahmens](sms-bounding-box.md) und [Identifizieren von Bildinhalten anhand der semantischen Segmentierung](sms-semantic-segmentation.md) Beschriftungen. Sie erstellen mithilfe des Ground-Truth-Abschnitts der Konsole von Amazon SageMaker AI oder mithilfe des Vorgangs [CreateLabelingJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html) einen Beschriftungsauftrag zur Überprüfung von Bildetiketten. 

Ground Truth stellt für die Labeling-Aufgaben eine Auftragnehmer-Benutzeroberfläche ähnlich der folgenden bereit. Wenn Sie den Labeling-Auftrag mit der Konsole erstellen, können Sie die angezeigten Bilder und Inhalte ändern. Weitere Informationen zum Erstellen eines Beschriftungsauftrags in der Konsole mithilfe von Ground Truth finden Sie unter [Erstellen eines Kennzeichnungsauftrags (Konsole)](sms-create-labeling-job-console.md).

![\[Beispiel für eine Worker-Konsole für Labeling-Aufgaben, bereitgestellt von Ground Truth\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/label-verification-example.png)


Sie können einen Beschriftungsverifizierungsauftrag über die SageMaker-AI-Konsole oder API erstellen. Informationen zum Erstellen eines Beschriftungsauftrages mithilfe der Ground Truth API-Operation `CreateLabelingJob`, finden Sie unter [Erstellen eines Kennzeichnungsauftrags (API)](sms-create-labeling-job-api.md).