

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Beschriften von Videos und Video-Frames
<a name="sms-video"></a>

Sie können Ground Truth verwenden, um Videos zu klassifizieren und Video-Frames (aus Videos extrahierte Standbilder) mit einem der drei integrierten Videoaufgabentypen mit Anmerkungen zu versehen. Diese Aufgabentypen optimieren den Prozess der Erstellung von Video- und Videoframe-Labeling-Jobs mithilfe der Amazon SageMaker AI-Konsole, API und sprachspezifischen Sprachen SDKs. 
+ Klassifizierung von Videoclips – Ermöglichen Sie Auftragnehmern, Videos in von Ihnen angegebene Kategorien zu klassifizieren. Sie können mit diesem Aufgabentyp beispielsweise veranlassen, dass Auftragnehmer Videos nach Themen wie Sport, Comedy, Musik und Bildung kategorisieren. Weitere Informationen hierzu finden Sie unter [Klassifizieren von Videos](sms-video-classification.md).
+ Kennzeichnungsaufträge für Video-Frames – Ermöglichen es Auftragnehmern, Video-Frames, die aus einem Video extrahiert wurden, mithilfe von Begrenzungsrahmen, Polylinien, Polygonen oder Schlüsselpunkt-Annotationstools mit Anmerkungen zu versehen. Ground Truth bietet zwei integrierte Aufgabentypen zur Kennzeichnung von Video-Frames:
  + *Objekterkennung für Video-Frames*: Ermöglicht es Auftragnehmern, Objekte in Video-Frames zu identifizieren und zu lokalisieren. 
  + *Objektverfolgung für Video-Frames*: Ermöglichen Sie es Auftragnehmern, die Bewegung von Objekten über Video-Frames hinweg zu verfolgen.
  + *Anpassungsaufträge für Video-Frames*: Auftragnehmer können Beschriftungen, Kennzeichnungskategorieattribute und Frame-Attribute aus einem früheren Kennzeichnungsauftrag zur Objekterkennung oder Objektverfolgung in Video-Frames anpassen.
  + *Überprüfungsaufträge für Video-Frames*: Auftragnehmer können Beschriftungen, Kennzeichnungskategorieattribute und Frame-Attribute aus einem früheren Kennzeichnungsauftrag zur Objekterkennung oder Objektverfolgung in Video-Frames überprüfen.

  Für Videodateien können Sie mit dem automatischen Frame-Extraktionstool von Ground Truth Video-Frames aus Ihren Videos extrahieren. Weitere Informationen hierzu finden Sie unter [Videoframe-Eingabedaten](sms-video-frame-input-data-overview.md).

**Tipp**  
Weitere Informationen zu unterstützten Dateitypen und Kontingenten für Eingabedaten finden Sie unter[Eingabedaten](sms-data-input.md).

**Topics**
+ [

# Klassifizieren von Videos
](sms-video-classification.md)
+ [

# Videoframes
](sms-video-task-types.md)
+ [

# Anweisungen für Auftragnehmer
](sms-video-worker-instructions.md)

# Klassifizieren von Videos
<a name="sms-video-classification"></a>

Verwenden Sie eine Amazon SageMaker Ground Truth Truth-Aufgabe zur Videoklassifizierung, wenn Mitarbeiter Videos anhand von vordefinierten Labels klassifizieren müssen, die Sie angeben. Auftragnehmern werden Bilder gezeigt und sie werden aufgefordert, für jedes Bild eine Beschriftung auszuwählen. Sie erstellen einen Job zur Videoklassifizierung mithilfe des Ground Truth Truth-Bereichs der Amazon SageMaker AI-Konsole oder der [CreateLabelingJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)Operation. 

Ihre Videodateien müssen in einem Format codiert sein, das von dem Browser unterstützt wird, der von dem Arbeitsteam verwendet wird, das Ihre Daten beschriftet. Es wird empfohlen, dass Sie mithilfe der Worker-UI-Vorschau überprüfen, ob alle Videodateiformate in Ihrer Eingabemanifestdatei korrekt angezeigt werden. Mithilfe von Anweisungen für Auftragnehmer können Sie Ihren Auftragnehmer die unterstützten Browser mitteilen. Informationen zu den unterstützten Dateiformaten finden Sie unter [Unterstützte Datumsformate](sms-supported-data-formats.md).

**Wichtig**  
Wenn Sie für diesen Aufgabentyp eine eigene Manifestdatei erstellen, verwenden Sie `"source-ref"`, um den Speicherort jeder Videodatei in Amazon S3 anzugeben, die Sie beschriften möchten. Weitere Informationen finden Sie unter [Eingabedaten](sms-data-input.md).



## Erstellen eines Beschriftungsauftrages für die Videoklassifizierung (Konsole)
<a name="sms-creating-video-classification-console"></a>

Sie können den Anweisungen unter folgen[Erstellen eines Kennzeichnungsauftrags (Konsole)](sms-create-labeling-job-console.md), um zu erfahren, wie Sie einen Job zur Videoklassifizierung in der SageMaker AI-Konsole erstellen. Wählen Sie in Schritt 10 aus der Dropdown-Liste **Aufgabenkategorie** die Option **Video** und wählen Sie als Aufgabentyp **Videoklassifizierung** aus. 

Ground Truth stellt für die Labeling-Aufgaben eine Worker-Benutzeroberfläche ähnlich der folgenden bereit. Wenn Sie einen Beschriftungsauftrag in der Konsole erstellen, müssen Sie Anweisungen bereitstellen, damit die Auftragnehmer den Auftrag ausführen können, und Beschriftungen, aus denen die Worker auswählen können. 

![\[Ein GIF, das zeigt, wie in der SageMaker AI-Konsole ein Job zur Videoklassifizierung erstellt wird.\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/vid_classification.gif)


## Erstellen einer Labeling-Aufgabe für die Videoklassifizierung (API)
<a name="sms-creating-video-classification-api"></a>

In diesem Abschnitt werden Details beschrieben, die Sie wissen müssen, wenn Sie einen Kennzeichnungsauftrag mithilfe der SageMaker -API-Operation `CreateLabelingJob` erstellen. Diese API definiert diesen Vorgang für alle AWS SDKs. Eine Liste der sprachspezifischen Sprachen, die für diesen Vorgang SDKs unterstützt werden, **finden Sie im Abschnitt Siehe auch** von. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)

Befolgen Sie diese Anweisungen unter [Erstellen eines Kennzeichnungsauftrags (API)](sms-create-labeling-job-api.md) und führen Sie die folgenden Schritte aus, während Sie Ihre Anforderung konfigurieren: 
+ Verwenden Sie eine vorannotierte Lambda-Funktion, die mit `PRE-VideoClassification` endet. Den Lambda-ARN vor der Anmerkung für Ihre Region finden Sie unter. [PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_HumanTaskConfig.html#SageMaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn) 
+ Verwenden Sie eine annotationskonsolidierende Lambda-Funktion, die mit endet `ACS-VideoClassification`. Den Lambda-ARN zur Annotationskonsolidierung für Ihre Region finden Sie unter. [AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/dg/API_AnnotationConsolidationConfig.html#SageMaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn) 

Im Folgenden finden Sie ein Beispiel für eine [AWS -Python-SDK-(Boto3)-Anforderung](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) zum Erstellen eines Beschriftungsauftrags in der Region USA Ost (Nord-Virginia). 

```
response = client.create_labeling_job(
    LabelingJobName='example-video-classification-labeling-job,
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://bucket/path/manifest-with-input-data.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://bucket/path/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/path/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:region:*:workteam/private-crowd/*',
        'UiConfig': {
            'UiTemplateS3Uri': 's3://bucket/path/worker-task-template.html'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-VideoClassification',
        'TaskKeywords': [
            'Video Classification',
        ],
        'TaskTitle': 'Video classification task',
        'TaskDescription': 'Select a label to classify this video',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-VideoClassification'
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

### Stellen Sie eine Vorlage für die Videoklassifizierung bereit
<a name="sms-custom-template-video-classification"></a>

Wenn Sie eine Labeling-Aufgabe unter Verwendung der API erstellen, müssen Sie in `UiTemplateS3Uri` eine Worker-Aufgabenvorlage bereitstellen. Kopieren und ändern Sie die folgende Vorlage, indem Sie `short-instructions`, `full-instructions` und `header` ändern. Laden Sie diese Vorlage zu Amazon S3 hoch und geben Sie den Amazon-S3-URI für diese Datei in `UiTemplateS3Uri` an.

```
<script src="https://assets.crowd.aws/crowd-html-elements.js"></script>

              <crowd-form>
                  <crowd-classifier
                    name="crowd-classifier"
                    categories="{{ task.input.labels | to_json | escape }}"
                    header="Please classify video"
                  >
                    <classification-target>
                       <video width="100%" controls/>
                        <source src="{{ task.input.taskObject | grant_read_access }}" type="video/mp4"/>
                        <source src="{{ task.input.taskObject | grant_read_access }}" type="video/webm"/>
                        <source src="{{ task.input.taskObject | grant_read_access }}" type="video/ogg"/>
                      Your browser does not support the video tag.
                      </video>
                    </classification-target>
                    <full-instructions header="Video classification instructions">
                      <ol><li><strong>Read</strong> the task carefully and inspect the video.</li>
                        <li><strong>Read</strong> the options and review the examples provided to understand more about the labels.</li>
                        <li><strong>Choose</strong> the appropriate label that best suits the video.</li></ol>
                    </full-instructions>
                    <short-instructions>
                      <h3><span style="color: rgb(0, 138, 0);">Good example</span></h3>
                        <p>Enter description to explain the correct label to the workers</p>
                        <p><img src="https://d7evko5405gb7.cloudfront.net/fe4fed9b-660c-4477-9294-2c66a15d6bbe/src/images/quick-instructions-example-placeholder.png" style="max-width:100%"></p>
                        <h3><span style="color: rgb(230, 0, 0);">Bad example</span></h3>
                        <p>Enter description of an incorrect label</p>
                        <p><img src="https://d7evko5405gb7.cloudfront.net/fe4fed9b-660c-4477-9294-2c66a15d6bbe/src/images/quick-instructions-example-placeholder.png" style="max-width:100%"></p>
                    </short-instructions>
                  </crowd-classifier>
              </crowd-form>
```

## Videoklassifizierungs-Ausgabedaten
<a name="sms-vido-classification-output-data"></a>

Nach der Erstellung eines Beschriftungsauftrags für die Videoklassifizierung befinden sich bei Verwendung der API die Ausgabedaten in dem im `S3OutputPath` Parameter angegebenen Amazon-S3-Bucket oder im Feld **Ausgabedatensatz-Speicherort** im Abschnitt **Auftragübersicht** der Konsole. 

Um mehr über die von Ground Truth erzeugte Ausgabemanifestdatei und die Dateistruktur zu erfahren, die Ground Truth zum Speichern der Ausgabedaten verwendet, siehe [Ausgabedaten von Kennzeichnungsaufträgen](sms-data-output.md). 

Ein Beispiel für Ausgabemanifestdateien für einen Beschriftungsauftrag für die Multi-Beschriftung-Videoklassifizierung finden Sie unter [Ausgabe des Klassifizierungsauftrags](sms-data-output.md#sms-output-class).

 

# Videoframes
<a name="sms-video-task-types"></a>

Sie können die in Ground Truth integrierten Videoframe-Aufgabentypen verwenden, damit Auftragnehmer Videoframes mithilfe von Begrenzungsrahmen, Polylinien, Polygonen oder Schlüsselpunkten kommentieren. Ein *Videoframe* ist eine Sequenz von Bildern, die aus einem Video extrahiert wurden.

Wenn Sie keine Videoframes haben, können Sie Videodateien (MP4 Dateien) bereitstellen und das automatische Frame-Extraktionstool von Ground Truth verwenden, um Videoframes zu extrahieren. Weitere Informationen hierzu finden Sie unter [Videodateien zur Verfügung stellen](sms-point-cloud-video-input-data.md#sms-point-cloud-video-frame-extraction).

Sie können die folgenden integrierten Videoaufgabentypen verwenden, um Videoframe-Labeling-Jobs mithilfe der Amazon SageMaker AI-Konsole, der API und SDKs sprachspezifisch zu erstellen.
+ **Objekterkennung in Videoframes** – Verwenden Sie diesen Aufgabentyp, wenn Sie möchten, dass Auftragnehmer Objekte in Videoframe-Sequenzen identifizieren und lokalisieren. Sie stellen eine Liste mit Kategorien bereit, und Auftragnehmer können jeweils eine Kategorie auswählen und Objekte, für die die Kategorie gilt, in allen Frames mit Anmerkungen versehen. Sie können diese Aufgabe zum Beispiel verwenden, um die Auftragnehmer aufzufordern, verschiedene Objekte in einer Szene zu identifizieren und zu lokalisieren, z. B. Autos, Fahrräder und Fußgänger.
+ **Objektverfolgung in Videoframes** – Verwenden Sie diesen Aufgabentyp, wenn Sie möchten, dass Auftragnehmer die Bewegung von Objekten in Sequenzen von Videoframes verfolgen. Wenn ein Worker einem einzelnen Frame eine Anmerkung hinzufügt, wird diese Anmerkung mit einer eindeutigen Instance-ID verknüpft. Der Worker fügt in allen anderen Frames Anmerkungen hinzu, die derselben ID zugeordnet sind, um dasselbe Objekt oder dieselbe Person zu identifizieren. Ein Auftragnehmer kann beispielsweise die Bewegung eines Fahrzeugs über eine Sequenz von Videoframes verfolgen, indem er in jedem Frame, in dem es erscheint, Begrenzungsrahmen mit derselben ID um das Fahrzeug herum zeichnet. 

In den folgenden Themen erfahren Sie mehr über diese integrierten Aufgabentypen und wie Sie einen Beschriftungsauftrag mit jedem Aufgabentyp erstellen können. Weitere Informationen zu den für diese Aufgabentypen verfügbaren Tools für Anmerkungen (Begrenzungsrahmen, Polylinien, Polygone und Schlüsselpunkte) finden Sie unter [Aufgabentypen](sms-video-overview.md#sms-video-frame-tools).

Bevor Sie einen Beschriftungsauftrag erstellen, empfehlen wir, dass Sie [Referenz für Aufträge zur Kennzeichnung von Video-Frames](sms-video-overview.md) lesen.

**Topics**
+ [

# Identifizieren Sie Objekte mithilfe der Videorahmen-Objekterkennung
](sms-video-object-detection.md)
+ [

# Verfolgen von Objekten in Videoframes mithilfe der Videoframe-Objektverfolgung
](sms-video-object-tracking.md)
+ [

# Referenz für Aufträge zur Kennzeichnung von Video-Frames
](sms-video-overview.md)

# Identifizieren Sie Objekte mithilfe der Videorahmen-Objekterkennung
<a name="sms-video-object-detection"></a>

Sie können den Aufgabentyp zur Objekterkennung mit Videoframes verwenden, damit Auftragnehmer Objekte in einer Sequenz von Videoframes (aus einem Video extrahierte Bilder) mithilfe von Begrenzungsrahmen, Polylinien, Polygonen oder Werkzeugen zur *Keypoint-Anmerkung* identifizieren und lokalisieren können. Das von Ihnen gewählte Tool definiert den Aufgabentyp für Videoframes, den Sie erstellen. Sie können z. B. eine Aufgabe vom Typ Bounding-Box Videoframe-Objekterkennung verwenden, um verschiedene Objekte in einer Reihe von Videoframes zu identifizieren und zu lokalisieren, z. B. Autos, Fahrräder und Fußgänger. Sie können mithilfe der Amazon SageMaker AI Ground Truth Konsole, der SageMaker API und AWS SDKs sprachspezifisch einen Job zur Objekterkennung für Videobilder erstellen. Weitere Informationen hierzu finden Sie unter [Erstellen Sie einen Auftrag zur Erennung von Videoframe-Objekten](#sms-video-od-create-labeling-job), und wählen Sie Ihr bevorzugten Methode. Weitere Informationen zu den Annotationstools, aus denen Sie bei der Erstellung eines Beschriftungsauftrags wählen können, finden Sie unter [Aufgabentypen](sms-video-overview.md#sms-video-frame-tools).

Ground Truth bietet eine Benutzeroberfläche und Tools für Auftragnehmer, mit denen Sie Ihre Beschriftungsauftragsaufgaben erledigen können: [Zeigen Sie eine Vorschau der Worker-Benutzeroberfläche an](#sms-video-od-worker-ui).

Sie können einen Auftrag zur Anpassung von Anmerkungen erstellen, die in einem Beschriftungsauftrag zur Video-Objekterkennung erstellt wurden, indem Sie den Aufgabentyp Anpassung der Video-Objekterkennung verwenden. Weitere Informationen hierzu finden Sie unter [Auftrag zur Objekterkennung, -anpassung oder -verifizierung für Videoframes erstellen](#sms-video-od-adjustment).

## Zeigen Sie eine Vorschau der Worker-Benutzeroberfläche an
<a name="sms-video-od-worker-ui"></a>

Ground Truth stellt Auftragnehmern eine Web-Benutzerschnittstelle (UI) zur Verfügung, mit der sie ihre Aufgaben zur Erkennung von Videoframe-Objekten mit Anmerkungen erledigen können. Sie können eine Vorschau anzeigen und mit der Benutzeroberfläche für Auftragnehmer interagieren, wenn Sie einen Kennzeichnungsauftrag in der Konsole erstellen. Wenn Sie ein neuer Benutzer sind, empfehlen wir Ihnen, mithilfe eines kleinen Eingabedatensatzes einen Beschriftungsauftrag über die Konsole zu erstellen, um eine Vorschau der Worker-Benutzeroberfläche anzuzeigen und sicherzustellen, dass Ihre Videoframes, Beschriftungen und Beschriftungsattribute erwartungsgemäß angezeigt werden. 

Die Benutzeroberfläche bietet Auftragnehmern die folgenden unterstützenden Tools zur Beschriftung, mit denen sie ihre Aufgaben zur Objekterkennung ausführen können:
+ Für alle Aufgaben können Auftragnehmer die Funktionen **In nächstes kopieren** und **In alle kopieren** verwenden, um eine Anmerkung in den nächsten Frame bzw. in alle nachfolgenden Frames zu kopieren. 
+ Für Aufgaben, die die Bounding-Box-Tools beinhalten, können Auftragnehmer die Funktion **Nächstes vorhersagen** verwenden, um einen Begrenzungsrahmen in einem einzigen Frame zu zeichnen, und Ground Truth dann die Position von Boxen mit derselben Beschriftungen in allen anderen Frames vorhersagen lassen. Auftragnehmer können dann Anpassungen vornehmen, um die vorhergesagte Position der Quader zu korrigieren. 

Das folgende Video zeigt, wie ein Auftragnehmer die Worker-Benutzeroberfläche mit dem Bounding-Box-Tool verwenden kann, um Ihre Aufgaben zur Objekterkennung zu erledigen.

![\[GIF, das zeigt, wie ein Auftragnehmer das Bounding-Box-Tool für seine Aufgaben zur Objekterkennung verwenden kann\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/kitti-od-general-labeling-job.gif)


## Erstellen Sie einen Auftrag zur Erennung von Videoframe-Objekten
<a name="sms-video-od-create-labeling-job"></a>

Sie können mithilfe der SageMaker AI-Konsole oder der [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)API-Operation einen Auftrag zur Objekterkennung für Videobilder erstellen. 

In diesem Abschnitt wird davon ausgegangen, dass Sie das überprüft [Referenz für Aufträge zur Kennzeichnung von Video-Frames](sms-video-overview.md) und den Typ der Eingabedaten und die von Ihnen verwendete Verbindung zum Eingabedatensatz ausgewählt haben. 

### Erstellen eines Kennzeichnungsauftrags (Konsole)
<a name="sms-video-od-create-labeling-job-console"></a>

Sie können den Anweisungen unter folgen[Erstellen eines Kennzeichnungsauftrags (Konsole)](sms-create-labeling-job-console.md), um zu erfahren, wie Sie einen Videoframe-Objektverfolgungsauftrag in der SageMaker AI-Konsole erstellen. Wählen Sie in Schritt 10 aus der Dropdown-Liste für die **Aufgabenkategorie** die Option **Video – Objekterkennung** aus. Wählen Sie den gewünschten Aufgabentyp aus, indem Sie unter **Aufgabenauswahl** eine der Karten auswählen.

![\[Ein GIF, das zeigt, wie ein Videoframe-Objektverfolgungsauftrag in der SageMaker AI-Konsole erstellt wird.\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/task-type-vod.gif)


### Erstellen eines Kennzeichnungsauftrags (API)
<a name="sms-video-od-create-labeling-job-api"></a>

Mithilfe der SageMaker API-Operation erstellen Sie einen Label-Job zur Objekterkennung`CreateLabelingJob`. Diese API definiert diesen Vorgang für alle AWS SDKs. Eine Liste der sprachspezifischen Sprachen, die für diesen Vorgang SDKs unterstützt werden, **finden Sie im Abschnitt Siehe auch** von. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html) 

[Erstellen eines Kennzeichnungsauftrags (API)](sms-create-labeling-job-api.md) bietet einen Überblick über die Operation `CreateLabelingJob`. Befolgen Sie diese Anweisungen, und führen Sie die folgenden Schritte aus, während Sie Ihre Anforderung konfigurieren: 
+ Sie müssen einen ARN für `HumanTaskUiArn` eingeben. Verwenden Sie `arn:aws:sagemaker:<region>:394669845002:human-task-ui/VideoObjectDetection`. Ersetzen Sie `<region>` durch die AWS -Region, in der Sie den Kennzeichnungsauftrag erstellen. 

  Nehmen Sie keinen Eintrag für den `UiTemplateS3Uri` Parameter auf. 
+ Ihr [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html#sagemaker-CreateLabelingJob-request-LabelAttributeName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html#sagemaker-CreateLabelingJob-request-LabelAttributeName) muss mit `-ref` enden. Beispiel, `video-od-labels-ref`. 
+ Bei Ihrer Eingabemanifestdatei muss es sich um eine Sequenz-Manifestdatei handeln. Sie können diese Manifestdatei mit der SageMaker AI-Konsole erstellen oder sie manuell erstellen und auf Amazon S3 hochladen. Weitere Informationen finden Sie unter [Einrichtung der Eingabedaten](sms-video-data-setup.md). 
+ Sie können nur private oder externe Arbeitsteams einsetzen, um Beschriftungsaufträge zur Objekterkennung für Videoframes zu erstellen. 
+ Sie geben Ihre Beschriftungen, Beschriftungskategorie und Rahmenattribute, den Aufgabentyp und die Arbeitsanweisungen in einer Beschriftungskategorie-Konfigurationsdatei an. Geben Sie den Aufgabentyp (Begrenzungsrahmen, Polylinien, Polygone oder Schlüsselpunkt) mit `annotationType` in Ihrer Konfigurationsdatei für die Beschriftungskategorie an. Weitere Informationen finden Sie unter [Referenz zur Konfigurationsdatei für Kennzeichnungskategorien mit Kennzeichnungskategorie- und Frame-Attributen](sms-label-cat-config-attributes.md), um zu erfahren, wie Sie diese Datei erstellen. 
+ Sie müssen vordefinierte Lambda-Funktionen ARNs für die Pre-Annotation und Post-Annotation (ACS) bereitstellen. Diese ARNs sind spezifisch für die AWS Region, in der Sie Ihren Labeling-Job erstellen. 
  + Informationen zum Lambda-ARN zur Vorkommentierung finden Sie unter [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HumanTaskConfig.html#sagemaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HumanTaskConfig.html#sagemaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn). Verwenden Sie die Region, in der Sie Ihren Beschriftungsauftrag erstellen, um den richtigen ARN zu finden, der mit `PRE-VideoObjectDetection` endet. 
  + Informationen zum Lambda-ARN zur Nachkommentierung finden Sie unter [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AnnotationConsolidationConfig.html#sagemaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AnnotationConsolidationConfig.html#sagemaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn). Verwenden Sie die Region, in der Sie Ihren Beschriftungsauftrag erstellen, um den richtigen ARN zu finden, der mit `ACS-VideoObjectDetection` endet. 
+ Die Anzahl der in `NumberOfHumanWorkersPerDataObject` angegebenen Auftragnehmer muss `1` sein. 
+ Das automatisierte Daten-Labeling wird für Beschriftungsaufträge für Videoframes nicht unterstützt. Geben Sie keine Werte für Parameter in `[LabelingJobAlgorithmsConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html#sagemaker-CreateLabelingJob-request-LabelingJobAlgorithmsConfig)` an. 
+ Beschriftungsauftrag der Objektverfolgung von Videoframes können mehrere Stunden in Anspruch nehmen. Sie können ein längeres Zeitlimit für diese Kennzeichnungsaufträge in `TaskTimeLimitInSeconds` festlegen (bis zu 7 Tage oder 604.800 Sekunden). 

Im Folgenden finden Sie ein Beispiel für eine [AWS -Python-SDK-(Boto3-)Anforderung](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) zur Erstellung eines Beschriftungsauftrags in der Region USA Ost (Nord-Virginia). 

```
response = client.create_labeling_job(
    LabelingJobName='example-video-od-labeling-job,
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://amzn-s3-demo-bucket/path/video-frame-sequence-input-manifest.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://amzn-s3-demo-bucket/prefix/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/prefix/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:us-east-1:*:workteam/private-crowd/*',
        'UiConfig': {
            'HumanTaskUiArn: 'arn:aws:sagemaker:us-east-1:394669845002:human-task-ui/VideoObjectDetection'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-VideoObjectDetection',
        'TaskKeywords': [
            'Video Frame Object Detection',
        ],
        'TaskTitle': 'Video frame object detection task',
        'TaskDescription': 'Classify and identify the location of objects and people in video frames',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-VideoObjectDetection'
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

## Auftrag zur Objekterkennung, -anpassung oder -verifizierung für Videoframes erstellen
<a name="sms-video-od-adjustment"></a>

Sie können Beschriftungsverifizierungs- und Anpassungsaufträge über die Ground-Truth-Konsole oder die API `CreateLabelingJob` starten. Weitere Informationen zu Beschriftungsaufträgen zur Anpassung und Überprüfung sowie zu deren Erstellung finden Sie unter [Beschriftungsverifizierung und Anpassung](sms-verification-data.md).

## Format der Ausgabedaten
<a name="sms-video-od-output-data"></a>

Wenn Sie einen Vefolgungsbeschriftungsauftrag für Videoframes erstellen, werden Aufgaben an Auftragnehmer gesendet. Wenn diese Auftragnehmer ihre Aufgaben abgeschlossen haben, werden die Beschriftungen an den Amazon S3-Ausgabespeicherort geschrieben, den Sie beim Erstellen des Beschriftungsauftrags angegeben haben. Informationen über das Format der Ausgabedaten der Videoframe-Objekterkennung finden Sie unter [Ausgabe der Video-Frame-Objekterkennung](sms-data-output.md#sms-output-video-object-detection). Wenn Sie ein neuer Benutzer von Ground Truth sind, erfahren Sie unter [Ausgabedaten von Kennzeichnungsaufträgen](sms-data-output.md) mehr über das Ausgabedatenformat von Ground Truth. 

# Verfolgen von Objekten in Videoframes mithilfe der Videoframe-Objektverfolgung
<a name="sms-video-object-tracking"></a>

Sie können den Aufgabentyp Videoframe-Objektverfolgung verwenden, damit Auftragnehmer die Bewegung von Objekten in einer Sequenz von Videoframes (aus einem Video extrahierte Bilder) mithilfe von Begrenzungsrahmen, Polylinien, Polygonen oder Werkzeugen für *Keypoint-Anmerkungen* verfolgen. Das von Ihnen gewählte Tool definiert den Aufgabentyp für Videoframes, den Sie erstellen. Sie können z. B. den Aufgabentyp Bounding-Box-Videoframe zur Objektverfolgung verwenden, um Auftragnehmer zu bitten, die Bewegung von Objekten wie Autos, Fahrrädern und Fußgängern zu verfolgen, indem sie Rahmen um sie herum zeichnen. 

Sie stellen eine Liste mit Kategorien bereit, und jede Anmerkung, die ein Auftragnehmer zu einem Videoframe hinzufügt, wird anhand einer *Instance* dieser Kategorie identifiziert. Wenn Sie beispielsweise die Beschriftungskategorie Auto angeben, hat das erste Auto, das ein Auftragnehmer mit Anmerkungen versehen hat, die Instance-ID Auto:1. Das zweite Auto, das der Auftragnehmer anmerkt, hat die Instance-ID Auto:2. Um die Bewegung eines Objekts zu verfolgen, fügt der Auftragnehmer dem Objekt in allen Frames Anmerkungen hinzu, die derselben Instance-ID zugeordnet sind. 

Sie können mithilfe der Amazon SageMaker AI Ground Truth Konsole, der SageMaker API und AWS SDKs sprachspezifisch einen Job zur Objektverfolgung für Videoframes erstellen. Weitere Informationen hierzu finden Sie unter [Erstellen Sie einen Auftrag zur Erennung von Videoframe-Objekten](sms-video-object-detection.md#sms-video-od-create-labeling-job), und wählen Sie Ihr bevorzugten Methode. Weitere Informationen zu den Annotationstools, aus denen Sie bei der Erstellung eines Beschriftungsauftrags wählen können, finden Sie unter [Aufgabentypen](sms-video-overview.md#sms-video-frame-tools).

Ground Truth bietet eine Benutzeroberfläche und Tools für Auftragnehmer, mit denen Sie Ihre Beschriftungsauftragsaufgaben erledigen können: [Zeigen Sie eine Vorschau der Worker-Benutzeroberfläche an](sms-video-object-detection.md#sms-video-od-worker-ui).

Sie können einen Auftrag zur Anpassung von Anmerkungen erstellen, die in einem Beschriftungsauftrag zur Video-Objekterkennung erstellt wurden, indem Sie den Aufgabentyp Anpassung der Video-Objekterkennung verwenden. Weitere Informationen hierzu finden Sie unter [Auftrag zur Objekterkennung, -anpassung oder -verifizierung für Videoframes erstellen](sms-video-object-detection.md#sms-video-od-adjustment).

## Zeigen Sie eine Vorschau der Worker-Benutzeroberfläche an
<a name="sms-video-ot-worker-ui"></a>

Ground Truth stellt Auftragnehmern eine Web-Benutzeroberfläche (UI) zur Verfügung, mit der sie ihre Aufgaben zur Annotation von Videoframe-Objekten erledigen können. Sie können eine Vorschau anzeigen und mit der Benutzeroberfläche für Auftragnehmer interagieren, wenn Sie einen Kennzeichnungsauftrag in der Konsole erstellen. Wenn Sie ein neuer Benutzer sind, empfehlen wir Ihnen, mithilfe eines kleinen Eingabedatensatzes einen Beschriftungsauftrag über die Konsole zu erstellen, um eine Vorschau der Auftragnehmer-Benutzeroberfläche anzuzeigen und sicherzustellen, dass Ihre Videoframes, Beschriftungen und Beschriftungsattribute erwartungsgemäß angezeigt werden. 

Die Benutzeroberfläche bietet Auftragnehmern die folgenden unterstützenden Tools zur Beschriftung, mit denen sie ihre Objektverfolgungsaufgaben erledigen können:
+ Für alle Aufgaben können Auftragnehmer die Funktionen **In nächstes kopieren** und **In alle kopieren** verwenden, um eine Anmerkung mit derselben eigenartigen ID in den nächsten Frame bzw. in alle nachfolgenden Frames zu kopieren. 
+ Bei Aufgaben, die die Bounding-Box-Tools beinhalten, können Auftragnehmer die Funktion **Nächstes vorhersagen** verwenden, um einen Begrenzungsrahmen in einem einzigen Frame zu zeichnen, und Ground Truth dann die Position von Boxen mit derselben einzigartigen ID in allen anderen Frames vorhersagen lassen. Auftragnehmer können dann Anpassungen vornehmen, um die vorhergesagte Position der Quader zu korrigieren. 

Das folgende Video zeigt, wie ein Auftragnehmer die Auftragnehmer-Benutzeroberfläche mit dem Bounding-Box-Tool verwenden kann, um Ihre Objektverfolgungsaufgaben zu erledigen.

![\[GIF, das zeigt, wie eine Arbeitskraft das Bounding-Box-Tool mit dem Feature „Nächstes vorhersagen“ verwenden kann\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/ot_predict_next.gif)


## Erstellen Sie einen Auftrag zur Verfolgungsbeschriftung von Videoframe-Objekten
<a name="sms-video-ot-create-labeling-job"></a>

Sie können mithilfe der SageMaker AI-Konsole oder der [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html)API-Operation einen Job zur Kennzeichnung von Videoframe-Objekten erstellen. 

In diesem Abschnitt wird davon ausgegangen, dass Sie das überprüft [Referenz für Aufträge zur Kennzeichnung von Video-Frames](sms-video-overview.md) und den Typ der Eingabedaten und die von Ihnen verwendete Verbindung zum Eingabedatensatz ausgewählt haben. 

### Erstellen eines Kennzeichnungsauftrags (Konsole)
<a name="sms-video-ot-create-labeling-job-console"></a>

Sie können den Anweisungen unter folgen[Erstellen eines Kennzeichnungsauftrags (Konsole)](sms-create-labeling-job-console.md), um zu erfahren, wie Sie einen Videoframe-Objektverfolgungsauftrag in der SageMaker AI-Konsole erstellen. Wählen Sie in Schritt 10 aus der Dropdown-Liste für die **Aufgabenkategorie** die Option **Video – Objektverfolgung** aus. Wählen Sie den gewünschten Aufgabentyp aus, indem Sie unter **Aufgabenauswahl** eine der Karten auswählen.

![\[Ein GIF, das zeigt, wie ein Videoframe-Objektverfolgungsauftrag in der SageMaker AI-Konsole erstellt wird.\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/task-type-vot.gif)


### Erstellen eines Kennzeichnungsauftrags (API)
<a name="sms-video-ot-create-labeling-job-api"></a>

Mithilfe der SageMaker API-Operation erstellen Sie einen Label-Job zur Objektverfolgung`CreateLabelingJob`. Diese API definiert diesen Vorgang für alle AWS SDKs. Eine Liste der sprachspezifischen Sprachen, die für diesen Vorgang SDKs unterstützt werden, **finden Sie im Abschnitt Siehe auch** von. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html) 

[Erstellen eines Kennzeichnungsauftrags (API)](sms-create-labeling-job-api.md) bietet einen Überblick über die Operation `CreateLabelingJob`. Befolgen Sie diese Anweisungen, und führen Sie die folgenden Schritte aus, während Sie Ihre Anforderung konfigurieren: 
+ Sie müssen einen ARN für `HumanTaskUiArn` eingeben. Verwenden Sie `arn:aws:sagemaker:<region>:394669845002:human-task-ui/VideoObjectTracking`. Ersetzen Sie `<region>` durch die AWS -Region, in der Sie den Kennzeichnungsauftrag erstellen. 

  Nehmen Sie keinen Eintrag für den `UiTemplateS3Uri` Parameter auf. 
+ Ihr [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html#sagemaker-CreateLabelingJob-request-LabelAttributeName](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html#sagemaker-CreateLabelingJob-request-LabelAttributeName) muss mit `-ref` enden. Beispiel, `ot-labels-ref`. 
+ Bei Ihrer Eingabemanifestdatei muss es sich um eine Sequenz-Manifestdatei handeln. Sie können diese Manifestdatei mit der SageMaker AI-Konsole erstellen oder sie manuell erstellen und auf Amazon S3 hochladen. Weitere Informationen finden Sie unter [Einrichtung der Eingabedaten](sms-video-data-setup.md). Wenn Sie einen Streaming-Beschriftungsauftrag erstellen, ist die Eingabe-Manifestdatei optional. 
+ Sie können nur private oder externe Arbeitsteams einsetzen, um Beschriftungsaufträge für die Objektverfolgung von Videoframes zu erstellen.
+ Sie geben Ihre Beschriftungen, Beschriftungskategorie und Rahmenattribute, den Aufgabentyp und die Arbeitsanweisungen in einer Beschriftungskategorie-Konfigurationsdatei an. Geben Sie den Aufgabentyp (Begrenzungsrahmen, Polylinien, Polygone oder Schlüsselpunkt) mit `annotationType` in Ihrer Konfigurationsdatei für die Beschriftungskategorie an. Weitere Informationen finden Sie unter [Referenz zur Konfigurationsdatei für Kennzeichnungskategorien mit Kennzeichnungskategorie- und Frame-Attributen](sms-label-cat-config-attributes.md), um zu erfahren, wie Sie diese Datei erstellen. 
+ Sie müssen vordefinierte Lambda-Funktionen ARNs für die Pre-Annotation und Post-Annotation (ACS) bereitstellen. Diese ARNs sind spezifisch für die AWS Region, in der Sie Ihren Labeling-Job erstellen. 
  + Informationen zum Lambda-ARN zur Vorkommentierung finden Sie unter [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HumanTaskConfig.html#sagemaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HumanTaskConfig.html#sagemaker-Type-HumanTaskConfig-PreHumanTaskLambdaArn). Verwenden Sie die Region, in der Sie Ihren Beschriftungsauftrag erstellen, um den richtigen ARN zu finden, der mit `PRE-VideoObjectTracking` endet. 
  + Informationen zum Lambda-ARN zur Nachkommentierung finden Sie unter [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AnnotationConsolidationConfig.html#sagemaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AnnotationConsolidationConfig.html#sagemaker-Type-AnnotationConsolidationConfig-AnnotationConsolidationLambdaArn). Verwenden Sie die Region, in der Sie Ihren Beschriftungsauftrag erstellen, um den richtigen ARN zu finden, der mit `ACS-VideoObjectTracking` endet. 
+ Die Anzahl der in `NumberOfHumanWorkersPerDataObject` angegebenen Auftragnehmer muss `1` sein. 
+ Das automatisierte Daten-Labeling wird für Beschriftungsaufträge für Videoframes nicht unterstützt. Geben Sie keine Werte für Parameter in `[LabelingJobAlgorithmsConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html#sagemaker-CreateLabelingJob-request-LabelingJobAlgorithmsConfig)` an. 
+ Beschriftungsauftrag der Objektverfolgung von Videoframes können mehrere Stunden in Anspruch nehmen. Sie können ein längeres Zeitlimit für diese Kennzeichnungsaufträge in `TaskTimeLimitInSeconds` festlegen (bis zu 7 Tage oder 604.800 Sekunden). 

Im Folgenden finden Sie ein Beispiel für eine [AWS -Python-SDK-(Boto3-)Anforderung](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/sagemaker.html#SageMaker.Client.create_labeling_job) zur Erstellung eines Beschriftungsauftrags in der Region USA Ost (Nord-Virginia). 

```
response = client.create_labeling_job(
    LabelingJobName='example-video-ot-labeling-job,
    LabelAttributeName='label',
    InputConfig={
        'DataSource': {
            'S3DataSource': {
                'ManifestS3Uri': 's3://amzn-s3-demo-bucket/path/video-frame-sequence-input-manifest.json'
            }
        },
        'DataAttributes': {
            'ContentClassifiers': [
                'FreeOfPersonallyIdentifiableInformation'|'FreeOfAdultContent',
            ]
        }
    },
    OutputConfig={
        'S3OutputPath': 's3://amzn-s3-demo-bucket/prefix/file-to-store-output-data',
        'KmsKeyId': 'string'
    },
    RoleArn='arn:aws:iam::*:role/*,
    LabelCategoryConfigS3Uri='s3://bucket/prefix/label-categories.json',
    StoppingConditions={
        'MaxHumanLabeledObjectCount': 123,
        'MaxPercentageOfInputDatasetLabeled': 123
    },
    HumanTaskConfig={
        'WorkteamArn': 'arn:aws:sagemaker:us-east-1:*:workteam/private-crowd/*',
        'UiConfig': {
            'HumanTaskUiArn: 'arn:aws:sagemaker:us-east-1:394669845002:human-task-ui/VideoObjectTracking'
        },
        'PreHumanTaskLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:PRE-VideoObjectTracking',
        'TaskKeywords': [
            'Video Frame Object Tracking,
        ],
        'TaskTitle': 'Video frame object tracking task',
        'TaskDescription': Tracking the location of objects and people across video frames',
        'NumberOfHumanWorkersPerDataObject': 123,
        'TaskTimeLimitInSeconds': 123,
        'TaskAvailabilityLifetimeInSeconds': 123,
        'MaxConcurrentTaskCount': 123,
        'AnnotationConsolidationConfig': {
            'AnnotationConsolidationLambdaArn': 'arn:aws:lambda:us-east-1:432418664414:function:ACS-VideoObjectTracking'
        },
    Tags=[
        {
            'Key': 'string',
            'Value': 'string'
        },
    ]
)
```

## Erstellen Sie einen Auftrag zur Anpassung oder Überprüfung der Beschriftung von Video-Frame-Objektverfolgung
<a name="sms-video-ot-adjustment"></a>

Sie können Beschriftungsverifizierungs- und Anpassungsaufträge über die Ground Truth-Konsole oder die `CreateLabelingJob` API starten. Weitere Informationen zu Beschriftungsaufträgen zur Anpassung und Überprüfung sowie zu deren Erstellung finden Sie unter [Beschriftungsverifizierung und Anpassung](sms-verification-data.md).

## Format der Ausgabedaten
<a name="sms-video-ot-output-data"></a>

Wenn Sie einen Beschriftungsauftrag der Objektverfolgung von Videoframes erstellen, werden Aufgaben an Auftragnehmer gesendet. Wenn diese Auftragnehmer ihre Aufgaben abgeschlossen haben, werden die Beschriftungen an den Amazon S3-Ausgabeort geschrieben, den Sie beim Erstellen des Beschriftungsauftrags angegeben haben. Weitere Informationen über das Ausgabeformat der Video-Frame-Objektverfolgung finden Sie unter [Ausgabe der Video-Frame-Objektverfolgung](sms-data-output.md#sms-output-video-object-tracking). Wenn Sie ein neuer Benutzer von Ground Truth sind, erfahren Sie unter [Ausgabedaten von Kennzeichnungsaufträgen](sms-data-output.md) mehr über das Ausgabedatenformat von Ground Truth. 

# Referenz für Aufträge zur Kennzeichnung von Video-Frames
<a name="sms-video-overview"></a>

Auf dieser Seite erfahren Sie mehr über die Aufgaben zur Kennzeichnung von Videoframes zur Objekterkennung und Objektverfolgung. Die Informationen auf dieser Seite gelten für diese beiden integrierten Aufgabentypen. 

Der Job zur Kennzeichnung von Videobildern ist aus folgenden Gründen einzigartig:
+ Sie können entweder Datenobjekte bereitstellen, die zur Kommentierung bereit sind (Videoframes), oder Sie können Videodateien bereitstellen und Ground Truth automatisch Videoframes extrahieren lassen. 
+ Auftragnehmer haben die Möglichkeit, ihre Arbeit unterwegs zu speichern. 
+ Sie können die Amazon Mechanical Turk Belegschaft nicht für die Erledigung Ihrer Etikettierungsaufgaben einsetzen. 
+ Ground Truth bietet eine Benutzeroberfläche für Auftragnehmer sowie unterstützende und grundlegende Kennzeichnungstools, mit denen Auftragnehmer Ihre Aufgaben erledigen können. Sie müssen keine Vorlage für eine Arbeitsaufgabe bereitstellen. 

In den folgenden Themen erfahren Sie mehr über das Kennzeichnen von Video-Frames.

**Topics**
+ [

## Eingabedaten
](#sms-video-input-overview)
+ [

## Ausführungszeiten des Jobs
](#sms-video-job-completion-times)
+ [

## Aufgabentypen
](#sms-video-frame-tools)
+ [

## Arbeitskräfte
](#sms-video-workforces)
+ [

## Benutzeroberfläche (UI) für Auftragnehmer
](#sms-video-worker-task-ui)
+ [

## Anforderungen an die Genehmigung von Video-Frame-Aufträgen
](#sms-security-permission-video-frame)

## Eingabedaten
<a name="sms-video-input-overview"></a>

Der Job zur Kennzeichnung von Videobildern verwendet *Sequenzen* von Videobildern. Eine einzelne Sequenz ist eine Reihe von Bildern, die aus einem einzigen Video extrahiert wurden. Sie können entweder Ihre eigenen Videoframesequenzen bereitstellen oder Ground Truth automatisch Videoframesequenzen aus Ihren Videodateien extrahieren lassen. Weitere Informationen hierzu finden Sie unter [Videodateien zur Verfügung stellen](sms-point-cloud-video-input-data.md#sms-point-cloud-video-frame-extraction).

Ground Truth verwendet Sequenzdateien, um alle Bilder in einer einzigen Sequenz zu identifizieren. Alle Sequenzen, die Sie in einen einzelnen Kennzeichnungsauftrag aufnehmen möchten, werden in einer Eingabemanifestdatei identifiziert. Jede Sequenz wird verwendet, um eine einzelne Worker-Aufgabe zu erstellen. Mit der automatischen Ground-Truth-Dateneinrichtung können Sie automatisch Sequenzdateien und eine Eingabemanifestdatei erstellen. Weitere Informationen hierzu finden Sie unter [Einrichten automatisierter Video-Frame-Eingabedaten](sms-video-automated-data-setup.md). 

Informationen zum manuellen Erstellen von Sequenzdateien und einer Eingabemanifestdatei finden Sie unter [Erstellen einer Videoframe-Eingangsmanifestdatei](sms-video-manual-data-setup.md#sms-video-create-manifest). 

## Ausführungszeiten des Jobs
<a name="sms-video-job-completion-times"></a>

Die Bearbeitung von Aufträgen zur Kennzeichnung von Videos und Videorahmen kann Stunden in Anspruch nehmen. Sie können die Gesamtdauer festlegen, die Auftragnehmer an den einzelnen Aufgaben arbeiten können, wenn Sie einen Kennzeichnungsauftrag erstellen. Die maximale Zeit, die Sie festlegen können, die Auftragnehmer an Aufgaben arbeiten, beträgt 7 Tage. Der Standardwert lautet 3 Tage. 

Wir empfehlen dringend, dass Sie Aufgaben erstellen, die die Auftragnehmer innerhalb von 12 Stunden erledigen können. Auftragnehmer müssen die Benutzeroberfläche für Auftragnehmer während der Arbeit an einer Aufgabe geöffnet lassen. Sie können ihre Arbeit speichern, während sie arbeiten, und Ground Truth speichert ihre Arbeit alle 15 Minuten.

Wenn Sie den SageMaker `CreateLabelingJob` KI-API-Vorgang verwenden, legen Sie im `TaskTimeLimitInSeconds` Parameter von fest, wie lange eine Aufgabe den Mitarbeitern insgesamt zur Verfügung steht`HumanTaskConfig`.

Wenn Sie einen Kennzeichnungsauftrag in der Konsole erstellen, können Sie dieses Zeitlimit angeben, wenn Sie Ihren Arbeitskrafttyp und Ihr Arbeitsteam auswählen.

## Aufgabentypen
<a name="sms-video-frame-tools"></a>

Wenn Sie einen Kennzeichnungsauftrag zur Videoobjektverfolgung oder zur Erkennung von Videoobjekten erstellen, geben Sie die Art der Anmerkung an, die Auftragnehmer bei der Bearbeitung Ihrer Labeling-Aufgabe erstellen sollen. Der Annotationstyp bestimmt den Typ der Ausgabedaten, die Ground Truth zurückgibt, und definiert den *Aufgabentyp* für Ihre Labeling-Aufgabe. 

Wenn Sie einen Kennzeichnungsauftrag mithilfe der API-Operation erstellen [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateLabelingJob.html), geben Sie den Aufgabentyp mithilfe des Parameters der Kennzeichnungskategorie-Konfigurationsdatei `annotationType` an. Weitere Informationen hierzu finden Sie unter [Referenz zur Konfigurationsdatei für Kennzeichnungskategorien mit Kennzeichnungskategorie- und Frame-Attributen](sms-label-cat-config-attributes.md).

Die folgenden Aufgabentypen sind sowohl für Kennzeichnungsaufträge zur Videoobjektverfolgung als auch zur Erkennung von Videoobjekten verfügbar: 
+ **Begrenzungsrahmen** – Den Auftragnehmern stehen Tools zur Verfügung, mit denen sie Begrenzungsrahmen-Anmerkungen erstellen können. Ein Begrenzungsrahmen ist ein Rahmen, den ein Auftragnehmer um ein Objekt herum zeichnet, um die Pixelposition und die Kennzeichnung des Objekts im Rahmen zu identifizieren. 
+ **Polylinie** – Den Auftragnehmern stehen Werkzeuge zur Verfügung, mit denen sie Polylinien-Anmerkungen erstellen können. Eine Polylinie wird durch die Reihe von geordneten XY-Koordinaten definiert. Jeder der Polylinie hinzugefügte Punkt ist durch eine Linie mit dem vorherigen Punkt verbunden. Die Polylinie muss nicht geschlossen sein (Start- und Endpunkt müssen nicht identisch sein), und es gibt keine Einschränkungen in Bezug auf die Winkel, die zwischen den Linien gebildet werden. 
+ **Polygon** – Den Auftragnehmern stehen Werkzeuge zur Verfügung, mit denen sie Polygon-Anmerkungen erstellen können. Ein Polygon ist eine geschlossene Form, die durch eine Reihe von geordneten XY-Koordinaten definiert wird. Jeder Punkt, der dem Polygon hinzugefügt wird, ist durch eine Linie mit dem vorherigen Punkt verbunden, und es gibt keine Einschränkungen in Bezug auf die Winkel, die zwischen den Linien gebildet werden. Zwei Linien (Seiten) des Polygons können sich nicht kreuzen. Der Start- und Endpunkt eines Polygons müssen identisch sein. 
+ **Keypoint** – Den Auftragnehmern stehen Werkzeuge zur Verfügung, mit denen sie Keypoint-Anmerkungen erstellen können. Ein Keypoint ist ein einzelner Punkt, der einer XY-Koordinate im Videoframe zugeordnet ist.

## Arbeitskräfte
<a name="sms-video-workforces"></a>

Wenn Sie einen Auftrag zur Beschriftung von Videobildern erstellen, müssen Sie ein Arbeitsteam angeben, das die Kennzeichnungsaufträge ausführt. Sie können ein Arbeitsteam aus privaten Arbeitskräften Ihrer eigenen Mitarbeiter oder aus Anbieterarbeitskräften auswählen, die Sie in AWS Marketplace auswählen. Sie können die Belegschaft von Amazon Mechanical Turk nicht für die Kennzeichnung von Videobildern einsetzen. 

Weitere Informationen zu Anbieterarbeitskräften finden Sie unter [Abonnieren von Arbeitskräften eines Anbieters](sms-workforce-management-vendor.md).

Informationen zum Erstellen und Verwalten privater Arbeitskräfte finden Sie unter [Private Arbeitskräfte](sms-workforce-private.md).

## Benutzeroberfläche (UI) für Auftragnehmer
<a name="sms-video-worker-task-ui"></a>

Ground Truth bietet eine Benutzeroberfläche (UI), Werkzeuge und unterstützende Kennzeichnungsfeatures, die den Auftragnehmern helfen, Ihre VideoLabeling-Aufgaben zu erledigen. Sie können eine Vorschau der Benutzeroberfläche für Auftragnehmer anzeigen, wenn Sie einen Kennzeichnungsauftrag in der Konsole erstellen.

Wenn Sie einen Beschriftungsauftrag mit der API-Operation `CreateLabelingJob` erstellen, müssen Sie eine von Ground Truth bereitgestellte ARN im Parameter [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_UiConfig.html#sagemaker-Type-UiConfig-UiTemplateS3Uri](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_UiConfig.html#sagemaker-Type-UiConfig-UiTemplateS3Uri) angeben, um die Auftragnehmer UI für Ihren Aufgabentyp zu spezifizieren. Sie können den SageMaker [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_RenderUiTemplate.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_RenderUiTemplate.html)AI-API-Vorgang verwenden`HumanTaskUiArn`, um eine Vorschau der Worker-Benutzeroberfläche anzuzeigen. 

Sie stellen den Auftragnehmern Anweisungen, Kennzeichnungen und optional Attribute zur Verfügung, anhand derer die Auftragnehmer weitere Informationen zu Kennzeichnungen und Videoframes bereitstellen können. Diese Attribute werden als Kennzeichnungskategorie-Attribute bzw. Frame-Attribute bezeichnet. Sie werden alle in der Worker-Benutzeroberfläche angezeigt.

### Kennzeichnungskategorie- und Frame-Attribute
<a name="sms-video-label-attributes"></a>

Wenn Sie einen Kennzeichnungsauftrag zur Verfolgung von Videoobjekten oder zur Erkennung von Videoobjekten erstellen, können Sie ein oder mehrere *Kennzeichnungskategorieattribute* und *Frame-Attribute* hinzufügen:
+ **Kennzeichnungskategorieattribut** – Eine Liste mit Optionen (Zeichenketten), ein Textfeld in freier Form oder ein numerisches Feld, das einer oder mehreren Beschriftungen zugeordnet ist. Es wird von Auftragnehmern verwendet, um Metadaten zu einer Kennzeichnung bereitzustellen. 
+ **Frame-Attribut** – Eine Liste von Optionen (Zeichenketten), ein Textfeld in freier Form oder ein numerisches Feld, das auf jedem Videoframe erscheint, den ein Worker mit Anmerkungen versehen soll. Es wird von Auftragnehmern verwendet, um Metadaten zu Videoframes bereitzustellen. 

Darüber hinaus können Sie Kennzeichnungs- und Frame-Attribute verwenden, damit Auftragnehmer Kennzeichnungen in einem Job zur Überprüfung von Videoframe-Kennzeichnungen überprüfen lassen. 

In den folgenden Abschnitten erfahren Sie mehr über diese Attribute. Um zu erfahren, wie Sie Kennzeichnungskategorien und Rahmenattribute zu einem **Kennzeichnungsauftrag** hinzufügen können, verwenden Sie die Abschnitte Kennzeichnungsauftrag erstellen auf der [Aufgabentypseite](sms-video-task-types.md) Ihrer Wahl.

#### Attribute der Beschriftungskategorie
<a name="sms-video-label-category-attributes"></a>

Fügen Sie Labelkategorieattribute zu Beschriftungen hinzu, damit Auftragnehmer mehr Informationen zu den von ihnen erstellten Anmerkungen angeben können. Ein Label-Kategorieattribut wird einem einzelnen Etikett oder allen Labels hinzugefügt. Wenn ein Labelkategorieattribut auf alle Beschriftungen angewendet wird, wird es als *globales Labelkategorieattribut* bezeichnet. 

Wenn Sie z. B. die Kategorie *Auto* hinzufügen, möchten Sie vielleicht auch zusätzliche Daten über Ihre beschrifteten Autos erfassen, z. B. ob sie verdeckt sind oder wie groß das Auto ist. Sie können diese Metadaten mithilfe von Beschriftungskategorieattributen erfassen. Wenn Sie in diesem Beispiel das Attribut *verdeckt* zur Fahrzeugkennzeichnungskategorie hinzugefügt haben, können Sie dem *verdeckten* Attribut *teilweise*, *vollständig* oder *Nein* zuweisen und Auftragnehmern die Möglichkeit geben, eine dieser Optionen auszuwählen. 

Wenn Sie einen Auftrag zur Kennzeichnungsverifizierung erstellen, fügen Sie jeder Kennzeichnung, welche Auftragnehmer überprüfen sollen, Attribute der Kategorie Etiketten hinzu.

#### Attribute auf Frame-Ebene
<a name="sms-video-frame-attributes"></a>

Fügen Sie Frame-Attribute hinzu, um Auftragnehmern die Möglichkeit zu geben, mehr Informationen zu einzelnen Videoframes bereitzustellen. Jedes hinzugefügte Frame-Attribut wird auf allen Frames angezeigt. 

Sie können beispielsweise ein Zahlenrahmen-Attribut hinzufügen, damit Auftragnehmer die Anzahl der Objekte angeben können, die sie in einem bestimmten Rahmen sehen. 

In einem anderen Beispiel möchten Sie vielleicht ein Textfeld in freier Form bereitstellen, damit Auftragnehmer eine Antwort auf eine Frage geben können. 

Wenn Sie einen Auftrag zur Kennzeichnungsverifizierung erstellen, können Sie ein oder mehrere Frame-Attribute hinzufügen, um Auftragnehmer zu bitten, Feedback zu allen Kennzeichnungen in einem Videoframe zu geben.

### Anweisungen für Arbeitnehmer
<a name="sms-video-worker-instructions-general"></a>

Sie können Ihren Auftragnehmer Anweisungen zur Verfügung stellen, damit sie die Aufgaben zur Kennzeichnung der Videobilder erledigen können. Möglicherweise möchten Sie beim Verfassen Ihrer Anweisungen die folgenden Themen behandeln: 
+ Bewährte Methoden und Dinge, die beim Beschriften von Objekten zu vermeiden sind.
+ Die zur Verfügung gestellten Attribute der Kennzeichnungskategorie (für Objekterkennungs- und Objektverfolgungsaufgaben) und wie sie zu verwenden sind.
+ Zeitersparnis bei der Kennzeichnung durch die Verwendung von Tastaturkürzeln. 

Sie können Ihre Worker-Anweisungen mithilfe der SageMaker AI-Konsole hinzufügen, während Sie einen Labeling-Job erstellen. Wenn Sie einen Kennzeichnungsauftrag mithilfe der API-Operation `CreateLabelingJob` erstellen, geben Sie Auftragnehmeranweisungen in der Konfigurationsdatei der Beschriftungskategorie an. 

Zusätzlich zu Ihren Anweisungen stellt Ground Truth einen Link zur Verfügung, der den Auftragnehmern bei der Navigation und Nutzung des Worker-Portals hilft. Zeigen Sie diese Anweisungen an, indem Sie den Aufgabentyp auf [Anweisungen für Auftragnehmer](sms-video-worker-instructions.md) auswählen.

### Ablehnen von Aufgaben
<a name="sms-decline-task-video"></a>

Auftragnehmende können Aufgaben ablehnen. 

Auftragnehmende lehnen eine Aufgabe ab, wenn die Anweisungen nicht klar sind, die Eingabedaten nicht korrekt angezeigt werden oder wenn sie bei der Aufgabe auf ein anderes Problem stoßen. Wenn die Anzahl der Auftragnehmer pro Datensatzobjekt ([https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HumanTaskConfig.html#sagemaker-Type-HumanTaskConfig-NumberOfHumanWorkersPerDataObject](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HumanTaskConfig.html#sagemaker-Type-HumanTaskConfig-NumberOfHumanWorkersPerDataObject)) die Aufgabe ablehnt, wird das Datenobjekt als abgelaufen markiert und nicht an weitere Auftragnehmer gesendet.

## Anforderungen an die Genehmigung von Video-Frame-Aufträgen
<a name="sms-security-permission-video-frame"></a>

Wenn Sie einen Auftrag zur Kennzeichnung von Videobildern erstellen, müssen Sie zusätzlich zu den Berechtigungsanforderungen, die unter [IAM-Berechtigungen zur Verwendung von Ground Truth zuweisen](sms-security-permission.md) zu finden sind, eine CORS-Richtlinie zu Ihrem S3-Bucket hinzufügen, das Ihre Eingabemanifestdatei enthält. 

### CORS-Berechtigungsrichtlinie für Ihren S3-Bucket
<a name="sms-permissions-add-cors-video-frame"></a>

Wenn Sie einen Videobildkennzeichnungsauftrag erstellen, geben Sie in S3 Buckets an, in denen sich Ihre Eingabedaten und die Manifestdatei befinden und in denen Ihre Ausgabedaten gespeichert werden. Diese Buckets können gleich sein. Sie müssen Ihren Eingabe- und Ausgabebereichen die folgende CORS-Richtlinie (Cross-origin resource sharing) zuordnen. Wenn Sie die Amazon S3-Konsole verwenden, um die Richtlinie zu Ihrem Bucket hinzuzufügen, müssen Sie das JSON-Format verwenden.

**JSON**

```
[
    {
        "AllowedHeaders": [
            "*"
        ],
        "AllowedMethods": [
            "GET",
            "HEAD",
            "PUT"
        ],
        "AllowedOrigins": [
            "*"
        ],
        "ExposeHeaders": [
            "Access-Control-Allow-Origin"
        ],
        "MaxAgeSeconds": 3000
    }
]
```

**XML**

```
<?xml version="1.0" encoding="UTF-8"?>
<CORSConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/">
<CORSRule>
    <AllowedOrigin>*</AllowedOrigin>
    <AllowedMethod>GET</AllowedMethod>
    <AllowedMethod>HEAD</AllowedMethod>
    <AllowedMethod>PUT</AllowedMethod>
    <MaxAgeSeconds>3000</MaxAgeSeconds>
    <ExposeHeader>Access-Control-Allow-Origin</ExposeHeader>
    <AllowedHeader>*</AllowedHeader>
</CORSRule>
</CORSConfiguration>
```

Wie Sie eine CORS-Richtlinie zu einem S3-Bucket hinzufügen können, erfahren Sie unter [ Wie füge ich eine domainübergreifende Ressourcenfreigabe mit CORS hinzu?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/add-cors-configuration.html) im Amazon Simple Storage Service User Guide.

# Anweisungen für Auftragnehmer
<a name="sms-video-worker-instructions"></a>

Dieses Thema bietet einen Überblick über das Ground Truth-Worker-Portal und die verfügbaren Tools zum Durchführen Ihrer Labeling-Aufgabe für Video-Frames. Wählen Sie zunächst die Art der Aufgabe, an der Sie arbeiten, unter **Themen** aus.

**Wichtig**  
Es wird empfohlen, für die Aufgabe einen Google Chrome- oder Firefox-Webbrowser zu verwenden. 

Wählen Sie für Anpassungsaufträge den ursprünglichen Aufgabentyp des Kennzeichnungsauftrags aus, der die Beschriftungen erstellt hat, die Sie anpassen. Überprüfen und passen Sie die Beschriftungen in Ihrer Aufgabe nach Bedarf an.

**Topics**
+ [

# Navigieren der Benutzeroberfläche
](sms-video-worker-instructions-worker-ui-ot.md)
+ [

# Massenbearbeitung von Kennzeichnungs- und Frame-Attributen
](sms-video-frame-worker-instructions-ot-bulk-edit.md)
+ [

# Tool Guide
](sms-video-worker-instructions-tool-guide.md)
+ [

# Symbolhandbuch
](sms-video-worker-instructions-ot-icons.md)
+ [

# Shortcuts
](sms-video-worker-instructions-ot-hot-keys.md)
+ [

# Grundlegendes zu den Optionen zum Freigeben, Anhalten, Fortsetzen und Ablehnen von Aufgaben
](sms-video-worker-instructions-skip-reject-ot.md)
+ [

# Speichern Ihrer Arbeit und Übermitteln
](sms-video-worker-instructions-saving-work-ot.md)
+ [

# Aufgaben zur Objektverfolgung mit Video-Frames
](sms-video-ot-worker-instructions.md)
+ [

# Aufgaben zur Objekterkennung in Videoframes
](sms-video-od-worker-instructions.md)

# Navigieren der Benutzeroberfläche
<a name="sms-video-worker-instructions-worker-ui-ot"></a>

Sie können mit der Navigationsleiste in der linken unteren Ecke der Benutzeroberfläche zwischen Video-Frames navigieren. 

Verwenden Sie die Wiedergabe-Schaltfläche, um sich automatisch durch die gesamte Frame-Sequenz zu bewegen. 

Verwenden Sie die Schaltflächen „Nächster Frame“ und „Vorheriger Frame“, um jeweils einen Frame vor oder zurück zu gehen. Sie können auch eine Frame-Nummer eingeben, um zu diesem Frame zu navigieren. 



Das folgende Video zeigt, wie Sie zwischen Video-Frames navigieren. 

![\[GIF, das zeigt, wie Sie zwischen Video-Frames navigieren\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/nav_video_ui.gif)


Sie können alle Video-Frames vergrößern und verkleinern. Sobald Sie in einen Video-Frame hineingezoomt haben, können Sie sich mithilfe des Verschieben-Symbols in diesem Frame bewegen. Wenn Sie in einem einzelnen Video-Frame eine neue Ansicht einrichten, indem Sie innerhalb dieses Frames zoomen und sich darin bewegen, werden alle Video-Frames auf dieselbe Ansicht eingestellt. Mit dem Symbol „Bildschirm anpassen“ können Sie alle Video-Frames auf ihre ursprüngliche Ansicht zurücksetzen. Weitere Anzeigeoptionen finden Sie unter [Symbolhandbuch](sms-video-worker-instructions-ot-icons.md). 

Wenn Sie sich in der Benutzeroberfläche für Auftragnehmer befinden, werden die folgenden Menüs angezeigt:
+ **Anweisungen** – Lesen Sie diese Anweisungen, bevor Sie mit der Aufgabe beginnen. Wählen Sie außerdem **Weitere Anweisungen** und lesen Sie sich diese Anweisungen durch. 
+ **Shortcuts** – Verwenden Sie dieses Menü, um Tastaturkürzel anzuzeigen, mit denen Sie in Video-Frames navigieren und die bereitgestellten Tools verwenden können. 
+ **Hilfe** – Verwenden Sie diese Option, um auf diese Dokumentation zurückzugreifen. 

# Massenbearbeitung von Kennzeichnungs- und Frame-Attributen
<a name="sms-video-frame-worker-instructions-ot-bulk-edit"></a>

Sie können Kennzeichnungsattribute und Frame-Attribute (Attribute) gleichzeitig bearbeiten. 

Wenn Sie ein Attribut gleichzeitig bearbeiten, geben Sie einen oder mehrere Frame-Bereiche an, auf die Sie die Bearbeitung anwenden möchten. Das von Ihnen ausgewählte Attribut wird in allen Frames in diesem Bereich bearbeitet, einschließlich der von Ihnen angegebenen Start- und End-Frames. Bei der Massenbearbeitung von Beschriftungsattributen *muss* der angegebene Bereich die Beschriftung enthalten, der das Beschriftungsattribut zugeordnet ist. Wenn Sie Frames angeben, die diese Beschriftung nicht enthalten, wird eine Fehlermeldung angezeigt. 

Bei der Massenbearbeitung eines Attributs *müssen* Sie zuerst den gewünschten Wert für das Attribut angeben. Wenn Sie beispielsweise ein Attribut von *Ja* in *Nein* ändern möchten, müssen Sie *Nein* auswählen und dann die Massenbearbeitung durchführen. 

Sie können auch einen neuen Wert für ein Attribut angeben, das noch nicht ausgefüllt wurde, und dann die Funktion zur Massenbearbeitung verwenden, um diesen Wert in mehreren Frames einzugeben. Wählen Sie dazu den gewünschten Wert für das Attribut aus und führen Sie die folgenden Schritte aus. 

**Zur Massenbearbeitung einer Beschriftung oder eines Attributs:**

1. Klicken Sie mit der rechten Maustaste auf das Attribut, für das Sie die Massenbearbeitung durchführen möchten.

1. Geben Sie mithilfe eines Gedankenstrichs (`-`) im Textfeld den Bereich der Frames an, auf den Sie die Massenbearbeitung anwenden möchten. Wenn Sie die Bearbeitung beispielsweise auf die Frames eins bis zehn anwenden möchten, geben Sie `1-10` ein. Wenn Sie die Bearbeitung auf die Frames zwei bis fünf, acht bis zehn und zwanzig anwenden möchten, geben Sie ein `2-5,8-10,20`.

1. Wählen Sie **Bestätigen** aus.

Wenn Sie eine Fehlermeldung erhalten, überprüfen Sie, ob Sie einen gültigen Bereich eingegeben haben und ob die Beschriftung, die mit dem Beschriftungsattribut verknüpft ist, das Sie bearbeiten (falls zutreffend), in allen angegebenen Frames vorhanden ist.

Mit den Optionen **In vorherige Frames duplizieren** und **In nächste Frames duplizieren** im Menü **Beschriftung** oben auf dem Bildschirm können Sie allen vorherigen oder nachfolgenden Frames schnell eine Beschriftung hinzufügen. 

# Tool Guide
<a name="sms-video-worker-instructions-tool-guide"></a>

Ihre Aufgabe umfasst ein oder mehrere Tools. Das bereitgestellte Tool bestimmt die Art der Anmerkungen, die Sie erstellen, um Objekte zu identifizieren und zu verfolgen. In der folgenden Tabelle erfahren Sie mehr über jedes der bereitgestellten Tools. 


****  

| Tool | Symbol | Action | Description | 
| --- | --- | --- | --- | 
|  Begrenzungsrahmen  |  ![\[Bounding Box-Symbol\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Bounding%20Box.png)  |  Fügen Sie eine Anmerkung zu einem Begrenzungsrahmen hinzu.  |  Wählen Sie dieses Symbol aus, um einen Begrenzungsrahmen hinzuzufügen. Jeder Begrenzungsrahmen, den Sie hinzufügen, ist mit der Kategorie verknüpft, die Sie im Dropdown-Menü „Beschriftungskategorie“ ausgewählt haben. Wählen Sie den Begrenzungsrahmen oder die zugehörige Beschriftung aus, um ihn anzupassen.   | 
| Nächste voraussagen |  ![\[Symbol Nächstes vorhersagen\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/PredictNext.png)  |  Sagen Sie die Begrenzungsrahmen im nächsten Frame voraus.  |  Wählen Sie einen Begrenzungsrahmen aus und wählen Sie dann dieses Symbol, um die Position dieses Rahmens im nächsten Frame vorauszusagen. Sie können das Symbol mehrmals hintereinander auswählen, um die Position des Quaders in mehreren Frames automatisch zu ermitteln. Wählen Sie dieses Symbol beispielsweise fünfmal aus, um die Position eines Begrenzungsrahmens in den nächsten 5 Frames vorauszusagen.   | 
|  Schlüsselpunkte  |  ![\[Keypoint-Symbol\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Keypoint.png)  |  Fügen Sie eine Schlüsselpunkt-Anmerkung hinzu.  |  Wählen Sie dieses Symbol, um einen Schlüsselpunkt hinzuzufügen. Klicken Sie auf ein Objekt im Bild, um den Schlüsselpunkt an dieser Stelle zu platzieren.  Jeder Schlüsselpunkt, den Sie hinzufügen, ist mit der Kategorie verknüpft, die Sie aus dem Dropdown-Menü „Beschriftungskategorie“ auswählen. Wählen Sie einen Schlüsselpunkt oder die zugehörige Beschriftung aus, um ihn anzupassen.   | 
|  Polyline  |  ![\[Polylinie-Symbol\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/polyline.png)  |  Fügen Sie eine Polylinien-Anmerkung hinzu.  |  Wählen Sie dieses Symbol, um eine Polylinie hinzuzufügen. Um eine Polylinie hinzuzufügen, klicken Sie kontinuierlich um das gewünschte Objekt, um neue Punkte hinzuzufügen. Um das Zeichnen einer Polylinie zu beenden, wählen Sie den letzten Punkt aus, den Sie ein zweites Mal platziert haben (dieser Punkt wird grün), oder drücken die **Eingabetaste** auf der Tastatur.  Jeder der Polylinie hinzugefügten Punkte ist durch eine Linie mit dem vorherigen Punkt verbunden. Die Polylinie muss nicht geschlossen sein (Start- und Endpunkt müssen nicht identisch sein), und es gibt keine Einschränkungen in Bezug auf die Winkel, die zwischen den Linien gebildet werden.  Jede Polylinie, die Sie hinzufügen, ist mit der Kategorie verknüpft, die Sie aus dem Dropdown-Menü „Beschriftungskategorie“ auswählen. Wählen Sie die Polylinie oder die zugehörige Beschriftung aus, um sie anzupassen.   | 
|  Polygon  |  ![\[Polygon-Symbol\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Polygon.png)  |  Fügen Sie eine Polygon-Anmerkung hinzu.  |  Wählen Sie dieses Symbol aus, um eine Polygon hinzuzufügen. Um ein Polygon hinzuzufügen, klicken Sie kontinuierlich auf das gewünschte Objekt, um neue Punkte hinzuzufügen. Um das Zeichnen des Polygons zu beenden, wählen Sie den Startpunkt aus (dieser Punkt wird grün).  Ein Polygon ist eine geschlossene Form, die durch eine Reihe von Punkten definiert wird, die Sie platzieren. Jeder Punkt, der dem Polygon hinzugefügt wird, ist durch eine Linie mit dem vorherigen Punkt verbunden, und es gibt keine Einschränkungen in Bezug auf die Winkel, die zwischen den Linien gebildet werden. Start- und Endpunkt müssen identisch sein.  Jedes Polygon, das Sie hinzufügen, ist mit der Kategorie verknüpft, die Sie aus dem Dropdown-Menü „Beschriftungskategorie“ auswählen. Wählen Sie das Polygon oder die zugehörige Beschriftung aus, um sie anzupassen.   | 
|  In nächsten kopieren  |  ![\[Symbol In nächsten kopieren\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/copy_to_next.png)  |  Kopiert Anmerkungen in den nächsten Frame.   |  Wenn eine oder mehrere Anmerkungen im aktuellen Frame ausgewählt sind, werden diese Anmerkungen in den nächsten Frame kopiert. Wenn keine Anmerkungen ausgewählt sind, werden alle Anmerkungen im aktuellen Frame in den nächsten Frame kopiert.   | 
|  In alle kopieren  |  ![\[Symbol In alle kopieren\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/copy_to_all.png)  |  Kopiert Anmerkungen in alle nachfolgenden Frames.  |  Wenn eine oder mehrere Anmerkungen im aktuellen Frame ausgewählt sind, werden diese Anmerkungen in alle nachfolgenden Frames kopiert. Wenn keine Anmerkungen ausgewählt sind, werden alle Anmerkungen im aktuellen Frame in alle nachfolgenden Frames kopiert.   | 

# Symbolhandbuch
<a name="sms-video-worker-instructions-ot-icons"></a>

In dieser Tabelle erfahren Sie mehr über die Symbole, die in der Benutzeroberfläche angezeigt werden. Sie können einige dieser Symbole mithilfe der Tastaturkürzel im Menü **Shortcuts** automatisch auswählen. 


| Symbol | Action  | Description | 
| --- | --- | --- | 
|  ![\[Symbol Helligkeit\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Brightness.png)  |  Helligkeit  |  Wählen Sie dieses Symbol, um die Helligkeit aller Video-Frames anzupassen.   | 
|  ![\[Kontrast-Symbol\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Contrast.png)  |  Kontrast  |  Wählen Sie dieses Symbol, um den Kontrast aller Video-Frames anzupassen.   | 
|  ![\[Hineinzoomen-Symbol\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Zoom-in.png)  |  Hineinzoomen  |  Wählen Sie dieses Symbol, um in alle Video-Frames hineinzuzoomen.  | 
|  ![\[Herauszoomen-Symbol\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Zoom-out.png)  |  Herauszoomen  |  Wählen Sie dieses Symbol, um aus allen Video-Frames herauszuzoomen.   | 
|  ![\[Verschieben-Symbol\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Move.png)  |  Bildschirm verschieben  |  Nachdem Sie in einen Video-Frame hineingezoomt haben, wählen Sie dieses Symbol, um sich in diesem Video-Frame zu bewegen. Sie können sich mit der Maus im Video-Frame bewegen, indem Sie auf den Frame klicken und ihn in die gewünschte Richtung ziehen. Dadurch wird die Ansicht in allen Ansichts-Frames geändert.  | 
|  ![\[Symbol Bildschirm anpassen\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Fit%20screen.png)  | Bildschirm anpassen |  Setzt alle Video-Frames auf ihre ursprüngliche Position zurück.   | 
|  ![\[Rückgängig-Symbol\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Undo.png)  | Rückgängig |  Macht eine Aktion rückgängig. Sie können dieses Symbol verwenden, um einen Begrenzungsrahmen zu entfernen, den Sie gerade hinzugefügt haben, oder um eine Anpassung rückgängig zu machen, die Sie an einem Begrenzungsrahmen vorgenommen haben.   | 
|  ![\[Wiederherstellen-Symbol\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Redo.png)  | Wiederholen | Wiederholt eine Aktion, die mit dem Symbol „Rückgängig“ rückgängig gemacht wurde. | 
|  ![\[Symbol Kennzeichnungen löschen\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Delete.png)  | Beschriftung löschen | Löschen Sie eine Beschriftung. Dadurch wird der mit der Beschriftung verknüpfte Begrenzungsrahmen in einem einzelnen Frame gelöscht.  | 
|  ![\[Symbol Beschriftung ein- oder ausblenden\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Show_Hide.png)  | Beschriftung ein- oder ausblenden | Wählen Sie dieses Symbol, um eine Beschriftung anzuzeigen, die ausgeblendet wurde. Wenn dieses Symbol mit einem Schrägstrich versehen ist, wählen Sie es aus, um die Beschriftung auszublenden.  | 
|  ![\[Bearbeiten-Symbol\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/Edit.png)  | Beschriftung bearbeiten | Wählen Sie dieses Symbol, um das Menü Instance bearbeiten zu öffnen. Verwenden Sie dieses Menü, um eine Beschriftungskategorie und eine ID zu bearbeiten und Kennzeichnungsattribute hinzuzufügen oder zu bearbeiten.  | 

# Shortcuts
<a name="sms-video-worker-instructions-ot-hot-keys"></a>

Mithilfe der im Menü **Shortcuts** aufgeführten Tastaturkürzel können Sie schnell Symbole auswählen, Anmerkungen rückgängig machen und wiederherstellen sowie Tools zum Hinzufügen und Bearbeiten von Anmerkungen verwenden. Wenn Sie beispielsweise einen Begrenzungsrahmen hinzugefügt haben, können Sie mit **P** die Position dieses Rahmens in nachfolgenden Frames schnell voraussagen. 

Bevor Sie Ihre Aufgabe starten, wird empfohlen, sich das Menü **Shortcuts** anzusehen und sich mit diesen Befehlen vertraut zu machen.

# Grundlegendes zu den Optionen zum Freigeben, Anhalten, Fortsetzen und Ablehnen von Aufgaben
<a name="sms-video-worker-instructions-skip-reject-ot"></a>

Wenn Sie die Labeling-Aufgabe öffnen, können Sie die Aufgabe über drei Schaltflächen oben rechts ablehnen (**Aufgabe ablehnen**), freigeben (**Aufgabe freigeben**) und beenden und zu einem späteren Zeitpunkt fortsetzen (**Anhalten und später fortsetzen**). In der folgenden Liste wird beschrieben, was passiert, wenn Sie eine dieser Optionen auswählen:
+ **Aufgabe ablehnen**: Sie sollten eine Aufgabe nur ablehnen, wenn etwas mit der Aufgabe nicht stimmt, z. B. wenn die Video-Frame-Bilder undeutlich sind oder ein Problem mit der Benutzeroberfläche vorliegt. Wenn Sie eine Aufgabe ablehnen, können Sie nicht zur Aufgabe zurückkehren.
+ **Aufgabe freigeben**: Verwenden Sie diese Option, um eine Aufgabe freizugeben und es anderen zu ermöglichen, daran zu arbeiten. Wenn Sie eine Aufgabe freigeben, verlieren Sie die gesamte an dieser Aufgabe geleistete Arbeit, und andere Auftragnehmer in Ihrem Team können sie übernehmen. Wenn genügend Auftragnehmer die Aufgabe übernehmen, können Sie möglicherweise nicht mehr zur Aufgabe zurückkehren. Wenn Sie diese Schaltfläche und dann **Bestätigen** auswählen, kehren Sie zum Worker-Portal zurück. Wenn die Aufgabe noch verfügbar ist, lautet ihr Status **Verfügbar**. Wenn andere Auftragnehmer sie übernehmen, verschwindet sie aus Ihrem Portal. 
+ **Anhalten und später fortsetzen**: Sie können die Schaltfläche **Anhalten und später fortsetzen** verwenden, um die Arbeit zu unterbrechen und zu einem späteren Zeitpunkt zur Aufgabe zurückzukehren. Sie sollten die Schaltfläche **Speichern** verwenden, um Ihre Arbeit zu speichern, bevor Sie **Anhalten und später fortsetzen** wählen. Wenn Sie diese Schaltfläche und danach **Bestätigen** wählen, kehren Sie zum Worker-Portal zurück. Der Aufgabenstatus lautet dann **Angehalten**. Sie können dieselbe Aufgabe auswählen, um die Arbeit daran fortzusetzen. 

  Beachten Sie, dass die Person, die Ihre Labeling-Aufgaben erstellt, ein Zeitlimit festlegt, bis zu dem alle Aufgaben erledigt sein müssen. Wenn Sie innerhalb dieser Frist nicht zu dieser Aufgabe zurückkehren und sie nicht abschließen, läuft sie ab und Ihre Arbeit wird nicht eingereicht. Weitere Informationen erhalten Sie bei Ihrem Administrator. 

![\[GIF, das die Positionen der Optionen Aufgabe ablehnen, Aufgabe freigeben und Anhalten und später fortsetzen in der UI zeigt\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/reject-decline-task.gif)


# Speichern Ihrer Arbeit und Übermitteln
<a name="sms-video-worker-instructions-saving-work-ot"></a>

Sie sollten Ihre Arbeit regelmäßig mit der Schaltfläche **Speichern** speichern. Ground Truth speichert Ihre Arbeit automatisch alle 15 Minuten. 

Wenn Sie eine Aufgabe öffnen, müssen Sie Ihre Arbeit daran abschließen, bevor Sie auf **Absenden** klicken. 

# Aufgaben zur Objektverfolgung mit Video-Frames
<a name="sms-video-ot-worker-instructions"></a>

Bei Aufgaben zur Objektverfolgung in Video-Frames müssen Sie die Bewegung von Objekten über Video-Frames hinweg verfolgen. Ein Video-Frame ist ein Standbild aus einer Videoszene. Sie können die Auftragnehmer-Benutzeroberfläche verwenden, um zwischen Video-Frames zu navigieren und mithilfe der bereitgestellten Tools eindeutige Objekte zu identifizieren und ihre Bewegung von einem zum nächsten Video-Frame zu verfolgen. In den folgenden Themen erfahren Sie, wie Sie in Ihrer Auftragnehmer-Benutzeroberfläche navigieren, die bereitgestellten Tools verwenden und Ihre Aufgabe durchführen. 

Es wird empfohlen, für die Aufgabe einen Google Chrome- oder Firefox-Webbrowser zu verwenden. 

**Wichtig**  
Wenn Sie beim Öffnen Ihrer Aufgabe feststellen, dass bereits Anmerkungen zu einem oder mehreren Video-Frames hinzugefügt wurden, passen Sie diese Anmerkungen an und fügen Sie nach Bedarf weitere Anmerkungen hinzu. 

**Topics**
+ [

# Ihre Aufgabe
](sms-video-worker-instructions-ot-task.md)

# Ihre Aufgabe
<a name="sms-video-worker-instructions-ot-task"></a>

Wenn Sie an einer Aufgabe der Video–Frame-Objektverfolgung arbeiten, müssen Sie eine Kategorie aus dem Menü **Beschriftungskategorie** auf der rechten Seite des Worker-Portals auswählen, um Anmerkungen hinzuzufügen. Nachdem Sie eine Kategorie ausgewählt haben, verwenden Sie die bereitgestellten Tools, um die Objekte, für die die Kategorie gilt, mit Anmerkungen zu versehen. Diese Anmerkung wird mit einer eindeutigen Beschriftungs-ID verknüpft, die nur für dieses Objekt verwendet werden sollte. Verwenden Sie dieselbe Beschriftungs-ID, um zusätzliche Anmerkungen für dasselbe Objekt in allen Video-Frames zu erstellen, in denen es vorkommt. Weitere Informationen zu den bereitgestellten Tools finden Sie unter [Tool Guide](sms-video-worker-instructions-tool-guide.md).

Nachdem Sie eine Beschriftung hinzugefügt haben, sehen Sie im Menü **Beschriftungen** möglicherweise einen nach unten zeigeneiden Pfeil neben der Beschriftung. Wählen Sie diesen Pfeil aus und wählen Sie dann für jedes angezeigte Kennzeichnungsattribut eine Option aus, um weitere Informationen zu dieser Beschriftung bereitzustellen.

Möglicherweise werden im Menü **Beschriftungen** Frames-Attribute angezeigt. Diese Attribute werden in jedem Frame Ihrer Aufgabe angezeigt. Verwenden Sie diese Attributaufforderungen, um zusätzliche Informationen zu jedem Frame einzugeben. 

![\[Beispiel für einen Frame-Attribut-Prompt\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/frame-attributes.png)


Nachdem Sie eine Bezeichnung hinzugefügt haben, können Sie schnell einen Attributwert für eine Beschriftungskategorie hinzufügen und bearbeiten, indem Sie im Menü **Beschriftungen** den nach unten zeigenden Pfeil neben der Bezeichnung verwenden. Wenn Sie im Menü **Beschriftungen** auf das Stiftsymbol neben der Beschriftung klicken, wird das Menü **Instance bearbeiten** angezeigt. In diesem Menü können Sie die Beschriftungs-ID, die Kennzeichnungskategorie und die Kennzeichnungskategorieattribute bearbeiten. 

![\[GIF, das zeigt, wie Sie die Anmerkung für Beschriftungen im Rahmen bearbeiten können\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/kitti-ot-general.gif)


Um eine Anmerkung zu bearbeiten, wählen Sie im Menü **Beschriftungen** die Beschriftung der Anmerkung aus, die Sie bearbeiten möchten, oder wählen Sie die Anmerkung im Frame aus. Wenn Sie eine Anmerkung bearbeiten oder löschen, wird dadurch nur die Anmerkung in einem einzelnen Frame geändert. 

Wenn Sie an einer Aufgabe arbeiten, die ein Begrenzungsrahmentool beinhaltet, verwenden Sie das Symbol „Nächste voraussagen“, um die Position aller Begrenzungsrahmen vorauszusagen, die Sie in einem Frame im nächsten Frame gezeichnet haben. Wenn Sie einen einzelnen Rahmen und dann das Symbol „Nächste voraussagen“ auswählen, wird nur dieser Rahmen im nächsten Frame vorhergesagt. Wenn Sie dem aktuellen Frame keine Rahmen hinzugefügt haben, erhalten Sie eine Fehlermeldung. Sie müssen dem Frame mindestens einen Rahmen hinzufügen, bevor Sie diese Funktion verwenden. 

Nachdem Sie das Symbol „Nächstes vorhersagen“ verwendet haben, überprüfen Sie die Position der einzelnen Rahmen im nächsten Frame und nehmen Sie gegebenenfalls Anpassungen an der Position und Größe der Rahmen vor. 

Die folgende Grafik zeigt, wie Sie das Tool „Nächste voraussagen“ verwenden:

![\[GIF, das zeigt, wie Sie die vorhergesagten Rahmen für den nächsten Frame anpassen können\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/kitti-ot-predict-next.gif)


Bei allen anderen Tools können Sie mit den Tools **In nächsten kopieren** und **In alle kopieren** verwenden, um Ihre Anmerkungen in den nächsten bzw. in alle Frames zu kopieren. 

# Aufgaben zur Objekterkennung in Videoframes
<a name="sms-video-od-worker-instructions"></a>

Bei der Objekterkennung in Video-Frames müssen Sie mithilfe von Anmerkungen die Position von Objekten in Video-Frames klassifizieren und identifizieren. Ein Video-Frame ist ein Standbild aus einer Videoszene. Sie können mithilfe der Arbeitnehmer-Benutzeroberfläche zwischen Video-Frames navigieren und Anmerkungen erstellen, um Objekte zu identifizieren. In den folgenden Themen erfahren Sie, wie Sie in Ihrer Auftragnehmer-Benutzeroberfläche navigieren, die bereitgestellten Tools verwenden und Ihre Aufgabe durchführen. 

Es wird empfohlen, für die Aufgabe einen Google Chrome-Webbrowser zu verwenden. 

**Wichtig**  
Wenn Sie beim Öffnen Ihrer Aufgabe feststellen, dass bereits Anmerkungen zu einem oder mehreren Video-Frames hinzugefügt wurden, passen Sie diese Anmerkungen an und fügen Sie nach Bedarf weitere Anmerkungen hinzu. 

**Topics**
+ [

# Ihre Aufgabe
](sms-video-worker-instructions-od-task.md)

# Ihre Aufgabe
<a name="sms-video-worker-instructions-od-task"></a>

Wenn Sie an einer Aufgabe der Video–Frame-Objekterkennung arbeiten, müssen Sie eine Kategorie aus dem Menü **Beschriftungskategorie** auf der rechten Seite des Worker-Portals auswählen, um Anmerkungen hinzuzufügen. Nachdem Sie eine Kategorie ausgewählt haben, zeichnen Sie Anmerkungen um Objekte, für die diese Kategorie gilt. Weitere Informationen zu den Tools, die in Ihrer Auftragnehmer-Benutzeroberfläche angezeigt werden, finden Sie unter [Tool Guide](sms-video-worker-instructions-tool-guide.md).

Nachdem Sie eine Beschriftung hinzugefügt haben, sehen Sie im Menü **Beschriftungen** möglicherweise einen nach unten zeigenden Pfeil neben der Beschriftung. Wählen Sie diesen Pfeil aus und wählen Sie dann für jedes angezeigte Kennzeichnungsattribut eine Option aus, um weitere Informationen zu dieser Beschriftung bereitzustellen.

![\[GIF, das zeigt, wie ein Auftragnehmer das Bounding-Box-Tool für seine Aufgaben zur Objekterkennung verwenden kann\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/kitti-od-general-labeling-job.gif)


Möglicherweise werden im Menü **Beschriftungen** Frames-Attribute angezeigt. Diese Attribute werden in jedem Frame Ihrer Aufgabe angezeigt. Verwenden Sie diese Attributaufforderungen, um zusätzliche Informationen zu jedem Frame einzugeben. 

![\[Beispiel für einen Frame-Attribut-Prompt\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/frame-attributes.png)


Um eine Anmerkung zu bearbeiten, wählen Sie im Menü **Beschriftungen** die Beschriftung der Anmerkung aus, die Sie bearbeiten möchten, oder wählen Sie die Anmerkung im Frame aus. Wenn Sie eine Anmerkung bearbeiten oder löschen, wird dadurch nur die Anmerkung in einem einzelnen Frame geändert. 

Wenn Sie an einer Aufgabe arbeiten, die ein Begrenzungsrahmentool beinhaltet, verwenden Sie das Symbol „Nächste voraussagen“, um die Position aller Begrenzungsrahmen vorauszusagen, die Sie in einem Frame im nächsten Frame gezeichnet haben. Wenn Sie einen einzelnen Rahmen und dann das Symbol „Nächste voraussagen“ auswählen, wird nur dieser Rahmen im nächsten Frame vorhergesagt. Wenn Sie dem aktuellen Frame keine Rahmen hinzugefügt haben, erhalten Sie eine Fehlermeldung. Sie müssen dem Frame mindestens einen Rahmen hinzufügen, bevor Sie diese Funktion verwenden. 

**Anmerkung**  
Das Feature „Nächste voraussagen“ überschreibt keine manuell erstellten Anmerkungen. Es werden nur Anmerkungen hinzugefügt. Wenn Sie „Nächste voraussagen“ verwenden und daher mehr als einen Begrenzungsrahmen um ein einzelnes Objekt herum haben, löschen Sie alle Rahmen bis auf einen. Jedes Objekt sollte nur mit einem einzigen Rahmen identifiziert werden. 

Nachdem Sie das Symbol „Nächstes vorhersagen“ verwendet haben, überprüfen Sie die Position der einzelnen Rahmen im nächsten Frame und nehmen Sie gegebenenfalls Anpassungen an der Position und Größe der Rahmen vor. 

Die folgende Grafik zeigt, wie Sie das Tool „Nächste voraussagen“ verwenden:

![\[GIF, das zeigt, wie eine Arbeitskraft die vorhergesagten Rahmen für den nächsten Frame anpassen kann\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/sms/video/kitti-video-od.gif)


Bei allen anderen Tools können Sie mit den Tools **In nächsten kopieren** und **In alle kopieren** verwenden, um Ihre Anmerkungen in den nächsten bzw. in alle Frames zu kopieren. 