

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Schritt 1: Dokumente zu Amazon S3 hinzufügen
<a name="tutorial-search-metadata-add-documents"></a>

Bevor Sie einen Amazon Comprehend-Entitätsanalyseauftrag für Ihren Datensatz ausführen, erstellen Sie einen Amazon S3 S3-Bucket, um die Daten, Metadaten und die Amazon Comprehend Comprehend-Entitätsanalyseausgabe zu hosten.

**Topics**
+ [Der Beispieldatensatz wird heruntergeladen](#tutorial-search-metadata-add-documents-download-extract)
+ [Erstellung eines Amazon S3-Buckets](#tutorial-search-metadata-add-documents-create-bucket)
+ [Daten- und Metadatenordner in Ihrem S3-Bucket erstellen](#tutorial-search-metadata-add-documents-data-metadata)
+ [Die Eingabedaten werden hochgeladen](#tutorial-search-metadata-add-documents-upload-data)

## Der Beispieldatensatz wird heruntergeladen
<a name="tutorial-search-metadata-add-documents-download-extract"></a>

Bevor Amazon Comprehend einen Entitätsanalyseauftrag für Ihre Daten ausführen kann, müssen Sie den Datensatz herunterladen, extrahieren und in einen S3-Bucket hochladen.

### Um den Datensatz herunterzuladen und zu extrahieren (Konsole)
<a name="tutorial-search-metadata-download-extract-console"></a>

1. Laden Sie den Ordner [tutorial-dataset.zip](https://docs.aws.amazon.com/kendra/latest/dg/samples/tutorial-dataset.zip) auf Ihr Gerät herunter.

1. Extrahieren `tutorial-dataset` Sie den Ordner, um auf den `data` Ordner zuzugreifen.

### Um den Datensatz herunterzuladen und zu extrahieren (Terminal)
<a name="tutorial-search-metadata-download-extract-cli"></a>

1. Um das herunterzuladen`tutorial-dataset`, führen Sie den folgenden Befehl in einem Terminalfenster aus:

------
#### [ Linux ]

   ```
   curl -o path/tutorial-dataset.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/tutorial-dataset.zip
   ```

   Wobei Folgendes gilt:
   + *path/*ist der lokale Dateipfad zu dem Speicherort, in dem Sie den ZIP-Ordner speichern möchten.

------
#### [ macOS ]

   ```
   curl -o path/tutorial-dataset.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/tutorial-dataset.zip
   ```

   Wobei Folgendes gilt:
   + *path/*ist der lokale Dateipfad zu dem Speicherort, in dem Sie den ZIP-Ordner speichern möchten.

------
#### [ Windows ]

   ```
   curl -o path/tutorial-dataset.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/tutorial-dataset.zip
   ```

   Wobei Folgendes gilt:
   + *path/*ist der lokale Dateipfad zu dem Speicherort, in dem Sie den ZIP-Ordner speichern möchten.

------

1. Um die Daten aus dem ZIP-Ordner zu extrahieren, führen Sie den folgenden Befehl im Terminalfenster aus:

------
#### [ Linux ]

   ```
   unzip path/tutorial-dataset.zip -d path/
   ```

   Wobei Folgendes gilt:
   + *path/*ist der lokale Dateipfad zu Ihrem gespeicherten ZIP-Ordner.

------
#### [ macOS ]

   ```
   unzip path/tutorial-dataset.zip -d path/
   ```

   Wobei Folgendes gilt:
   + *path/*ist der lokale Dateipfad zu Ihrem gespeicherten ZIP-Ordner.

------
#### [ Windows ]

   ```
   tar -xf path/tutorial-dataset.zip -C path/
   ```

   Wobei Folgendes gilt:
   + *path/*ist der lokale Dateipfad zu Ihrem gespeicherten ZIP-Ordner.

------

Am Ende dieses Schritts sollten Sie die extrahierten Dateien in einem dekomprimierten Ordner namens haben. `tutorial-dataset` Dieser Ordner enthält eine `README` Datei mit einer Apache 2.0-Open-Source-Zuordnung und einen Ordner namens, der den Datensatz für dieses Tutorial `data` enthält. Der Datensatz besteht aus 100 Dateien mit `.story` Erweiterungen.

## Erstellung eines Amazon S3-Buckets
<a name="tutorial-search-metadata-add-documents-create-bucket"></a>

Nachdem Sie den Beispieldatenordner heruntergeladen und extrahiert haben, speichern Sie ihn in einem Amazon S3 S3-Bucket.

**Wichtig**  
Der Name eines Amazon S3 S3-Buckets muss für alle eindeutig sein AWS.

### Um einen S3-Bucket (Konsole) zu erstellen
<a name="tutorial-search-metadata-create-bucket-console"></a>

1. Melden Sie sich bei der an AWS-Managementkonsole und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Wählen Sie unter **Buckets** die Option **Create Bucket** aus.

1. Geben Sie für **Bucket name** einen eindeutigen Namen ein.

1. Wählen Sie **unter Region** die AWS Region aus, in der Sie den Bucket erstellen möchten.
**Anmerkung**  
Sie müssen eine Region wählen, die sowohl Amazon Comprehend als auch Amazon Kendra unterstützt. Sie können die Region eines Buckets nicht ändern, nachdem Sie ihn erstellt haben.

1. Behalten Sie die Standardeinstellungen für den **Block Public Access für diesen Bucket****, die Bucket-Versionierung** und die **Tags** bei.

1. Wählen Sie für **Standardverschlüsselung** die Option **Deaktivieren** aus.

1. Behalten Sie die Standardeinstellungen für die **erweiterten Einstellungen** bei.

1. Überprüfen Sie Ihre Bucket-Konfiguration und wählen Sie dann **Create Bucket** aus.

### Um einen S3-Bucket zu erstellen (AWS CLI)
<a name="tutorial-search-metadata-create-bucket-cli"></a>

1. Um einen S3-Bucket zu erstellen, verwenden Sie den Befehl [create-bucket](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3control/create-bucket.html) im: AWS CLI

------
#### [ Linux ]

   ```
   aws s3api create-bucket \
           --bucket amzn-s3-demo-bucket \
           --region aws-region \
           --create-bucket-configuration LocationConstraint=aws-region
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist Ihr Bucket-Name,
   + *aws-region*ist die Region, in der Sie Ihren Bucket erstellen möchten.

------
#### [ macOS ]

   ```
   aws s3api create-bucket \
           --bucket amzn-s3-demo-bucket \
           --region aws-region \
           --create-bucket-configuration LocationConstraint=aws-region
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist Ihr Bucket-Name,
   + *aws-region*ist die Region, in der Sie Ihren Bucket erstellen möchten.

------
#### [ Windows ]

   ```
   aws s3api create-bucket ^
           --bucket amzn-s3-demo-bucket ^
           --region aws-region ^
           --create-bucket-configuration LocationConstraint=aws-region
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist Ihr Bucket-Name,
   + *aws-region*ist die Region, in der Sie Ihren Bucket erstellen möchten.

------
**Anmerkung**  
Sie müssen eine Region wählen, die sowohl Amazon Comprehend als auch Amazon Kendra unterstützt. Sie können die Region eines Buckets nicht ändern, nachdem Sie ihn erstellt haben.

1. Verwenden Sie den Befehl [list](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3/ls.html), um sicherzustellen, dass Ihr Bucket erfolgreich erstellt wurde:

------
#### [ Linux ]

   ```
   aws s3 ls
   ```

------
#### [ macOS ]

   ```
   aws s3 ls
   ```

------
#### [ Windows ]

   ```
   aws s3 ls
   ```

------

## Daten- und Metadatenordner in Ihrem S3-Bucket erstellen
<a name="tutorial-search-metadata-add-documents-data-metadata"></a>

Nachdem Sie Ihren S3-Bucket erstellt haben, erstellen Sie darin Daten- und Metadatenordner.

### Um Ordner in Ihrem S3-Bucket (Konsole) zu erstellen
<a name="tutorial-search-metadata-create-folders-console"></a>

1. Öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Klicken Sie unter **Buckets** in der Buckets-Liste auf den Namen Ihres Buckets.

1. Wählen Sie auf der Registerkarte **Objekte** die Option Ordner **erstellen** aus.

1. Geben Sie für den neuen Ordnernamen ein**data**.

1. Wählen Sie für die Verschlüsselungseinstellungen die Option **Deaktivieren** aus.

1. Wählen Sie **Create folder**.

1. Wiederholen Sie die Schritte 3 bis 6, um einen weiteren Ordner zum Speichern der Amazon Kendra-Metadaten zu erstellen, und benennen Sie den in Schritt 4 **metadata** erstellten Ordner.

### Um Ordner in Ihrem S3-Bucket zu erstellen ()AWS CLI
<a name="tutorial-search-metadata-create-folders-cli"></a>

1. Um den `data` Ordner in Ihrem S3-Bucket zu erstellen, verwenden Sie den Befehl [put-object](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object.html) im: AWS CLI

------
#### [ Linux ]

   ```
   aws s3api put-object \
           --bucket amzn-s3-demo-bucket \
           --key data/
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist Ihr Bucket-Name.

------
#### [ macOS ]

   ```
   aws s3api put-object \
           --bucket amzn-s3-demo-bucket \
           --key data/
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist Ihr Bucket-Name.

------
#### [ Windows ]

   ```
   aws s3api put-object ^
           --bucket amzn-s3-demo-bucket ^
           --key data/
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist Ihr Bucket-Name.

------

1. [Um den `metadata` Ordner in Ihrem S3-Bucket zu erstellen, verwenden Sie den Befehl put-object im:](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3api/put-object.html) AWS CLI

------
#### [ Linux ]

   ```
   aws s3api put-object \
           --bucket amzn-s3-demo-bucket \
           --key metadata/
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist Ihr Bucket-Name.

------
#### [ macOS ]

   ```
   aws s3api put-object \
           --bucket amzn-s3-demo-bucket \
           --key metadata/
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist Ihr Bucket-Name.

------
#### [ Windows ]

   ```
   aws s3api put-object ^
           --bucket amzn-s3-demo-bucket ^
           --key metadata/
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist Ihr Bucket-Name.

------

1. [Um sicherzustellen, dass Ihre Ordner erfolgreich erstellt wurden, überprüfen Sie den Inhalt Ihres Buckets mit dem Befehl list:](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3/ls.html)

------
#### [ Linux ]

   ```
   aws s3 ls s3://amzn-s3-demo-bucket/
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist Ihr Bucket-Name.

------
#### [ macOS ]

   ```
   aws s3 ls s3://amzn-s3-demo-bucket/
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist Ihr Bucket-Name.

------
#### [ Windows ]

   ```
   aws s3 ls s3://amzn-s3-demo-bucket/
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist Ihr Bucket-Name.

------

## Die Eingabedaten werden hochgeladen
<a name="tutorial-search-metadata-add-documents-upload-data"></a>

Nachdem Sie Ihre Daten- und Metadatenordner erstellt haben, laden Sie den Beispieldatensatz in den `data` Ordner hoch.

### Um den Beispieldatensatz in den Datenordner (Konsole) hochzuladen
<a name="tutorial-search-metadata-upload-data-console"></a>

1. Öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Klicken Sie in **Buckets** in der Buckets-Liste auf den Namen Ihres Buckets und dann auf. `data`

1. Wählen Sie **Hochladen** und dann Dateien **hinzufügen**.

1. Navigieren Sie im Dialogfeld zu dem `data` Ordner innerhalb des `tutorial-dataset` Ordners auf Ihrem lokalen Gerät, wählen Sie alle Dateien aus und wählen Sie dann **Öffnen**.

1. Behalten Sie die Standardeinstellungen für **Ziel**, **Berechtigungen** und **Eigenschaften** bei.

1. Klicken Sie auf **Upload**.

### Um den Beispieldatensatz in den Datenordner hochzuladen (AWS CLI)
<a name="tutorial-search-metadata-upload-data-cli"></a>

1. Um die Beispieldaten in den `data` Ordner hochzuladen, verwenden [Sie den Befehl copy](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3/cp.html) im AWS CLI:

------
#### [ Linux ]

   ```
   aws s3 cp path/tutorial-dataset/data s3://amzn-s3-demo-bucket/data/ --recursive
   ```

   Wobei Folgendes gilt:
   + *path/*ist der Dateipfad zu dem `tutorial-dataset` Ordner auf Ihrem Gerät,
   + amzn-s3-demo-bucket ist Ihr Bucket-Name.

------
#### [ macOS ]

   ```
   aws s3 cp path/tutorial-dataset/data s3://amzn-s3-demo-bucket/data/ --recursive
   ```

   Wobei Folgendes gilt:
   + *path/*ist der Dateipfad zu dem Ordner auf Ihrem Gerät, `tutorial-dataset`
   + amzn-s3-demo-bucket ist Ihr Bucket-Name.

------
#### [ Windows ]

   ```
   aws s3 cp path/tutorial-dataset/data s3://amzn-s3-demo-bucket/data/ --recursive
   ```

   Wobei Folgendes gilt:
   + *path/*ist der Dateipfad zu dem Ordner auf Ihrem Gerät, `tutorial-dataset`
   + amzn-s3-demo-bucket ist Ihr Bucket-Name.

------

1. [Um sicherzustellen, dass Ihre Datensatzdateien erfolgreich in Ihren `data` Ordner hochgeladen wurden, verwenden Sie den Befehl list im:](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3/ls.html) AWS CLI

------
#### [ Linux ]

   ```
   aws s3 ls s3://amzn-s3-demo-bucket/data/
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

------
#### [ macOS ]

   ```
   aws s3 ls s3://amzn-s3-demo-bucket/data/
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

------
#### [ Windows ]

   ```
   aws s3 ls s3://amzn-s3-demo-bucket/data/
   ```

   Wobei Folgendes gilt:
   + amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

------

Am Ende dieses Schritts haben Sie einen S3-Bucket, in dem Ihr Datensatz gespeichert ist, und einen leeren `data` `metadata` Ordner, in dem Ihre Amazon Kendra Kendra-Metadaten gespeichert werden.