

**Diese Dokumentation bezieht sich AWS CLI nur auf Version 1 von.**

Wir haben die end-of-support bevorstehende AWS CLI Version 1 angekündigt. Wir empfehlen Ihnen, auf die AWS CLI Version 2 zu migrieren. Termine, zusätzliche Details und Informationen zur Migration finden Sie in der [Ankündigung](https://aws.amazon.com/blogs/developer/cli-v1-maintenance-mode-announcement/). Dokumentation zu Version 2 von finden Sie im [Benutzerhandbuch für Version 2. AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/)

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Verwenden von High-Level-Befehlen (s3) in AWS CLI
<a name="cli-services-s3-commands"></a>

In diesem Thema wird beschrieben, wie Sie Amazon-S3-Buckets und -Objekte mit den [https://docs.aws.amazon.com/cli/v1/reference/s3/index.html](https://docs.aws.amazon.com/cli/v1/reference/s3/index.html)-Befehlen in der AWS CLI verwalten. Befehle, die in diesem Thema nicht behandelt werden, und weitere Befehlsbeispiele finden Sie unter [https://docs.aws.amazon.com/cli/v1/reference/s3/index.html](https://docs.aws.amazon.com/cli/v1/reference/s3/index.html)-Befehle in der *AWS CLI -Referenz*.

Die `aws s3`-High-Level-Befehle vereinfachen die Verwaltung von Amazon-S3-Objekten. Mit diesen Befehlen können Sie den Inhalt von Amazon S3 intern und mit lokalen Verzeichnissen verwalten.

**Topics**
+ [Voraussetzungen](#using-s3-commands-prereqs)
+ [Bevor Sie beginnen](#using-s3-commands-before)
+ [Erstellen eines Buckets](#using-s3-commands-managing-buckets-creating)
+ [Auflisten von Buckets und Objekten](#using-s3-commands-listing-buckets)
+ [Buckets löschen](#using-s3-commands-delete-buckets)
+ [Objekte löschen](#using-s3-commands-delete-objects)
+ [Verschieben von Objekten](#using-s3-commands-managing-objects-move)
+ [Kopieren von Objekten](#using-s3-commands-managing-objects-copy)
+ [Synchronisieren von Objekten](#using-s3-commands-managing-objects-sync)
+ [Häufig verwendete Optionen für s3-Befehle](#using-s3-commands-managing-objects-param)
+ [Ressourcen](#using-s3-commands-managing-buckets-references)

## Voraussetzungen
<a name="using-s3-commands-prereqs"></a>

Zur Ausführung von `s3`-Befehlen ist Folgendes erforderlich:
+ Installieren und Konfigurieren der AWS CLI. Weitere Informationen erhalten Sie unter [Installation, Aktualisierung und Deinstallation der AWS CLI](cli-chap-install.md) und [Authentifizierungs- und Zugangsdaten für die AWS CLI](cli-chap-authentication.md).
+ Das Profil, das Sie verwenden, muss über Berechtigungen verfügen, die die in den Beispielen ausgeführten AWS Operationen zulassen.
+ Sie müssen diese Amazon-S3-Begriffe verstehen:
  + **Bucket** – Ein Amazon-S3-Ordner der obersten Ebene.
  + **Präfix** – Ein Amazon-S3-Ordner in einem Bucket.
  + **Objekt** – Jedes Element, das in einem Amazon-S3-Bucket gehostet wird.

## Bevor Sie beginnen
<a name="using-s3-commands-before"></a>

In diesem Abschnitt finden Sie einige Hinweise zur Verwendung von `aws s3`-Befehlen.

### Uploads großer Objekte
<a name="using-s3-commands-before-large"></a>

Wenn Sie `aws s3`-Befehle zum Hochladen großer Objekte in einen Amazon-S3-Bucket verwenden, führt die AWS CLI automatisch einen mehrteiligen Upload durch. Sie können einen fehlgeschlagenen Upload nicht fortsetzen, wenn Sie diese `aws s3`-Befehle verwenden. 

Wenn der mehrteilige Upload aufgrund eines Timeouts fehlschlägt oder wenn Sie den Vorgang manuell abgebrochen haben AWS CLI, AWS CLI stoppt der Upload und bereinigt alle erstellten Dateien. Dieser Vorgang kann einige Minuten dauern. 

Wenn der mehrteilige Upload oder Bereinigungsprozess durch einen Kill-Befehl oder einen Systemfehler abgebrochen wird, verbleiben die erstellten Dateien im Amazon-S3-Bucket. [https://docs.aws.amazon.com/cli/latest/reference/s3api/abort-multipart-upload.html](https://docs.aws.amazon.com/cli/latest/reference/s3api/abort-multipart-upload.html)

### Dateieigenschaften und Tags in mehrteiligen Kopien
<a name="using-s3-commands-before-tags"></a>

Wenn Sie die AWS CLI Version 1 der Befehle im `aws s3` Namespace verwenden, um eine Datei von einem Amazon S3 S3-Bucket-Speicherort an einen anderen Amazon S3 S3-Bucket-Speicherort zu kopieren, und dieser Vorgang [mehrteiliges Kopieren](https://docs.aws.amazon.com/AmazonS3/latest/userguide/CopyingObjctsMPUapi.html) verwendet, werden keine Dateieigenschaften vom Quellobjekt in das Zielobjekt kopiert.

## Erstellen eines Buckets
<a name="using-s3-commands-managing-buckets-creating"></a>

Verwenden Sie den Befehl [https://docs.aws.amazon.com/cli/v1/reference/s3/mb.html](https://docs.aws.amazon.com/cli/v1/reference/s3/mb.html), um einen Bucket zu erstellen. Bucket-Namen müssen ***global*** eindeutig (eindeutig in ganz Amazon S3) und DNS-kompatibel sein. 

Bucket-Namen können Kleinbuchstaben, Zahlen, Bindestriche und Punkte enthalten. Bucket-Namen können nur mit einem Buchstaben oder einer Zahl beginnen und enden. Ein Punkt neben einem Bindestrich oder einem weiteren Punkt ist unzulässig. 

**Syntax**

```
$ aws s3 mb <target> [--options]
```

### s3-mb-Beispiele
<a name="using-s3-commands-managing-buckets-creating-examples"></a>

Im folgenden Beispiel wird der Bucket `s3://amzn-s3-demo-bucket` erstellt.

```
$ aws s3 mb s3://amzn-s3-demo-bucket
```

## Auflisten von Buckets und Objekten
<a name="using-s3-commands-listing-buckets"></a>

Um Ihre Buckets, Ordner oder Objekte aufzulisten, verwenden Sie den Befehl [https://docs.aws.amazon.com/cli/v1/reference/s3/ls.html](https://docs.aws.amazon.com/cli/v1/reference/s3/ls.html). Wenn Sie den Befehl ohne Ziel oder Optionen verwenden, werden alle Buckets aufgelistet. 

**Syntax**

```
$ aws s3 ls <target> [--options]
```

Ein paar gängige Optionen für diesen Befehl und Beispiele finden Sie unter [Häufig verwendete Optionen für s3-Befehle](#using-s3-commands-managing-objects-param). Eine vollständige Liste der verfügbaren Optionen finden Sie unter [https://docs.aws.amazon.com/cli/v1/reference/s3/ls.html](https://docs.aws.amazon.com/cli/v1/reference/s3/ls.html) in der *AWS CLI -Befehlsreferenz*.

### s3-ls-Beispiele
<a name="using-s3-commands-managing-objects-list-examples"></a>

Das folgende Beispiel listet alle Amazon-S3-Buckets auf.

```
$ aws s3 ls
2018-12-11 17:08:50 amzn-s3-demo-bucket1
2018-12-14 14:55:44 amzn-s3-demo-bucket2
```

Mit dem Befehl unten werden alle Objekte und Präfixe in einem Bucket aufgeführt. In dieser Beispielausgabe enthält das Präfix `example/` eine Datei mit dem Namen `MyFile1.txt`.

```
$ aws s3 ls s3://amzn-s3-demo-bucket
                           PRE example/
2018-12-04 19:05:48          3 MyFile1.txt
```

Sie können die Ausgabe nach einem bestimmten Präfix filtern, indem Sie das Präfix in den Befehl einschließen. Der folgende Befehl listet die Objekte in auf *bucket-name/example/* (d. h. Objekte, die nach dem Präfix *bucket-name* gefiltert sind*example/*).

```
$ aws s3 ls s3://amzn-s3-demo-bucket/example/
2018-12-06 18:59:32          3 MyFile1.txt
```

Um nur die Buckets und Objekte in einer bestimmten Region anzuzeigen, verwenden Sie die `--region`-Optionen.

```
$ aws s3 ls --region us-east-2
2018-12-06 18:59:32          3 MyFile1.txt
```

Wenn Sie über eine umfangreiche Liste mit Buckets und Objekten verfügen, können Sie die Ergebnisse mithilfe der Option `--max-items` oder `--page-size` paginieren. Die Option `--max-items` begrenzt, wie viele Buckets und Objekte insgesamt in einem Aufruf zurückgegeben werden, während die Option `--page-size` begrenzt, wie viele davon auf einer Seite aufgeführt werden.

```
$ aws s3 ls --max-items 100 --page-size 10
```

Weitere Informationen zur Paginierung finden Sie unter [So verwenden Sie den –page-size-Parameter](cli-usage-pagination.md#cli-usage-pagination-pagesize) und [So verwenden Sie den –max-items-Parameter](cli-usage-pagination.md#cli-usage-pagination-maxitems).

## Buckets löschen
<a name="using-s3-commands-delete-buckets"></a>

Verwenden Sie zum Löschen eines Buckets den Befehl [https://docs.aws.amazon.com/cli/v1/reference/s3/rb.html](https://docs.aws.amazon.com/cli/v1/reference/s3/rb.html). 

**Syntax**

```
$ aws s3 rb <target> [--options]
```

### s3-rb-Beispiele
<a name="using-s3-commands-removing-buckets-examples"></a>

Im folgenden Beispiel wird der Bucket `s3://amzn-s3-demo-bucket` entfernt.

```
$ aws s3 rb s3://amzn-s3-demo-bucket
```

Standardmäßig muss der Bucket leer sein, damit der Vorgang erfolgreich ist. Zum Entfernen eines Buckets, der nicht leer ist, müssen Sie die Option `--force` hinzufügen. Wenn Sie einen versionsgesteuerten Bucket verwenden, der bereits gelöschte–aber aufbewahrte–Objekte enthält, lässt dieser Befehl *nicht* zu, dass Sie den Bucket entfernen. Sie müssen zunächst alle Inhalte entfernen.

Im folgenden Beispiel werden alle Objekte und Präfixe im Bucket gelöscht und anschließend der Bucket gelöscht.

```
$ aws s3 rb s3://amzn-s3-demo-bucket --force
```

## Objekte löschen
<a name="using-s3-commands-delete-objects"></a>

Um Objekte in einem Bucket oder in Ihrem lokalen Verzeichnis zu löschen, verwenden Sie den Befehl [https://docs.aws.amazon.com/cli/v1/reference/s3/rm.html](https://docs.aws.amazon.com/cli/v1/reference/s3/rm.html). 

**Syntax**

```
$ aws s3 rm  <target> [--options]
```

Ein paar gängige Optionen für diesen Befehl und Beispiele finden Sie unter [Häufig verwendete Optionen für s3-Befehle](#using-s3-commands-managing-objects-param). Eine vollständige Liste der Optionen finden Sie unter [https://docs.aws.amazon.com/cli/v1/reference/s3/rm.html](https://docs.aws.amazon.com/cli/v1/reference/s3/rm.html) in der *AWS CLI -Befehlsreferenz*.

### s3-rm-Beispiele
<a name="using-s3-commands-delete-objects-examples"></a>

Im folgenden Beispiel wird `filename.txt` aus `s3://amzn-s3-demo-bucket/example` gelöscht.

```
$ aws s3 rm s3://amzn-s3-demo-bucket/example/filename.txt
```

Im folgenden Beispiel werden alle Objekte aus `s3://amzn-s3-demo-bucket/example` mit der Option `--recursive` gelöscht.

```
$ aws s3 rm s3://amzn-s3-demo-bucket/example --recursive
```

## Verschieben von Objekten
<a name="using-s3-commands-managing-objects-move"></a>

Verwenden Sie den Befehl [https://docs.aws.amazon.com/cli/v1/reference/s3/mv.html](https://docs.aws.amazon.com/cli/v1/reference/s3/mv.html), um Objekte aus einem Bucket oder einem lokalen Verzeichnis zu verschieben. Mit dem Befehl `s3 mv` wird das Quellobjekt oder die Quelldatei an den angegebenen Speicherort kopiert. Anschließend wird das Quellobjekt oder die Quelldatei gelöscht.

**Syntax**

```
$ aws s3 mv <source> <target> [--options]
```

Ein paar gängige Optionen für diesen Befehl und Beispiele finden Sie unter [Häufig verwendete Optionen für s3-Befehle](#using-s3-commands-managing-objects-param). Eine vollständige Liste der verfügbaren Optionen finden Sie unter [https://docs.aws.amazon.com/cli/v1/reference/s3/mv.html](https://docs.aws.amazon.com/cli/v1/reference/s3/mv.html) in der *AWS CLI -Befehlsreferenz*.

**Warnung**  
Wenn Sie in Ihrer Amazon S3-Quelle ARNs oder Ihrem Amazon S3-Ziel irgendeine Art von Access Point- oder Access Point-Aliasnamen verwenden, müssen Sie besonders darauf achten URIs, dass Ihr Amazon S3 S3-Quell- und Ziel-Alias in verschiedene zugrunde liegende Buckets URIs aufgelöst werden. Wenn die Quell- und Ziel-Buckets identisch sind, kann die Quelldatei oder das Quellobjekt auf sich selbst verschoben werden, was zu einem versehentlichen Löschen Ihrer Quelldatei oder Ihres Quellobjekts führen kann. Um zu überprüfen, dass Quell- und Ziel-Buckets nicht identisch sind, verwenden Sie den Parameter `--validate-same-s3-paths` oder setzen Sie die Umgebungsvariable ``AWS_CLI_S3_MV_VALIDATE_SAME_S3_PATHS`` auf `true`.

### s3-mv-Beispiele
<a name="using-s3-commands-managing-objects-move-examples"></a>

Im folgenden Beispiel werden alle Objekte von `s3://amzn-s3-demo-bucket/example` nach `s3://amzn-s3-demo-bucket/` verschoben.

```
$ aws s3 mv s3://amzn-s3-demo-bucket/example s3://amzn-s3-demo-bucket/
```

Im folgenden Beispiel wird eine lokale Datei mit dem `s3 mv`-Befehl aus Ihrem aktuellen Arbeitsverzeichnis in den Amazon-S3-Bucket verschoben.

```
$ aws s3 mv filename.txt s3://amzn-s3-demo-bucket
```

Im folgenden Beispiel wird eine Datei aus Ihrem Amazon-S3-Bucket in Ihr aktuelles Arbeitsverzeichnis verschoben, wobei `./` Ihr aktuelles Arbeitsverzeichnis angibt.

```
$ aws s3 mv s3://amzn-s3-demo-bucket/filename.txt ./
```

## Kopieren von Objekten
<a name="using-s3-commands-managing-objects-copy"></a>

Verwenden Sie den Befehl [https://docs.aws.amazon.com/cli/v1/reference/s3/cp.html](https://docs.aws.amazon.com/cli/v1/reference/s3/cp.html), um Objekte aus einem Bucket oder einem lokalen Verzeichnis zu verschieben. 

**Syntax**

```
$ aws s3 cp <source> <target> [--options]
```

Sie können den Bindestrich-Parameter für das Dateistreaming an die Standardeingabe (`stdin`) oder die Standardausgabe (`stdout`) verwenden. 

**Warnung**  
Wenn Sie verwenden PowerShell, ändert die Shell möglicherweise die Kodierung einer CRLF oder fügt eine CRLF zur Eingabe oder Ausgabe über die Pipeline oder zur umgeleiteten Ausgabe hinzu.

Der Befehl `s3 cp` verwendet die folgende Syntax, um einen Dateistream von `stdin` in einen angegebenen Bucket hochzuladen.

**Syntax**

```
$ aws s3 cp - <target> [--options]
```

Der `s3 cp`-Befehl verwendet die folgende Syntax, um einen Amazon-S3-Dateistream für `stdout` herunterzuladen.

**Syntax**

```
$ aws s3 cp <target> [--options] -
```

Ein paar gängige Optionen für diesen Befehl und Beispiele finden Sie unter [Häufig verwendete Optionen für s3-Befehle](#using-s3-commands-managing-objects-param). Eine vollständige Liste der Optionen finden Sie unter [https://docs.aws.amazon.com/cli/v1/reference/s3/cp.html](https://docs.aws.amazon.com/cli/v1/reference/s3/cp.html) in der *AWS CLI -Befehlsreferenz*.

### Beispiele für `s3 cp`
<a name="using-s3-commands-managing-objects-copy-examples"></a>

Im folgenden Beispiel werden alle Objekte von `s3://amzn-s3-demo-bucket/example` nach `s3://amzn-s3-demo-bucket/` kopiert.

```
$ aws s3 cp s3://amzn-s3-demo-bucket/example s3://amzn-s3-demo-bucket/
```

Im folgenden Beispiel wird eine lokale Datei mit dem `s3 cp`-Befehl aus Ihrem aktuellen Arbeitsverzeichnis in den Amazon-S3-Bucket kopiert.

```
$ aws s3 cp filename.txt s3://amzn-s3-demo-bucket
```

Im folgenden Beispiel wird eine Datei aus Ihrem Amazon-S3-Bucket in Ihr aktuelles Arbeitsverzeichnis kopiert, wobei `./` Ihr aktuelles Arbeitsverzeichnis angibt.

```
$ aws s3 cp s3://amzn-s3-demo-bucket/filename.txt ./
```

Im folgenden Beispiel wird echo verwendet, um den Text „hello world“ in die Datei `s3://bucket-name/filename.txt` zu streamen.

```
$ echo "hello world" | aws s3 cp - s3://amzn-s3-demo-bucket/filename.txt
```

Im folgenden Beispiel wird die `s3://amzn-s3-demo-bucket/filename.txt`-Datei nach `stdout` gestreamt und der Inhalt an die Konsole ausgegeben.

```
$ aws s3 cp s3://amzn-s3-demo-bucket/filename.txt -
hello world
```

Das folgende Beispiel streamt den Inhalt von `s3://bucket-name/pre` nach `stdout`, verwendet den Befehl `bzip2` zum Komprimieren der Dateien und lädt die neue komprimierte Datei namens `key.bz2` nach `s3://bucket-name` hoch.

```
$ aws s3 cp s3://amzn-s3-demo-bucket/pre - | bzip2 --best | aws s3 cp - s3://amzn-s3-demo-bucket/key.bz2
```

## Synchronisieren von Objekten
<a name="using-s3-commands-managing-objects-sync"></a>

Der Befehl [https://docs.aws.amazon.com/cli/v1/reference/s3/sync.html](https://docs.aws.amazon.com/cli/v1/reference/s3/sync.html) synchronisiert die Inhalte von einem Bucket und einem Verzeichnis oder die Inhalte von zwei Buckets. Normalerweise werden mit `s3 sync` fehlende oder veraltete Dateien bzw. Objekte zwischen Quelle und Ziel kopiert. Sie können aber auch die Option `--delete` hinzufügen, um Dateien oder Objekte, die nicht in der Quelldatei vorhanden sind, aus dem Ziel zu entfernen. 

**Syntax**

```
$ aws s3 sync <source> <target> [--options]
```

Ein paar gängige Optionen für diesen Befehl und Beispiele finden Sie unter [Häufig verwendete Optionen für s3-Befehle](#using-s3-commands-managing-objects-param). Eine vollständige Liste der Optionen finden Sie unter [https://docs.aws.amazon.com/cli/v1/reference/s3/sync.html](https://docs.aws.amazon.com/cli/v1/reference/s3/sync.html) in der *AWS CLI -Befehlsreferenz*.

### Beispiele für die s3-Synchronisierung
<a name="using-s3-commands-managing-objects-sync-examples"></a>

Im folgenden Beispiel wird der Inhalt eines Amazon-S3-Präfixes namens *path* im Bucket mit dem Namen *amzn-s3-demo-bucket* mit dem aktuellen Arbeitsverzeichnis synchronisiert. 

`s3 sync` aktualisiert alle Dateien mit einer anderen Größe oder geänderten Zeit als Dateien mit demselben Namen am Ziel. Die Ausgabe enthält bestimmte Vorgänge, die während der Synchronisierung ausgeführt wurden. Beachten Sie, dass die Operation rekursiv das Unterverzeichnis `MySubdirectory` und seinen Inhalt mit `s3://amzn-s3-demo-bucket/path/MySubdirectory` synchronisiert.

```
$ aws s3 sync . s3://amzn-s3-demo-bucket/path
upload: MySubdirectory\MyFile3.txt to s3://amzn-s3-demo-bucket/path/MySubdirectory/MyFile3.txt
upload: MyFile2.txt to s3://amzn-s3-demo-bucket/path/MyFile2.txt
upload: MyFile1.txt to s3://amzn-s3-demo-bucket/path/MyFile1.txt
```

Das folgende Beispiel, das das vorherige erweitert, zeigt die Verwendung der Option `--delete`.

```
// Delete local file
$ rm ./MyFile1.txt

// Attempt sync without --delete option - nothing happens
$ aws s3 sync . s3://amzn-s3-demo-bucket/path

// Sync with deletion - object is deleted from bucket
$ aws s3 sync . s3://amzn-s3-demo-bucket/path --delete
delete: s3://amzn-s3-demo-bucket/path/MyFile1.txt

// Delete object from bucket
$ aws s3 rm s3://amzn-s3-demo-bucket/path/MySubdirectory/MyFile3.txt
delete: s3://amzn-s3-demo-bucket/path/MySubdirectory/MyFile3.txt

// Sync with deletion - local file is deleted
$ aws s3 sync s3://amzn-s3-demo-bucket/path . --delete
delete: MySubdirectory\MyFile3.txt

// Sync with Infrequent Access storage class
$ aws s3 sync . s3://amzn-s3-demo-bucket/path --storage-class STANDARD_IA
```

Bei Verwendung der Option `--delete` können mit den Optionen `--exclude` und `--include` die Dateien oder Objekte gefiltert werden, die während einer `s3 sync`-Operation gelöscht werden sollen. In diesem Fall muss die Parameterzeichenfolge Dateien angeben, die für das Zielverzeichnis oder den Bucket vom Löschen ausgenommen oder zum Löschen hinzugefügt werden. Es folgt ein Beispiel.

```
Assume local directory and s3://amzn-s3-demo-bucket/path currently in sync and each contains 3 files:
MyFile1.txt
MyFile2.rtf
MyFile88.txt
'''

// Sync with delete, excluding files that match a pattern. MyFile88.txt is deleted, while remote MyFile1.txt is not.
$ aws s3 sync . s3://amzn-s3-demo-bucket/path --delete --exclude "path/MyFile?.txt"
delete: s3://amzn-s3-demo-bucket/path/MyFile88.txt
'''

// Sync with delete, excluding MyFile2.rtf - local file is NOT deleted
$ aws s3 sync s3://amzn-s3-demo-bucket/path . --delete --exclude "./MyFile2.rtf"
download: s3://amzn-s3-demo-bucket/path/MyFile1.txt to MyFile1.txt
'''

// Sync with delete, local copy of MyFile2.rtf is deleted
$ aws s3 sync s3://amzn-s3-demo-bucket/path . --delete
delete: MyFile2.rtf
```

## Häufig verwendete Optionen für s3-Befehle
<a name="using-s3-commands-managing-objects-param"></a>

Die folgenden Optionen werden häufig für die in diesem Thema beschriebenen Befehle verwendet. Eine vollständige Liste der Optionen, die Sie für einen Befehl verwenden können, finden Sie im Referenzhandbuch, , im [AWS CLI Referenzhandbuch für](https://docs.aws.amazon.com/cli/v1/reference/) den jeweiligen Befehl.

**acl**  
`s3 sync` und `s3 cp` können die Option `--acl` verwenden. Auf diese Weise können Sie die Zugriffsberechtigungen für Dateien festlegen, die nach Amazon S3 kopiert werden. Die Option `--acl` akzeptiert die Werte `private`, `public-read` und `public-read-write`. Weitere Informationen finden Sie unter [Vordefinierte ACL](https://docs.aws.amazon.com/AmazonS3/latest/userguide/acl-overview.html#canned-acl) im *Amazon-S3-Benutzerhandbuch*.  

```
$ aws s3 sync . s3://amzn-s3-demo-bucket/path --acl public-read
```

**exclude**  
Wenn Sie die Befehle `s3 cp`, `s3 mv`, `s3 sync` oder `s3 rm` verwenden, können Sie die Ergebnisse mit der Option `--exclude` oder `--include` filtern. Die Option `--exclude` legt Regeln fest, um nur Objekte vom Befehl auszuschließen, und die Optionen gelten in der angegebenen Reihenfolge. Dies wird im folgenden Beispiel veranschaulicht.  

```
Local directory contains 3 files:
MyFile1.txt
MyFile2.rtf
MyFile88.txt

// Exclude all .txt files, resulting in only MyFile2.rtf being copied
$ aws s3 cp . s3://amzn-s3-demo-bucket/path --exclude "*.txt"

// Exclude all .txt files but include all files with the "MyFile*.txt" format, resulting in, MyFile1.txt, MyFile2.rtf, MyFile88.txt being copied
$ aws s3 cp . s3://amzn-s3-demo-bucket/path --exclude "*.txt" --include "MyFile*.txt"

// Exclude all .txt files, but include all files with the "MyFile*.txt" format, but exclude all files with the "MyFile?.txt" format resulting in, MyFile2.rtf and MyFile88.txt being copied
$ aws s3 cp . s3://amzn-s3-demo-bucket/path --exclude "*.txt" --include "MyFile*.txt" --exclude "MyFile?.txt"
```

**include**  
Wenn Sie die Befehle `s3 cp`, `s3 mv`, `s3 sync` oder `s3 rm` verwenden, können Sie die Ergebnisse mit der Option `--exclude` oder `--include` filtern. Die Option `--include` legt Regeln fest, um nur die für den Befehl angegebenen Objekte einzuschließen, und die Optionen gelten in der angegebenen Reihenfolge. Dies wird im folgenden Beispiel veranschaulicht.  

```
Local directory contains 3 files:
MyFile1.txt
MyFile2.rtf
MyFile88.txt

// Include all .txt files, resulting in MyFile1.txt and MyFile88.txt being copied
$ aws s3 cp . s3://amzn-s3-demo-bucket/path --include "*.txt"

// Include all .txt files but exclude all files with the "MyFile*.txt" format, resulting in no files being copied
$ aws s3 cp . s3://amzn-s3-demo-bucket/path --include "*.txt" --exclude "MyFile*.txt"

// Include all .txt files, but exclude all files with the "MyFile*.txt" format, but include all files with the "MyFile?.txt" format resulting in MyFile1.txt being copied

$ aws s3 cp . s3://amzn-s3-demo-bucket/path --include "*.txt" --exclude "MyFile*.txt" --include "MyFile?.txt"
```

**grant**  
Die Befehle `s3 cp`, `s3 mv` und `s3 sync` enthalten die Option `--grants`. Diese kann genutzt werden, um Berechtigungen für das Objekt an bestimmte Benutzer oder Gruppen zu erteilen. Mithilfe der folgenden Syntax legen Sie für die Option `--grants` eine Liste mit Berechtigungen fest. Ersetzen Sie `Permission`, `Grantee_Type` und `Grantee_ID` durch Ihre eigenen Werte.  
**Syntax**  

```
--grants Permission=Grantee_Type=Grantee_ID
         [Permission=Grantee_Type=Grantee_ID ...]
```
Jeder Wert enthält die folgenden Elemente:  
+ *Permission*— Gibt die erteilten Berechtigungen an. Mögliche Einstellungen sind `read`, `readacl`, `writeacl` oder `full`.
+ *Grantee\$1Type*— Gibt an, wie der Empfänger identifiziert werden kann. Mögliche Einstellungen sind `uri`, `emailaddress` oder `id`.
+ *Grantee\$1ID*— Gibt den Empfänger anhand von an. *Grantee\$1Type*
  + `uri` – Der URI der Gruppe. Weitere Informationen finden Sie unter [Wer ist ein Berechtigungsempfänger?](https://docs.aws.amazon.com/AmazonS3/latest/userguide/ACLOverview.html#SpecifyingGrantee)
  + `emailaddress` – Die E-Mail-Adresse des Kontos.
  + `id` – Die kanonische ID des Kontos.
Weitere Informationen zur Amazon-S3-Zugriffssteuerung finden Sie unter [Zugriffssteuerung](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingAuthAccess.html).  
Im folgenden Beispiel wird ein Objekt in einen Bucket kopiert. Es werden `read`-Berechtigungen für das Objekt für alle erteilt. Das Konto, das zu `full` gehört, erhält `read`-Berechtigungen (`readacl`, `writeacl` und `user@example.com`).   

```
$ aws s3 cp file.txt s3://amzn-s3-demo-bucket/ --grants read=uri=http://acs.amazonaws.com/groups/global/AllUsers full=emailaddress=user@example.com
```
Sie können auch eine nicht standardmäßige Speicherklasse (`REDUCED_REDUNDANCY` oder `STANDARD_IA`) für Objekte angeben, die Sie in Amazon S3 hochladen. Verwenden Sie dazu die Option `--storage-class`.  

```
$ aws s3 cp file.txt s3://amzn-s3-demo-bucket/ --storage-class REDUCED_REDUNDANCY
```

**recursive**  
Wenn Sie diese Option verwenden, wird der Befehl für alle Dateien oder Objekte unter dem angegebenen Verzeichnis oder Präfix ausgeführt. Das folgende Beispiel löscht `s3://amzn-s3-demo-bucket/path` und seinen gesamten Inhalt.  

```
$ aws s3 rm s3://amzn-s3-demo-bucket/path --recursive
```

## Ressourcen
<a name="using-s3-commands-managing-buckets-references"></a>

**AWS CLI Referenz:**
+ [https://docs.aws.amazon.com/cli/v1/reference/s3/index.html](https://docs.aws.amazon.com/cli/v1/reference/s3/index.html)
+ [https://docs.aws.amazon.com/cli/v1/reference/s3/cp.html](https://docs.aws.amazon.com/cli/v1/reference/s3/cp.html)
+ [https://docs.aws.amazon.com/cli/v1/reference/s3/mb.html](https://docs.aws.amazon.com/cli/v1/reference/s3/mb.html)
+ [https://docs.aws.amazon.com/cli/v1/reference/s3/mv.html](https://docs.aws.amazon.com/cli/v1/reference/s3/mv.html)
+ [https://docs.aws.amazon.com/cli/v1/reference/s3/ls.html](https://docs.aws.amazon.com/cli/v1/reference/s3/ls.html)
+ [https://docs.aws.amazon.com/cli/v1/reference/s3/rb.html](https://docs.aws.amazon.com/cli/v1/reference/s3/rb.html)
+ [https://docs.aws.amazon.com/cli/v1/reference/s3/rm.html](https://docs.aws.amazon.com/cli/v1/reference/s3/rm.html)
+ [https://docs.aws.amazon.com/cli/v1/reference/s3/sync.html](https://docs.aws.amazon.com/cli/v1/reference/s3/sync.html)

**Service-Referenz:**
+ [Arbeiten mit Amazon-S3-Buckets](https://docs.aws.amazon.com//AmazonS3/latest/userguide/UsingBucket.html) im *Amazon-S3-Benutzerhandbuch*
+ [Arbeiten mit Amazon-S3-Objekten](https://docs.aws.amazon.com//AmazonS3/latest/userguide/UsingObjects.html) im *Amazon-S3-Benutzerhandbuch*
+ [Hierarchisches Auflisten von Schlüsseln mithilfe von Präfix und Trennzeichen](https://docs.aws.amazon.com//AmazonS3/latest/userguide/ListingKeysHierarchy.html) im *Amazon-S3-Benutzerhandbuch*
+ [Brechen Sie mehrteilige Uploads in einen S3-Bucket mithilfe der AWS SDK für .NET (Low-Level) im Amazon S3 S3-Benutzerhandbuch](https://docs.aws.amazon.com//AmazonS3/latest/userguide/LLAbortMPUnet.html) *ab*