

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Arbeiten mit S3 Storage Lens-Daten in S3-Tabellen
<a name="storage-lens-s3-tables"></a>

Amazon S3 Storage Lens kann Ihre Speicheranalysen und Erkenntnisse in S3-Tabellen exportieren, sodass Sie Ihre Storage Lens-Metriken mithilfe von SQL mit AWS Analysediensten wie Amazon Athena, Amazon EMR, Amazon SageMaker Studio (SMStudio) und anderen AWS Analysetools abfragen können. Wenn Sie S3 Storage Lens für den Export in S3-Tabellen konfigurieren, werden Ihre Metriken automatisch in schreibgeschützten Apache Iceberg-Tabellen im -managed table bucket gespeichert. AWS`aws-s3`

Diese Integration bietet strukturierten Datenzugriff für die Abfrage von Storage Lens-Metriken mithilfe von Standard-SQL, Analyseintegration mit AWS Analysediensten, Funktionen für historische Analysen und Kostenoptimierung ohne zusätzliche Kosten für den Export in verwaltete S3-Tabellen. AWS

**Topics**
+ [Exportieren von S3 Storage Lens-Metriken in S3-Tabellen](storage-lens-s3-tables-export.md)
+ [Benennung von Tabellen für den Export von S3 Storage Lens in S3-Tabellen](storage-lens-s3-tables-naming.md)
+ [Grundlegendes zu den Tabellenschemas von S3 Storage Lens](storage-lens-s3-tables-schemas.md)
+ [Berechtigungen für S3 Storage Lens-Tabellen](storage-lens-s3-tables-permissions.md)
+ [Abfragen von S3 Storage Lens-Daten mit Analysetools](storage-lens-s3-tables-querying.md)
+ [Verwendung von KI-Assistenten mit S3 Storage Lens-Tabellen](storage-lens-s3-tables-ai-tools.md)

# Exportieren von S3 Storage Lens-Metriken in S3-Tabellen
<a name="storage-lens-s3-tables-export"></a>

Sie können Amazon S3 Storage Lens so konfigurieren, dass Ihre Speicheranalysen und Erkenntnisse in S3-Tabellen exportiert werden. Wenn Sie den Export von S3-Tabellen aktivieren, werden Ihre Metriken automatisch in schreibgeschützten Apache Iceberg-Tabellen im Bucket für AWS verwaltete `aws-s3` Tabellen gespeichert, sodass sie mithilfe von SQL mit AWS Analysediensten wie Amazon Athena, Amazon Redshift und Amazon EMR abgefragt werden können.

**Anmerkung**  
Für den Export von S3 Storage Lens-Metriken in verwaltete S3-Tabellen fallen keine zusätzlichen Gebühren an. AWS Für die Speicherung von Tabellen, die Tabellenverwaltung und Anfragen zu den Tabellen fallen Standardgebühren an. Weitere Informationen finden Sie unter [Amazon S3 – Preise](https://aws.amazon.com/s3/pricing). 

## Aktivieren Sie den Export von S3-Tabellen über die Konsole
<a name="storage-lens-s3-tables-export-console"></a>

1. Melden Sie sich bei der AWS Management Console an und öffnen Sie die Amazon S3 S3-Konsole unter [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/). 

1. Wählen Sie im linken Navigationsbereich **Storage Lens** und dann **Storage Lens Dashboards** aus. 

1. Wählen Sie in der Liste **Storage Lens Dashboards** das Dashboard aus, das Sie bearbeiten möchten.

1. Wählen Sie **Bearbeiten** aus. 

1. Navigieren Sie auf der **Dashboard-Seite** zum Abschnitt **Exportieren und Veröffentlichen von Metriken**.

1. Um den Tabellenexport für den **Standardmetrikbericht** zu aktivieren, wählen Sie im **Bucket-Typ die Option Tabellen-Bucket** aus.

1. Um den Tabellenexport für den **Metrikbericht mit erweiterten Präfixen** zu aktivieren, wählen Sie **Tabellen-Bucket** im Bucket-Typ aus.

1. Überprüfen Sie die Dashboard-Konfiguration und klicken Sie auf **Senden**. 

**Anmerkung**  
Nachdem Sie den Export von S3-Tabellen aktiviert haben, kann es bis zu 48 Stunden dauern, bis die ersten Daten in den Tabellen verfügbar sind.

**Anmerkung**  
Für den Export von S3 Storage Lens-Metriken in AWS verwaltete S3-Tabellen fallen keine zusätzlichen Gebühren an. Für die Speicherung von Tabellen, die Tabellenverwaltung, Anfragen zu den Tabellen und die Überwachung fallen Standardgebühren an. Sie können den Export in S3-Tabellen aktivieren oder deaktivieren, indem Sie die Amazon S3 S3-Konsole, die Amazon S3 S3-API AWS CLI, oder verwenden AWS SDKs.

**Anmerkung**  
Standardmäßig laufen Datensätze in Ihren S3-Tabellen nicht ab. Um die Speicherkosten für Ihre Tabellen zu minimieren, können Sie das Ablaufen von Datensätzen für die Tabellen aktivieren und konfigurieren. Mit dieser Option entfernt Amazon S3 automatisch Datensätze aus einer Tabelle, wenn die Datensätze ablaufen. Siehe: [Ablauf von Datensätzen für Tabellen.](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-record-expiration.html) 

## Aktivieren Sie den Export von S3-Tabellen mit dem AWS CLI
<a name="storage-lens-s3-tables-export-cli"></a>

**Anmerkung**  
Bevor Sie die folgenden Befehle ausführen, stellen Sie sicher, dass Sie über eine aktuelle CLI-Version verfügen. Weitere Informationen finden Sie unter [Installation oder Aktualisierung auf die neueste Version von AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html). 

Das folgende Beispiel aktiviert den Export von S3-Tabellen für eine S3-Storage-Lens-Konfiguration „Standardmetrikbericht“ mithilfe von AWS CLI. Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die *user input placeholders* (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
aws s3control put-storage-lens-configuration --account-id=555555555555 --config-id=your-configuration-id --storage-lens-configuration '{
   "Id":"your-configuration-id",
   "AccountLevel":{
      "ActivityMetrics":{
        "IsEnabled":true
      },
      "BucketLevel":{
         "ActivityMetrics":{
            "IsEnabled":true
         }
      }
   },
   "DataExport":{
      "S3BucketDestination":{
         "OutputSchemaVersion":"V_1",
         "Format":"CSV",
         "AccountId":"555555555555",
         "Arn":"arn:aws:s3:::my-export-bucket",
         "Prefix":"storage-lens-exports/"
      },
      "StorageLensTableDestination":{
         "IsEnabled":true
      }
   },
   "IsEnabled":true
}'
```

## Aktivieren Sie den Export von S3-Tabellen mit dem AWS SDKs
<a name="storage-lens-s3-tables-export-sdk"></a>

Das folgende Beispiel aktiviert den Export von S3-Tabellen für eine S3-Storage-Lens-Konfiguration „Default Metrics Report“ mithilfe des AWS SDK for Python (Boto3). Wenn Sie dieses Beispiel verwenden möchten, ersetzen Sie die *user input placeholders* (Platzhalter für Benutzereingaben) durch Ihre Informationen.

```
import boto3

s3control = boto3.client('s3control')

response = s3control.put_storage_lens_configuration( AccountId='555555555555', ConfigId='your-configuration-id', StorageLensConfiguration={
        'Id': 'your-configuration-id',
        'AccountLevel': {
            'ActivityMetrics': {
              'IsEnabled': True
            },
            'BucketLevel': {
                'ActivityMetrics': {
                    'IsEnabled': True
                }
            }
        },
        'DataExport': {
            'S3BucketDestination': {
                'OutputSchemaVersion': 'V_1',
                'Format': 'CSV',
                'AccountId': '555555555555',
                'Arn': 'arn:aws:s3:::my-export-bucket',
                'Prefix': 'storage-lens-exports/'
            },
            'StorageLensTableDestination': {
                'IsEnabled': True
            }
        },
        'IsEnabled': True
    }
)
```

Weitere Informationen zur Verwendung der Tools finden Sie AWS SDKs unter [AWS SDKs und](https://aws.amazon.com/developer/tools/). 

## Nächste Schritte
<a name="storage-lens-s3-tables-export-next-steps"></a>

Nachdem Sie den Export von S3-Tabellen aktiviert haben, können Sie:
+ Weitere Informationen über [Benennung von Tabellen für den Export von S3 Storage Lens in S3-Tabellen](storage-lens-s3-tables-naming.md) 
+ Weitere Informationen über [Grundlegendes zu den Tabellenschemas von S3 Storage Lens](storage-lens-s3-tables-schemas.md) 

# Benennung von Tabellen für den Export von S3 Storage Lens in S3-Tabellen
<a name="storage-lens-s3-tables-naming"></a>

Wenn Sie S3 Storage Lens-Metriken in S3-Tabellen exportieren, werden die Tabellen gemäß den Apache Iceberg-Katalogkonventionen mit spezifischen Benennungsmustern organisiert, um Kompatibilität und Organisation zu gewährleisten.

## Struktur des Speicherorts der Tabelle
<a name="storage-lens-s3-tables-naming-location"></a>

Die vollständige Position der Tabelle folgt diesem Muster:

```
s3tablescatalog/aws-s3/<namespace>/<table-name>
```

### Name des Tabellen-Buckets
<a name="storage-lens-s3-tables-naming-bucket"></a>

 **Tabellen-Bucket:** `aws-s3` 

Der S3 Storage Lens-Export verwendet den `aws-s3` Tabellen-Bucket, der als Bucket für AWS S3-bezogene Systemtabellen vorgesehen ist.

### Name des Katalogs
<a name="storage-lens-s3-tables-naming-catalog"></a>

 **Katalog:** `s3tablescatalog/aws-s3` 

S3 Storage Lens-Tabellen werden im S3-Katalog gespeichert, da Storage Lens Einblicke in drei Arten von S3-Ressourcen bietet:
+ Speichermetriken
+ Bucket-Eigenschaften
+ Metriken zur API-Nutzung

## Namenskonvention für Namespaces
<a name="storage-lens-s3-tables-naming-namespace"></a>

Namespaces organisieren Tabellen innerhalb des Katalogs. Für S3 Storage Lens wird der Namespace von Ihrer Storage Lens-Konfigurations-ID abgeleitet.

### Standard-Namespace-Format
<a name="storage-lens-s3-tables-naming-namespace-standard"></a>

Für eine Storage Lens-Konfiguration IDs ohne Punkte (`.`): 

```
lens_<configuration-id>_exp
```

 **Beispiel:** Wenn Ihre Konfigurations-ID lautet`my-lens-config`, lautet der Namespace:

```
lens_my-lens-config_exp
```

### Namespace-Format mit Behandlung von Punkt- oder Großbuchstaben
<a name="storage-lens-s3-tables-naming-namespace-dots"></a>

Die Storage Lens-Konfiguration IDs kann Punkte (`.`) oder Großbuchstaben (`A-Z`) enthalten, aber die Namespaces von S3 Tables unterstützen nur Kleinbuchstaben, Zahlen, Bindestriche () und Unterstriche (). `-` `_` Wenn Ihre Konfigurations-ID Punkte enthält, werden diese in Bindestriche und Großbuchstaben in Kleinbuchstaben umgewandelt, und aus Gründen der Eindeutigkeit wird ein Hash-Suffix hinzugefügt:

```
lens_<configuration-id-with-dots-or-uppercase-replaced>_exp_<7-char-hash>
```

 **Beispiel:** Wenn Ihre Konfigurations-ID lautet`my.LENS.config`, lautet der Namespace:

```
lens_my-lens-config_exp_a1b2c3d
```

Wo `a1b2c3d` sind die ersten 7 Zeichen des SHA-1-Hashs der ursprünglichen Konfigurations-ID.

## Vollständige Beispiele
<a name="storage-lens-s3-tables-naming-examples"></a>

Für eine Storage Lens-Konfiguration mit ID`production-metrics`: 
+  **Tischeimer:** `aws-s3` 
+  **Katalog:** `s3tablescatalog/aws-s3` 
+  **Namespace:** `lens_production-metrics_exp` 
+  **Vollständiger Pfad:** `s3tablescatalog/aws-s3/lens_production-metrics_exp/<table-name>` 

Für eine Storage Lens-Konfiguration mit ID`prod.us.east.metrics`: 
+  **Tischeimer:** `aws-s3` 
+  **Katalog:** `s3tablescatalog/aws-s3` 
+  **Namespace:** `lens_prod-us-east-metrics_exp_f8e9a1b` (mit Hash)
+  **Vollständiger Pfad:** `s3tablescatalog/aws-s3/lens_prod-us-east-metrics_exp_f8e9a1b/<table-name>` 

## Tabellentypen
<a name="storage-lens-s3-tables-naming-types"></a>

Die folgende Tabelle zeigt die verschiedenen Tabellentypen, die für S3 Storage Lens-Exporte erstellt wurden:


| Katalog | Namespace | Name der S3-Tabelle | Description | 
| --- | --- | --- | --- | 
| s3-Tabellen-Katalog/aws-s3 | <conf\$1name><hash>linse\$1 \$1exp [\$1] | Standardspeicher-Metriken | Diese Tabelle enthält die Speichermetriken für Ihre Storage Lens-Konfiguration. | 
| s3Tables-Katalog/aws-s3 | <conf\$1name><hash>linse\$1 \$1exp [\$1] | Standardaktivitätskennzahlen | Diese Tabelle enthält die Aktivitätsmetriken für Ihre Storage Lens-Konfiguration. | 
| s3Tables-Katalog/aws-s3 | <conf\$1name><hash>linse\$1 \$1exp [\$1] | erweiterte\$1Präfixe\$1Speichermetriken | Diese Tabelle enthält die Speichermetriken für alle Präfixe in Ihrer Storage Lens-Konfiguration. | 
| s3Tables-Katalog/aws-s3 | <conf\$1name><hash>linse\$1 \$1exp [\$1] | erweiterte\$1Präfixe\$1Aktivitätsmetriken | Diese Tabelle enthält die Aktivitätsmetriken für alle Präfixe in Ihrer Storage Lens-Konfiguration. | 
| s3Tables-Katalog/aws-s3 | <conf\$1name><hash>linse\$1 \$1exp [\$1] | Bucket\$1Property\$1Metriken | Diese Tabelle enthält die Kennzahlen der Bucket-Eigenschaften für alle Buckets in Ihrer Storage Lens-Konfiguration. | 

## Nächste Schritte
<a name="storage-lens-s3-tables-naming-next-steps"></a>
+ Weitere Informationen über [Grundlegendes zu den Tabellenschemas von S3 Storage Lens](storage-lens-s3-tables-schemas.md) 
+ Weitere Informationen über [Berechtigungen für S3 Storage Lens-Tabellen](storage-lens-s3-tables-permissions.md) 

# Grundlegendes zu den Tabellenschemas von S3 Storage Lens
<a name="storage-lens-s3-tables-schemas"></a>

Beim Exportieren von S3 Storage Lens-Metriken in S3-Tabellen werden die Daten in drei separaten Tabellenschemas organisiert: Speichermetriken, Bucket-Eigenschaftsmetriken und Aktivitätsmetriken.

## Schema der Tabelle mit Speichermetriken
<a name="storage-lens-s3-tables-schemas-storage"></a>


| Name | Typ | Description | 
| --- | --- | --- | 
|  version\$1number  | Zeichenfolge | Versions-ID des Schemas der Tabelle | 
|  configuration\$1id  | Zeichenfolge | Name der Konfiguration von S3 Storage Lens | 
|  report\$1time  | timestamptz | Datum, auf das sich der S3 Storage Lens-Bericht bezieht | 
|  aws\$1account\$1id  | Zeichenfolge | Konto-ID, auf die sich der Eintrag bezieht | 
|  aws\$1region  | Zeichenfolge | Region | 
|  storage\$1class  | Zeichenfolge | Speicherklasse | 
|  record\$1type  | Zeichenfolge | Art des Datensatzes, related auf welcher Ebene die Daten aggregiert werden. Werte:ACCOUNT,BUCKET, PREFIXSTORAGE\$1LENS\$1GROUP\$1BUCKET,STORAGE\$1LENS\$1GROUP\$1ACCOUNT.  | 
|  record\$1value  | Zeichenfolge | Disambiguator für Datensatztypen, die mehr als einen Datensatz enthalten. Es wird verwendet, um auf das Präfix zu verweisen | 
|  bucket\$1name  | Zeichenfolge | Bucket-Name | 
|  object\$1count  | long | Anzahl der Objekte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  storage\$1bytes  | DEZIMAL (38,0) | Anzahl der für das aktuelle referenzierte Element gespeicherten Byte | 
|  bucket\$1key\$1sse\$1kms\$1object\$1count  | long | Anzahl der Objekte, die mit einem vom Kunden verwalteten Schlüssel verschlüsselt wurden und für das aktuelle referenzierte Objekt gespeichert wurden | 
|  bucket\$1key\$1sse\$1kms\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte, die mit einem vom Kunden verwalteten Schlüssel verschlüsselt wurden und für den aktuell referenzierten Artikel gespeichert wurden | 
|  current\$1version\$1object\$1count  | long | Anzahl der Objekte der aktuellen Version, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  current\$1version\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte der aktuellen Version, die für das aktuelle Element gespeichert wurden, auf das verwiesen wird | 
|  delete\$1marker\$1object\$1count  | long | Anzahl der Löschmarkierungsobjekte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  delete\$1marker\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der für das aktuelle referenzierte Element gespeicherten Byte der Löschmarkierung | 
|  encrypted\$1object\$1count  | long | Anzahl der verschlüsselten Objekte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  encrypted\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der verschlüsselten Byte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  incomplete\$1mpu\$1object\$1older\$1than\$17\$1days\$1count  | long | Anzahl der unvollständigen mehrteiligen Upload-Objekte, die älter als 7 Tage sind und für das aktuelle referenzierte Objekt gespeichert wurden | 
|  incomplete\$1mpu\$1storage\$1older\$1than\$17\$1days\$1bytes  | DEZIMAL (38,0) | Anzahl der unvollständigen mehrteiligen Upload-Bytes, die für das aktuelle Objekt, auf das verwiesen wird, vor mehr als 7 Tagen gespeichert wurden | 
|  incomplete\$1mpu\$1object\$1count  | long | Anzahl der unvollständigen mehrteiligen Upload-Objekte, die für das aktuelle referenzierte Objekt gespeichert wurden | 
|  incomplete\$1mpu\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der unvollständigen mehrteiligen Upload-Bytes, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  non\$1current\$1version\$1object\$1count  | long | Anzahl der Objekte, die nicht in der aktuellen Version für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  non\$1current\$1version\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  object\$1lock\$1enabled\$1object\$1count  | long | Anzahl der Objekte, die für Objekte gespeichert wurden, für die die Sperre im aktuell referenzierten Element aktiviert ist | 
|  object\$1lock\$1enabled\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte, die für Objekte gespeichert wurden, für die die Sperre aktiviert ist, im aktuellen Objekt, auf das verwiesen wird | 
|  replicated\$1object\$1count  | long | Anzahl der Objekte, die für das aktuelle referenzierte Objekt repliziert wurden | 
|  replicated\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der für das aktuelle referenzierte Element replizierten Byte | 
|  replicated\$1object\$1source\$1count  | long | Anzahl der Objekte, die als Quelle repliziert wurden und für das aktuelle referenzierte Element gespeichert wurden | 
|  replicated\$1storage\$1source\$1bytes  | DEZIMAL (38,0) | Anzahl der Byte, die als Quelle für das aktuelle referenzierte Element repliziert wurden | 
|  sse\$1kms\$1object\$1count  | long | Anzahl der mit dem SSE-Schlüssel verschlüsselten Objekte, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  sse\$1kms\$1storage\$1bytes  | DEZIMAL (38,0) | Anzahl der mit dem SSE-Schlüssel verschlüsselten Byte, die für das aktuelle Objekt gespeichert wurden, auf das verwiesen wird | 
|  object\$10kb\$1count  | long | Anzahl der Objekte mit einer Größe von 0 KB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$10kb\$1to\$1128kb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 0 KB und weniger als 128 KB, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1128kb\$1to\$1256kb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 128 KB und weniger als 256 KB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1256kb\$1to\$1512kb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 256 KB und weniger als 512 KB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1512kb\$1to\$11mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 512 KB und weniger als 1 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$11mb\$1to\$12mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 1 MB und weniger als 2 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$12mb\$1to\$14mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 2 MB und weniger als 4 MB, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$14mb\$1to\$18mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 4 MB und weniger als 8 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$18mb\$1to\$116mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 8 MB und weniger als 16 MB, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$116mb\$1to\$132mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 16 MB und weniger als 32 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$132mb\$1to\$164mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 32 MB und weniger als 64 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$164mb\$1to\$1128mb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 64 MB und weniger als 128 MB, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1128mb\$1to\$1256mb\$1count  | long | Anzahl der Objekte, die größer als 128 MB und kleiner als 256 MB sind, einschließlich der aktuellen Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1256mb\$1to\$1512mb\$1count  | long | Anzahl der Objekte, die größer als 256 MB und kleiner als 512 MB sind, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1512mb\$1to\$11gb\$1count  | long | Anzahl der Objekte, die größer als 512 MB und kleiner als 1 GB sind, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$11gb\$1to\$12gb\$1count  | long | Anzahl der Objekte, die größer als 1 GB und kleiner als 2 GB sind, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$12gb\$1to\$14gb\$1count  | long | Anzahl der Objekte, die größer als 2 GB und kleiner als 4 GB sind, einschließlich aktueller Version, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 
|  object\$1larger\$1than\$14gb\$1count  | long | Anzahl der Objekte mit einer Größe von mehr als 4 GB, einschließlich aktueller Versionen, nicht aktueller Versionen, unvollständiger mehrteiliger Uploads und Löschmarkierungen | 

## Tabellenschema für Kennzahlen zur Bucket-Eigenschaft
<a name="storage-lens-s3-tables-schemas-bucket-property"></a>


| Name | Typ | Description | 
| --- | --- | --- | 
|  version\$1number  | Zeichenfolge | Versions-ID des Schemas der Tabelle | 
|  configuration\$1id  | Zeichenfolge | Name der Konfiguration von S3 Storage Lens | 
|  report\$1time  | timestamptz | Datum, auf das sich der S3 Storage Lens-Bericht bezieht | 
|  aws\$1account\$1id  | Zeichenfolge | Konto-ID, auf die sich der Eintrag bezieht | 
|  record\$1type  | Zeichenfolge | Art des Datensatzes, bezogen auf die Aggregationsebene der Daten. Werte:ACCOUNT,BUCKET, PREFIXSTORAGE\$1LENS\$1GROUP\$1BUCKET,STORAGE\$1LENS\$1GROUP\$1ACCOUNT.  | 
|  record\$1value  | Zeichenfolge | Disambiguator für Datensatztypen, die mehr als einen Datensatz enthalten. Es wird verwendet, um auf das Präfix zu verweisen. | 
|  aws\$1region  | Zeichenfolge | Region | 
|  storage\$1class  | Zeichenfolge | Speicherklasse | 
|  bucket\$1name  | Zeichenfolge | Bucket-Name | 
|  versioning\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets mit aktivierter Versionierung für das aktuelle Objekt, auf das verwiesen wird | 
|  mfa\$1delete\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets mit aktiviertem MFA-Löschen für das aktuelle referenzierte Objekt | 
|  sse\$1kms\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets, für die KMS für das aktuell referenzierte Objekt aktiviert ist | 
|  object\$1ownership\$1bucket\$1owner\$1enforced\$1bucket\$1count  | long | Anzahl der Buckets, für die der Besitzer des Buckets Object Ownership für das aktuell referenzierte Objekt aktiviert wurde | 
|  object\$1ownership\$1bucket\$1owner\$1preferred\$1bucket\$1count  | long | Anzahl der Buckets, bei denen der Besitzer des Buckets Object Ownership für das aktuell referenzierte Objekt bevorzugt wird | 
|  object\$1ownership\$1object\$1writer\$1bucket\$1count  | long | Anzahl der Buckets mit Object Ownership Object Writer für das aktuelle Objekt, auf das verwiesen wird | 
|  transfer\$1acceleration\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets, für die die Übertragungsbeschleunigung für das aktuell referenzierte Objekt aktiviert ist | 
|  event\$1notification\$1enabled\$1bucket\$1count  | long | Anzahl der Buckets, für die die Ereignisbenachrichtigung für das aktuell referenzierte Objekt aktiviert ist | 
|  transition\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln für den Übergang für das aktuelle Objekt, auf das verwiesen wird | 
|  expiration\$1lifecycle\$1rule\$1count  | long | Anzahl der Ablauflebenszyklusregeln für den aktuellen Artikel, auf den verwiesen wird | 
|  non\$1current\$1version\$1transition\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln für den veralteten Versionsübergang für den aktuellen Artikel, auf den verwiesen wird | 
|  non\$1current\$1version\$1expiration\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln für den Ablauf einer veralteten Version für das aktuelle Objekt, auf das verwiesen wird | 
|  abort\$1incomplete\$1multipart\$1upload\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln zum Abbruch unvollständiger mehrteiliger Uploads für das aktuelle Objekt, auf das verwiesen wird | 
|  expired\$1object\$1delete\$1marker\$1lifecycle\$1rule\$1count  | long | Anzahl der Lebenszyklusregeln für das aktuelle Objekt, auf das verwiesen wird | 
|  same\$1region\$1replication\$1rule\$1count  | long | Anzahl der Replikationsregeln für dieselbe Region für das aktuelle Objekt, auf das verwiesen wird | 
|  cross\$1region\$1replication\$1rule\$1count  | long | Anzahl der regionsübergreifenden Replikationsregeln für das aktuelle Objekt, auf das verwiesen wird | 
|  same\$1account\$1replication\$1rule\$1count  | long | Anzahl der Replikationsregeln für dasselbe Konto für das aktuelle Objekt, auf das verwiesen wird | 
|  cross\$1account\$1replication\$1rule\$1count  | long | Anzahl der kontenübergreifenden Replikationsregeln für das aktuelle Objekt, auf das verwiesen wird | 
|  invalid\$1destination\$1replication\$1rule\$1count  | long | Anzahl der Buckets mit ungültiger Zielreplikation für das aktuelle Objekt, auf das verwiesen wird | 

## Schema der Tabelle mit Aktivitätsmetriken
<a name="storage-lens-s3-tables-schemas-activity"></a>


| Name | Typ | Description | 
| --- | --- | --- | 
|  version\$1number  | Zeichenfolge | Versions-ID des Schemas der Tabelle | 
|  configuration\$1id  | Zeichenfolge | Name der Konfiguration von S3 Storage Lens | 
|  report\$1time  | timestamptz | Datum, auf das sich der S3 Storage Lens-Bericht bezieht | 
|  aws\$1account\$1id  | Zeichenfolge | Konto-ID, auf die sich der Eintrag bezieht | 
|  aws\$1region  | Zeichenfolge | Region | 
|  storage\$1class  | Zeichenfolge | Speicherklasse | 
|  record\$1type  | Zeichenfolge | Art des Datensatzes, bezogen auf die Aggregationsebene der Daten. Werte:ACCOUNT,BUCKET, PREFIXSTORAGE\$1LENS\$1GROUP\$1BUCKET,STORAGE\$1LENS\$1GROUP\$1ACCOUNT.  | 
|  record\$1value  | Zeichenfolge | Disambiguator für Datensatztypen, die mehr als einen Datensatz enthalten. Es wird verwendet, um auf das Präfix zu verweisen | 
|  bucket\$1name  | Zeichenfolge | Bucket-Name | 
|  all\$1request\$1count  | long | Anzahl der \$1alle\$1 Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  all\$1sse\$1kms\$1encrypted\$1request\$1count  | long | Anzahl der KMS-verschlüsselten Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  all\$1unsupported\$1sig\$1request\$1count  | long | Anzahl der nicht unterstützten SIG-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  all\$1unsupported\$1tls\$1request\$1count  | long | Anzahl der nicht unterstützten TLS-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  bad\$1request\$1error\$1400\$1count  | long | Anzahl von 400 fehlerhaften Anforderungsfehlern für das aktuelle Objekt, auf das verwiesen wird | 
|  delete\$1request\$1count  | long | Anzahl der Löschanfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  downloaded\$1bytes  | dezimal (0,0) | Anzahl der heruntergeladenen Byte für das aktuelle Objekt, auf das verwiesen wird | 
|  error\$14xx\$1count  | long | Anzahl der 4xx-Fehler für das aktuelle Objekt, auf das verwiesen wird | 
|  error\$15xx\$1count  | long | Anzahl der 5xx-Fehler für den aktuellen Artikel, auf den verwiesen wird | 
|  forbidden\$1error\$1403\$1count  | long | Anzahl der 403 verbotenen Fehler für das aktuelle Objekt, auf das verwiesen wird | 
|  get\$1request\$1count  | long | Anzahl der Abrufanforderungen für das aktuelle Objekt, auf das verwiesen wird | 
|  head\$1request\$1count  | long | Anzahl der Head-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  internal\$1server\$1error\$1500\$1count  | long | Anzahl von 500 internen Serverfehlern für das aktuelle Objekt, auf das verwiesen wird | 
|  list\$1request\$1count  | long | Anzahl der Listenanfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  not\$1found\$1error\$1404\$1count  | long | Anzahl der 404-Fehler „Nicht gefunden“ für das aktuelle Objekt, auf das verwiesen wird | 
|  ok\$1status\$1200\$1count  | long | Anzahl von 200 OK-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  partial\$1content\$1status\$1206\$1count  | long | Anzahl von 206 unvollständigen Inhaltsanfragen für das aktuelle referenzierte Element | 
|  post\$1request\$1count  | long | Anzahl der Post-Anfragen für den aktuellen Artikel, auf den verwiesen wird | 
|  put\$1request\$1count  | long | Anzahl der Put-Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  select\$1request\$1count  | long | Anzahl der ausgewählten Anfragen für das aktuelle Objekt, auf das verwiesen wird | 
|  select\$1returned\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von ausgewählten Anfragen für das aktuelle referenzierte Element zurückgegeben wurden | 
|  select\$1scanned\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von ausgewählten Anfragen für das aktuelle Objekt, auf das verwiesen wird, gescannt wurden | 
|  service\$1unavailable\$1error\$1503\$1count  | long | Anzahl der 503 Fehler, auf die der Dienst nicht verfügbar ist, für das aktuelle Objekt, auf das verwiesen wird | 
|  uploaded\$1bytes  | dezimal (0,0) | Anzahl der hochgeladenen Byte für das aktuelle Objekt, auf das verwiesen wird | 
|  average\$1first\$1byte\$1latency  | long | Durchschnittliche Zeit pro Anfrage zwischen dem Zeitpunkt, an dem ein S3-Bucket eine vollständige Anfrage empfängt, und dem Zeitpunkt, an dem er beginnt, die Antwort zurückzugeben, gemessen in den letzten 24 Stunden | 
|  average\$1total\$1request\$1latency  | long | Durchschnittlich verstrichene Zeit pro Anfrage zwischen dem ersten empfangenen Byte und dem letzten an einen S3-Bucket gesendeten Byte, gemessen in den letzten 24 Stunden | 
|  read\$10kb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von 0 KB, einschließlich bereichsbasierter Anfragen und Anfragen ganzer Objekte | 
|  read\$10kb\$1to\$1128kb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 0 KB und bis zu 128 KB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1128kb\$1to\$1256kb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 128 KB und bis zu 256 KB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1256kb\$1to\$1512kb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 256 KB und bis zu 512 KB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1512kb\$1to\$11mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 512 KB und bis zu 1 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$11mb\$1to\$12mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 1 MB und bis zu 2 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$12mb\$1to\$14mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 2 MB und bis zu 4 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$14mb\$1to\$18mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 4 MB und bis zu 8 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$18mb\$1to\$116mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 8 MB und bis zu 16 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$116mb\$1to\$132mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 16 MB und bis zu 32 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$132mb\$1to\$164mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 32 MB und bis zu 64 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$164mb\$1to\$1128mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 64 MB und bis zu 128 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1128mb\$1to\$1256mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 128 MB und bis zu 256 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1256mb\$1to\$1512mb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 256 MB und bis zu 512 MB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1512mb\$1to\$11gb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 512 MB und bis zu 1 GB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$11gb\$1to\$12gb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 1 GB und bis zu 2 GB, einschließlich bereichsbasierter Anfragen und Anfragen für das gesamte Objekt | 
|  read\$12gb\$1to\$14gb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 2 GB und bis zu 4 GB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  read\$1larger\$1than\$14gb\$1request\$1count  | long | Anzahl der GetObject Anfragen mit Datengrößen von mehr als 4 GB, einschließlich bereichsbasierter Anfragen und Anfragen für ganze Objekte | 
|  write\$10kb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von 0 KB | 
|  write\$10kb\$1to\$1128kb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 0 KB und bis zu 128 KB | 
|  write\$1128kb\$1to\$1256kb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 128 KB und bis zu 256 KB | 
|  write\$1256kb\$1to\$1512kb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 256 KB und bis zu 512 KB | 
|  write\$1512kb\$1to\$11mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 512 KB und bis zu 1 MB | 
|  write\$11mb\$1to\$12mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 1 MB und bis zu 2 MB | 
|  write\$12mb\$1to\$14mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 2 MB und bis zu 4 MB | 
|  write\$14mb\$1to\$18mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 4 MB und bis zu 8 MB | 
|  write\$18mb\$1to\$116mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 8 MB und bis zu 16 MB | 
|  write\$116mb\$1to\$132mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 16 MB und bis zu 32 MB | 
|  write\$132mb\$1to\$164mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 32 MB und bis zu 64 MB | 
|  write\$164mb\$1to\$1128mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 64 MB und bis zu 128 MB | 
|  write\$1128mb\$1to\$1256mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 128 MB und bis zu 256 MB | 
|  write\$1256mb\$1to\$1512mb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 256 MB und bis zu 512 MB | 
|  write\$1512mb\$1to\$11gb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 512 MB und bis zu 1 GB | 
|  write\$11gb\$1to\$12gb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 1 GB und bis zu 2 GB | 
|  write\$12gb\$1to\$14gb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 2 GB und bis zu 4 GB | 
|  write\$1larger\$1than\$14gb\$1request\$1count  | long | Anzahl von PutObject UploadPart, und CreateMultipartUpload Anfragen mit Datengrößen von mehr als 4 GB | 
|  concurrent\$1put\$1503\$1error\$1count  | long | Anzahl der 503 Fehler, die aufgrund gleichzeitiger Schreibvorgänge auf dasselbe Objekt generiert wurden | 
|  cross\$1region\$1request\$1count  | long | Anzahl der Anfragen, die von einem Client in einer anderen Region als der Heimatregion des Buckets stammen | 
|  cross\$1region\$1transferred\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von Aufrufen in einer anderen Region als der Heimatregion des Buckets übertragen wurden | 
|  cross\$1region\$1without\$1replication\$1request\$1count  | long | Anzahl der Anfragen, die von einem Client in einer anderen Region als der Heimatregion des Buckets stammen, ausgenommen regionsübergreifende Replikationsanfragen | 
|  cross\$1region\$1without\$1replication\$1transferred\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von Aufrufen in einer anderen Region als der Heimatregion des Buckets übertragen werden, ausgenommen regionsübergreifende Replikationsbytes | 
|  inregion\$1request\$1count  | long | Anzahl der Anfragen, die von einem Client in derselben Region wie die Heimatregion des Buckets stammen | 
|  inregion\$1transferred\$1bytes  | dezimal (0,0) | Anzahl der Byte, die von Aufrufen aus derselben Region wie die Heimatregion des Buckets übertragen werden | 
|  unique\$1objects\$1accessed\$1daily\$1count  | long | Anzahl der Objekte, auf die in den letzten 24 Stunden mindestens einmal zugegriffen wurde | 

## Nächste Schritte
<a name="storage-lens-s3-tables-schemas-next-steps"></a>
+ Weitere Informationen über [Berechtigungen für S3 Storage Lens-Tabellen](storage-lens-s3-tables-permissions.md) 
+ [Abfragen von S3 Storage Lens-Daten mit Analysetools](storage-lens-s3-tables-querying.md) starten 
+ Ausführliche Metrikdefinitionen finden Sie in [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md)

# Berechtigungen für S3 Storage Lens-Tabellen
<a name="storage-lens-s3-tables-permissions"></a>

Um mit in S3-Tabellen exportierten S3 Storage Lens-Daten arbeiten zu können, benötigen Sie entsprechende AWS Identity and Access Management (IAM-) Berechtigungen. In diesem Thema werden die Berechtigungen behandelt, die für den Export von Metriken und die Verwaltung der Verschlüsselung erforderlich sind.

## Berechtigungen für den Export von Metriken in S3-Tabellen
<a name="storage-lens-s3-tables-permissions-export"></a>

Um S3 Storage Lens-Tabellen und -Tabellen-Buckets zu erstellen und damit zu arbeiten, benötigen Sie bestimmte `s3tables` Berechtigungen. Um S3 Storage Lens für S3 Tables zu konfigurieren, benötigen Sie mindestens die folgenden `s3tables` Berechtigungen:
+  `s3tables:CreateTableBucket`— Mit dieser Berechtigung können Sie einen mit AWS-verwalteten Tabellen Bucket erstellen. Alle S3 Storage Lens-Metriken in Ihrem Konto werden in einem einzigen AWS verwalteten Tabellen-Bucket mit dem Namen gespeichert. `aws-s3` 
+  `s3tables:PutTableBucketPolicy`— S3 Storage Lens verwendet diese Berechtigung, um eine Tabellen-Bucket-Richtlinie festzulegen, die den `systemtables.s3.amazonaws.com` Zugriff auf den Bucket ermöglicht, sodass Logs übermittelt werden können.

**Wichtig**  
Wenn Sie die Berechtigungen für den Service Principal entfernen`systemtables.s3.amazonaws.com`, kann S3 Storage Lens die S3-Tabellen nicht mit Daten aktualisieren, die auf Ihrer Konfiguration basieren. Wir empfehlen, zusätzlich zu der bereits bereitgestellten Richtlinie weitere Zugriffskontrollrichtlinien hinzuzufügen, anstatt die vorgefertigte Richtlinie zu bearbeiten, die bei der Einrichtung Ihres Table-Buckets hinzugefügt wird.

**Anmerkung**  
Für jede Storage Lens-Konfiguration wird für jede Art von Metrikexport eine separate S3-Tabelle erstellt. Wenn Sie mehrere Storage Lens-Konfigurationen in der Region haben, werden separate Tabellen für zusätzliche Konfigurationen erstellt. Für Ihren S3-Tabellen-Bucket sind beispielsweise drei Arten von Tabellen verfügbar.

## Berechtigungen für AWS KMS-verschlüsselte Tabellen
<a name="storage-lens-s3-tables-permissions-kms"></a>

Alle Daten in S3-Tabellen, einschließlich S3 Storage Lens-Metriken, werden standardmäßig mit SSE-S3-Verschlüsselung verschlüsselt. Sie können wählen, ob Sie Ihren Storage Lens-Metrikbericht mit AWS KMS Schlüsseln (SSE-KMS) verschlüsseln möchten. Wenn Sie sich dafür entscheiden, Ihre S3 Storage Lens-Metrikberichte mit KMS-Schlüsseln zu verschlüsseln, benötigen Sie zusätzliche Berechtigungen.

1. Der Benutzer oder die IAM-Rolle benötigt die folgenden Berechtigungen. Sie können diese Berechtigungen mithilfe der IAM-Konsole unter gewähren. [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)
   +  `kms:DescribeKey`auf dem verwendeten AWS KMS Schlüssel

1. Für die Schlüsselrichtlinie für den AWS KMS Schlüssel benötigen Sie die folgenden Berechtigungen. Sie können diese Berechtigungen gewähren, indem Sie die AWS KMS Konsole unter [https://console.aws.amazon.com/kms](https://console.aws.amazon.com/kms) verwenden. Wenn Sie diese Richtlinie verwenden möchten, ersetzen Sie ` user input placeholders ` durch eigene Informationen.

   ```
   {
       "Version": "2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "EnableSystemTablesKeyUsage",
               "Effect": "Allow",
               "Principal": {
                   "Service": "systemtables.s3.amazonaws.com"
               },
               "Action": [
                   "kms:DescribeKey",
                   "kms:GenerateDataKey",
                   "kms:Decrypt"
               ],
               "Resource": "arn:aws:kms:us-east-1:111122223333:key/key-id",
               "Condition": {
                   "StringEquals": {
                       "aws:SourceAccount": "111122223333"
                   }
               }
           },
           {
               "Sid": "EnableKeyUsage",
               "Effect": "Allow",
               "Principal": {
                   "Service": "maintenance.s3tables.amazonaws.com"
               },
               "Action": [
                   "kms:GenerateDataKey",
                   "kms:Decrypt"
               ],
               "Resource": "arn:aws:kms:us-east-1:111122223333:key/key-id",
               "Condition": {
                   "StringLike": {
                       "kms:EncryptionContext:aws:s3:arn": "<table-bucket-arn>/*"
                   }
               }
           }
       ]
   }
   ```

## Mit dem Dienst verknüpfte Rolle für S3 Storage Lens
<a name="storage-lens-s3-tables-permissions-slr"></a>

S3 Storage Lens verwendet eine dienstbezogene Rolle, um Metriken in S3-Tabellen zu schreiben. Diese Rolle wird automatisch erstellt, wenn Sie den Export von S3-Tabellen zum ersten Mal in Ihrem Konto aktivieren. Die serviceverknüpfte Rolle hat die folgenden Berechtigungen:
+  `s3tables:CreateTable`— Um Tabellen im `aws-s3` Tabellen-Bucket zu erstellen
+  `s3tables:PutTableData`- Um Metrikdaten in Tabellen zu schreiben
+  `s3tables:GetTable`- Um Tabellenmetadaten abzurufen

Sie müssen diese serviceverknüpfte Rolle nicht manuell erstellen oder verwalten. Weitere Informationen zu serviceverknüpften Rollen finden Sie unter [Verwenden serviceverknüpfter Rollen](https://docs.aws.amazon.com/IAM/latest/UserGuide/using-service-linked-roles.html) im *IAM-Benutzerhandbuch*. 

## Bewährte Methoden für Berechtigungen
<a name="storage-lens-s3-tables-permissions-best-practices"></a>

Folgen Sie diesen bewährten Methoden, wenn Sie Berechtigungen für S3 Storage Lens-Tabellen konfigurieren:
+  **Geringste Rechte verwenden** — Gewähren Sie nur die Berechtigungen, die für bestimmte Aufgaben erforderlich sind. Wenn Benutzer beispielsweise nur Daten abfragen müssen, gewähren Sie keine Berechtigungen zum Ändern von Storage Lens-Konfigurationen.
+  **Verwenden Sie IAM-Rollen** — Verwenden Sie IAM-Rollen anstelle von langfristigen Zugriffsschlüsseln für Anwendungen und Dienste, die auf S3 Storage Lens-Tabellen zugreifen.
+  **Aktivieren AWS CloudTrail— Aktivieren** CloudTrail Sie die Protokollierung, um den Zugriff auf S3 Storage Lens-Tabellen zu überwachen und Berechtigungsänderungen nachzuverfolgen.
+  **Verwenden Sie ressourcenbasierte Richtlinien** — Verwenden Sie nach Möglichkeit ressourcenbasierte Richtlinien, um den Zugriff auf bestimmte Tabellen oder Namespaces zu kontrollieren.
+  **Regelmäßige Überprüfung der Berechtigungen** — Überprüfen und prüfen Sie regelmäßig die IAM-Richtlinien und Lake Formation Formation-Berechtigungen, um sicherzustellen, dass sie dem Prinzip der geringsten Rechte entsprechen.

## Problembehebung bei Berechtigungen
<a name="storage-lens-s3-tables-permissions-troubleshooting"></a>

### Zugriff verweigert, wenn der Export von S3-Tabellen aktiviert wurde
<a name="storage-lens-s3-tables-permissions-troubleshooting-export"></a>

 **Problem:** Beim Versuch, den Export von S3-Tabellen zu aktivieren, wird die Fehlermeldung „Zugriff verweigert“ angezeigt.

 **Lösung:** Stellen Sie sicher, dass Ihr IAM-Benutzer oder Ihre IAM-Rolle über die erforderlichen `s3:PutStorageLensConfiguration` Berechtigungen und die erforderlichen S3-Tabelles-Berechtigungen verfügt.

### Der Zugriff wurde beim Abfragen von Tabellen verweigert
<a name="storage-lens-s3-tables-permissions-troubleshooting-query"></a>

 **Problem:** Bei der Abfrage von S3 Storage Lens-Tabellen in Amazon Athena wird die Fehlermeldung „Zugriff verweigert“ angezeigt.

 **Lösung: Stellen Sie sicher, dass:**
+ Die Analytics-Integration ist im `aws-s3` Tabellen-Bucket aktiviert
+ Die Lake Formation Formation-Berechtigungen sind korrekt konfiguriert
+ Ihr IAM-Benutzer oder Ihre IAM-Rolle verfügt über die erforderlichen Amazon Athena Athena-Berechtigungen

### KMS-Verschlüsselungsfehler
<a name="storage-lens-s3-tables-permissions-troubleshooting-kms"></a>

 **Problem:** Beim Zugriff auf verschlüsselte Tabellen werden KMS-bezogene Fehler angezeigt.

 **Lösung: Stellen Sie sicher, dass:**
+ Ihre IAM-Richtlinie umfasst die erforderlichen KMS-Berechtigungen
+ Die KMS-Schlüsselrichtlinie gewährt dem S3 Storage Lens-Dienstprinzipal Berechtigungen
+ Der KMS-Schlüssel befindet sich in derselben Region wie Ihre Storage Lens-Konfiguration

## Nächste Schritte
<a name="storage-lens-s3-tables-permissions-next-steps"></a>
+ Weitere Informationen über [Festlegen der Berechtigungen für Amazon S3 Storage Lens](storage_lens_iam_permissions.md) 
+ Weitere Informationen über [Abfragen von S3 Storage Lens-Daten mit Analysetools](storage-lens-s3-tables-querying.md) 
+ Weitere Informationen über [Verwendung von KI-Assistenten mit S3 Storage Lens-Tabellen](storage-lens-s3-tables-ai-tools.md) 

# Abfragen von S3 Storage Lens-Daten mit Analysetools
<a name="storage-lens-s3-tables-querying"></a>

Bevor Sie mit AWS Analysediensten wie Amazon Athena oder Amazon EMR in S3-Tabellen exportierte S3 Storage Lens-Daten abfragen können, müssen Sie die Analyseintegration für den AWS-verwalteten Tabellen-Bucket `aws-s3` aktivieren und Berechtigungen konfigurieren. AWS Lake Formation 

**Wichtig**  
Die Aktivierung der Analyseintegration im Tabellen-Bucket „aws-s3“ ist ein erforderlicher Schritt, der häufig übersehen wird. Ohne diese Konfiguration können Sie Ihre S3 Storage Lens-Tabellen nicht mithilfe AWS von Analysediensten abfragen.

## Voraussetzungen
<a name="storage-lens-s3-tables-querying-prerequisites"></a>

Bevor Sie beginnen, stellen Sie sicher, dass Sie über Folgendes verfügen:
+ Eine S3-Storage-Lens-Konfiguration mit aktiviertem Export von S3-Tabellen. Weitere Informationen finden Sie unter [Exportieren von S3 Storage Lens-Metriken in S3-Tabellen](storage-lens-s3-tables-export.md).
+ Zugriff auf Amazon Athena oder einen anderen Analysedienst.
+ Nach der Aktivierung des Exports wurde 24-48 Stunden gewartet, bis die ersten Daten verfügbar waren.

## Übersicht über die Integration
<a name="storage-lens-s3-tables-querying-integration-overview"></a>

Ausführliche Informationen zur Integration von S3-Tabellen mit AWS Analyseservices, einschließlich Voraussetzungen, IAM-Rollenkonfiguration und step-by-step Verfahren, finden Sie unter [Integration von Amazon S3-Tabellen mit AWS Analyseservices](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-integrating-aws.html). 

Nachdem Sie den Export von S3-Tabellen aktiviert und die Analyseintegration eingerichtet haben, können Sie Ihre S3 Storage Lens-Daten mithilfe von AWS Analysediensten wie Amazon Athena, Amazon Redshift und Amazon EMR abfragen. Auf diese Weise können Sie mithilfe von Standard-SQL benutzerdefinierte Analysen durchführen, Dashboards erstellen und Erkenntnisse aus Ihren Speicherdaten ableiten.

## Abfragen mit Amazon Athena
<a name="storage-lens-s3-tables-querying-athena"></a>

Amazon Athena ist ein serverloser interaktiver Abfrageservice, der es einfach macht, Daten mit Standard-SQL zu analysieren. Gehen Sie wie folgt vor, um S3 Storage Lens-Daten in Athena abzufragen.

**Anmerkung**  
Ersetzen Sie es in allen Abfragebeispielen `lens_my-config_exp` durch Ihren tatsächlichen Storage Lens-Konfigurationsnamespace. Weitere Informationen zur Namespace-Benennung finden Sie unter. [Benennung von Tabellen für den Export von S3 Storage Lens in S3-Tabellen](storage-lens-s3-tables-naming.md)

### Beispiel: Fragen Sie die meisten Speicherverbraucher ab
<a name="storage-lens-s3-tables-querying-athena-top-consumers"></a>

Die folgende Abfrage identifiziert die 10 Buckets mit dem höchsten Speicherverbrauch:

```
SELECT 
    bucket_name,
    storage_class,
    SUM(storage_bytes) / POWER(1024, 3) AS storage_gb,
    SUM(object_count) AS objects
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time = (
    SELECT MAX(report_time) 
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
)
    AND record_type = 'BUCKET'
    AND bucket_name != ''
GROUP BY bucket_name, storage_class
ORDER BY storage_gb DESC
LIMIT 10
```

### Beispiel: Analysieren Sie das Speicherwachstum im Laufe der Zeit
<a name="storage-lens-s3-tables-querying-athena-growth"></a>

Die folgende Abfrage analysiert das Speicherwachstum in den letzten 30 Tagen:

```
SELECT 
    CAST(report_time AS date) AS report_date,
    SUM(storage_bytes) / POWER(1024, 3) AS total_storage_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time >= current_date - interval '30' day
    AND record_type = 'ACCOUNT'
GROUP BY CAST(report_time AS date)
ORDER BY report_date DESC;
```

### Beispiel: Identifizieren Sie unvollständige mehrteilige Uploads
<a name="storage-lens-s3-tables-querying-athena-mpu"></a>

Die folgende Abfrage findet Buckets mit unvollständigen mehrteiligen Uploads, die älter als 7 Tage sind:

```
SELECT 
    bucket_name,
    SUM(incomplete_mpu_storage_older_than_7_days_bytes) / POWER(1024, 3) AS wasted_storage_gb,
    SUM(incomplete_mpu_object_older_than_7_days_count) AS wasted_objects
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time = (
    SELECT MAX(report_time) 
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
)
    AND record_type = 'BUCKET'
    AND incomplete_mpu_storage_older_than_7_days_bytes > 0
GROUP BY bucket_name
ORDER BY wasted_storage_gb DESC;
```

### Beispiel: Finden Sie Kandidaten für kalte Daten
<a name="storage-lens-s3-tables-querying-athena-cold-data"></a>

Die folgende Abfrage identifiziert Präfixe, die in den letzten 100 Tagen nicht aktiv waren und in heißen Speicherebenen gespeichert wurden:

```
WITH recent_activity AS (
    SELECT DISTINCT 
        bucket_name,
        record_value AS prefix_path
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."expanded_prefixes_activity_metrics"
    WHERE report_time >= current_date - interval '100' day
        AND record_type = 'PREFIX'
        AND all_request_count > 0
)
SELECT 
    s.bucket_name,
    s.record_value AS prefix_path,
    s.storage_class,
    SUM(s.storage_bytes) / POWER(1024, 3) AS storage_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."expanded_prefixes_storage_metrics" s
LEFT JOIN recent_activity r 
    ON s.bucket_name = r.bucket_name 
    AND s.record_value = r.prefix_path
WHERE s.report_time = (
    SELECT MAX(report_time) 
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."expanded_prefixes_storage_metrics"
)
    AND s.record_type = 'PREFIX'
    AND s.storage_class IN ('STANDARD', 'REDUCED_REDUNDANCY')
    AND s.storage_bytes > 1073741824  -- > 1GB
    AND r.prefix_path IS NULL  -- No recent activity
GROUP BY s.bucket_name, s.record_value, s.storage_class
ORDER BY storage_gb DESC
LIMIT 20;
```

### Beispiel: Analysieren Sie Anforderungsmuster
<a name="storage-lens-s3-tables-querying-athena-requests"></a>

Die folgende Abfrage analysiert Anforderungsmuster, um die Zugriffshäufigkeit zu ermitteln:

```
SELECT 
    bucket_name,
    SUM(all_request_count) AS total_requests,
    SUM(get_request_count) AS get_requests,
    SUM(put_request_count) AS put_requests,
    ROUND(100.0 * SUM(get_request_count) / NULLIF(SUM(all_request_count), 0), 2) AS get_percentage,
    SUM(downloaded_bytes) / POWER(1024, 3) AS downloaded_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_activity_metrics"
WHERE report_time >= current_date - interval '7' day
    AND record_type = 'BUCKET'
    AND bucket_name != ''
GROUP BY bucket_name
HAVING SUM(all_request_count) > 0
ORDER BY total_requests DESC
LIMIT 10;
```

## Abfragen mit Apache Spark auf Amazon EMR
<a name="storage-lens-s3-tables-querying-emr"></a>

Amazon EMR bietet ein verwaltetes Hadoop-Framework, das es einfach macht, riesige Datenmengen mit Apache Spark zu verarbeiten. Sie können den Iceberg-Connector verwenden, um S3 Storage Lens-Tabellen direkt zu lesen.

### Lesen Sie S3-Tabellen mit Spark
<a name="storage-lens-s3-tables-querying-emr-spark"></a>

Verwenden Sie den folgenden Python-Code, um S3 Storage Lens-Daten mit Spark zu lesen:

```
from pyspark.sql import SparkSession

spark = SparkSession.builder \
    .appName("S3StorageLensAnalysis") \
    .config("spark.sql.catalog.s3tablescatalog", "org.apache.iceberg.spark.SparkCatalog") \
    .config("spark.sql.catalog.s3tablescatalog.catalog-impl", "org.apache.iceberg.aws.glue.GlueCatalog") \
    .getOrCreate()

# Read S3 Storage Lens data
df = spark.read \
    .format("iceberg") \
    .load("s3tablescatalog/aws-s3.lens_my-config_exp.default_storage_metrics")

# Analyze data
df.filter("record_type = 'BUCKET'") \
    .groupBy("bucket_name", "storage_class") \
    .sum("storage_bytes") \
    .orderBy("sum(storage_bytes)", ascending=False) \
    .show(10)
```

## Bewährte Methoden zur Abfrageoptimierung
<a name="storage-lens-s3-tables-querying-optimization"></a>

Folgen Sie diesen bewährten Methoden, um die Abfrageleistung zu optimieren und die Kosten zu senken:
+  Nach **report\$1time filtern — Verwenden** Sie immer Datumsfilter, um die Menge der gescannten Daten zu reduzieren. Dies ist besonders wichtig für Tabellen mit langen Aufbewahrungszeiträumen.

  ```
  WHERE report_time >= current_date - interval '7' day
  ```
+  **Verwenden Sie record\$1type-Filter** — Geben Sie die entsprechende Aggregationsebene (ACCOUNT, BUCKET, PREFIX) an, um nur die Daten abzufragen, die Sie benötigen.

  ```
  WHERE record_type = 'BUCKET'
  ```
+  **LIMIT-Klauseln einbeziehen** — Verwenden Sie LIMIT für explorative Abfragen, um die Ergebnisgröße zu kontrollieren und die Abfragekosten zu senken.

  ```
  LIMIT 100
  ```
+  **Leere Datensätze filtern** — Verwenden Sie Bedingungen, um leere Datensätze oder Datensätze mit Nullwert auszuschließen.

  ```
  WHERE storage_bytes > 0
  ```
+  Aktuelle **Daten verwenden — Filtern Sie bei der Analyse des aktuellen Status nach dem neuesten** report\$1time, um zu vermeiden, dass historische Daten gescannt werden.

  ```
  WHERE report_time = (SELECT MAX(report_time) FROM table_name)
  ```

### Beispiel für ein optimiertes Abfragemuster
<a name="storage-lens-s3-tables-querying-optimization-example"></a>

Die folgende Abfrage zeigt bewährte Methoden für die Optimierung:

```
SELECT 
    bucket_name,
    SUM(storage_bytes) / POWER(1024, 3) AS storage_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time >= current_date - interval '7' day  -- Date filter
    AND record_type = 'BUCKET'                         -- Record type filter
    AND storage_bytes > 0                              -- Non-empty filter
    AND bucket_name != ''                              -- Non-empty filter
GROUP BY bucket_name
ORDER BY storage_gb DESC
LIMIT 100;                                             -- Result limit
```

## Fehlerbehebung
<a name="storage-lens-s3-tables-querying-troubleshooting"></a>

### Die Abfrage gibt keine Ergebnisse zurück
<a name="storage-lens-s3-tables-querying-troubleshooting-no-results"></a>

 **Problem:** Ihre Abfrage wurde erfolgreich abgeschlossen, liefert aber keine Ergebnisse.

 **Lösung:** 
+ Überprüfen Sie, ob Daten verfügbar sind, indem Sie die neueste Version von report\$1time überprüfen:

  ```
  SELECT MAX(report_time) AS latest_data
  FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics";
  ```
+ Stellen Sie sicher, dass Sie den richtigen Namespace-Namen verwenden. Wird verwendet`SHOW TABLES IN `lens_my-config_exp`;`, um verfügbare Tabellen aufzulisten.
+ Warten Sie 24 bis 48 Stunden, nachdem Sie den Export von S3-Tabellen aktiviert haben, bis die ersten Daten verfügbar sind.

### Fehler aufgrund einer Zugriffsverweigerung
<a name="storage-lens-s3-tables-querying-troubleshooting-access"></a>

 **Problem:** Beim Ausführen von Abfragen erhalten Sie die Fehlermeldung „Zugriff verweigert“.

 **Lösung:** Stellen Sie sicher, dass die AWS Lake Formation Berechtigungen korrekt konfiguriert sind. Weitere Informationen finden Sie unter [Integration von Amazon S3 S3-Tabellen mit AWS Analysediensten.](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-integrating-aws.html) 

## Nächste Schritte
<a name="storage-lens-s3-tables-querying-next-steps"></a>
+ Weitere Informationen über [Verwendung von KI-Assistenten mit S3 Storage Lens-Tabellen](storage-lens-s3-tables-ai-tools.md)
+ Sehen Sie sich die [Amazon S3-Storage-Lens-Metrikglossar](storage_lens_metrics_glossary.md) Definitionen von Metriken an
+ Weitere Ideen [Anwendungsfälle für Metriken von Amazon S3 Storage Lens](storage-lens-use-cases.md) zur Analyse finden Sie hier
+ Erfahren Sie mehr über [Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html) für serverlose Abfragen

# Verwendung von KI-Assistenten mit S3 Storage Lens-Tabellen
<a name="storage-lens-s3-tables-ai-tools"></a>

Sie können KI-Assistenten und Konversations-KI-Tools verwenden, um mit Ihren S3 Storage Lens-Daten zu interagieren, die in natürlicher Sprache in S3-Tabellen exportiert wurden. Durch die Nutzung des Model Context Protocol (MCP) und des MCP-Servers für Amazon S3 S3-Tabellen können Sie Ihre Speicherdaten abfragen, analysieren und Erkenntnisse daraus gewinnen, ohne SQL-Abfragen schreiben zu müssen.

## -Übersicht
<a name="storage-lens-s3-tables-ai-tools-overview"></a>

Das Model Context Protocol (MCP) ist eine standardisierte Methode für KI-Anwendungen, um auf Kontextinformationen zuzugreifen und diese zu nutzen. Der MCP-Server für Amazon S3-Tabellen bietet Tools, mit denen KI-Assistenten über Benutzeroberflächen in natürlicher Sprache mit Ihren S3-Tabellendaten interagieren können. Dies demokratisiert den Datenzugriff und ermöglicht es Personen mit unterschiedlichen technischen Fähigkeiten, mit S3 Storage Lens-Metriken zu arbeiten.

Mit dem MCP-Server für S3-Tabellen können Sie natürliche Sprache verwenden, um:
+ Listet S3-Tabellen-Buckets, Namespaces und Tabellen auf
+ Fragen Sie S3 Storage Lens-Metriken ab und erhalten Sie Einblicke
+ Analysieren Sie Speichertrends und -muster
+ Identifizieren Sie Möglichkeiten zur Kostenoptimierung
+ Generieren Sie Berichte und Visualisierungen

## Unterstützte KI-Assistenten
<a name="storage-lens-s3-tables-ai-tools-supported"></a>

Der MCP-Server für S3-Tabellen arbeitet mit verschiedenen KI-Assistenten zusammen, die das Model Context Protocol unterstützen, darunter:
+ **Kiro** — Ein KI-Codierungsassistent mit integrierter MCP-Unterstützung
+ **Amazon Q Developer** — AWS der KI-gestützte Assistent für Entwickler
+ **Cline** — Ein KI-Codierungsassistent mit MCP-Integration
+ **Claude Desktop** - Die Desktop-Anwendung von Anthropic mit MCP-Unterstützung
+ **Cursor** — Ein KI-gestützter Code-Editor

**Wichtig**  
KI-generierte SQL-Abfragen und -Empfehlungen sollten vor der Verwendung überprüft und validiert werden. Stellen Sie sicher, dass Abfragen für Ihre Datenstruktur, Ihren Anwendungsfall und Ihre Leistungsanforderungen geeignet sind. Testen Sie Empfehlungen immer in einer Umgebung außerhalb der Produktionsumgebung, bevor Sie sie in der Produktion implementieren.

## Kiro mit S3 Storage Lens-Tabellen einrichten
<a name="storage-lens-s3-tables-ai-tools-kiro-setup"></a>

Kiro ist ein KI-Codierungsassistent, der eine nahtlose Integration mit S3-Tabellen über den MCP-Server ermöglicht. Kiro kann Ihnen helfen, den MCP-Server direkt über seine Oberfläche zu installieren und zu konfigurieren, was den Einrichtungsprozess vereinfacht.

[Weitere Informationen zu Kiro finden Sie unter Kiro AI.](https://kiro.ai/)

### Voraussetzungen
<a name="storage-lens-s3-tables-ai-tools-kiro-prerequisites"></a>

Bevor Sie beginnen, stellen Sie sicher, dass Sie über Folgendes verfügen:
+ Kiro ist auf Ihrem System installiert. [Laden Sie es von https://kiro.ai/ herunter](https://kiro.ai/)
+ AWS CLI mit den entsprechenden Anmeldeinformationen konfiguriert
+ Eine S3-Storage-Lens-Konfiguration mit aktiviertem Export von S3-Tabellen
+ Berechtigungen zum Abfragen von S3-Tabellen. Weitere Informationen finden Sie unter [Berechtigungen für S3 Storage Lens-Tabellen](storage-lens-s3-tables-permissions.md).

### Schritt 1: Installieren Sie den S3-Tabellen-MCP-Server
<a name="storage-lens-s3-tables-ai-tools-kiro-step1"></a>

Sie können den S3 Tables MCP Server auf zwei Arten installieren:

**Option 1: Verwenden der integrierten MCP-Serververwaltung von Kiro**  
Kiro kann Ihnen helfen, MCP-Server direkt über die Benutzeroberfläche zu finden und zu installieren:

1. Öffne Kiro

1. Greifen Sie auf die Verwaltungsschnittstelle des MCP-Servers zu (normalerweise über die Einstellungen oder die Befehlspalette)

1. Suchen Sie nach „S3-Tabellen“ oder „awslabs.s3-“ tables-mcp-server

1. Folgen Sie den Anweisungen von Kiro, um den Server zu installieren und zu konfigurieren

**Option 2: Manuelle Installation mit uvx**  
Alternativ können Sie den MCP-Server manuell mit `uvx` einem Python-Paket-Runner installieren:

```
uvx awslabs.s3-tables-mcp-server@latest
```

Weitere Informationen zur Installation des MCP-Servers finden Sie in der Dokumentation zum [AWS S3-Tabellen-MCP-Server](https://awslabs.github.io/mcp/servers/s3-tables-mcp-server).

### Schritt 2: Konfigurieren Sie die Kiro MCP-Einstellungen
<a name="storage-lens-s3-tables-ai-tools-kiro-step2"></a>

Erstellen oder aktualisieren Sie Ihre Kiro MCP-Konfigurationsdatei unter `~/.kiro/settings/mcp.json` mit dem folgenden Inhalt:

```
{
  "mcpServers": {
    "awslabs.s3-tables-mcp-server": {
      "command": "uvx",
      "args": ["awslabs.s3-tables-mcp-server@latest"],
      "env": {
        "AWS_PROFILE": "your-aws-profile",
        "AWS_REGION": "us-east-1"
      }
    }
  }
}
```

Ersetze es `your-aws-profile` durch deinen AWS CLI Profilnamen und `us-east-1` durch deine AWS Region.

### Schritt 3: Überprüfen Sie die Konfiguration
<a name="storage-lens-s3-tables-ai-tools-kiro-step3"></a>

Starten Sie Kiro nach der Konfiguration des MCP-Servers neu und stellen Sie sicher, dass die Tools für S3-Tabellen verfügbar sind. Sie können die verfügbaren MCP-Server in den Einstellungen von Kiro überprüfen oder indem Sie Kiro bitten, die verfügbaren Tools aufzulisten.

## Beispielhafte Anwendungsfälle mit KI-Assistenten
<a name="storage-lens-s3-tables-ai-tools-examples"></a>

Die folgenden Beispiele zeigen, wie Sie mit KI-Assistenten in natürlicher Sprache Eingabeaufforderungen verwenden können, um mit S3 Storage Lens-Daten zu interagieren.

### Beispiel 1: Fragen Sie die meisten Speicherverbraucher ab
<a name="storage-lens-s3-tables-ai-tools-examples-consumers"></a>

**Aufforderung:** „Zeigt mir die 10 Buckets mit den meisten Speicherverbrauch aus meinen S3 Storage Lens-Daten an.“

Der KI-Assistent verwendet den MCP-Server, um Ihre S3 Storage Lens-Tabellen abzufragen und die Ergebnisse, einschließlich Bucket-Namen, Speicherklassen und Speichermengen, zurückzugeben.

### Beispiel 2: Analysieren Sie das Speicherwachstum
<a name="storage-lens-s3-tables-ai-tools-examples-growth"></a>

**Aufforderung:** „Analysieren Sie mein Speicherwachstum in den letzten 30 Tagen und zeigen Sie mir den Trend.“

Der KI-Assistent fragt die Tabelle mit den Speichermetriken ab, berechnet die täglichen Speichersummen und präsentiert den Wachstumstrend.

### Beispiel 3: Identifizieren Sie Möglichkeiten zur Kostenoptimierung
<a name="storage-lens-s3-tables-ai-tools-examples-optimization"></a>

**Aufforderung:** „Finden Sie Buckets mit unvollständigen mehrteiligen Uploads, die älter als 7 Tage sind und Speicherplatz verschwenden.“

Der KI-Assistent fragt die Speichermetriktabelle nach unvollständigen mehrteiligen Uploads ab und stellt eine Liste der Buckets mit potenziellen Kosteneinsparungen bereit.

### Beispiel 4: Finden Sie Kandidaten für kalte Daten
<a name="storage-lens-s3-tables-ai-tools-examples-cold-data"></a>

**Aufforderung:** „Identifizieren Sie Präfixe, die in den letzten 100 Tagen nicht aktiv waren und die in heißen Speicherebenen gespeichert wurden.“

Der KI-Assistent analysiert sowohl Speicher- als auch Aktivitätskennzahlen, um Daten zu identifizieren, die zur Kostenoptimierung auf kältere Speicherebenen verschoben werden könnten.

### Beispiel 5: Generieren Sie Speicherberichte
<a name="storage-lens-s3-tables-ai-tools-examples-reports"></a>

**Aufforderung:** „Erstellen Sie einen zusammenfassenden Bericht über meinen S3-Speicher, in dem der Gesamtspeicher, die Anzahl der Objekte und die Anforderungsmuster der letzten Woche angezeigt werden.“

Der KI-Assistent fragt mehrere Tabellen ab, aggregiert die Daten und generiert einen umfassenden Bericht.

## Bewährte Methoden für den Einsatz von KI-Assistenten
<a name="storage-lens-s3-tables-ai-tools-best-practices"></a>

Folgen Sie diesen bewährten Methoden, wenn Sie KI-Assistenten mit S3 Storage Lens-Daten verwenden:
+ **Seien Sie bei Ihren Eingabeaufforderungen** konkret — Geben Sie klare, spezifische Anweisungen dazu, welche Daten Sie analysieren möchten und nach welchen Erkenntnissen Sie suchen.
+ **Überprüfen Sie KI-generierte Abfragen** — Überprüfen und validieren Sie immer die vom KI-Assistenten generierten SQL-Abfragen und Empfehlungen, bevor Sie sie ausführen oder Maßnahmen ergreifen. KI-Assistenten können gelegentlich falsche Abfragen oder Empfehlungen erstellen, die anhand Ihres spezifischen Anwendungsfalls und Ihrer Daten verifiziert werden müssen.
+ **Verwenden Sie die entsprechenden Berechtigungen** — Stellen Sie sicher, dass die vom KI-Assistenten verwendeten IAM-Anmeldeinformationen nur über die erforderlichen Berechtigungen verfügen. Erteilen Sie nur SELECT-Berechtigungen für Analysen, die nur Lesezugriff haben.
+ **Nutzung überwachen** — Verfolgen Sie die Abfragen, die von KI-Assistenten ausgeführt werden AWS CloudTrail , um Prüfprotokolle zu verwalten.
+ **Beginnen Sie mit einfachen Abfragen** — Beginnen Sie mit einfachen Abfragen, um zu verstehen, wie der KI-Assistent Ihre Eingabeaufforderungen interpretiert, und fahren Sie dann mit komplexeren Analysen fort.

## Protokollierung und Rückverfolgbarkeit
<a name="storage-lens-s3-tables-ai-tools-logging"></a>

Wenn Sie den S3 Tables MCP Server mit KI-Assistenten verwenden, haben Sie mehrere Möglichkeiten, Operationen zu überprüfen:
+ **Lokale Protokolle** — Der MCP-Server protokolliert Anfragen und Antworten lokal. Mit der `--log-dir` Konfigurationsoption können Sie ein Protokollverzeichnis angeben.
+ **AWS CloudTrail**- Alle S3-Tabellenoperationen, die über den MCP-Server ausgeführt PyIceberg werden, werden `awslabs/mcp/s3-tables-mcp-server/<version>` als User-Agent-String verwendet. Sie können CloudTrail Protokolle nach diesem Benutzeragenten filtern, um die von KI-Assistenten ausgeführten Aktionen nachzuverfolgen.
+ **Verlauf des KI-Assistenten** — KI-Assistenten wie Kiro und Cline führen Verlaufsprotokolle, in denen Anfragen in natürlicher Sprache, LLM-Antworten und Anweisungen aufgezeichnet werden, die dem MCP-Server bereitgestellt werden.

## Sicherheitsüberlegungen
<a name="storage-lens-s3-tables-ai-tools-security"></a>

Beachten Sie bei der Verwendung von KI-Assistenten mit S3 Storage Lens-Daten die folgenden bewährten Sicherheitsmethoden:
+ **Verwenden Sie den Zugriff mit den geringsten** Rechten — Gewähren Sie KI-Assistenten nur die Mindestberechtigungen, die für ihre Aufgaben erforderlich sind.
+ **MFA aktivieren** — Verwenden Sie die Multi-Faktor-Authentifizierung für AWS Konten, auf die KI-Assistenten zugreifen.
+ **Regelmäßige Überprüfung der Berechtigungen** — Überprüfe regelmäßig die Berechtigungen, die KI-Assistenten erhalten, und widerrufe unnötigen Zugriff.
+ **Verwenden Sie separate Anmeldeinformationen** — Erwägen Sie die Verwendung separater AWS Anmeldeinformationen für den Zugriff auf KI-Assistenten, um die Nachverfolgung und Prüfung zu erleichtern.
+ **Vermeiden Sie die Weitergabe vertraulicher Daten** — Seien Sie vorsichtig, wenn Sie sensible Informationen in Aufforderungen an KI-Assistenten weitergeben, insbesondere wenn Sie Cloud-basierte KI-Dienste verwenden.

## Fehlerbehebung
<a name="storage-lens-s3-tables-ai-tools-troubleshooting"></a>

### Der KI-Assistent kann keine Verbindung zu S3-Tabellen herstellen
<a name="storage-lens-s3-tables-ai-tools-troubleshooting-connection"></a>

**Problem:** Der AI-Assistent meldet, dass er keine Verbindung zu S3-Tabellen herstellen kann oder der MCP-Server nicht reagiert.

**Lösung:**
+ Stellen Sie sicher, dass der MCP-Server korrekt installiert ist `uvx awslabs.s3-tables-mcp-server@latest --version`
+ Vergewissern Sie sich, dass Ihre AWS Anmeldeinformationen korrekt konfiguriert sind
+ Stellen Sie sicher, dass die MCP-Konfigurationsdatei das richtige AWS Profil und die richtige Region hat

### Fehler aufgrund einer Zugriffsverweigerung
<a name="storage-lens-s3-tables-ai-tools-troubleshooting-access"></a>

**Problem:** Der AI-Assistent erhält bei der Abfrage von S3 Storage Lens-Tabellen die Fehlermeldung „Zugriff verweigert“.

**Lösung:**
+ Stellen Sie sicher, dass die Analyseintegration im `aws-s3` Tabellen-Bucket aktiviert ist
+ Stellen Sie sicher, dass die Lake Formation Formation-Berechtigungen korrekt konfiguriert sind
+ Stellen Sie sicher, dass die AWS Anmeldeinformationen über die erforderlichen IAM-Berechtigungen verfügen

### Falsche oder unerwartete Ergebnisse
<a name="storage-lens-s3-tables-ai-tools-troubleshooting-results"></a>

**Problem:** Der KI-Assistent gibt falsche oder unerwartete Ergebnisse zurück.

**Lösung:**
+ Überprüfen Sie die vom AI-Assistenten generierte SQL-Abfrage
+ Stellen Sie sicher, dass Sie den richtigen Namespace-Namen für Ihre Storage Lens-Konfiguration verwenden
+ Überprüfen Sie, ob Daten verfügbar sind, indem Sie die neueste Version von report\$1time abfragen
+ Verfeinern Sie Ihre Eingabeaufforderung, um genauer anzugeben, was Sie analysieren möchten

## Weitere Ressourcen
<a name="storage-lens-s3-tables-ai-tools-resources"></a>

Weitere Informationen zur Verwendung von KI-Assistenten mit S3-Tabellen finden Sie in den folgenden Ressourcen:
+ [Kiro AI — KI-Codierungsassistent](https://kiro.ai/) mit integrierter MCP-Unterstützung
+ [Implementierung von Konversations-KI für S3-Tabellen mithilfe des Model Context Protocol (MCP](https://aws.amazon.com/blogs/storage/implementing-conversational-ai-for-s3-tables-using-model-context-protocol-mcp/)) - Storage Blog AWS 
+ [AWS Dokumentation zum MCP-Server für S3-Tabellen](https://awslabs.github.io/mcp/servers/s3-tables-mcp-server)
+ [Spezifikation des Model Context-Protokolls](https://modelcontextprotocol.io/)