

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Utilizzo dei dati di S3 Storage Lens in S3 Tables
<a name="storage-lens-s3-tables"></a>

Amazon S3 Storage Lens può esportare analisi e approfondimenti di storage su S3 Tables, consentendoti di interrogare i parametri di Storage Lens utilizzando SQL con servizi di AWS analisi come Amazon Athena, Amazon EMR, SageMaker Amazon Studio SMStudio () e altri strumenti di analisi. AWS Quando configuri S3 Storage Lens per l'esportazione in S3 Tables, le tue metriche vengono automaticamente archiviate in tabelle Apache Iceberg di sola lettura nel bucket di tabelle gestito. AWS`aws-s3`

Questa integrazione fornisce l'accesso strutturato ai dati per interrogare i parametri di Storage Lens utilizzando SQL standard, l'integrazione dell'analisi con AWS i servizi di analisi, funzionalità di analisi storica e l'ottimizzazione dei costi senza costi aggiuntivi per l'esportazione su tabelle S3 gestite. AWS

**Topics**
+ [

# Esportazione delle metriche di S3 Storage Lens in S3 Tables
](storage-lens-s3-tables-export.md)
+ [

# Denominazione delle tabelle per l'esportazione di S3 Storage Lens su S3 Tables
](storage-lens-s3-tables-naming.md)
+ [

# Comprensione degli schemi delle tabelle di S3 Storage Lens
](storage-lens-s3-tables-schemas.md)
+ [

# Autorizzazioni per le tabelle S3 Storage Lens
](storage-lens-s3-tables-permissions.md)
+ [

# Interrogazione dei dati di S3 Storage Lens con strumenti di analisi
](storage-lens-s3-tables-querying.md)
+ [

# Utilizzo degli assistenti AI con le tabelle S3 Storage Lens
](storage-lens-s3-tables-ai-tools.md)

# Esportazione delle metriche di S3 Storage Lens in S3 Tables
<a name="storage-lens-s3-tables-export"></a>

Puoi configurare Amazon S3 Storage Lens per esportare analisi e approfondimenti di storage su S3 Tables. Quando abiliti l'esportazione di tabelle S3, le tue metriche vengono automaticamente archiviate in tabelle Apache Iceberg di sola lettura nel bucket di `aws-s3` tabelle AWS gestito, rendendole interrogabili tramite SQL con servizi di analisi come AWS Amazon Athena, Amazon Redshift e Amazon EMR.

**Nota**  
Non sono previsti costi aggiuntivi per l'esportazione dei parametri di S3 Storage Lens in tabelle S3 gestite. AWS Si applicano le tariffe standard per l'archiviazione delle tabelle, la gestione delle tabelle e le richieste sulle tabelle. Per ulteriori informazioni, consulta [Prezzi di Amazon S3](https://aws.amazon.com/s3/pricing). 

## Abilita l'esportazione delle tabelle S3 utilizzando la console
<a name="storage-lens-s3-tables-export-console"></a>

1. Accedi alla console di AWS gestione e apri la console Amazon S3 all'indirizzo. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/) 

1. Nel riquadro di navigazione a sinistra, scegli **Storage Lens**, quindi scegli **Storage Lens Dashboards**. 

1. Nell'elenco delle **dashboard di Storage Lens**, scegli la dashboard che desideri modificare.

1. Scegli **Modifica**. 

1. Nella pagina **Dashboard**, vai alla sezione **Esportazione e pubblicazione delle metriche**.

1. Per abilitare il **rapporto Table Export for Default Metrics**, seleziona **Table bucket nel tipo Bucket**.

1. Per abilitare il **rapporto Table Export for Expanded sulle metriche dei prefissi**, seleziona **Table** bucket nel tipo Bucket.

1. **Controlla la configurazione del pannello di controllo e fai clic su Invia.** 

**Nota**  
Dopo aver abilitato l'esportazione delle tabelle S3, possono essere necessarie fino a 48 ore prima che i primi dati siano disponibili nelle tabelle.

**Nota**  
Non sono previsti costi aggiuntivi per l'esportazione dei parametri di S3 Storage Lens in tabelle S3 gestite. AWS Si applicano le tariffe standard per l'archiviazione delle tabelle, la gestione delle tabelle, le richieste sulle tabelle e il monitoraggio. Puoi abilitare o disabilitare l'esportazione su S3 Tables utilizzando la console Amazon S3, l'API Amazon S3, o. AWS CLI AWS SDKs

**Nota**  
Per impostazione predefinita, i record nelle tabelle S3 non scadono. Per ridurre al minimo i costi di archiviazione per le tabelle, puoi abilitare e configurare la scadenza dei record per le tabelle. Con questa opzione, Amazon S3 rimuove automaticamente i record da una tabella quando i record scadono. Vedi: [Scadenza dei record per le tabelle](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-record-expiration.html). 

## Abilita l'esportazione delle tabelle S3 utilizzando il AWS CLI
<a name="storage-lens-s3-tables-export-cli"></a>

**Nota**  
Prima di eseguire i seguenti comandi, assicurati di disporre di una versione CLI aggiornata. Vedi [Installazione o aggiornamento alla versione più recente di AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html). 

L'esempio seguente abilita l'esportazione delle tabelle S3 per una configurazione di S3 Storage Lens «Default metrics report» utilizzando il. AWS CLI Per utilizzare questo esempio, sostituisci *user input placeholders* con le informazioni appropriate.

```
aws s3control put-storage-lens-configuration --account-id=555555555555 --config-id=your-configuration-id --storage-lens-configuration '{
   "Id":"your-configuration-id",
   "AccountLevel":{
      "ActivityMetrics":{
        "IsEnabled":true
      },
      "BucketLevel":{
         "ActivityMetrics":{
            "IsEnabled":true
         }
      }
   },
   "DataExport":{
      "S3BucketDestination":{
         "OutputSchemaVersion":"V_1",
         "Format":"CSV",
         "AccountId":"555555555555",
         "Arn":"arn:aws:s3:::my-export-bucket",
         "Prefix":"storage-lens-exports/"
      },
      "StorageLensTableDestination":{
         "IsEnabled":true
      }
   },
   "IsEnabled":true
}'
```

## Abilita l'esportazione delle tabelle S3 utilizzando il AWS SDKs
<a name="storage-lens-s3-tables-export-sdk"></a>

L'esempio seguente abilita l'esportazione di tabelle S3 per una configurazione di S3 Storage Lens «Default metrics report» utilizzando l' AWS SDK for Python (Boto3). Per utilizzare questo esempio, sostituisci *user input placeholders* con le informazioni appropriate.

```
import boto3

s3control = boto3.client('s3control')

response = s3control.put_storage_lens_configuration( AccountId='555555555555', ConfigId='your-configuration-id', StorageLensConfiguration={
        'Id': 'your-configuration-id',
        'AccountLevel': {
            'ActivityMetrics': {
              'IsEnabled': True
            },
            'BucketLevel': {
                'ActivityMetrics': {
                    'IsEnabled': True
                }
            }
        },
        'DataExport': {
            'S3BucketDestination': {
                'OutputSchemaVersion': 'V_1',
                'Format': 'CSV',
                'AccountId': '555555555555',
                'Arn': 'arn:aws:s3:::my-export-bucket',
                'Prefix': 'storage-lens-exports/'
            },
            'StorageLensTableDestination': {
                'IsEnabled': True
            }
        },
        'IsEnabled': True
    }
)
```

[Per ulteriori informazioni sull'utilizzo di, consulta and tools. AWS SDKs AWS SDKs ](https://aws.amazon.com/developer/tools/) 

## Fasi successive
<a name="storage-lens-s3-tables-export-next-steps"></a>

Dopo aver abilitato l'esportazione delle tabelle S3, puoi:
+ Ulteriori informazioni su [Denominazione delle tabelle per l'esportazione di S3 Storage Lens su S3 Tables](storage-lens-s3-tables-naming.md) 
+ Ulteriori informazioni su [Comprensione degli schemi delle tabelle di S3 Storage Lens](storage-lens-s3-tables-schemas.md) 

# Denominazione delle tabelle per l'esportazione di S3 Storage Lens su S3 Tables
<a name="storage-lens-s3-tables-naming"></a>

Quando esporti le metriche di S3 Storage Lens in S3 Tables, le tabelle vengono organizzate utilizzando le convenzioni del catalogo Apache Iceberg con modelli di denominazione specifici per garantire compatibilità e organizzazione.

## Struttura della posizione delle tabelle
<a name="storage-lens-s3-tables-naming-location"></a>

La posizione completa della tabella segue questo schema:

```
s3tablescatalog/aws-s3/<namespace>/<table-name>
```

### Nome del bucket della tabella
<a name="storage-lens-s3-tables-naming-bucket"></a>

 **Secchio da tavolo:** `aws-s3` 

L'esportazione di S3 Storage Lens utilizza il `aws-s3` table bucket, che è il bucket designato per AWS le tabelle di sistema relative a S3.

### Nome del catalogo
<a name="storage-lens-s3-tables-naming-catalog"></a>

 **Catalogo:** `s3tablescatalog/aws-s3` 

Le tabelle S3 Storage Lens sono archiviate nel catalogo S3 perché Storage Lens fornisce informazioni su tre tipi di risorse S3:
+ Metriche di archiviazione
+ Proprietà dei bucket
+ Metriche di utilizzo delle API

## Convenzione di denominazione dei namespace
<a name="storage-lens-s3-tables-naming-namespace"></a>

I namespace organizzano le tabelle all'interno del catalogo. Per S3 Storage Lens, lo spazio dei nomi deriva dall'ID di configurazione di Storage Lens.

### Formato dello spazio dei nomi standard
<a name="storage-lens-s3-tables-naming-namespace-standard"></a>

Per la configurazione di Storage Lens IDs senza punti (): `.` 

```
lens_<configuration-id>_exp
```

 **Esempio:** se l'ID di configurazione è`my-lens-config`, lo spazio dei nomi sarà:

```
lens_my-lens-config_exp
```

### Formato dello spazio dei nomi con gestione di punti o lettere maiuscole
<a name="storage-lens-s3-tables-naming-namespace-dots"></a>

La configurazione di Storage Lens IDs può contenere punti (`.`) o lettere maiuscole (`A-Z`), ma i namespace di S3 Tables supportano solo lettere minuscole, numeri, trattini () e caratteri di sottolineatura (). `-` `_` Quando l'ID di configurazione contiene punti, questi vengono convertiti in trattini, le lettere maiuscole vengono convertite in lettere minuscole e viene aggiunto un suffisso hash per renderle uniche:

```
lens_<configuration-id-with-dots-or-uppercase-replaced>_exp_<7-char-hash>
```

 **Esempio:** se l'ID di configurazione è, lo spazio dei nomi sarà: `my.LENS.config`

```
lens_my-lens-config_exp_a1b2c3d
```

Dove `a1b2c3d` sono i primi 7 caratteri dell'hash SHA-1 dell'ID di configurazione originale.

## Esempi completi
<a name="storage-lens-s3-tables-naming-examples"></a>

Per una configurazione Storage Lens con ID`production-metrics`: 
+  **Secchio da tavolo:** `aws-s3` 
+  **Catalogo:** `s3tablescatalog/aws-s3` 
+  **Spazio dei nomi:** `lens_production-metrics_exp` 
+  **Percorso completo:** `s3tablescatalog/aws-s3/lens_production-metrics_exp/<table-name>` 

Per una configurazione Storage Lens con ID`prod.us.east.metrics`: 
+  **Secchio da tavolo:** `aws-s3` 
+  **Catalogo:** `s3tablescatalog/aws-s3` 
+  **Namespace:** `lens_prod-us-east-metrics_exp_f8e9a1b` (con hash)
+  **Percorso completo:** `s3tablescatalog/aws-s3/lens_prod-us-east-metrics_exp_f8e9a1b/<table-name>` 

## Tipo di tabella
<a name="storage-lens-s3-tables-naming-types"></a>

La tabella seguente mostra i diversi tipi di tabelle create per le esportazioni di S3 Storage Lens:


| Catalogo | Namespace | Nome della tabella S3 | Description | 
| --- | --- | --- | --- | 
| s3tablescatalog/aws-s3 | <conf\$1name><hash>lente\$1 \$1exp [\$1] | metrice\$1storage\$1predefinite | Questa tabella contiene i parametri di archiviazione per la configurazione di Storage Lens. | 
| s3tablescatalog/aws-s3 | <conf\$1name><hash>lente\$1 \$1exp [\$1] | metrice\$1attività\$1predefinite | Questa tabella contiene le metriche di attività per la configurazione di Storage Lens. | 
| s3tablescatalog/aws-s3 | <conf\$1name><hash>lente\$1 \$1exp [\$1] | estessi\$1prefissi\$1storage\$1metrics | Questa tabella contiene i parametri di archiviazione per tutti i prefissi nella configurazione di Storage Lens. | 
| s3tablescatalog/aws-s3 | <conf\$1name><hash>lente\$1 \$1exp [\$1] | metriche di attività con prefissi\$1espansi | Questa tabella contiene le metriche di attività per tutti i prefissi nella configurazione di Storage Lens. | 
| s3tablescatalog/aws-s3 | <conf\$1name><hash>lente\$1 \$1exp [\$1] | bucket\$1property\$1metrics | Questa tabella contiene le metriche delle proprietà dei bucket per tutti i bucket nella configurazione di Storage Lens. | 

## Fasi successive
<a name="storage-lens-s3-tables-naming-next-steps"></a>
+ Ulteriori informazioni su [Comprensione degli schemi delle tabelle di S3 Storage Lens](storage-lens-s3-tables-schemas.md) 
+ Ulteriori informazioni su [Autorizzazioni per le tabelle S3 Storage Lens](storage-lens-s3-tables-permissions.md) 

# Comprensione degli schemi delle tabelle di S3 Storage Lens
<a name="storage-lens-s3-tables-schemas"></a>

Quando si esportano le metriche di S3 Storage Lens in tabelle S3, i dati sono organizzati in tre schemi di tabelle separati: metriche di storage, metriche delle proprietà dei bucket e metriche delle attività.

## Schema della tabella delle metriche di archiviazione
<a name="storage-lens-s3-tables-schemas-storage"></a>


| Nome | Tipo | Description | 
| --- | --- | --- | 
|  version\$1number  | stringa | Identificatore di versione dello schema della tabella | 
|  configuration\$1id  | stringa | Nome di configurazione di S3 Storage Lens | 
|  report\$1time  | timestamptz | Data a cui si riferisce il rapporto S3 Storage Lens | 
|  aws\$1account\$1id  | stringa | ID account a cui si riferisce la voce | 
|  aws\$1region  | stringa | Region | 
|  storage\$1class  | stringa | Classe di storage | 
|  record\$1type  | stringa | Tipo di record, related a che livello di aggregazione dei dati. Valori:ACCOUNT,,BUCKET, PREFIXSTORAGE\$1LENS\$1GROUP\$1BUCKET,STORAGE\$1LENS\$1GROUP\$1ACCOUNT.  | 
|  record\$1value  | stringa | Disambiguatore per i tipi di record che contengono più di un record. Viene utilizzato per fare riferimento al prefisso | 
|  bucket\$1name  | stringa | Nome bucket | 
|  object\$1count  | Long | Numero di oggetti memorizzati per l'elemento di riferimento corrente | 
|  storage\$1bytes  | DECIMALE (38,0) | Numero di byte archiviati per l'elemento di riferimento corrente | 
|  bucket\$1key\$1sse\$1kms\$1object\$1count  | Long | Numero di oggetti crittografati con una chiave gestita dal cliente archiviata per l'elemento di riferimento corrente | 
|  bucket\$1key\$1sse\$1kms\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte crittografati con una chiave gestita dal cliente archiviata per l'elemento di riferimento corrente | 
|  current\$1version\$1object\$1count  | Long | Numero di oggetti della versione corrente archiviati per l'elemento di riferimento corrente | 
|  current\$1version\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte della versione corrente archiviati per l'elemento di riferimento corrente | 
|  delete\$1marker\$1object\$1count  | Long | Numero di oggetti marker di eliminazione memorizzati per l'elemento di riferimento corrente | 
|  delete\$1marker\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte del marker di eliminazione memorizzati per l'elemento di riferimento corrente | 
|  encrypted\$1object\$1count  | Long | Numero di oggetti crittografati archiviati per l'elemento di riferimento corrente | 
|  encrypted\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte crittografati archiviati per l'elemento di riferimento corrente | 
|  incomplete\$1mpu\$1object\$1older\$1than\$17\$1days\$1count  | Long | Numero di oggetti di caricamento incompleti in più parti più vecchi di 7 giorni archiviati per l'elemento di riferimento corrente | 
|  incomplete\$1mpu\$1storage\$1older\$1than\$17\$1days\$1bytes  | DECIMALE (38,0) | Numero di byte di caricamento multiparte incompleti archiviati da più di 7 giorni per l'elemento di riferimento corrente | 
|  incomplete\$1mpu\$1object\$1count  | Long | Numero di oggetti di caricamento multiparte incompleti archiviati per l'elemento di riferimento corrente | 
|  incomplete\$1mpu\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte di caricamento multiparte incompleti archiviati per l'elemento di riferimento corrente | 
|  non\$1current\$1version\$1object\$1count  | Long | Numero di oggetti della versione non corrente memorizzati per l'elemento di riferimento corrente | 
|  non\$1current\$1version\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte di versione non corrente archiviati per l'elemento di riferimento corrente | 
|  object\$1lock\$1enabled\$1object\$1count  | Long | Numero di oggetti memorizzati per gli oggetti con blocco abilitato nell'elemento di riferimento corrente | 
|  object\$1lock\$1enabled\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte archiviati per gli oggetti con blocco abilitato nell'elemento di riferimento corrente | 
|  replicated\$1object\$1count  | Long | Numero di oggetti replicati per l'elemento di riferimento corrente | 
|  replicated\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte replicati per l'elemento di riferimento corrente | 
|  replicated\$1object\$1source\$1count  | Long | Numero di oggetti replicati come origine archiviati per l'elemento di riferimento corrente | 
|  replicated\$1storage\$1source\$1bytes  | DECIMALE (38,0) | Numero di byte replicati come origine per l'elemento di riferimento corrente | 
|  sse\$1kms\$1object\$1count  | Long | Numero di oggetti crittografati con chiave SSE archiviati per l'elemento di riferimento corrente | 
|  sse\$1kms\$1storage\$1bytes  | DECIMALE (38,0) | Numero di byte crittografati con chiave SSE archiviati per l'elemento di riferimento corrente | 
|  object\$10kb\$1count  | Long | Numero di oggetti con dimensioni pari a 0 KB, inclusa la versione corrente, le versioni non correnti, i caricamenti multiparte incompleti e i marker di eliminazione | 
|  object\$10kb\$1to\$1128kb\$1count  | Long | Numero di oggetti con dimensioni superiori a 0 KB e inferiori a 128 KB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | 
|  object\$1128kb\$1to\$1256kb\$1count  | Long | Numero di oggetti con dimensioni superiori a 128 KB e inferiori a 256 KB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | 
|  object\$1256kb\$1to\$1512kb\$1count  | Long | Numero di oggetti con dimensioni superiori a 256 KB e inferiori a 512 KB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | 
|  object\$1512kb\$1to\$11mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 512 KB e inferiori a 1 MB, tra cui versione corrente, versioni non correnti, caricamenti multiparte incompleti e marker di eliminazione | 
|  object\$11mb\$1to\$12mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 1 MB e inferiori a 2 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$12mb\$1to\$14mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 2 MB e inferiori a 4 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$14mb\$1to\$18mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 4 MB e inferiori a 8 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$18mb\$1to\$116mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 8 MB e inferiori a 16 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$116mb\$1to\$132mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 16 MB e inferiori a 32 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$132mb\$1to\$164mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 32 MB e inferiori a 64 MB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$164mb\$1to\$1128mb\$1count  | Long | Numero di oggetti con dimensioni superiori a 64 MB e inferiori a 128 MB, inclusa la versione corrente, le versioni non correnti, i caricamenti multiparte incompleti e i marker di eliminazione | 
|  object\$1128mb\$1to\$1256mb\$1count  | Long | Numero di oggetti di dimensioni superiori a 128 MB e inferiori a 256 MB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$1256mb\$1to\$1512mb\$1count  | Long | Numero di oggetti di dimensioni superiori a 256 MB e inferiori a 512 MB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$1512mb\$1to\$11gb\$1count  | Long | Numero di oggetti di dimensioni superiori a 512 MB e inferiori a 1 GB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$11gb\$1to\$12gb\$1count  | Long | Numero di oggetti di dimensioni superiori a 1 GB e inferiori a 2 GB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$12gb\$1to\$14gb\$1count  | Long | Numero di oggetti di dimensioni superiori a 2 GB e inferiori a 4 GB, incluse la versione corrente, le versioni non correnti, i caricamenti incompleti in più parti e i marker di eliminazione | 
|  object\$1larger\$1than\$14gb\$1count  | Long | Numero di oggetti di dimensioni superiori a 4 GB, incluse la versione corrente, le versioni non correnti, i caricamenti multiparte incompleti e i marker di eliminazione | 

## Schema della tabella delle metriche delle proprietà Bucket
<a name="storage-lens-s3-tables-schemas-bucket-property"></a>


| Nome | Tipo | Description | 
| --- | --- | --- | 
|  version\$1number  | stringa | Identificatore di versione dello schema della tabella | 
|  configuration\$1id  | stringa | Nome di configurazione di S3 Storage Lens | 
|  report\$1time  | timestamptz | Data a cui si riferisce il rapporto S3 Storage Lens | 
|  aws\$1account\$1id  | stringa | ID account a cui si riferisce la voce | 
|  record\$1type  | stringa | Tipo di record, correlato al livello di aggregazione dei dati. Valori:ACCOUNT,,BUCKET, PREFIXSTORAGE\$1LENS\$1GROUP\$1BUCKET,STORAGE\$1LENS\$1GROUP\$1ACCOUNT.  | 
|  record\$1value  | stringa | Disambiguatore per i tipi di record che contengono più di un record. Viene utilizzato per fare riferimento al prefisso. | 
|  aws\$1region  | stringa | Region | 
|  storage\$1class  | stringa | Classe di storage | 
|  bucket\$1name  | stringa | Nome bucket | 
|  versioning\$1enabled\$1bucket\$1count  | Long | Numero di bucket con controllo delle versioni abilitato per l'elemento di riferimento corrente | 
|  mfa\$1delete\$1enabled\$1bucket\$1count  | Long | Numero di bucket con eliminazione MFA abilitata per l'elemento di riferimento corrente | 
|  sse\$1kms\$1enabled\$1bucket\$1count  | Long | Numero di bucket con KMS abilitato per l'elemento di riferimento corrente | 
|  object\$1ownership\$1bucket\$1owner\$1enforced\$1bucket\$1count  | Long | Numero di bucket con proprietario del bucket Object Ownership applicato per l'elemento di riferimento corrente | 
|  object\$1ownership\$1bucket\$1owner\$1preferred\$1bucket\$1count  | Long | Numero di bucket con proprietario del bucket Object Ownership preferito per l'elemento di riferimento corrente | 
|  object\$1ownership\$1object\$1writer\$1bucket\$1count  | Long | Numero di bucket con Object Ownership Object Writer per l'elemento di riferimento corrente | 
|  transfer\$1acceleration\$1enabled\$1bucket\$1count  | Long | Numero di bucket con accelerazione di trasferimento abilitata per l'elemento di riferimento corrente | 
|  event\$1notification\$1enabled\$1bucket\$1count  | Long | Numero di bucket con notifica degli eventi abilitata per l'elemento di riferimento corrente | 
|  transition\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita della transizione per l'elemento di riferimento corrente | 
|  expiration\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita di scadenza per l'elemento di riferimento corrente | 
|  non\$1current\$1version\$1transition\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita di transizione delle versioni non correnti per l'elemento di riferimento corrente | 
|  non\$1current\$1version\$1expiration\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita di scadenza delle versioni non correnti per l'elemento di riferimento corrente | 
|  abort\$1incomplete\$1multipart\$1upload\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita di caricamento multiparte incomplete per l'elemento di riferimento corrente | 
|  expired\$1object\$1delete\$1marker\$1lifecycle\$1rule\$1count  | Long | Numero di regole del ciclo di vita dei marker di eliminazione degli oggetti in scadenza per l'elemento di riferimento corrente | 
|  same\$1region\$1replication\$1rule\$1count  | Long | Numero di regole di replica nella stessa area per l'elemento di riferimento corrente | 
|  cross\$1region\$1replication\$1rule\$1count  | Long | Numero di regole di replica interregionale per l'elemento di riferimento corrente | 
|  same\$1account\$1replication\$1rule\$1count  | Long | Numero di regole di replica dello stesso account per l'elemento di riferimento corrente | 
|  cross\$1account\$1replication\$1rule\$1count  | Long | Numero di regole di replica tra account per l'elemento di riferimento corrente | 
|  invalid\$1destination\$1replication\$1rule\$1count  | Long | Numero di bucket con replica di destinazione non valida per l'elemento di riferimento corrente | 

## Schema della tabella delle metriche delle attività
<a name="storage-lens-s3-tables-schemas-activity"></a>


| Nome | Tipo | Description | 
| --- | --- | --- | 
|  version\$1number  | stringa | Identificatore di versione dello schema della tabella | 
|  configuration\$1id  | stringa | Nome di configurazione di S3 Storage Lens | 
|  report\$1time  | timestamptz | Data a cui si riferisce il rapporto S3 Storage Lens | 
|  aws\$1account\$1id  | stringa | ID account a cui si riferisce la voce | 
|  aws\$1region  | stringa | Region | 
|  storage\$1class  | stringa | Classe di storage | 
|  record\$1type  | stringa | Tipo di record, correlato al livello di aggregazione dei dati. Valori:ACCOUNT,,BUCKET, PREFIXSTORAGE\$1LENS\$1GROUP\$1BUCKET,STORAGE\$1LENS\$1GROUP\$1ACCOUNT.  | 
|  record\$1value  | stringa | Disambiguatore per i tipi di record che contengono più di un record. Viene utilizzato per fare riferimento al prefisso | 
|  bucket\$1name  | stringa | Nome bucket | 
|  all\$1request\$1count  | Long | Numero di \$1tutte\$1 richieste per l'elemento di riferimento corrente | 
|  all\$1sse\$1kms\$1encrypted\$1request\$1count  | Long | Numero di richieste crittografate KMS per l'elemento di riferimento corrente | 
|  all\$1unsupported\$1sig\$1request\$1count  | Long | Numero di richieste sig non supportate per l'elemento di riferimento corrente | 
|  all\$1unsupported\$1tls\$1request\$1count  | Long | Numero di richieste TLS non supportate per l'elemento di riferimento corrente | 
|  bad\$1request\$1error\$1400\$1count  | Long | Numero di 400 errori di richiesta errata per l'elemento di riferimento corrente | 
|  delete\$1request\$1count  | Long | Numero di richieste di eliminazione per l'elemento di riferimento corrente | 
|  downloaded\$1bytes  | decimale (0,0) | Numero di byte scaricati per l'elemento di riferimento corrente | 
|  error\$14xx\$1count  | Long | Numero di errori 4xx per l'elemento di riferimento corrente | 
|  error\$15xx\$1count  | Long | Numero di 5xx errori per l'elemento di riferimento corrente | 
|  forbidden\$1error\$1403\$1count  | Long | Numero di 403 errori non consentiti per l'elemento di riferimento corrente | 
|  get\$1request\$1count  | Long | Numero di richieste get per l'elemento di riferimento corrente | 
|  head\$1request\$1count  | Long | Numero di richieste head per l'elemento di riferimento corrente | 
|  internal\$1server\$1error\$1500\$1count  | Long | Numero di 500 errori interni del server per l'elemento di riferimento corrente | 
|  list\$1request\$1count  | Long | Numero di richieste di elenco per l'elemento di riferimento corrente | 
|  not\$1found\$1error\$1404\$1count  | Long | Numero di 404 errori non trovati per l'elemento di riferimento corrente | 
|  ok\$1status\$1200\$1count  | Long | Numero di 200 richieste OK per l'elemento di riferimento corrente | 
|  partial\$1content\$1status\$1206\$1count  | Long | Numero di 206 richieste di contenuto parziali per l'elemento di riferimento corrente | 
|  post\$1request\$1count  | Long | Numero di richieste di post per l'elemento di riferimento corrente | 
|  put\$1request\$1count  | Long | Numero di richieste put per l'elemento di riferimento corrente | 
|  select\$1request\$1count  | Long | Numero di richieste di selezione per l'elemento di riferimento corrente | 
|  select\$1returned\$1bytes  | decimale (0,0) | Numero di byte restituiti dalle richieste di selezione per l'elemento di riferimento corrente | 
|  select\$1scanned\$1bytes  | decimale (0,0) | Numero di byte scansionati dalle richieste di selezione per l'elemento di riferimento corrente | 
|  service\$1unavailable\$1error\$1503\$1count  | Long | Numero di 503 errori di servizio non disponibili per l'elemento di riferimento corrente | 
|  uploaded\$1bytes  | decimale (0,0) | Numero di byte caricati per l'elemento di riferimento corrente | 
|  average\$1first\$1byte\$1latency  | Long | Tempo medio per richiesta tra il momento in cui un bucket S3 riceve una richiesta completa e il momento in cui inizia a restituire la risposta, misurato nelle ultime 24 ore | 
|  average\$1total\$1request\$1latency  | Long | Tempo medio trascorso per richiesta tra il primo byte ricevuto e l'ultimo byte inviato a un bucket S3, misurato nelle ultime 24 ore | 
|  read\$10kb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati pari a 0 KB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$10kb\$1to\$1128kb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 0 KB e fino a 128 KB, incluse sia le richieste basate su intervalli che le richieste di oggetti interi | 
|  read\$1128kb\$1to\$1256kb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 128 KB e fino a 256 KB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1256kb\$1to\$1512kb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 256 KB e fino a 512 KB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1512kb\$1to\$11mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 512 KB e fino a 1 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$11mb\$1to\$12mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 1 MB e fino a 2 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$12mb\$1to\$14mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 2 MB e fino a 4 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$14mb\$1to\$18mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 4 MB e fino a 8 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$18mb\$1to\$116mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 8 MB e fino a 16 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$116mb\$1to\$132mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 16 MB e fino a 32 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$132mb\$1to\$164mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 32 MB e fino a 64 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$164mb\$1to\$1128mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 64 MB e fino a 128 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1128mb\$1to\$1256mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 128 MB e fino a 256 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1256mb\$1to\$1512mb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 256 MB e fino a 512 MB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1512mb\$1to\$11gb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 512 MB e fino a 1 GB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$11gb\$1to\$12gb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 1 GB e fino a 2 GB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$12gb\$1to\$14gb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 2 GB e fino a 4 GB, incluse richieste basate su intervalli e richieste di oggetti completi | 
|  read\$1larger\$1than\$14gb\$1request\$1count  | Long | Numero di GetObject richieste con dimensioni di dati superiori a 4 GB, incluse richieste basate su intervalli e richieste di oggetti interi | 
|  write\$10kb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con UploadPart dimensioni dei dati pari a 0 KB | 
|  write\$10kb\$1to\$1128kb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 0 KB e fino a 128 KB UploadPart | 
|  write\$1128kb\$1to\$1256kb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 128 KB e fino a 256 KB UploadPart | 
|  write\$1256kb\$1to\$1512kb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 256 KB e fino a 512 KB UploadPart | 
|  write\$1512kb\$1to\$11mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 512 KB e fino a 1 MB UploadPart | 
|  write\$11mb\$1to\$12mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 1 MB e fino a 2 MB UploadPart | 
|  write\$12mb\$1to\$14mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 2 MB e fino a 4 MB UploadPart | 
|  write\$14mb\$1to\$18mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 4 MB e fino a 8 MB UploadPart | 
|  write\$18mb\$1to\$116mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 8 MB e fino a 16 MB UploadPart | 
|  write\$116mb\$1to\$132mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 16 MB e fino a 32 MB UploadPart | 
|  write\$132mb\$1to\$164mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 32 MB e fino a 64 MB UploadPart | 
|  write\$164mb\$1to\$1128mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 64 MB e fino a 128 MB UploadPart | 
|  write\$1128mb\$1to\$1256mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 128 MB e fino a 256 MB UploadPart | 
|  write\$1256mb\$1to\$1512mb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 256 MB e fino a 512 MB UploadPart | 
|  write\$1512mb\$1to\$11gb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 512 MB e fino a 1 GB UploadPart | 
|  write\$11gb\$1to\$12gb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 1 GB e fino a 2 GB UploadPart | 
|  write\$12gb\$1to\$14gb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 2 GB e fino a 4 GB UploadPart | 
|  write\$1larger\$1than\$14gb\$1request\$1count  | Long | Numero di PutObject e CreateMultipartUpload richieste con dimensioni dei dati superiori a 4 GB UploadPart | 
|  concurrent\$1put\$1503\$1error\$1count  | Long | Numero di 503 errori generati a causa di scritture simultanee sullo stesso oggetto | 
|  cross\$1region\$1request\$1count  | Long | Numero di richieste che provengono da un client in una regione diversa dalla regione di origine del bucket | 
|  cross\$1region\$1transferred\$1bytes  | decimale (0,0) | Numero di byte trasferiti da chiamate in una regione diversa dalla regione principale del bucket | 
|  cross\$1region\$1without\$1replication\$1request\$1count  | Long | Numero di richieste che provengono da un client in una regione diversa dalla regione di origine del bucket, escluse le richieste di replica tra regioni | 
|  cross\$1region\$1without\$1replication\$1transferred\$1bytes  | decimale (0,0) | Numero di byte trasferiti da chiamate in una regione diversa dalla regione principale del bucket, esclusi i byte di replica tra regioni | 
|  inregion\$1request\$1count  | Long | Numero di richieste che provengono da un client nella stessa regione della regione di origine del bucket | 
|  inregion\$1transferred\$1bytes  | decimale (0,0) | Numero di byte trasferiti dalle chiamate dalla stessa regione della regione principale del bucket | 
|  unique\$1objects\$1accessed\$1daily\$1count  | Long | Numero di oggetti a cui è stato effettuato l'accesso almeno una volta nelle ultime 24 ore | 

## Fasi successive
<a name="storage-lens-s3-tables-schemas-next-steps"></a>
+ Ulteriori informazioni su [Autorizzazioni per le tabelle S3 Storage Lens](storage-lens-s3-tables-permissions.md) 
+ Avvia [Interrogazione dei dati di S3 Storage Lens con strumenti di analisi](storage-lens-s3-tables-querying.md) 
+ Consulta [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md) le definizioni dettagliate delle metriche

# Autorizzazioni per le tabelle S3 Storage Lens
<a name="storage-lens-s3-tables-permissions"></a>

Per lavorare con i dati di S3 Storage Lens esportati in S3 Tables, sono necessarie le autorizzazioni appropriate (IAM). AWS Identity and Access Management Questo argomento tratta le autorizzazioni necessarie per l'esportazione delle metriche e la gestione della crittografia.

## Autorizzazioni per l'esportazione delle metriche nelle tabelle S3
<a name="storage-lens-s3-tables-permissions-export"></a>

Per creare e utilizzare tabelle e bucket da tavolo S3 Storage Lens, devi disporre di determinate autorizzazioni. `s3tables` Come minimo, per configurare S3 Storage Lens su S3 Tables, devi disporre delle seguenti autorizzazioni: `s3tables`
+  `s3tables:CreateTableBucket`— Questa autorizzazione consente di creare un AWS bucket di tabelle gestito. Tutte le metriche di S3 Storage Lens presenti nel tuo account sono archiviate in un unico AWS table bucket gestito denominato. `aws-s3` 
+  `s3tables:PutTableBucketPolicy`— S3 Storage Lens utilizza questa autorizzazione per impostare una policy table bucket che consenta `systemtables.s3.amazonaws.com` l'accesso al bucket in modo da poter fornire i log.

**Importante**  
Se rimuovi le autorizzazioni per il responsabile del servizio`systemtables.s3.amazonaws.com`, S3 Storage Lens non sarà in grado di aggiornare le tabelle S3 con i dati in base alla tua configurazione. Ti consigliamo di aggiungere altre politiche di controllo degli accessi oltre alla politica già fornita, invece di modificare la politica predefinita che viene aggiunta quando viene configurato il table bucket.

**Nota**  
Viene creata una tabella S3 separata per ogni tipo di esportazione delle metriche per ogni configurazione di Storage Lens. Se nella regione sono presenti più configurazioni di Storage Lens, vengono create tabelle separate per configurazioni aggiuntive. Ad esempio, sono disponibili tre tipi di tabelle per il tuo table bucket S3.

## Autorizzazioni per le tabelle crittografate KMS AWS
<a name="storage-lens-s3-tables-permissions-kms"></a>

Per impostazione predefinita, tutti i dati nelle tabelle S3, incluse le metriche di S3 Storage Lens, sono crittografati con la crittografia SSE-S3. Puoi scegliere di crittografare il rapporto sulle metriche di Storage Lens con chiavi (SSE-KMS). AWS KMS Se scegli di crittografare i report metrici di S3 Storage Lens con chiavi KMS, devi disporre di autorizzazioni aggiuntive.

1. L'utente o il ruolo IAM necessita delle seguenti autorizzazioni. Puoi concedere queste autorizzazioni utilizzando la console IAM all'indirizzo. [https://console.aws.amazon.com/iam/](https://console.aws.amazon.com/iam/)
   +  `kms:DescribeKey`sulla AWS KMS chiave utilizzata

1. Per quanto riguarda la politica chiave della AWS KMS chiave, sono necessarie le seguenti autorizzazioni. [Puoi concedere queste autorizzazioni utilizzando la AWS KMS console in /kms. https://console.aws.amazon.com](https://console.aws.amazon.com/kms) Per utilizzare questa policy, sostituisci ` user input placeholders ` con le tue informazioni.

   ```
   {
       "Version": "2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "EnableSystemTablesKeyUsage",
               "Effect": "Allow",
               "Principal": {
                   "Service": "systemtables.s3.amazonaws.com"
               },
               "Action": [
                   "kms:DescribeKey",
                   "kms:GenerateDataKey",
                   "kms:Decrypt"
               ],
               "Resource": "arn:aws:kms:us-east-1:111122223333:key/key-id",
               "Condition": {
                   "StringEquals": {
                       "aws:SourceAccount": "111122223333"
                   }
               }
           },
           {
               "Sid": "EnableKeyUsage",
               "Effect": "Allow",
               "Principal": {
                   "Service": "maintenance.s3tables.amazonaws.com"
               },
               "Action": [
                   "kms:GenerateDataKey",
                   "kms:Decrypt"
               ],
               "Resource": "arn:aws:kms:us-east-1:111122223333:key/key-id",
               "Condition": {
                   "StringLike": {
                       "kms:EncryptionContext:aws:s3:arn": "<table-bucket-arn>/*"
                   }
               }
           }
       ]
   }
   ```

## Ruolo collegato al servizio per S3 Storage Lens
<a name="storage-lens-s3-tables-permissions-slr"></a>

S3 Storage Lens utilizza un ruolo collegato al servizio per scrivere metriche su S3 Tables. Questo ruolo viene creato automaticamente quando abiliti l'esportazione di S3 Tables per la prima volta nel tuo account. Il ruolo collegato al servizio dispone delle seguenti autorizzazioni:
+  `s3tables:CreateTable`- Per creare tabelle nel table bucket `aws-s3`
+  `s3tables:PutTableData`- Per scrivere dati metrici nelle tabelle
+  `s3tables:GetTable`- Per recuperare i metadati delle tabelle

Non è necessario creare o gestire manualmente questo ruolo collegato al servizio. Per ulteriori informazioni sui ruoli collegati al servizio, consulta [Utilizzo dei ruoli collegati al servizio](https://docs.aws.amazon.com/IAM/latest/UserGuide/using-service-linked-roles.html) nella *Guida per l'utente IAM*. 

## Le migliori pratiche per le autorizzazioni
<a name="storage-lens-s3-tables-permissions-best-practices"></a>

Segui queste best practice per configurare le autorizzazioni per le tabelle di S3 Storage Lens:
+  **Usa il privilegio minimo**: concedi solo le autorizzazioni necessarie per attività specifiche. Ad esempio, se gli utenti devono solo interrogare i dati, non concedere le autorizzazioni per modificare le configurazioni di Storage Lens.
+  **Usa i ruoli IAM**: utilizza i ruoli IAM anziché le chiavi di accesso a lungo termine per applicazioni e servizi che accedono alle tabelle di S3 Storage Lens.
+  **Abilita AWS CloudTrail: abilita** CloudTrail la registrazione per monitorare l'accesso alle tabelle di S3 Storage Lens e tenere traccia delle modifiche alle autorizzazioni.
+  **Usa politiche basate sulle risorse: quando possibile, utilizza politiche basate sulle** risorse per controllare l'accesso a tabelle o namespace specifici.
+  **Rivedi regolarmente le autorizzazioni**: esamina e verifica periodicamente le politiche IAM e le autorizzazioni di Lake Formation per assicurarti che seguano il principio del privilegio minimo.

## Risoluzione dei problemi relativi alle autorizzazioni
<a name="storage-lens-s3-tables-permissions-troubleshooting"></a>

### Accesso negato quando si abilita l'esportazione di S3 Tables
<a name="storage-lens-s3-tables-permissions-troubleshooting-export"></a>

 **Problema:** ricevi un errore di «accesso negato» quando provi ad abilitare l'esportazione di S3 Tables.

 **Soluzione:** verifica che il tuo utente o ruolo IAM disponga dell'`s3:PutStorageLensConfiguration`autorizzazione e delle autorizzazioni S3 Tables necessarie.

### Accesso negato durante l'interrogazione delle tabelle
<a name="storage-lens-s3-tables-permissions-troubleshooting-query"></a>

 **Problema:** ricevi un errore di «accesso negato» quando esegui una query sulle tabelle S3 Storage Lens in Amazon Athena.

 **Soluzione: verifica che:**
+ L'integrazione di Analytics è abilitata nel `aws-s3` table bucket
+ Le autorizzazioni di Lake Formation sono configurate correttamente
+ Il tuo utente o ruolo IAM dispone delle autorizzazioni Amazon Athena necessarie

### Errori di crittografia KMS
<a name="storage-lens-s3-tables-permissions-troubleshooting-kms"></a>

 **Problema:** si ricevono errori relativi a KMS quando si accede alle tabelle crittografate.

 **Soluzione: verifica che:**
+ La tua policy IAM include le autorizzazioni KMS richieste
+ La policy chiave KMS concede le autorizzazioni al responsabile del servizio S3 Storage Lens
+ La chiave KMS si trova nella stessa regione della configurazione di Storage Lens

## Fasi successive
<a name="storage-lens-s3-tables-permissions-next-steps"></a>
+ Ulteriori informazioni su [Impostazione delle autorizzazioni di Amazon S3 Storage Lens](storage_lens_iam_permissions.md) 
+ Ulteriori informazioni su [Interrogazione dei dati di S3 Storage Lens con strumenti di analisi](storage-lens-s3-tables-querying.md) 
+ Ulteriori informazioni su [Utilizzo degli assistenti AI con le tabelle S3 Storage Lens](storage-lens-s3-tables-ai-tools.md) 

# Interrogazione dei dati di S3 Storage Lens con strumenti di analisi
<a name="storage-lens-s3-tables-querying"></a>

Prima di poter interrogare i dati di S3 Storage Lens esportati in S3 Tables utilizzando servizi di AWS analisi come Amazon Athena o Amazon EMR, devi abilitare l'integrazione dell'analisi nel bucket di tabelle AWS`aws-s3` gestito e configurare le autorizzazioni. AWS Lake Formation 

**Importante**  
Abilitare l'integrazione dell'analisi nel bucket di tabelle «aws-s3" è un passaggio obbligatorio che spesso viene omesso. Senza questa configurazione, non sarai in grado di interrogare le tabelle di S3 Storage Lens utilizzando i servizi di analisi. AWS 

## Prerequisiti
<a name="storage-lens-s3-tables-querying-prerequisites"></a>

Prima di iniziare, assicurati di avere:
+ Una configurazione S3 Storage Lens con esportazione di tabelle S3 abilitata. Per ulteriori informazioni, consulta [Esportazione delle metriche di S3 Storage Lens in S3 Tables](storage-lens-s3-tables-export.md).
+ Accesso ad Amazon Athena o a un altro servizio di analisi.
+ Dopo aver abilitato l'esportazione, sono state attese 24-48 ore prima che i primi dati fossero disponibili.

## Panoramica dell’integrazione
<a name="storage-lens-s3-tables-querying-integration-overview"></a>

Per informazioni dettagliate sull'integrazione delle tabelle S3 con i servizi di AWS analisi, inclusi i prerequisiti, la configurazione dei ruoli IAM e step-by-step le procedure, consulta Integrazione delle tabelle [Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-integrating-aws.html) con i servizi di analisi. AWS 

Dopo aver abilitato l'esportazione di S3 Tables e configurato l'integrazione delle analisi, puoi interrogare i dati di S3 Storage Lens utilizzando servizi di AWS analisi come Amazon Athena, Amazon Redshift e Amazon EMR. Ciò consente di eseguire analisi personalizzate, creare dashboard e ricavare informazioni dai dati di storage utilizzando SQL standard.

## Interrogazioni con Amazon Athena
<a name="storage-lens-s3-tables-querying-athena"></a>

Amazon Athena è un servizio di query interattivo senza server che semplifica l'analisi dei dati utilizzando SQL standard. Usa i seguenti passaggi per interrogare i dati di S3 Storage Lens in Athena.

**Nota**  
In tutti gli esempi di query, sostituiscili `lens_my-config_exp` con lo spazio dei nomi di configurazione di Storage Lens effettivo. Per ulteriori informazioni sulla denominazione dei namespace, vedere. [Denominazione delle tabelle per l'esportazione di S3 Storage Lens su S3 Tables](storage-lens-s3-tables-naming.md)

### Esempio: interroga i principali consumatori di storage
<a name="storage-lens-s3-tables-querying-athena-top-consumers"></a>

La seguente query identifica i primi 10 bucket in base al consumo di storage:

```
SELECT 
    bucket_name,
    storage_class,
    SUM(storage_bytes) / POWER(1024, 3) AS storage_gb,
    SUM(object_count) AS objects
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time = (
    SELECT MAX(report_time) 
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
)
    AND record_type = 'BUCKET'
    AND bucket_name != ''
GROUP BY bucket_name, storage_class
ORDER BY storage_gb DESC
LIMIT 10
```

### Esempio: analizza la crescita dello storage nel tempo
<a name="storage-lens-s3-tables-querying-athena-growth"></a>

La seguente query analizza la crescita dello storage negli ultimi 30 giorni:

```
SELECT 
    CAST(report_time AS date) AS report_date,
    SUM(storage_bytes) / POWER(1024, 3) AS total_storage_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time >= current_date - interval '30' day
    AND record_type = 'ACCOUNT'
GROUP BY CAST(report_time AS date)
ORDER BY report_date DESC;
```

### Esempio: identifica i caricamenti multiparte incompleti
<a name="storage-lens-s3-tables-querying-athena-mpu"></a>

La seguente query trova i bucket con caricamenti multiparte incompleti risalenti a più di 7 giorni fa:

```
SELECT 
    bucket_name,
    SUM(incomplete_mpu_storage_older_than_7_days_bytes) / POWER(1024, 3) AS wasted_storage_gb,
    SUM(incomplete_mpu_object_older_than_7_days_count) AS wasted_objects
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time = (
    SELECT MAX(report_time) 
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
)
    AND record_type = 'BUCKET'
    AND incomplete_mpu_storage_older_than_7_days_bytes > 0
GROUP BY bucket_name
ORDER BY wasted_storage_gb DESC;
```

### Esempio: trova candidati per i cold data
<a name="storage-lens-s3-tables-querying-athena-cold-data"></a>

La seguente query identifica i prefissi senza attività negli ultimi 100 giorni che vengono archiviati in livelli di archiviazione a caldo:

```
WITH recent_activity AS (
    SELECT DISTINCT 
        bucket_name,
        record_value AS prefix_path
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."expanded_prefixes_activity_metrics"
    WHERE report_time >= current_date - interval '100' day
        AND record_type = 'PREFIX'
        AND all_request_count > 0
)
SELECT 
    s.bucket_name,
    s.record_value AS prefix_path,
    s.storage_class,
    SUM(s.storage_bytes) / POWER(1024, 3) AS storage_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."expanded_prefixes_storage_metrics" s
LEFT JOIN recent_activity r 
    ON s.bucket_name = r.bucket_name 
    AND s.record_value = r.prefix_path
WHERE s.report_time = (
    SELECT MAX(report_time) 
    FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."expanded_prefixes_storage_metrics"
)
    AND s.record_type = 'PREFIX'
    AND s.storage_class IN ('STANDARD', 'REDUCED_REDUNDANCY')
    AND s.storage_bytes > 1073741824  -- > 1GB
    AND r.prefix_path IS NULL  -- No recent activity
GROUP BY s.bucket_name, s.record_value, s.storage_class
ORDER BY storage_gb DESC
LIMIT 20;
```

### Esempio: analisi dei modelli di richiesta
<a name="storage-lens-s3-tables-querying-athena-requests"></a>

La seguente query analizza i modelli di richiesta per comprendere la frequenza di accesso:

```
SELECT 
    bucket_name,
    SUM(all_request_count) AS total_requests,
    SUM(get_request_count) AS get_requests,
    SUM(put_request_count) AS put_requests,
    ROUND(100.0 * SUM(get_request_count) / NULLIF(SUM(all_request_count), 0), 2) AS get_percentage,
    SUM(downloaded_bytes) / POWER(1024, 3) AS downloaded_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_activity_metrics"
WHERE report_time >= current_date - interval '7' day
    AND record_type = 'BUCKET'
    AND bucket_name != ''
GROUP BY bucket_name
HAVING SUM(all_request_count) > 0
ORDER BY total_requests DESC
LIMIT 10;
```

## Interrogazione con Apache Spark su Amazon EMR
<a name="storage-lens-s3-tables-querying-emr"></a>

Amazon EMR fornisce un framework Hadoop gestito che semplifica l'elaborazione di grandi quantità di dati utilizzando Apache Spark. Puoi usare il connettore Iceberg per leggere direttamente le tabelle di S3 Storage Lens.

### Leggi le tabelle S3 con Spark
<a name="storage-lens-s3-tables-querying-emr-spark"></a>

Usa il seguente codice Python per leggere i dati di S3 Storage Lens con Spark:

```
from pyspark.sql import SparkSession

spark = SparkSession.builder \
    .appName("S3StorageLensAnalysis") \
    .config("spark.sql.catalog.s3tablescatalog", "org.apache.iceberg.spark.SparkCatalog") \
    .config("spark.sql.catalog.s3tablescatalog.catalog-impl", "org.apache.iceberg.aws.glue.GlueCatalog") \
    .getOrCreate()

# Read S3 Storage Lens data
df = spark.read \
    .format("iceberg") \
    .load("s3tablescatalog/aws-s3.lens_my-config_exp.default_storage_metrics")

# Analyze data
df.filter("record_type = 'BUCKET'") \
    .groupBy("bucket_name", "storage_class") \
    .sum("storage_bytes") \
    .orderBy("sum(storage_bytes)", ascending=False) \
    .show(10)
```

## Best practice per l'ottimizzazione delle query
<a name="storage-lens-s3-tables-querying-optimization"></a>

Segui queste best practice per ottimizzare le prestazioni delle query e ridurre i costi:
+  **Filtra per report\$1time**: includi sempre filtri di data per ridurre la quantità di dati scansionati. Ciò è particolarmente importante per le tabelle con lunghi periodi di conservazione.

  ```
  WHERE report_time >= current_date - interval '7' day
  ```
+  **Usa i filtri record\$1type**: specifica il livello di aggregazione appropriato (ACCOUNT, BUCKET, PREFIX) per interrogare solo i dati necessari.

  ```
  WHERE record_type = 'BUCKET'
  ```
+  **Includi clausole LIMIT: utilizza** LIMIT per le query esplorative per controllare la dimensione dei risultati e ridurre i costi delle query.

  ```
  LIMIT 100
  ```
+  **Filtra i record vuoti**: utilizza le condizioni per escludere i record vuoti o con valore zero.

  ```
  WHERE storage_bytes > 0
  ```
+  **Usa i dati più recenti**: quando analizzi lo stato corrente, filtra in base al report\$1time più recente per evitare la scansione dei dati storici.

  ```
  WHERE report_time = (SELECT MAX(report_time) FROM table_name)
  ```

### Esempio di modello di interrogazione ottimizzato
<a name="storage-lens-s3-tables-querying-optimization-example"></a>

La seguente query illustra le migliori pratiche per l'ottimizzazione:

```
SELECT 
    bucket_name,
    SUM(storage_bytes) / POWER(1024, 3) AS storage_gb
FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics"
WHERE report_time >= current_date - interval '7' day  -- Date filter
    AND record_type = 'BUCKET'                         -- Record type filter
    AND storage_bytes > 0                              -- Non-empty filter
    AND bucket_name != ''                              -- Non-empty filter
GROUP BY bucket_name
ORDER BY storage_gb DESC
LIMIT 100;                                             -- Result limit
```

## Risoluzione dei problemi
<a name="storage-lens-s3-tables-querying-troubleshooting"></a>

### La query non restituisce risultati
<a name="storage-lens-s3-tables-querying-troubleshooting-no-results"></a>

 **Problema:** la query viene completata correttamente ma non restituisce risultati.

 **Soluzione:**: 
+ Verifica che i dati siano disponibili controllando l'ultimo report\$1time:

  ```
  SELECT MAX(report_time) AS latest_data
  FROM "s3tablescatalog/aws-s3"."lens_my-config_exp"."default_storage_metrics";
  ```
+ Assicurati di utilizzare il nome del namespace corretto. Usa `SHOW TABLES IN `lens_my-config_exp`;` per elencare le tabelle disponibili.
+ Attendi 24-48 ore dopo aver abilitato l'esportazione delle tabelle S3 affinché i primi dati siano disponibili.

### Errori di accesso negato
<a name="storage-lens-s3-tables-querying-troubleshooting-access"></a>

 **Problema:** ricevi errori di accesso negato durante l'esecuzione delle query.

 **Soluzione:** verifica che AWS Lake Formation le autorizzazioni siano configurate correttamente. Per ulteriori informazioni, consulta [Integrazione delle tabelle Amazon S3 AWS con](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-tables-integrating-aws.html) i servizi di analisi. 

## Fasi successive
<a name="storage-lens-s3-tables-querying-next-steps"></a>
+ Ulteriori informazioni su [Utilizzo degli assistenti AI con le tabelle S3 Storage Lens](storage-lens-s3-tables-ai-tools.md)
+ Consulta le definizioni delle [Glossario dei parametri di Amazon S3 Storage Lens](storage_lens_metrics_glossary.md) metriche
+ Esplora [Casi d'uso relativi ai parametri di Amazon S3 Storage Lens](storage-lens-use-cases.md) per ulteriori idee di analisi
+ Scopri [Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html) per l'interrogazione senza server

# Utilizzo degli assistenti AI con le tabelle S3 Storage Lens
<a name="storage-lens-s3-tables-ai-tools"></a>

Puoi utilizzare gli assistenti AI e gli strumenti di intelligenza artificiale conversazionale per interagire con i dati di S3 Storage Lens esportati su S3 Tables utilizzando il linguaggio naturale. Sfruttando il Model Context Protocol (MCP) e il server MCP per le tabelle Amazon S3, puoi interrogare, analizzare e ottenere informazioni dai tuoi dati di storage senza scrivere query SQL.

## Panoramica di
<a name="storage-lens-s3-tables-ai-tools-overview"></a>

Il Model Context Protocol (MCP) è un modo standardizzato per le applicazioni di intelligenza artificiale di accedere e utilizzare le informazioni contestuali. Il server MCP per Amazon S3 Tables fornisce strumenti che consentono agli assistenti AI di interagire con i dati di S3 Tables utilizzando interfacce in linguaggio naturale. Ciò democratizza l'accesso ai dati e consente alle persone con diversi livelli di competenza tecnica di lavorare con le metriche di S3 Storage Lens.

Con il server MCP per S3 Tables, puoi usare il linguaggio naturale per:
+ Elenca i bucket, i namespace e le tabelle S3
+ Interroga i parametri di S3 Storage Lens e ottieni informazioni dettagliate
+ Analizza le tendenze e i modelli di storage
+ Identifica le opportunità di ottimizzazione dei costi
+ Genera report e visualizzazioni

## Assistenti AI supportati
<a name="storage-lens-s3-tables-ai-tools-supported"></a>

Il server MCP per S3 Tables funziona con vari assistenti AI che supportano il Model Context Protocol, tra cui:
+ **Kiro**: un assistente di codifica AI con supporto MCP integrato
+ **Amazon Q Developer**: AWS l'assistente per sviluppatori basato sull'intelligenza artificiale
+ **Cline**: un assistente di codifica AI con integrazione MCP
+ **Claude Desktop - L'applicazione desktop** di Anthropic con supporto MCP
+ **Cursor** - Un editor di codice basato sull'intelligenza artificiale

**Importante**  
Le query e i consigli SQL generati dall'intelligenza artificiale devono essere esaminati e convalidati prima dell'uso. Verifica che le query siano appropriate per la struttura dei dati, il caso d'uso e i requisiti prestazionali. Verifica sempre le raccomandazioni in un ambiente non di produzione prima di implementarle in produzione.

## Configurazione di Kiro con i tavoli S3 Storage Lens
<a name="storage-lens-s3-tables-ai-tools-kiro-setup"></a>

Kiro è un assistente di codifica AI che fornisce una perfetta integrazione con S3 Tables tramite il server MCP. Kiro può aiutarti a installare e configurare il server MCP direttamente tramite la sua interfaccia, semplificando il processo di configurazione.

[Per ulteriori informazioni su Kiro, consulta Kiro AI.](https://kiro.ai/)

### Prerequisiti
<a name="storage-lens-s3-tables-ai-tools-kiro-prerequisites"></a>

Prima di iniziare, assicurati di avere:
+ Kiro installato sul tuo sistema. [Scaricalo da https://kiro.ai/](https://kiro.ai/)
+ AWS CLI configurato con le credenziali appropriate
+ Una configurazione S3 Storage Lens con esportazione di tabelle S3 abilitata
+ Autorizzazioni per interrogare le tabelle S3. Per ulteriori informazioni, consulta [Autorizzazioni per le tabelle S3 Storage Lens](storage-lens-s3-tables-permissions.md).

### Fase 1: Installare il server MCP di S3 Tables
<a name="storage-lens-s3-tables-ai-tools-kiro-step1"></a>

È possibile installare il server MCP S3 Tables in due modi:

**Opzione 1: utilizzo della gestione del server MCP integrata di Kiro**  
Kiro può aiutarti a scoprire e installare i server MCP direttamente tramite la sua interfaccia:

1. Apri Kiro

1. Accedi all'interfaccia di gestione del server MCP (in genere tramite le impostazioni o la palette di comandi)

1. Cerca «S3 Tables» o «awslabs.s3-» tables-mcp-server

1. Segui le istruzioni di Kiro per installare e configurare il server

**Opzione 2: installazione manuale tramite uvx**  
In alternativa, puoi installare manualmente il server MCP usando un `uvx` gestore di pacchetti Python:

```
uvx awslabs.s3-tables-mcp-server@latest
```

Per ulteriori informazioni sull'installazione del server MCP, consultate la documentazione del server MCP di [AWS S3 Tables](https://awslabs.github.io/mcp/servers/s3-tables-mcp-server).

### Fase 2: Configurare le impostazioni di Kiro MCP
<a name="storage-lens-s3-tables-ai-tools-kiro-step2"></a>

Crea o aggiorna il tuo file di configurazione Kiro MCP all'indirizzo `~/.kiro/settings/mcp.json` con il seguente contenuto:

```
{
  "mcpServers": {
    "awslabs.s3-tables-mcp-server": {
      "command": "uvx",
      "args": ["awslabs.s3-tables-mcp-server@latest"],
      "env": {
        "AWS_PROFILE": "your-aws-profile",
        "AWS_REGION": "us-east-1"
      }
    }
  }
}
```

`your-aws-profile`Sostituiscilo con il nome AWS CLI del tuo profilo e `us-east-1` con la tua AWS regione.

### Fase 3: Verifica la configurazione
<a name="storage-lens-s3-tables-ai-tools-kiro-step3"></a>

Dopo aver configurato il server MCP, riavvia Kiro e verifica che gli strumenti S3 Tables siano disponibili. Puoi controllare i server MCP disponibili nelle impostazioni di Kiro o chiedendo a Kiro di elencare gli strumenti disponibili.

## Esempi di casi d'uso con assistenti AI
<a name="storage-lens-s3-tables-ai-tools-examples"></a>

Gli esempi seguenti mostrano come utilizzare i prompt in linguaggio naturale con gli assistenti AI per interagire con i dati di S3 Storage Lens.

### Esempio 1: interroga i principali consumatori di storage
<a name="storage-lens-s3-tables-ai-tools-examples-consumers"></a>

**Richiesta:** «Mostrami i 10 bucket principali per consumo di storage in base ai dati del mio S3 Storage Lens».

L'assistente AI utilizzerà il server MCP per interrogare le tabelle di S3 Storage Lens e restituire i risultati, inclusi i nomi dei bucket, le classi di archiviazione e gli importi di storage.

### Esempio 2: analizza la crescita dello storage
<a name="storage-lens-s3-tables-ai-tools-examples-growth"></a>

**Richiesta:** «Analizza la crescita dello storage negli ultimi 30 giorni e mostrami la tendenza».

L'assistente AI interrogherà la tabella delle metriche di archiviazione, calcolerà i totali di archiviazione giornalieri e presenterà il trend di crescita.

### Esempio 3: Identifica le opportunità di ottimizzazione dei costi
<a name="storage-lens-s3-tables-ai-tools-examples-optimization"></a>

**Richiesta:** «Trova i bucket con caricamenti incompleti in più parti risalenti a più di 7 giorni fa e che sprecano spazio di archiviazione».

L'assistente AI interrogherà la tabella delle metriche di archiviazione per individuare caricamenti incompleti in più parti e fornirà un elenco di bucket con potenziali risparmi sui costi.

### Esempio 4: trova candidati candidati per i cold data
<a name="storage-lens-s3-tables-ai-tools-examples-cold-data"></a>

**Richiesta:** «Identifica i prefissi senza attività negli ultimi 100 giorni che vengono archiviati in livelli di archiviazione a caldo».

L'assistente AI analizzerà le metriche di archiviazione e di attività per identificare i dati che potrebbero essere spostati su livelli di archiviazione più freddi per ottimizzare i costi.

### Esempio 5: generazione di report sullo storage
<a name="storage-lens-s3-tables-ai-tools-examples-reports"></a>

**Richiesta:** «Crea un rapporto riepilogativo del mio storage S3 che mostri lo storage totale, il numero di oggetti e i modelli di richiesta per l'ultima settimana».

L'assistente AI interrogherà più tabelle, aggregherà i dati e genererà un report completo.

## Le migliori pratiche per l'utilizzo degli assistenti AI
<a name="storage-lens-s3-tables-ai-tools-best-practices"></a>

Segui queste best practice quando utilizzi gli assistenti AI con i dati di S3 Storage Lens:
+ **Sii specifico nelle istruzioni**: fornisci istruzioni chiare e specifiche sui dati che desideri analizzare e sugli approfondimenti che stai cercando.
+ **Verifica le query generate dall'intelligenza artificiale**: esamina e convalida sempre le query e i consigli SQL generati dall'assistente AI prima di eseguirle o agire. Gli assistenti AI possono occasionalmente produrre domande o consigli errati che devono essere verificati rispetto al caso d'uso e ai dati specifici.
+ **Usa le autorizzazioni appropriate**: assicurati che le credenziali IAM utilizzate dall'assistente AI dispongano solo delle autorizzazioni necessarie. Per l'analisi di sola lettura, concedi solo le autorizzazioni SELECT.
+ **Monitora l'utilizzo**: monitora le query eseguite dagli assistenti AI utilizzando AWS CloudTrail per mantenere gli audit trail.
+ **Inizia con domande semplici: inizia con domande** semplici per capire come l'assistente AI interpreta le tue istruzioni, quindi passa ad analisi più complesse.

## Registrazione e tracciabilità
<a name="storage-lens-s3-tables-ai-tools-logging"></a>

Quando si utilizza il server MCP S3 Tables con assistenti AI, sono disponibili diversi modi per controllare le operazioni:
+ **Registri locali**: il server MCP registra le richieste e le risposte localmente. È possibile specificare una directory di registro utilizzando l'`--log-dir`opzione di configurazione.
+ **AWS CloudTrail**- Tutte le operazioni di S3 Tables tramite il server MCP utilizzate PyIceberg avranno `awslabs/mcp/s3-tables-mcp-server/<version>` come stringa dell'agente utente. Puoi filtrare CloudTrail i log tramite questo agente utente per tracciare le azioni eseguite dagli assistenti AI.
+ **Cronologia degli assistenti** AI: gli assistenti AI come Kiro e Cline conservano registri cronologici che registrano le richieste in linguaggio naturale, le risposte LLM e le istruzioni fornite al server MCP.

## Considerazioni relative alla sicurezza
<a name="storage-lens-s3-tables-ai-tools-security"></a>

Quando utilizzi gli assistenti AI con i dati di S3 Storage Lens, segui queste best practice di sicurezza:
+ **Usa l'accesso con privilegi minimi**: concedi agli assistenti AI solo le autorizzazioni minime richieste per le loro attività.
+ **Abilita MFA**: utilizza l'autenticazione a più fattori per AWS gli account a cui accedono gli assistenti AI.
+ **Rivedi regolarmente le autorizzazioni**: verifica periodicamente le autorizzazioni concesse agli assistenti AI e revoca gli accessi non necessari.
+ **Usa credenziali separate**: valuta la possibilità di utilizzare AWS credenziali separate per l'accesso all'assistente AI per facilitare il monitoraggio e il controllo.
+ **Evita di condividere dati sensibili**: fai attenzione a non condividere informazioni sensibili nelle istruzioni agli assistenti AI, specialmente quando utilizzi servizi di intelligenza artificiale basati su cloud.

## Risoluzione dei problemi
<a name="storage-lens-s3-tables-ai-tools-troubleshooting"></a>

### L'assistente AI non può connettersi a S3 Tables
<a name="storage-lens-s3-tables-ai-tools-troubleshooting-connection"></a>

**Problema:** l'assistente AI segnala che non riesce a connettersi a S3 Tables o che il server MCP non risponde.

**Soluzione:**:
+ Verifica che il server MCP sia installato correttamente utilizzando `uvx awslabs.s3-tables-mcp-server@latest --version`
+ Verifica che le tue AWS credenziali siano configurate correttamente
+ Assicurati che il file di configurazione MCP abbia il AWS profilo e la regione corretti

### Errori di accesso negato
<a name="storage-lens-s3-tables-ai-tools-troubleshooting-access"></a>

**Problema:** l'assistente AI riceve errori di accesso negato quando interroga le tabelle di S3 Storage Lens.

**Soluzione:**:
+ Verifica che l'integrazione dell'analisi sia abilitata nel `aws-s3` table bucket
+ Verifica che i permessi di Lake Formation siano configurati correttamente
+ Assicurati che le AWS credenziali dispongano delle autorizzazioni IAM necessarie

### Risultati errati o imprevisti
<a name="storage-lens-s3-tables-ai-tools-troubleshooting-results"></a>

**Problema:** l'assistente AI restituisce risultati errati o imprevisti.

**Soluzione:**:
+ Esamina la query SQL generata dall'assistente AI
+ Verifica di utilizzare il nome dello spazio dei nomi corretto per la configurazione di Storage Lens
+ Verifica che i dati siano disponibili interrogando la versione più recente di report\$1time
+ Perfeziona il prompt per essere più specifico su ciò che desideri analizzare

## Risorse aggiuntive
<a name="storage-lens-s3-tables-ai-tools-resources"></a>

Per ulteriori informazioni sull'utilizzo degli assistenti AI con S3 Tables, consulta le seguenti risorse:
+ [Kiro AI](https://kiro.ai/) - Assistente di codifica AI con supporto MCP integrato
+ [Implementazione dell'intelligenza artificiale conversazionale per le tabelle S3 utilizzando il Model Context Protocol](https://aws.amazon.com/blogs/storage/implementing-conversational-ai-for-s3-tables-using-model-context-protocol-mcp/) (MCP) - Storage Blog AWS 
+ [AWS Documentazione del server MCP di S3 Tables](https://awslabs.github.io/mcp/servers/s3-tables-mcp-server)
+ [Specifiche del Model Context Protocol](https://modelcontextprotocol.io/)