

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Utilizzo di repository di dati con Amazon FSx for Lustre
<a name="fsx-data-repositories"></a>

Amazon FSx for Lustre fornisce file system ad alte prestazioni ottimizzati per l'elaborazione rapida dei carichi di lavoro. Può supportare carichi di lavoro come l'apprendimento automatico, l'High Performance Computing (HPC), l'elaborazione video, la modellazione finanziaria e l'automazione della progettazione elettronica (EDA). Questi carichi di lavoro richiedono in genere che i dati vengano presentati utilizzando un'interfaccia di file system scalabile e ad alta velocità per l'accesso ai dati. Spesso, i set di dati utilizzati per questi carichi di lavoro sono archiviati in repository di dati a lungo termine in Amazon S3. FSx for Lustre è integrato nativamente con Amazon S3, semplificando l'elaborazione dei set di dati con il file system. Lustre

**Nota**  
I backup dei file system non sono supportati sui file system collegati a un repository di dati Amazon S3. Per ulteriori informazioni, consulta [Protezione dei dati con backup](using-backups-fsx.md).
I file system Intelligent-Tiering non supportano il collegamento a repository di dati Amazon S3.

**Topics**
+ [Panoramica degli archivi di dati](overview-dra-data-repo.md)
+ [Supporto per metadati POSIX per archivi di dati](posix-metadata-support.md)
+ [Collegamento del file system a un bucket Amazon S3](create-dra-linked-data-repo.md)
+ [Importazione delle modifiche dal tuo archivio di dati](importing-files-dra.md)
+ [Esportazione delle modifiche nel repository di dati](export-changed-data-meta-dra.md)
+ [Attività di archiviazione dei dati](data-repository-tasks.md)
+ [Rilascio di file](file-release.md)
+ [Usare Amazon FSx con i tuoi dati locali](fsx-on-premises.md)
+ [Registri degli eventi del data repository](data-repo-event-logs.md)
+ [Utilizzo di tipi di distribuzione precedenti](older-deployment-types.md)

# Panoramica degli archivi di dati
<a name="overview-dra-data-repo"></a>

Quando usi Amazon FSx for Lustre con repository di dati, puoi importare ed elaborare grandi volumi di dati di file in un file system ad alte prestazioni utilizzando attività automatiche di importazione e importazione di archivi di dati. Allo stesso tempo, puoi scrivere risultati nei tuoi repository di dati utilizzando attività automatiche di esportazione o esportazione degli archivi di dati. Con queste funzionalità, puoi riavviare il carico di lavoro in qualsiasi momento utilizzando i dati più recenti archiviati nel tuo repository di dati.

**Nota**  
 Le associazioni di archivi di dati, l'esportazione automatica e il supporto per più archivi di dati non sono disponibili sui file system o sui FSx file system Lustre 2.10. `Scratch 1` 

FSx for Lustre è profondamente integrato con Amazon S3. Questa integrazione significa che è possibile accedere senza problemi agli oggetti archiviati nei bucket Amazon S3 dalle applicazioni che montano il file system FSx for Lustre. Puoi anche eseguire carichi di lavoro ad alta intensità di calcolo su istanze Amazon EC2 in Cloud AWS ed esportare i risultati nel tuo repository di dati una volta completato il carico di lavoro.

Per accedere agli oggetti nel repository di dati di Amazon S3 come file e directory sul file system, i metadati di file e directory devono essere caricati nel file system. Puoi caricare i metadati da un repository di dati collegato quando crei un'associazione di repository di dati.

Inoltre, è possibile importare i metadati di file e directory dai repository di dati collegati al file system utilizzando l'importazione automatica o utilizzando un'attività di importazione di archivi di dati. Quando attivi l'importazione automatica per un'associazione di archivi di dati, il file system importa automaticamente i metadati dei file man mano che i file vengono creati, modificati ed and/or eliminati nell'archivio di dati S3. In alternativa, puoi importare i metadati per file e directory nuovi o modificati utilizzando un'attività di importazione del repository di dati.

**Nota**  
Le attività automatiche di importazione e importazione dell'archivio di dati possono essere utilizzate contemporaneamente su un file system.

È inoltre possibile esportare i file e i metadati associati presenti nel file system nel repository di dati utilizzando l'esportazione automatica o un'attività di esportazione dell'archivio di dati. Quando si attiva l'esportazione automatica su un'associazione di repository di dati, il file system esporta automaticamente i dati e i metadati dei file man mano che i file vengono creati, modificati o eliminati. In alternativa, è possibile esportare file o directory utilizzando un'attività di esportazione del repository di dati. Quando si utilizza un'operazione di esportazione di un archivio di dati, vengono esportati i dati e i metadati dei file creati o modificati dopo l'ultima operazione di questo tipo.

**Nota**  
Le attività automatiche di esportazione ed esportazione del repository di dati non possono essere utilizzate contemporaneamente su un file system.
Le associazioni di archivi di dati esportano solo file, collegamenti simbolici e directory regolari. Ciò significa che tutti gli altri tipi di file (FIFO special, block special, character special e socket) non verranno esportati come parte dei processi di esportazione come l'esportazione automatica e le attività di archiviazione dei dati di esportazione.

FSx for Lustre supporta anche carichi di lavoro di cloud bursting con file system locali, consentendoti di copiare dati da client locali utilizzando o VPN. Direct Connect 

**Importante**  
Se hai collegato uno o più file system FSx for Lustre a un repository di dati su Amazon S3, non eliminare il bucket Amazon S3 prima di aver eliminato o scollegato tutti i file system collegati.

## Supporto per regione e account per i bucket S3 collegati
<a name="dra-regional-support"></a>

Quando crei link ai bucket S3, tieni presente le seguenti limitazioni relative al supporto per regione e account:
+ L'esportazione automatica supporta configurazioni interregionali. Il FSx file system Amazon e il bucket S3 collegato possono trovarsi nello stesso Regione AWS o in modo diverso. Regioni AWS
+ L'importazione automatica non supporta configurazioni interregionali. Sia il FSx file system Amazon che il bucket S3 collegato devono trovarsi nello stesso. Regione AWS
+ Sia l'esportazione automatica che l'importazione automatica supportano configurazioni tra account. Il FSx file system Amazon e il bucket S3 collegato possono appartenere allo stesso Account AWS o a diversi. Account AWS

# Supporto per metadati POSIX per archivi di dati
<a name="posix-metadata-support"></a>

Amazon FSx for Lustre trasferisce automaticamente i metadati POSIX (Portable Operating System Interface) per file, directory e collegamenti simbolici (collegamenti simbolici) durante l'importazione e l'esportazione di dati da e verso un repository di dati collegato su Amazon S3. Quando esporti le modifiche nel tuo file system nel relativo repository di dati collegato, FSx for Lustre esporta anche le modifiche ai metadati POSIX come metadati di oggetti S3. Ciò significa che se un altro file system FSx for Lustre importa gli stessi file da S3, i file avranno gli stessi metadati POSIX in quel file system, incluse proprietà e autorizzazioni.

FSx for Lustre importa solo oggetti S3 con chiavi oggetto conformi a POSIX, come le seguenti.

```
mydir/
mydir/myfile1
mydir/mysubdir/
mydir/mysubdir/myfile2.txt
```

FSx for Lustre memorizza le directory e i collegamenti simbolici come oggetti separati nel repository di dati collegato su S3, For directories, FSx for Lustre crea un oggetto S3 con un nome chiave che termina con una barra («/»), come segue:
+ La chiave dell'oggetto S3 viene mappata alla directory for Lustre. `mydir/` FSx `mydir/`
+ La chiave oggetto S3 viene `mydir/mysubdir/` mappata alla directory FSx for Lustre. `mydir/mysubdir/`

Per i collegamenti simbolici, FSx for Lustre utilizza il seguente schema Amazon S3:
+ **Chiave dell'oggetto S3**: il percorso del link, relativo alla directory di montaggio for Lustre FSx 
+ **Dati dell'oggetto S3**: il percorso di destinazione di questo collegamento simbolico
+ **Metadati degli oggetti S3: i metadati** per il collegamento simbolico

FSx for Lustre archivia i metadati POSIX, tra cui proprietà, autorizzazioni e timestamp per file, directory e collegamenti simbolici, negli oggetti S3 come segue:
+ `Content-Type`— L'intestazione dell'entità HTTP utilizzata per indicare il tipo di supporto della risorsa per i browser Web.
+ `x-amz-meta-file-permissions`— Il tipo di file e le autorizzazioni nel formato`<octal file type><octal permission mask>`, coerenti con la `st_mode` pagina man di [Linux stat (2)](https://man7.org/linux/man-pages/man2/lstat.2.html).
**Nota**  
FSx for Lustre non importa né conserva informazioni. `setuid`
+ `x-amz-meta-file-owner`— L'ID utente del proprietario (UID) espresso come numero intero.
+ `x-amz-meta-file-group`— L'ID del gruppo (GID) espresso come numero intero.
+ `x-amz-meta-file-atime`— L'ora dell'ultimo accesso, espressa in nanosecondi, dall'inizio dell'epoca Unix. Termina il valore temporale con`ns`; altrimenti FSx for Lustre interpreta il valore come millisecondi.
+ `x-amz-meta-file-mtime`— L'ora dell'ultima modifica, espressa in nanosecondi, dall'inizio dell'epoca Unix. Termina il valore temporale con`ns`; in caso contrario, FSx for Lustre interpreta il valore come millisecondi.
+ `x-amz-meta-user-agent`— L'agente utente, ignorato durante l'importazione di Lustre. FSx Durante l'esportazione, FSx for Lustre imposta questo valore su. `aws-fsx-lustre`

Quando si importano oggetti da S3 a cui non sono associati permessi POSIX, l'autorizzazione POSIX predefinita che FSx Lustre assegna a un file è. `755` Questa autorizzazione consente l'accesso in lettura ed esecuzione per tutti gli utenti e l'accesso in scrittura per il proprietario del file.

**Nota**  
FSx for Lustre non conserva alcun metadato personalizzato definito dall'utente sugli oggetti S3.

# Collegamenti fisici ed esportazione su Amazon S3
<a name="hard-links"></a>

Se l'esportazione automatica (con politiche NUOVE e MODIFICATE) è abilitata su un DRA nel file system, ogni collegamento fisico contenuto nel DRA viene esportato su Amazon S3 come oggetto S3 separato per ogni collegamento rigido. Se un file con più collegamenti fisici viene modificato sul file system, tutte le copie in S3 vengono aggiornate, indipendentemente dal collegamento fisico utilizzato per modificare il file.

Se gli hard link vengono esportati in S3 utilizzando le attività di data repository (DRTs), ogni collegamento fisico contenuto nei percorsi specificati per il DRT viene esportato in S3 come oggetto S3 separato per ogni collegamento fisico. Se un file con più collegamenti fisici viene modificato sul file system, ogni copia in S3 viene aggiornata al momento dell'esportazione del rispettivo collegamento fisico, indipendentemente dal collegamento fisico utilizzato per modificare il file.

**Importante**  
Quando un nuovo file system FSx for Lustre viene collegato a un bucket S3 in cui gli hard link erano stati precedentemente esportati da un altro file system FSx for Lustre AWS DataSync o Amazon FSx File Gateway, gli hard link vengono successivamente importati come file separati nel nuovo file system.

## Collegamenti fisici e file rilasciati
<a name="hard-links-released-files"></a>

Un file rilasciato è un file i cui metadati sono presenti nel file system, ma il cui contenuto è archiviato solo in S3. Per ulteriori informazioni sui file rilasciati, consulta. [Rilascio di file](file-release.md)

**Importante**  
L'uso di collegamenti fisici in un file system con associazioni di archivi di dati (DRAs) è soggetto alle seguenti limitazioni:  
L'eliminazione e la ricreazione di un file rilasciato che contiene più collegamenti fisici possono causare la sovrascrittura del contenuto di tutti i collegamenti fisici.
L'eliminazione di un file rilasciato comporta l'eliminazione del contenuto di tutti gli hard link che risiedono al di fuori di un'associazione di repository di dati.
La creazione di un collegamento fisico a un file rilasciato il cui oggetto S3 corrispondente si trova nelle classi di archiviazione S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive non creerà un nuovo oggetto in S3 per il collegamento fisico.

# Procedura dettagliata: allegare le autorizzazioni POSIX durante il caricamento di oggetti in un bucket Amazon S3
<a name="attach-s3-posix-permissions"></a>

La procedura seguente illustra il processo di caricamento degli oggetti in Amazon S3 con autorizzazioni POSIX. In questo modo puoi importare le autorizzazioni POSIX quando crei un FSx file system Amazon collegato a quel bucket S3.

**Per caricare oggetti con autorizzazioni POSIX su Amazon S3**

1. Dal tuo computer o macchina locale, usa i seguenti comandi di esempio per creare una directory di test (`s3cptestdir`) e un file (`s3cptest.txt`) che verranno caricati nel bucket S3.

   ```
   $ mkdir s3cptestdir
   $ echo "S3cp metadata import test" >> s3cptestdir/s3cptest.txt
   $ ls -ld s3cptestdir/ s3cptestdir/s3cptest.txt
   drwxr-xr-x 3 500 500 96 Jan 8 11:29 s3cptestdir/
   -rw-r--r-- 1 500 500 26 Jan 8 11:29 s3cptestdir/s3cptest.txt
   ```

   Il file e la directory appena creati hanno un ID utente (UID) del proprietario del file e un ID di gruppo (GID) pari a 500 e autorizzazioni, come mostrato nell'esempio precedente.

1. Chiama l'API Amazon S3 per creare la directory `s3cptestdir` con le autorizzazioni per i metadati. È necessario specificare il nome della directory con una barra finale (). `/` Per informazioni sui metadati POSIX supportati, vedere. [Supporto per metadati POSIX per archivi di dati](posix-metadata-support.md)

   `bucket_name`Sostituiscilo con il nome effettivo del tuo bucket S3.

   ```
   $ aws s3api put-object --bucket bucket_name --key s3cptestdir/ --metadata '{"user-agent":"aws-fsx-lustre" , \
         "file-atime":"1595002920000000000ns" , "file-owner":"500" , "file-permissions":"0100664","file-group":"500" , \
         "file-mtime":"1595002920000000000ns"}'
   ```

1. Verifica che le autorizzazioni POSIX siano contrassegnate con i metadati degli oggetti S3.

   ```
   $ aws s3api head-object --bucket bucket_name --key s3cptestdir/
   {
       "AcceptRanges": "bytes",
       "LastModified": "Fri, 08 Jan 2021 17:32:27 GMT",
       "ContentLength": 0,
       "ETag": "\"d41d8cd98f00b204e9800998ecf8427e\"",
       "VersionId": "bAlhCoWq7aIEjc3R6Myc6UOb8sHHtJkR",
       "ContentType": "binary/octet-stream",
       "Metadata": {
           "user-agent": "aws-fsx-lustre",
           "file-atime": "1595002920000000000ns",
           "file-owner": "500",
           "file-permissions": "0100664",
           "file-group": "500",
           "file-mtime": "1595002920000000000ns"
       }
   }
   ```

1. Carica il file di test (creato nel passaggio 1) dal tuo computer al bucket S3 con le autorizzazioni per i metadati.

   ```
   $ aws s3 cp s3cptestdir/s3cptest.txt s3://bucket_name/s3cptestdir/s3cptest.txt \
         --metadata '{"user-agent":"aws-fsx-lustre" , "file-atime":"1595002920000000000ns" , \
         "file-owner":"500" , "file-permissions":"0100664","file-group":"500" , "file-mtime":"1595002920000000000ns"}'
   ```

1. Verifica che le autorizzazioni POSIX siano contrassegnate con i metadati degli oggetti S3.

   ```
   $ aws s3api head-object --bucket bucket_name --key s3cptestdir/s3cptest.txt
   {
       "AcceptRanges": "bytes",
       "LastModified": "Fri, 08 Jan 2021 17:33:35 GMT",
       "ContentLength": 26,
       "ETag": "\"eb33f7e1f44a14a8e2f9475ae3fc45d3\"",
       "VersionId": "w9ztRoEhB832m8NC3a_JTlTyIx7Uzql6",
       "ContentType": "text/plain",
       "Metadata": {
           "user-agent": "aws-fsx-lustre",
           "file-atime": "1595002920000000000ns",
           "file-owner": "500",
           "file-permissions": "0100664",
           "file-group": "500",
           "file-mtime": "1595002920000000000ns"
       }
   }
   ```

1. Verifica le autorizzazioni sul FSx file system Amazon collegato al bucket S3.

   ```
   $ sudo lfs df -h /fsx
   UUID                       bytes        Used   Available Use% Mounted on
   3rnxfbmv-MDT0000_UUID       34.4G        6.1M       34.4G   0% /fsx[MDT:0]
   3rnxfbmv-OST0000_UUID        1.1T        4.5M        1.1T   0% /fsx[OST:0]
    
   filesystem_summary:         1.1T        4.5M        1.1T   0% /fsx
    
   $ cd /fsx/s3cptestdir/
   $ ls -ld s3cptestdir/
   drw-rw-r-- 2 500 500 25600 Jan  8 17:33 s3cptestdir/
   
   $ ls -ld s3cptestdir/s3cptest.txt
   -rw-rw-r-- 1 500 500 26 Jan 8 17:33 s3cptestdir/s3cptest.txt
   ```

Sia la `s3cptestdir` directory che il `s3cptest.txt` file hanno i permessi POSIX importati.

# Collegamento del file system a un bucket Amazon S3
<a name="create-dra-linked-data-repo"></a>

Puoi collegare il tuo file system Amazon FSx for Lustre ai repository di dati in Amazon S3. Puoi creare il link durante la creazione del file system o in qualsiasi momento dopo la creazione del file system.

Un collegamento tra una directory sul file system e un bucket o prefisso S3 è chiamato *associazione di repository di dati* (DRA). È possibile configurare un massimo di 8 associazioni di repository di dati su un file system for Lustre. FSx È possibile mettere in coda un massimo di 8 richieste DRA, ma è possibile elaborare solo una richiesta alla volta per il file system. Ogni DRA deve avere una directory del file system univoca FSx per Lustre e un bucket o prefisso S3 univoco ad essa associato.

**Nota**  
 Le associazioni di archivi di dati, l'esportazione automatica e il supporto per più archivi di dati non sono disponibili sui file system o sui file system Lustre FSx 2.10. `Scratch 1` 

Per accedere agli oggetti nell'archivio di dati S3 come file e directory sul file system, i metadati di file e directory devono essere caricati nel file system. È possibile caricare i metadati da un archivio di dati collegato quando si crea il DRA o caricare i metadati per batch di file e directory a cui si desidera accedere utilizzando il file system FSx for Lustre in un secondo momento utilizzando un'attività di importazione dell'archivio dati oppure utilizzare l'esportazione automatica per caricare automaticamente i metadati quando gli oggetti vengono aggiunti, modificati o eliminati dall'archivio dati.

È possibile configurare un DRA solo per l'importazione automatica, solo per l'esportazione automatica o per entrambi. Un'associazione di repository di dati configurata sia con l'importazione automatica che con l'esportazione automatica propaga i dati in entrambe le direzioni tra il file system e il bucket S3 collegato. Quando apporti modifiche ai dati nel tuo repository di dati S3, FSx for Lustre rileva le modifiche e quindi importa automaticamente le modifiche nel tuo file system. Quando crei, modifichi o elimini file, FSx for Lustre esporta automaticamente le modifiche in Amazon S3 in modo asincrono una volta che l'applicazione ha terminato la modifica del file.

**Importante**  
Se modifichi lo stesso file sia nel file system che nel bucket S3, devi garantire il coordinamento a livello di applicazione per evitare conflitti. FSx for Lustre non impedisce scritture in conflitto in più posizioni.
Per i file contrassegnati con un attributo immutabile, FSx for Lustre non è in grado di sincronizzare le modifiche tra il file system FSx for Lustre e un bucket S3 collegato al file system. L'impostazione di un flag immutabile per un periodo di tempo prolungato può causare un peggioramento delle prestazioni dello spostamento dei dati tra Amazon FSx e S3.

Quando crei un'associazione di repository di dati, puoi configurare le seguenti proprietà:
+ **Percorso del file system**: immettere un percorso locale sul file system che punti a una directory (ad esempio`/ns1/`) o sottodirectory (ad esempio`/ns1/subdir/`) che verrà mappata one-to-one con il percorso del repository di dati specificato di seguito. La barra che precede il nome è obbligatoria. Due associazioni di repository di dati non possono avere percorsi di file system sovrapposti. Se ad esempio un repository di dati è associato al percorso del file system `/ns1`, non è possibile collegare un altro repository di dati al percorso del file system `/ns1/ns2`.
**Nota**  
Se indichi solo una barra (`/`) come percorso del file system, puoi collegare solo un repository di dati al file system. Puoi specificare solo "/" come percorso del file system per il primo repository di dati associato a un file system.
+ **Percorso dell'archivio dati: inserisci un percorso** nell'archivio dati S3. Il percorso può essere un prefisso o un bucket S3 nel formato `s3://bucket-name/prefix/`. Questa proprietà specifica da dove verranno importati o esportati i file nel repository di dati S3. FSx for Lustre aggiungerà un «/» finale al percorso del tuo repository di dati se non ne fornisci uno. Ad esempio, se fornite un percorso di archivio dati di`s3://amzn-s3-demo-bucket/my-prefix`, FSx for Lustre lo interpreterà come. `s3://amzn-s3-demo-bucket/my-prefix/`

  Due associazioni di repository di dati non possono avere percorsi di repository di dati sovrapposti. Ad esempio, se un archivio di dati con percorso `s3://amzn-s3-demo-bucket/my-prefix/` è collegato al file system, non è possibile creare un'altra associazione di repository di dati con il percorso dell'archivio di dati. `s3://amzn-s3-demo-bucket/my-prefix/my-sub-prefix`
+ **Importa metadati dal repository**: è possibile selezionare questa opzione per importare i metadati dall'intero repository di dati subito dopo aver creato l'associazione del repository di dati. In alternativa, è possibile eseguire un'attività di importazione dell'archivio di dati per caricare tutti o un sottoinsieme dei metadati dall'archivio di dati collegato nel file system in qualsiasi momento dopo la creazione dell'associazione all'archivio di dati.
+ **Impostazioni di importazione**: scegli una politica di importazione che specifichi il tipo di oggetti aggiornati (qualsiasi combinazione di oggetti nuovi, modificati ed eliminati) che verranno importati automaticamente dal bucket S3 collegato al tuo file system. L'importazione automatica (nuova, modificata, eliminata) è attivata per impostazione predefinita quando aggiungi un repository di dati dalla console, ma è disabilitata per impostazione predefinita quando si utilizza l' FSx API AWS CLI o Amazon.
+ **Impostazioni di esportazione**: scegli una politica di esportazione che specifichi il tipo di oggetti aggiornati (qualsiasi combinazione di nuovi, modificati ed eliminati) che verranno esportati automaticamente nel bucket S3. L'esportazione automatica (nuova, modificata, eliminata) è attivata per impostazione predefinita quando aggiungi un repository di dati dalla console, ma è disabilitata per impostazione predefinita quando si utilizza l' FSx API AWS CLI o Amazon.

Le impostazioni del **percorso del file system** e del percorso del **repository dei dati forniscono una mappatura 1:1 tra i percorsi** in Amazon FSx e le chiavi degli oggetti in S3.

**Topics**
+ [Creazione di un link a un bucket S3](create-linked-dra.md)
+ [Aggiornamento delle impostazioni di associazione agli archivi di dati](update-dra-settings.md)
+ [Eliminazione di un'associazione a un bucket S3](delete-linked-dra.md)
+ [Visualizzazione dei dettagli dell'associazione al repository di dati](view-dra-details.md)
+ [Stato del ciclo di vita dell'associazione al repository di dati](dra-lifecycles.md)
+ [Utilizzo di bucket Amazon S3 crittografati lato server](s3-server-side-encryption-support.md)

# Creazione di un link a un bucket S3
<a name="create-linked-dra"></a>

Le seguenti procedure illustrano il processo di creazione di un'associazione di repository di dati per un file system FSx for Lustre a un bucket S3 esistente, utilizzando and (). Console di gestione AWS AWS Command Line Interface AWS CLI Per informazioni sull'aggiunta di autorizzazioni a un bucket S3 per collegarlo al file system, consulta. [Aggiungere le autorizzazioni per utilizzare gli archivi di dati in Amazon S3](setting-up.md#fsx-adding-permissions-s3)

**Nota**  
Gli archivi di dati non possono essere collegati a file system su cui sono abilitati i backup del file system. Disabilita i backup prima di collegarti a un archivio di dati.

## Per collegare un bucket S3 durante la creazione di un file system (console)
<a name="export-path-lustre-console-dra-new"></a>

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Segui la procedura per creare un nuovo file system descritta [Passaggio 1: crea il tuo FSx file system for Lustre](getting-started.md#getting-started-step1) nella sezione Guida introduttiva. 

1. Apri il **Data Repository Import/Export , sezione *opzionale***. La funzionalità è disabilitata per impostazione predefinita.

1. Scegli **Importa dati da ed esporta dati su S3**.

1. Nella finestra di dialogo delle **informazioni sull'associazione del repository di dati**, fornisci informazioni per i seguenti campi.
   + **Percorso del file system**: inserisci il nome di una directory di alto livello (ad esempio`/ns1`) o sottodirectory (ad esempio`/ns1/subdir`) all'interno del FSx file system Amazon che verrà associata al repository di dati S3. La barra anteriore del percorso è obbligatoria. Due associazioni di repository di dati non possono avere percorsi di file system sovrapposti. Se ad esempio un repository di dati è associato al percorso del file system `/ns1`, non è possibile collegare un altro repository di dati al percorso del file system `/ns1/ns2`. L'impostazione del **percorso del file system** deve essere univoca per tutte le associazioni di repository di dati per il file system.
   + **Percorso dell'archivio dati**: inserisci il percorso di un bucket o prefisso S3 esistente da associare al tuo file system (ad esempio,). `s3://amzn-s3-demo-bucket/my-prefix` Due associazioni di repository di dati non possono avere percorsi di repository di dati sovrapposti. L'impostazione del **percorso dell'archivio dati** deve essere univoca per tutte le associazioni di archivi di dati per il file system.
   + **Importa metadati dal repository**: seleziona questa proprietà per eseguire facoltativamente un'attività di importazione dell'archivio di dati per importare i metadati subito dopo la creazione del collegamento.

1. Per **le impostazioni di importazione, facoltativo**, imposta una **politica di importazione** che determini il modo in cui gli elenchi di file e directory vengono mantenuti aggiornati quando aggiungi, modifichi o elimini oggetti nel tuo bucket S3. Ad esempio, scegli **Nuovo** per importare i metadati nel tuo file system per i nuovi oggetti creati nel bucket S3. Per ulteriori informazioni sulle politiche di importazione, consulta. [Importa automaticamente gli aggiornamenti dal tuo bucket S3](autoimport-data-repo-dra.md)

1. Per la **politica di esportazione**, imposta una politica di esportazione che determini il modo in cui i file vengono esportati nel bucket S3 collegato quando aggiungi, modifichi o elimini oggetti nel tuo file system. Ad esempio, scegli **Modificato** per esportare oggetti il cui contenuto o metadati sono stati modificati sul tuo file system. Per ulteriori informazioni sulle politiche di esportazione, consultate[Esporta automaticamente gli aggiornamenti nel tuo bucket S3](autoexport-data-repo-dra.md).

1. Continuare con la sezione successiva della procedura guidata per la creazione del file system.

## Per collegare un bucket S3 a un file system esistente (console)
<a name="export-path-lustre-console-dra"></a>

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Dalla dashboard, scegli **File system**, quindi seleziona il file system per cui desideri creare un'associazione di repository di dati. 

1. Scegli la scheda **Archivio dati**.

1. Nel riquadro **Associazioni di archivi di dati**, scegli **Crea associazione di archivi di dati**.

1. Nella finestra di dialogo **Informazioni sull'associazione agli archivi di dati**, fornisci informazioni per i seguenti campi.
   + **Percorso del file system**: inserisci il nome di una directory di alto livello (ad esempio`/ns1`) o sottodirectory (ad esempio`/ns1/subdir`) all'interno del FSx file system Amazon che verrà associata al repository di dati S3. La barra anteriore del percorso è obbligatoria. Due associazioni di repository di dati non possono avere percorsi di file system sovrapposti. Se ad esempio un repository di dati è associato al percorso del file system `/ns1`, non è possibile collegare un altro repository di dati al percorso del file system `/ns1/ns2`. L'impostazione del **percorso del file system** deve essere univoca per tutte le associazioni di repository di dati per il file system.
   + **Percorso dell'archivio dati**: inserisci il percorso di un bucket o prefisso S3 esistente da associare al tuo file system (ad esempio,). `s3://amzn-s3-demo-bucket/my-prefix` Due associazioni di repository di dati non possono avere percorsi di repository di dati sovrapposti. L'impostazione del **percorso dell'archivio dati** deve essere univoca per tutte le associazioni di archivi di dati per il file system.
   + **Importa metadati dal repository**: seleziona questa proprietà per eseguire facoltativamente un'attività di importazione dell'archivio di dati per importare i metadati subito dopo la creazione del collegamento.

1. Per **le impostazioni di importazione, facoltativo**, imposta una **politica di importazione** che determini il modo in cui gli elenchi di file e directory vengono mantenuti aggiornati quando aggiungi, modifichi o elimini oggetti nel tuo bucket S3. Ad esempio, scegli **Nuovo** per importare i metadati nel tuo file system per i nuovi oggetti creati nel bucket S3. Per ulteriori informazioni sulle politiche di importazione, consulta. [Importa automaticamente gli aggiornamenti dal tuo bucket S3](autoimport-data-repo-dra.md)

1. Per la **politica di esportazione**, imposta una politica di esportazione che determini il modo in cui i file vengono esportati nel bucket S3 collegato quando aggiungi, modifichi o elimini oggetti nel tuo file system. Ad esempio, scegli **Modificato** per esportare oggetti il cui contenuto o metadati sono stati modificati sul tuo file system. Per ulteriori informazioni sulle politiche di esportazione, consultate[Esporta automaticamente gli aggiornamenti nel tuo bucket S3](autoexport-data-repo-dra.md).

1. Scegli **Create** (Crea).

## Per collegare un file system a un bucket S3 ()AWS CLI
<a name="export-path-lustre-cli-dra"></a>

L'esempio seguente crea un'associazione di repository di dati che collega un FSx file system Amazon a un bucket S3, con una politica di importazione che importa qualsiasi file nuovo o modificato nel file system e una politica di esportazione che esporta file nuovi, modificati o eliminati nel bucket S3 collegato.
+ Per creare un'associazione di repository di dati, usa il `create-data-repository-association` comando Amazon FSx CLI, come illustrato di seguito.

  ```
  $ aws fsx create-data-repository-association \
        --file-system-id fs-0123456789abcdef0 \
        --file-system-path /ns1/path1/ \
        --data-repository-path s3://amzn-s3-demo-bucket/myprefix/ \
        --s3 "AutoImportPolicy={Events=[NEW,CHANGED,DELETED]},AutoExportPolicy={Events=[NEW,CHANGED,DELETED]}"
  ```

Amazon FSx restituisce immediatamente la descrizione JSON del DRA. Il DRA viene creato in modo asincrono.

È possibile utilizzare questo comando per creare un'associazione di archivi di dati anche prima che il file system abbia terminato la creazione. La richiesta verrà messa in coda e l'associazione al repository di dati verrà creata una volta che il file system sarà disponibile.

# Aggiornamento delle impostazioni di associazione agli archivi di dati
<a name="update-dra-settings"></a>

Puoi aggiornare le impostazioni di un'associazione di repository di dati esistente utilizzando l' Console di gestione AWS AWS CLI, la e l' FSx API Amazon, come illustrato nelle seguenti procedure.

**Nota**  
Non è possibile aggiornare l'`File system path`or `Data repository path` di un DRA dopo la sua creazione. Se si desidera modificare l'`File system path`or`Data repository path`, è necessario eliminare il DRA e crearlo nuovamente.

## Per aggiornare le impostazioni per un'associazione di archivi di dati esistente (console)
<a name="update-dra-console"></a>

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Dalla dashboard, scegli **File system**, quindi seleziona il file system che desideri gestire.

1. Scegli la scheda **Archivio dati**.

1. Nel riquadro **Associazioni agli archivi di dati**, scegli l'associazione agli archivi di dati che desideri modificare.

1. Scegliere **Aggiorna**. Viene visualizzata una finestra di dialogo di modifica per l'associazione del repository di dati.

1. Per **le impostazioni di importazione, facoltativo**, puoi aggiornare la tua **politica di importazione**. Per ulteriori informazioni sulle politiche di importazione, consulta[Importa automaticamente gli aggiornamenti dal tuo bucket S3](autoimport-data-repo-dra.md).

1. Per **le impostazioni di esportazione, facoltativo**, puoi aggiornare la tua politica di esportazione. Per ulteriori informazioni sulle politiche di esportazione, consulta[Esporta automaticamente gli aggiornamenti nel tuo bucket S3](autoexport-data-repo-dra.md).

1. Scegliere **Aggiorna**.

## Per aggiornare le impostazioni per un'associazione di archivi di dati (CLI) esistente
<a name="update-dra-cli"></a>
+ Per aggiornare un'associazione di repository di dati, usa il `update-data-repository-association` comando Amazon FSx CLI, come illustrato di seguito.

  ```
  $ aws fsx update-data-repository-association \
        --association-id 'dra-872abab4b4503bfc2' \
        --s3 "AutoImportPolicy={Events=[NEW,CHANGED,DELETED]},AutoExportPolicy={Events=[NEW,CHANGED,DELETED]}"
  ```

Dopo aver aggiornato correttamente le politiche di importazione ed esportazione dell'associazione di repository di dati, Amazon FSx restituisce la descrizione dell'associazione di repository di dati aggiornata come JSON.

# Eliminazione di un'associazione a un bucket S3
<a name="delete-linked-dra"></a>

Le seguenti procedure illustrano il processo di eliminazione di un'associazione di repository di dati da un FSx file system Amazon esistente a un bucket S3 esistente, utilizzando and (). Console di gestione AWS AWS Command Line Interface AWS CLI L'eliminazione dell'associazione del data repository scollega il file system dal bucket S3.

## Per eliminare un collegamento da un file system a un bucket S3 (console)
<a name="delete-dra-console-dra"></a>

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Dalla dashboard, scegli **File system**, quindi seleziona il file system da cui desideri eliminare un'associazione di repository di dati. 

1. Scegli la scheda **Archivio dati**.

1. Nel riquadro **Associazioni agli archivi di dati**, scegli l'associazione di archivi di dati che desideri eliminare.

1. Per **Azioni**, scegli **Elimina** associazione.

1. Nella finestra di dialogo **Elimina**, puoi scegliere **Elimina dati nel file system** per eliminare fisicamente i dati nel file system che corrispondono all'associazione del repository di dati.

   Scegliete questa opzione se intendete creare una nuova associazione di repository di dati utilizzando lo stesso percorso del file system ma puntando a un prefisso di bucket S3 diverso o se non avete più bisogno dei dati nel file system.

1. Scegli **Elimina** per rimuovere l'associazione del repository di dati dal file system.

## Per eliminare un collegamento da un file system a un bucket S3 ()AWS CLI
<a name="delete-dra-cli-dra"></a>

L'esempio seguente elimina un'associazione di repository di dati che collega un FSx file system Amazon a un bucket S3. Il `--association-id` parametro specifica l'ID dell'associazione di repository di dati da eliminare.
+ Per eliminare un'associazione di repository di dati, utilizza il `delete-data-repository-association` comando Amazon FSx CLI, come illustrato di seguito.

  ```
  $ aws fsx delete-data-repository-association \
        --association-id dra-872abab4b4503bfc \
        --delete-data-in-file-system false
  ```

Dopo aver eliminato con successo l'associazione del repository di dati, Amazon FSx restituisce la sua descrizione come JSON.

**Ricreazione DRAs con lo stesso percorso del file system**  
Si sconsiglia di eliminare e ricreare le associazioni di repository di dati che utilizzano lo stesso percorso del file system. Se si elimina un DRA e successivamente si crea un nuovo DRA utilizzando lo stesso percorso del file system, alcuni file potrebbero mantenere lo stato HSM del DRA precedentemente eliminato.  
Se è necessario esportare file da un DRA ricreato gestito da un DRA precedentemente eliminato, è necessario contrassegnare tali file come sporchi utilizzando il comando seguente e quindi eseguire un'operazione di esportazione dell'archivio dei dati:  

```
sudo lfs hsm_set --dirty file_path
```

# Visualizzazione dei dettagli dell'associazione al repository di dati
<a name="view-dra-details"></a>

È possibile visualizzare i dettagli di un'associazione di repository di dati utilizzando la console FSx for Lustre AWS CLI, l'e l'API. I dettagli includono l'ID di associazione del DRA, il percorso del file system, il percorso dell'archivio dati, le impostazioni di importazione, le impostazioni di esportazione, lo stato e l'ID del file system associato.

## Per visualizzare i dettagli del DRA (console)
<a name="view-dra-details-console"></a>

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Dalla dashboard, scegli **File system**, quindi seleziona il file system per cui desideri visualizzare i dettagli di un'associazione di repository di dati.

1. Scegli la scheda **Archivio dati**.

1. Nel riquadro **Associazioni agli archivi di dati**, scegli l'associazione di archivi di dati che desideri visualizzare. Viene visualizzata la pagina di **riepilogo**, che mostra i dettagli del DRA.  
![\[Pagina Amazon FSx Details di un'associazione di repository di dati.\]](http://docs.aws.amazon.com/it_it/fsx/latest/LustreGuide/images/dra-describe.png)

## Per visualizzare i dettagli DRA (CLI)
<a name="view-dra-details-cli"></a>
+ Per visualizzare i dettagli di una specifica associazione di repository di dati, utilizza il `describe-data-repository-associations` comando Amazon FSx CLI, come illustrato di seguito.

  ```
  $ aws fsx describe-data-repository-associations \
        --association-ids dra-872abab4b4503bfc2
  ```

  Amazon FSx restituisce la descrizione dell'associazione del data repository come JSON.

# Stato del ciclo di vita dell'associazione al repository di dati
<a name="dra-lifecycles"></a>

Lo stato del ciclo di vita dell'associazione del data repository fornisce informazioni sullo stato di uno specifico DRA. **Un'associazione di repository di dati può avere i seguenti stati del ciclo di vita:**
+ **Creazione**: Amazon FSx sta creando l'associazione del repository di dati tra il file system e il repository di dati collegato. L'archivio di dati non è disponibile.
+ **Disponibile**: l'associazione dell'archivio di dati è disponibile per l'uso.
+ **Aggiornamento**: l'associazione dell'archivio di dati è in corso di un aggiornamento avviato dal cliente che potrebbe influire sulla sua disponibilità.
+ **Eliminazione**: l'associazione all'archivio di dati è in fase di eliminazione avviata dal cliente.
+ **Configurato erroneamente**: Amazon FSx non può importare automaticamente gli aggiornamenti dal bucket S3 o esportare automaticamente gli aggiornamenti nel bucket S3 finché la configurazione dell'associazione del repository di dati non viene corretta.

  **Un DRA può essere configurato in modo errato a causa di quanto segue:**
  + Amazon FSx non dispone delle autorizzazioni IAM necessarie per accedere al bucket S3.
  + La configurazione di notifica FSx degli eventi sul bucket S3 viene eliminata o modificata.
  + Il bucket S3 contiene notifiche di eventi esistenti che si sovrappongono ai tipi di eventi. FSx 

  Dopo aver risolto il problema sottostante, il DRA torna automaticamente allo stato **Disponibile** entro 15 minuti oppure è possibile attivare immediatamente la modifica dello stato utilizzando il comando. AWS CLI [update-data-repository-association](https://docs.aws.amazon.com/cli/latest/reference/fsx/update-data-repository-association.html) 
+ **Fallita**: l'associazione del repository di dati si trova in uno stato terminale che non può essere ripristinato (ad esempio, perché il percorso del file system viene eliminato o il bucket S3 viene eliminato).

 Puoi visualizzare lo stato del ciclo di vita di un'associazione di repository di dati utilizzando la FSx console Amazon, e l' AWS Command Line Interface API Amazon. FSx Per ulteriori informazioni, consulta [Visualizzazione dei dettagli dell'associazione al repository di dati](view-dra-details.md).

# Utilizzo di bucket Amazon S3 crittografati lato server
<a name="s3-server-side-encryption-support"></a>

 FSx for Lustre supporta i bucket Amazon S3 che utilizzano la crittografia lato server con chiavi gestite da S3 (SSE-S3) e con storage in (SSE-KMS). AWS KMS keys AWS Key Management Service 

Se desideri che Amazon FSx crittografi i dati durante la scrittura nel tuo bucket S3, devi impostare la crittografia predefinita sul bucket S3 su SSE-S3 o SSE-KMS. Per ulteriori informazioni, consulta [Configurazione della crittografia predefinita nella Guida](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-bucket-encryption.html) per l'utente di *Amazon S3*. Quando scrivi file nel tuo bucket S3, Amazon FSx segue la politica di crittografia predefinita del tuo bucket S3.

Per impostazione predefinita, Amazon FSx supporta i bucket S3 crittografati tramite SSE-S3. Se desideri collegare il tuo FSx file system Amazon a un bucket S3 crittografato utilizzando la crittografia SSE-KMS, devi aggiungere una dichiarazione alla politica delle chiavi gestite dai clienti che consenta ad Amazon di crittografare e FSx decrittografare gli oggetti nel tuo bucket S3 utilizzando la tua chiave KMS.

La seguente dichiarazione consente a uno specifico FSx file system Amazon di crittografare e decrittografare oggetti per uno specifico bucket S3,. *bucket\$1name*

```
{
    "Sid": "Allow access through S3 for the FSx SLR to use the KMS key on the objects in the given S3 bucket",
    "Effect": "Allow",
    "Principal": {
        "AWS": "arn:aws:iam::aws_account_id:role/aws-service-role/s3.data-source.lustre.fsx.amazonaws.com/AWSServiceRoleForFSxS3Access_fsx_file_system_id"
    },
    "Action": [
        "kms:Encrypt",
        "kms:Decrypt",
        "kms:ReEncrypt*",
        "kms:GenerateDataKey*",
        "kms:DescribeKey"
    ],
    "Resource": "*",
    "Condition": {
        "StringEquals": {
            "kms:CallerAccount": "aws_account_id",
            "kms:ViaService": "s3.bucket-region.amazonaws.com"
        },
        "StringLike": {
            "kms:EncryptionContext:aws:s3:arn": "arn:aws:s3:::bucket_name/*"
        }
    }
}
```

**Nota**  
 Se utilizzi un KMS con CMK per crittografare il tuo bucket S3 con le chiavi del bucket S3 abilitate, impostalo sull'ARN del bucket, non sull'ARN `EncryptionContext` dell'oggetto, come in questo esempio:  

```
"StringLike": {
    "kms:EncryptionContext:aws:s3:arn": "arn:aws:s3:::bucket_name"
}
```

La seguente informativa sulla politica consente a tutti i FSx file system Amazon del tuo account di collegarsi a un bucket S3 specifico.

```
{
      "Sid": "Allow access through S3 for the FSx SLR to use the KMS key on the objects in the given S3 bucket",
      "Effect": "Allow",
      "Principal": {
        "AWS": "*"
      },
      "Action": [
        "kms:Encrypt",
        "kms:Decrypt",
        "kms:ReEncrypt*",
        "kms:GenerateDataKey*",
        "kms:DescribeKey"
      ],
      "Resource": "*",
      "Condition": {
        "StringEquals": {
          "kms:ViaService": "s3.bucket-region.amazonaws.com",
          "kms:CallerAccount": "aws_account_id"
        },
        "StringLike": {
            "kms:EncryptionContext:aws:s3:arn": "arn:aws:s3:::bucket_name/*"
        },
        "ArnLike": {
          "aws:PrincipalArn": "arn:aws_partition:iam::aws_account_id:role/aws-service-role/s3.data-source.lustre.fsx.amazonaws.com/AWSServiceRoleForFSxS3Access_fs-*"
        }
      }
}
```

## Accesso a bucket Amazon S3 crittografati lato server da un VPC Account AWS diverso o condiviso
<a name="s3-server-side-cross-account-support"></a>

Dopo aver creato un file system FSx for Lustre collegato a un bucket Amazon S3 crittografato, devi quindi concedere al ruolo collegato al servizio (SLR) `AWSServiceRoleForFSxS3Access_fs-01234567890` l'accesso alla chiave KMS utilizzata per crittografare il bucket S3 prima di leggere o scrivere dati dal bucket S3 collegato. Puoi utilizzare un ruolo IAM che dispone già delle autorizzazioni per la chiave KMS.

**Nota**  
Questo ruolo IAM deve trovarsi nell'account in cui è stato creato il file system FSx for Lustre (che è lo stesso account della SLR S3), non nell'account a cui appartiene la chiave KMS/bucket S3.

Utilizzi il ruolo IAM per chiamare la seguente AWS KMS API per creare una concessione per S3 SLR in modo che la SLR ottenga l'autorizzazione per gli oggetti S3. Per trovare l'ARN associato alla tua reflex, cerca i ruoli IAM utilizzando l'ID del file system come stringa di ricerca.

```
$ aws kms create-grant --region fs_account_region \
      --key-id arn:aws:kms:s3_bucket_account_region:s3_bucket_account:key/key_id \
      --grantee-principal arn:aws:iam::fs_account_id:role/aws-service-role/s3.data-source.lustre.fsx.amazonaws.com/AWSServiceRoleForFSxS3Access_file-system-id \
      --operations "Decrypt" "Encrypt" "GenerateDataKey" "GenerateDataKeyWithoutPlaintext" "CreateGrant" "DescribeKey" "ReEncryptFrom" "ReEncryptTo"
```

Per ulteriori informazioni sui ruoli collegati al servizio, consulta [Utilizzo di ruoli collegati ai servizi per Amazon FSx](using-service-linked-roles.md).

# Importazione delle modifiche dal tuo archivio di dati
<a name="importing-files-dra"></a>

Puoi importare modifiche ai dati e ai metadati POSIX da un repository di dati collegato al tuo file system Amazon FSx. I metadati POSIX associati includono proprietà, autorizzazioni e timestamp.

Per importare le modifiche al file system, utilizzate uno dei seguenti metodi:
+ Configurate il file system per importare automaticamente file nuovi, modificati o eliminati dal repository di dati collegato. Per ulteriori informazioni, consulta [Importa automaticamente gli aggiornamenti dal tuo bucket S3](autoimport-data-repo-dra.md).
+ Seleziona l'opzione per importare i metadati quando crei un'associazione di repository di dati. Ciò avvierà un'attività di importazione dell'archivio di dati subito dopo la creazione dell'associazione dell'archivio di dati.
+ Utilizza un'attività di importazione di repository di dati su richiesta. Per ulteriori informazioni, consulta [Utilizzo delle attività di archiviazione dei dati per importare le modifiche](import-data-repo-task-dra.md).

Le attività automatiche di importazione e importazione dell'archivio di dati possono essere eseguite contemporaneamente.

Quando attivi l'importazione automatica per un'associazione di repository di dati, il file system aggiorna automaticamente i metadati dei file man mano che gli oggetti vengono creati, modificati o eliminati in S3. Quando selezioni l'opzione per importare i metadati durante la creazione di un'associazione di repository di dati, il file system importa i metadati per tutti gli oggetti nel repository di dati. Quando si esegue l'importazione utilizzando un'attività di importazione del repository di dati, il file system importa solo i metadati per gli oggetti che sono stati creati o modificati dopo l'ultima importazione.

FSx for Lustre copia automaticamente il contenuto di un file dal repository di dati e lo carica nel ﬁle system quando l'applicazione accede per la prima volta al file nel file system. Questo movimento di dati è gestito da FSx for Lustre ed è trasparente per le applicazioni. Le letture successive di questi file vengono fornite direttamente dal file system con latenze inferiori al millisecondo.

Potete anche precaricare l'intero ﬁle system o una directory all'interno del ﬁle system. Per ulteriori informazioni, consulta [Precaricamento dei file nel file system](preload-file-contents-hsm-dra.md). Se richiedi il precaricamento di più ﬁle contemporaneamente, FSx for Lustre carica i ﬁle dal tuo repository di dati Amazon S3 in parallelo.

FSx for Lustre importa solo oggetti S3 con chiavi oggetto conformi a POSIX. Sia le attività automatiche di importazione che quelle di importazione del repository di dati importano i metadati POSIX. Per ulteriori informazioni, consulta [Supporto per metadati POSIX per archivi di dati](posix-metadata-support.md).

**Nota**  
FSx for Lustre non supporta l'importazione di metadati per collegamenti simbolici (collegamenti simbolici) dalle classi di archiviazione S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive. È possibile importare i metadati per gli oggetti S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive che non sono collegamenti simbolici (ovvero, viene creato un inode sul file system for Lustre con i metadati corretti). FSx Tuttavia, per leggere questi dati dal file system, è necessario prima ripristinare l'oggetto S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. L'importazione di dati di file direttamente da oggetti Amazon S3 nella classe di storage S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive in for Lustre non è supportata. FSx 

# Importa automaticamente gli aggiornamenti dal tuo bucket S3
<a name="autoimport-data-repo-dra"></a>

Puoi configurare FSx Lustre in modo che aggiorni automaticamente i metadati nel file system man mano che gli oggetti vengono aggiunti, modificati o eliminati dal tuo bucket S3. FSx for Lustre crea, aggiorna o elimina l'elenco di file e directory, corrispondente alla modifica in S3. Se l'oggetto modificato nel bucket S3 non contiene più i relativi metadati, FSx for Lustre mantiene i valori correnti dei metadati del file, incluse le autorizzazioni correnti.

**Nota**  
Il file system FSx for Lustre e il bucket S3 collegato devono trovarsi nello stesso per importare automaticamente gli aggiornamenti. Regione AWS 

È possibile configurare l'importazione automatica quando si crea l'associazione del repository di dati e aggiornare le impostazioni di importazione automatica in qualsiasi momento utilizzando la console di FSx gestione, l'o l'API AWS CLI. AWS 

**Nota**  
È possibile configurare sia l'importazione automatica che l'esportazione automatica sulla stessa associazione di repository di dati. Questo argomento descrive solo la funzionalità di importazione automatica.

**Importante**  
Se un oggetto viene modificato in S3 con tutte le politiche di importazione automatiche abilitate e l'esportazione automatica disabilitata, il contenuto di quell'oggetto viene sempre importato in un file corrispondente nel file system. Se un file esiste già nella posizione di destinazione, il file viene sovrascritto.
Se un file viene modificato sia nel file system che in S3, con tutte le politiche di importazione ed esportazione automatiche abilitate, il file nel file system o l'oggetto in S3 potrebbero essere sovrascritti dall'altro. Non è garantito che una modifica successiva in una posizione sovrascriva una modifica precedente in un'altra posizione. Se modifichi lo stesso file sia nel file system che nel bucket S3, dovresti garantire il coordinamento a livello di applicazione per prevenire tali conflitti. FSx for Lustre non impedisce scritture in conflitto in più posizioni.

La politica di importazione specifica come desiderate che FSx Lustre aggiorni il file system man mano che il contenuto cambia nel bucket S3 collegato. Un'associazione di archivi di dati può avere una delle seguenti politiche di importazione:
+ **Nuovo**: FSx for Lustre aggiorna automaticamente i metadati di file e directory solo quando vengono aggiunti nuovi oggetti al repository di dati S3 collegato.
+ **Modificato**: FSx for Lustre aggiorna automaticamente i metadati di file e directory solo quando viene modificato un oggetto esistente nel data repository.
+ **Eliminato** — FSx for Lustre aggiorna automaticamente i metadati di file e directory solo quando viene eliminato un oggetto nel data repository.
+ **Qualsiasi combinazione di New, Changed ed Deleted** — FSx for Lustre aggiorna automaticamente i metadati di file e directory quando si verifica una delle azioni specificate nell'archivio di dati S3. Ad esempio, puoi specificare che il file system venga aggiornato quando un oggetto viene aggiunto a (**Nuovo**) o rimosso da (**Eliminato**) dal repository S3, ma non aggiornato quando un oggetto viene modificato.
+ **Nessuna policy configurata**: FSx for Lustre non aggiorna i metadati di file e directory sul file system quando gli oggetti vengono aggiunti, modificati o eliminati dal repository di dati S3. Se non configuri una politica di importazione, l'importazione automatica è disabilitata per l'associazione del repository di dati. È comunque possibile importare manualmente le modifiche ai metadati utilizzando un'attività di importazione dell'archivio dati, come descritto in. [Utilizzo delle attività di archiviazione dei dati per importare le modifiche](import-data-repo-task-dra.md)

**Importante**  
L'importazione automatica non sincronizzerà le seguenti azioni S3 con il file system Linked FSx for Lustre:  
Eliminazione di un oggetto utilizzando le scadenze del ciclo di vita degli oggetti S3
Eliminazione permanente della versione corrente dell'oggetto in un bucket abilitato al controllo delle versioni
Annullamento di un oggetto in un bucket abilitato al controllo delle versioni

****Nella maggior parte dei casi d'uso, si consiglia di configurare una politica di importazione di **Nuovo**, Modificato ed Eliminato.**** Questa politica garantisce che tutti gli aggiornamenti effettuati nel repository di dati S3 collegato vengano importati automaticamente nel file system.

Quando imposti una politica di importazione per aggiornare i metadati dei file e delle directory del file system in base alle modifiche nel repository di dati S3 collegato, FSx for Lustre crea una configurazione di notifica degli eventi sul bucket S3 collegato. La configurazione della notifica degli eventi è denominata. `FSx` Non modificare o eliminare la configurazione della notifica `FSx` degli eventi nel bucket S3: in questo modo si impedirà l'importazione automatica di metadati aggiornati di file e directory nel file system.

Quando FSx for Lustre aggiorna un elenco di file che è stato modificato nel repository di dati S3 collegato, sovrascrive il file locale con la versione aggiornata, anche se il file è bloccato in scrittura.

FSx for Lustre fa del suo meglio per aggiornare il file system. FSx for Lustre non è in grado di aggiornare il file system nelle seguenti situazioni:
+ Se FSx for Lustre non dispone dell'autorizzazione per aprire l'oggetto S3 nuovo o modificato. In questo caso, FSx for Lustre salta l'oggetto e continua. Lo stato del ciclo di vita DRA non è influenzato.
+ Se FSx for Lustre non dispone di autorizzazioni a livello di bucket, ad esempio for. `GetBucketAcl` **Ciò causerà una configurazione errata dello stato del ciclo di vita del repository di dati.** Per ulteriori informazioni, consulta [Stato del ciclo di vita dell'associazione al repository di dati](dra-lifecycles.md).
+ Se la configurazione di notifica `FSx` degli eventi sul bucket S3 collegato viene eliminata o modificata. **Ciò causerà una configurazione errata dello stato del ciclo di vita del repository di dati.** Per ulteriori informazioni, consulta [Stato del ciclo di vita dell'associazione al repository di dati](dra-lifecycles.md).

Ti consigliamo di [attivare la registrazione in](cw-event-logging.md#manage-logging) CloudWatch Logs per registrare le informazioni su file o directory che non possono essere importati automaticamente. Gli avvisi e gli errori nel registro contengono informazioni sul motivo dell'errore. Per ulteriori informazioni, consulta [Registri degli eventi del data repository](data-repo-event-logs.md).

## Prerequisiti
<a name="auto-import-prereqs-dra"></a>

 FSx Affinché Lustre importi automaticamente file nuovi, modificati o eliminati dal bucket S3 collegato, sono necessarie le seguenti condizioni:
+ Il file system e il bucket S3 collegato si trovano nello stesso. Regione AWS
+ **Il bucket S3 non ha uno stato del ciclo di vita configurato in modo errato.** Per ulteriori informazioni, consulta [Stato del ciclo di vita dell'associazione al repository di dati](dra-lifecycles.md).
+ Il tuo account dispone delle autorizzazioni necessarie per configurare e ricevere notifiche di eventi sul bucket S3 collegato.

## Tipi di modifiche ai file supportati
<a name="file-change-support-dra"></a>

FSx for Lustre supporta l'importazione delle seguenti modifiche ai file e alle directory che si verificano nel bucket S3 collegato:
+ Modifiche al contenuto dei file.
+ Modifiche ai metadati di file o directory.
+ Modifiche alla destinazione o ai metadati del collegamento simbolico.
+ Eliminazioni di file e cartelle. Se elimini un oggetto nel bucket S3 collegato che corrisponde a una directory nel file system (ovvero un oggetto con un nome chiave che termina con una barra), FSx for Lustre elimina la directory corrispondente sul file system solo se è vuota.

## Aggiornamento delle impostazioni di importazione
<a name="manage-autoimport-dra"></a>

Puoi configurare le impostazioni di importazione di un file system per un bucket S3 collegato quando crei l'associazione del repository di dati. Per ulteriori informazioni, consulta [Creazione di un link a un bucket S3](create-linked-dra.md).

Puoi anche aggiornare le impostazioni di importazione in qualsiasi momento, inclusa la politica di importazione. Per ulteriori informazioni, consulta [Aggiornamento delle impostazioni di associazione agli archivi di dati](update-dra-settings.md).

## Monitoraggio dell'importazione automatica
<a name="monitoring-autoimport"></a>

Se la velocità di modifica nel bucket S3 supera la velocità con cui l'importazione automatica può elaborare queste modifiche, le corrispondenti modifiche ai metadati importate nel file system FSx for Lustre vengono ritardate. In tal caso, puoi utilizzare la `AgeOfOldestQueuedMessage` metrica per monitorare l'età della modifica più vecchia in attesa di essere elaborata mediante importazione automatica. Per ulteriori informazioni su questa metrica, consulta. [FSx per le metriche del repository Lustre S3](fs-metrics.md#auto-import-export-metrics)

Se il ritardo nell'importazione delle modifiche ai metadati supera i 14 giorni (in base alla `AgeOfOldestQueuedMessage` metrica), le modifiche nel bucket S3 che non sono state elaborate mediante l'importazione automatica non vengono importate nel file system. **Inoltre, il ciclo di vita dell'associazione al repository di dati è contrassegnato come MAL CONFIGURATO e l'importazione automatica viene interrotta.** Se hai abilitato l'esportazione automatica, l'esportazione automatica continua a monitorare le modifiche del file system FSx for Lustre. Tuttavia, le modifiche aggiuntive non vengono sincronizzate dal file system FSx for Lustre a S3.

Per riportare l'associazione del repository di dati dallo stato del ciclo di vita **ERRONEAMENTE CONFIGURATO** allo stato del ciclo di vita **DISPONIBILE, è necessario aggiornare** l'associazione del repository di dati. È possibile aggiornare l'associazione del repository di dati utilizzando il comando [update-data-repository-association](https://docs.aws.amazon.com/cli/latest/reference/fsx/update-data-repository-association.html)CLI (o l'operazione API [UpdateDataRepositoryAssociation](https://docs.aws.amazon.com/fsx/latest/APIReference/API_UpdateDataRepositoryAssociation.html)corrispondente). L'unico parametro di richiesta di cui hai bisogno è l'associazione `AssociationID` di repository di dati che desideri aggiornare.

Dopo che lo stato del ciclo di vita dell'associazione al repository di dati è passato a AVAILABLE, **l'**importazione automatica (e l'esportazione automatica se abilitata) si riavvia. Al riavvio, l'esportazione automatica riprende la sincronizzazione delle modifiche del file system su S3. [Per sincronizzare i metadati degli oggetti nuovi e modificati in S3 con il file system FSx for Lustre che non sono stati importati o che provengono da quando l'associazione dell'archivio di dati era in uno stato configurato erroneamente, esegui un'attività di importazione dell'archivio dati.](import-data-repo-task-dra.md) Le attività di importazione del repository di dati non sincronizzano le eliminazioni nel bucket S3 con il file system for Lustre. FSx Se desideri sincronizzare completamente S3 con il tuo file system (incluse le eliminazioni), devi ricreare il file system.

Per garantire che i ritardi nell'importazione delle modifiche ai metadati non superino i 14 giorni, ti consigliamo di impostare un allarme sulla `AgeOfOldestQueuedMessage` metrica e di ridurre l'attività nel tuo bucket S3 se la metrica supera la soglia di allarme. `AgeOfOldestQueuedMessage` Per un file system FSx for Lustre collegato a un bucket S3 con un singolo shard che invia continuamente il numero massimo di modifiche possibili da S3, con la sola importazione automatica in esecuzione sul file system FSx for Lustre, l'importazione automatica può elaborare un arretrato di 7 ore di modifiche S3 entro 14 giorni.

Inoltre, con una singola azione S3, puoi generare più modifiche di quante ne possa mai elaborare l'importazione automatica in 14 giorni. Esempi di questi tipi di azioni includono, a titolo esemplificativo, i AWS Snowball caricamenti su S3 e le eliminazioni su larga scala. Se apporti una modifica su larga scala al tuo bucket S3 che desideri sincronizzare con il file system FSx for Lustre, per evitare che le modifiche automatiche all'importazione superino i 14 giorni, dovresti eliminare il file system e ricrearlo una volta completata la modifica a S3.

Se la tua `AgeOfOldestQueuedMessage` metrica è in crescita, esamina il bucket S3 e le `DeleteRequests` metriche per `GetRequests` individuare `PutRequests` eventuali modifiche alle attività che potrebbero causare un aumento della frequenza delle modifiche inviate all'importazione automatica. `PostRequests` and/or Per informazioni sui parametri S3 disponibili, consulta [Monitoring Amazon S3 nella Amazon](https://docs.aws.amazon.com/AmazonS3/latest/userguide/monitoring-overview.html) S3 User *Guide*.

Per un elenco di tutte le metriche disponibili FSx per Lustre, consulta. [Monitoraggio con Amazon CloudWatch](monitoring-cloudwatch.md)

# Utilizzo delle attività di archiviazione dei dati per importare le modifiche
<a name="import-data-repo-task-dra"></a>

L'attività di importazione dell'archivio di dati importa i metadati degli oggetti nuovi o modificati nel tuo repository di dati S3, creando un nuovo elenco di file o directory per ogni nuovo oggetto nell'archivio di dati S3. Per ogni oggetto che è stato modificato nel repository di dati, l'elenco di file o directory corrispondente viene aggiornato con i nuovi metadati. Non viene intrapresa alcuna azione per gli oggetti che sono stati eliminati dal data repository.

Utilizza le seguenti procedure per importare le modifiche ai metadati utilizzando la FSx console Amazon e la CLI. Tieni presente che puoi utilizzare un'attività di archivio dati per più attività. DRAs

## Per importare le modifiche ai metadati (console)
<a name="create-import-data-repo-task-dra-console"></a>

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Nel pannello di navigazione, scegli **File system**, quindi scegli il tuo Lustre file system.

1. Scegli la scheda **Archivio dati**.

1. Nel riquadro **Associazioni agli archivi di dati**, scegli le associazioni degli archivi di dati per cui desideri creare l'attività di importazione.

1. Dal menu **Azioni**, scegli **Importa** attività. Questa scelta non è disponibile se il file system non è collegato a un archivio di dati. Viene visualizzata la pagina dell'**attività Crea archivio dati di importazione**.

1. (Facoltativo) Specificate fino a 32 directory o file da importare dai bucket S3 collegati fornendo i percorsi di tali directory o file nei percorsi del repository di **dati** da importare.
**Nota**  
Se un percorso fornito non è valido, l'attività ha esito negativo.

1. (Facoltativo) Scegliete **Abilita** in **Rapporto di completamento** per generare un rapporto sul completamento dell'attività dopo il completamento dell'attività. Un *rapporto sul completamento dell'attività* fornisce dettagli sui file elaborati dall'attività che soddisfano l'ambito fornito in Ambito del **rapporto**. Per specificare la posizione in cui Amazon FSx deve recapitare il report, inserisci un percorso relativo su un repository di dati S3 collegato per **Report** path.

1. Scegli **Create** (Crea). 

   Una notifica nella parte superiore della pagina **File system** mostra l'attività che hai appena creato in corso. 

Per visualizzare lo stato e i dettagli dell'attività, scorri verso il basso fino al riquadro **Attività del data Repository** nella scheda **Data Repository** per il file system. L'ordinamento predefinito mostra l'attività più recente nella parte superiore dell'elenco.

Per visualizzare un riepilogo dell'attività da questa pagina, scegli **Task ID** per l'attività appena creata. Viene visualizzata la pagina di **riepilogo** dell'attività. 

## Per importare modifiche ai metadati (CLI)
<a name="create-import-data-repo-task-dra-cli"></a>
+ Utilizzate il comando [https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html)CLI per importare le modifiche ai metadati sul file system FSx for Lustre. L'operazione API corrispondente è. [https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html)

  ```
  $ aws fsx create-data-repository-task \
      --file-system-id fs-0123456789abcdef0 \
      --type IMPORT_METADATA_FROM_REPOSITORY \
      --paths s3://bucketname1/dir1/path1 \
      --report Enabled=true,Path=s3://bucketname1/dir1/path1,Format=REPORT_CSV_20191124,Scope=FAILED_FILES_ONLY
  ```

  Dopo aver creato correttamente l'attività di archiviazione dei dati, Amazon FSx restituisce la descrizione dell'attività come JSON.

Dopo aver creato l'attività per importare i metadati dal repository di dati collegato, puoi controllare lo stato dell'attività di importazione dell'archivio di dati. Per ulteriori informazioni sulla visualizzazione delle attività del data repository, vedere. [Accesso alle attività del repository di dati](view-data-repo-tasks.md)

# Precaricamento dei file nel file system
<a name="preload-file-contents-hsm-dra"></a>

Facoltativamente, puoi precaricare contenuti, singoli file o directory nel tuo file system.

## Importazione di file tramite comandi HSM
<a name="preload-hsm"></a>

Amazon FSx copia i dati dal tuo repository di dati Amazon S3 al primo accesso a un file. Grazie a questo approccio, la lettura o la scrittura iniziale su un file comporta una piccola latenza. Se l'applicazione è sensibile a questa latenza e sapete a quali file o directory deve accedere, potete facoltativamente precaricare il contenuto di singoli file o directory. A tale scopo, utilizzare il comando seguente. `hsm_restore`

È possibile utilizzare il `hsm_action` comando (rilasciato con l'utilità `lfs` utente) per verificare che il contenuto del file abbia terminato il caricamento nel file system. Il valore restituito da `NOOP` indica che il file è stato caricato correttamente. Esegui i seguenti comandi da un'istanza di calcolo con il file system montato. Sostituiscilo *path/to/file* con il percorso del file che stai precaricando nel file system.

```
sudo lfs hsm_restore path/to/file
sudo lfs hsm_action path/to/file
```

È possibile precaricare l'intero file system o un'intera directory all'interno del file system utilizzando i seguenti comandi. (La e commerciale finale esegue un comando come processo in background). Se richiedi il precaricamento di più file contemporaneamente, Amazon FSx carica i file dal tuo repository di dati Amazon S3 in parallelo. Se un file è già stato caricato nel file system, il `hsm_restore` comando non lo ricarica.

```
nohup find local/directory -type f -print0 | xargs -0 -n 1 -P 8 sudo lfs hsm_restore &
```

**Nota**  
Se il bucket S3 collegato è più grande del file system, dovresti essere in grado di importare tutti i metadati dei file nel tuo file system. Tuttavia, puoi caricare solo la quantità effettiva di dati di file che rientra nello spazio di archiviazione rimanente del file system. Riceverai un errore se tenti di accedere ai dati dei file quando non c'è più spazio di archiviazione sul file system. In tal caso, è possibile aumentare la quantità di capacità di archiviazione in base alle esigenze. Per ulteriori informazioni, consulta [Gestione della capacità di archiviazione](managing-storage-capacity.md).

## Fase di convalida
<a name="preload-validation"></a>

Puoi eseguire lo script bash elencato di seguito per aiutarti a scoprire quanti file o oggetti si trovano in uno stato di archiviazione (rilasciato).

Per migliorare le prestazioni dello script, in particolare su file system con un numero elevato di file, i thread della CPU vengono determinati automaticamente in base al file. `/proc/cpuproc` In altre parole, vedrai prestazioni più veloci con un'istanza Amazon EC2 con un numero di vCPU più elevato.

1. Configura lo script bash.

   ```
   #!/bin/bash
   
   # Check if a directory argument is provided
   if [ $# -ne 1 ]; then
       echo "Usage: $0 /path/to/lustre/mount"
       exit 1
   fi
   
   # Set the root directory from the argument
   ROOT_DIR="$1"
   
   # Check if the provided directory exists
   if [ ! -d "$ROOT_DIR" ]; then
       echo "Error: Directory $ROOT_DIR does not exist."
       exit 1
   fi
   
   # Automatically detect number of CPUs and set threads
   if command -v nproc &> /dev/null; then
       THREADS=$(nproc)
   elif [ -f /proc/cpuinfo ]; then
       THREADS=$(grep -c ^processor /proc/cpuinfo)
   else
       echo "Unable to determine number of CPUs. Defaulting to 1 thread."
       THREADS=1
   fi
   
   # Output file
   OUTPUT_FILE="released_objects_$(date +%Y%m%d_%H%M%S).txt"
   
   echo "Searching in $ROOT_DIR for all released objects using $THREADS threads"
   echo "This may take a while depending on the size of the filesystem..."
   
   # Find all released files in the specified lustre directory using parallel
   # If you  get false positives for file names/paths that include the word 'released',
   # you can grep 'released exists archived' instead of just 'released'
   time sudo lfs find "$ROOT_DIR" -type f | \
   parallel --will-cite -j "$THREADS" -n 1000 "sudo lfs hsm_state {} | grep released" > "$OUTPUT_FILE"
   
   echo "Search complete. Released objects are listed in $OUTPUT_FILE"
   echo "Total number of released objects: $(wc -l <"$OUTPUT_FILE")"
   ```

1. Rendi eseguibile lo script:

   ```
   $ chmod +x find_lustre_released_files.sh
   ```

1. Esegui lo script, come nell'esempio seguente:

   ```
   $ ./find_lustre_released_files.sh /fsxl/sample
   Searching in /fsxl/sample for all released objects using 16 threads
   This may take a while depending on the size of the filesystem...
   real 0m9.906s
   user 0m1.502s
   sys 0m5.653s
   Search complete. Released objects are listed in released_objects_20241121_184537.txt
   Total number of released objects: 30000
   ```

Se sono presenti oggetti rilasciati, esegui un ripristino in blocco nelle directory desiderate per importare i file in FSx for Lustre da S3, come nell'esempio seguente:

```
$ DIR=/path/to/lustre/mount
$ nohup find $DIR -type f -print0 | xargs -0 -n 1 -P 8 sudo lfs hsm_restore &
```

Nota che ci `hsm_restore` vorrà del tempo se ci sono milioni di file.

# Esportazione delle modifiche nel repository di dati
<a name="export-changed-data-meta-dra"></a>

È possibile esportare le modifiche ai dati e alle modifiche ai metadati POSIX dal file system FSx for Lustre a un repository di dati collegato. I metadati POSIX associati includono proprietà, autorizzazioni e timestamp.

Per esportare le modifiche dal file system, utilizzate uno dei seguenti metodi.
+ Configura il tuo file system per esportare automaticamente file nuovi, modificati o eliminati nel tuo repository di dati collegato. Per ulteriori informazioni, consulta [Esporta automaticamente gli aggiornamenti nel tuo bucket S3](autoexport-data-repo-dra.md).
+ Utilizza un'attività di esportazione di repository di dati su richiesta. Per ulteriori informazioni, consulta [Utilizzo delle attività dell'archivio dati per esportare le modifiche](export-data-repo-task-dra.md)

Le attività automatiche di esportazione ed esportazione dell'archivio di dati non possono essere eseguite contemporaneamente.

**Importante**  
L'esportazione automatica non sincronizzerà le seguenti operazioni sui metadati sul file system con S3 se gli oggetti corrispondenti sono archiviati in S3 Glacier Flexible Retrieval:   
chmod
masticato
rinominare

Quando si attiva l'esportazione automatica per un'associazione di archivi di dati, il file system esporta automaticamente i dati dei file e le modifiche ai metadati man mano che i file vengono creati, modificati o eliminati. Quando esportate file o directory utilizzando un'operazione di esportazione di un archivio di dati, il file system esporta solo i file di dati e i metadati che sono stati creati o modificati dopo l'ultima esportazione.

Sia le attività di esportazione automatica che quelle di esportazione del repository di dati esportano i metadati POSIX. Per ulteriori informazioni, consulta [Supporto per metadati POSIX per archivi di dati](posix-metadata-support.md). 

**Importante**  
Per garantire che FSx for Lustre possa esportare i dati nel bucket S3, è necessario archiviarli in un formato compatibile con UTF-8.
Le chiavi oggetto S3 hanno una lunghezza massima di 1.024 byte. FSx for Lustre non esporterà file la cui chiave oggetto S3 corrispondente sarebbe più lunga di 1.024 byte.

**Nota**  
Tutti gli oggetti creati dalle attività automatiche di esportazione ed esportazione del repository dei dati vengono scritti utilizzando la classe di archiviazione S3 Standard.

**Topics**
+ [Esporta automaticamente gli aggiornamenti nel tuo bucket S3](autoexport-data-repo-dra.md)
+ [Utilizzo delle attività dell'archivio dati per esportare le modifiche](export-data-repo-task-dra.md)
+ [Esportazione di file utilizzando i comandi HSM](exporting-files-hsm.md)

# Esporta automaticamente gli aggiornamenti nel tuo bucket S3
<a name="autoexport-data-repo-dra"></a>

È possibile configurare il file system FSx for Lustre per aggiornare automaticamente il contenuto di un bucket S3 collegato man mano che i file vengono aggiunti, modificati o eliminati dal file system. FSx for Lustre crea, aggiorna o elimina l'oggetto in S3, corrispondente alla modifica nel file system.

**Nota**  
L'esportazione automatica non è disponibile FSx per i file system o i file system Lustre 2.10. `Scratch 1`

È possibile esportare in un archivio di dati che si trova nello Regione AWS stesso file system o in un altro. Regione AWS

È possibile configurare l'esportazione automatica quando si crea l'associazione del repository di dati e aggiornare le impostazioni di esportazione automatica in qualsiasi momento utilizzando la console di FSx gestione AWS CLI, l'API. AWS 

**Importante**  
Se un file viene modificato nel file system con tutte le politiche di esportazione automatiche abilitate e l'importazione automatica disabilitata, il contenuto di quel file viene sempre esportato in un oggetto corrispondente in S3. Se un oggetto esiste già nella posizione di destinazione, l'oggetto viene sovrascritto.
Se un file viene modificato sia nel file system che in S3, con tutte le politiche di importazione ed esportazione automatiche abilitate, il file nel file system o l'oggetto in S3 potrebbero essere sovrascritti dall'altro. Non è garantito che una modifica successiva in una posizione sovrascriva una modifica precedente in un'altra posizione. Se modifichi lo stesso file sia nel file system che nel bucket S3, dovresti garantire il coordinamento a livello di applicazione per prevenire tali conflitti. FSx for Lustre non impedisce scritture in conflitto in più posizioni.

La politica di esportazione specifica come desiderate che FSx Lustre aggiorni il bucket S3 collegato man mano che il contenuto cambia nel file system. Un'associazione di archivi di dati può avere una delle seguenti politiche di esportazione automatiche:
+ **Nuovo**: FSx for Lustre aggiorna automaticamente l'archivio di dati S3 solo quando viene creato un nuovo file, directory o collegamento simbolico sul file system.
+ **Modificato**: FSx for Lustre aggiorna automaticamente l'archivio di dati S3 solo quando viene modificato un file esistente nel file system. Per le modifiche al contenuto del file, il file deve essere chiuso prima di essere propagato nell'archivio S3. Le modifiche ai metadati (ridenominazione, proprietà, autorizzazioni e timestamp) vengono propagate al termine dell'operazione. Per rinominare le modifiche (incluse le mosse), l'oggetto S3 esistente (precedentemente rinominato) viene eliminato e viene creato un nuovo oggetto S3 con il nuovo nome.
+ **Eliminato** — FSx for Lustre aggiorna automaticamente l'archivio di dati S3 solo quando un file, una directory o un collegamento simbolico viene eliminato dal file system.
+ **Qualsiasi combinazione di Nuovo, Modificato ed Eliminato** — FSx for Lustre aggiorna automaticamente l'archivio di dati S3 quando si verifica una delle azioni specificate nel file system. Ad esempio, puoi specificare che l'archivio S3 venga aggiornato quando un file viene aggiunto a (**Nuovo**) o rimosso da (**Eliminato**) dal file system, ma non quando un file viene modificato.
+ **Nessuna policy configurata**: FSx for Lustre non aggiorna automaticamente l'archivio di dati S3 quando i file vengono aggiunti, modificati o eliminati dal file system. Se non configuri una politica di esportazione, l'esportazione automatica è disabilitata. È comunque possibile esportare manualmente le modifiche utilizzando un'attività di esportazione dell'archivio dei dati, come descritto in[Utilizzo delle attività dell'archivio dati per esportare le modifiche](export-data-repo-task-dra.md).

Nella maggior parte dei casi d'uso, si consiglia di configurare una politica di esportazione di **Nuovo**, **Modificato** ed **Eliminato**. Questa politica garantisce che tutti gli aggiornamenti effettuati sul file system vengano esportati automaticamente nel repository di dati S3 collegato.

Ti consigliamo di [attivare la registrazione in](cw-event-logging.md#manage-logging) CloudWatch Logs per registrare le informazioni su file o directory che non possono essere esportati automaticamente. Gli avvisi e gli errori nel registro contengono informazioni sul motivo dell'errore. Per ulteriori informazioni, consulta [Registri degli eventi del data repository](data-repo-event-logs.md).

**Nota**  
Sebbene l'ora di accesso (`atime`) e l'ora di modifica (`mtime`) siano sincronizzate con S3 durante le operazioni di esportazione, le modifiche a questi timestamp da sole non attivano l'esportazione automatica. Solo le modifiche al contenuto dei file o ad altri metadati (come la proprietà o le autorizzazioni) attiveranno un'esportazione automatica in S3.

## Aggiornamento delle impostazioni di esportazione
<a name="manage-autoexport-dra"></a>

Puoi configurare le impostazioni di esportazione di un file system su un bucket S3 collegato quando crei l'associazione del repository di dati. Per ulteriori informazioni, consulta [Creazione di un link a un bucket S3](create-linked-dra.md).

Puoi anche aggiornare le impostazioni di esportazione in qualsiasi momento, inclusa la politica di esportazione. Per ulteriori informazioni, consulta [Aggiornamento delle impostazioni di associazione agli archivi di dati](update-dra-settings.md).

## Monitoraggio dell'esportazione automatica
<a name="monitoring-autoexport"></a>

Puoi monitorare le associazioni di repository di dati abilitate all'esportazione automatica utilizzando una serie di metriche pubblicate su Amazon. CloudWatch La `AgeOfOldestQueuedMessage` metrica rappresenta l'età dell'aggiornamento più vecchio apportato al file system che non è stato ancora esportato in S3. Se `AgeOfOldestQueuedMessage` è maggiore di zero per un periodo di tempo prolungato, consigliamo di ridurre temporaneamente il numero di modifiche (in particolare la ridenominazione delle directory) che vengono apportate attivamente al file system fino a ridurre la coda dei messaggi. Per ulteriori informazioni, consulta [FSx per le metriche del repository Lustre S3](fs-metrics.md#auto-import-export-metrics).

**Importante**  
Quando si elimina un'associazione di archivio di dati o un file system con l'esportazione automatica abilitata, è innanzitutto necessario assicurarsi che `AgeOfOldestQueuedMessage` sia zero, ovvero che non vi siano modifiche non ancora esportate. Se `AgeOfOldestQueuedMessage` è maggiore di zero quando elimini l'associazione al repository di dati o il file system, le modifiche che non erano ancora state esportate non raggiungeranno il bucket S3 collegato. Per evitare ciò, attendi che `AgeOfOldestQueuedMessage` raggiunga lo zero prima di eliminare l'associazione al repository di dati o il file system.

# Utilizzo delle attività dell'archivio dati per esportare le modifiche
<a name="export-data-repo-task-dra"></a>

L'attività di esportazione del repository dei dati esporta i file nuovi o modificati nel file system. Crea un nuovo oggetto in S3 per ogni nuovo file sul file system. Per ogni file che è stato modificato sul file system o i cui metadati sono stati modificati, l'oggetto corrispondente in S3 viene sostituito con un nuovo oggetto con i nuovi dati e metadati. Non viene intrapresa alcuna azione per i file che sono stati eliminati dal file system.

**Nota**  
Tieni presente quanto segue quando utilizzi le attività di esportazione del repository di dati:  
L'uso di caratteri jolly per includere o escludere file da esportare non è supportato.
Durante l'esecuzione `mv` delle operazioni, il file di destinazione dopo lo spostamento verrà esportato in S3 anche se non sono presenti UID, GID, autorizzazioni o modifiche al contenuto.

Utilizza le seguenti procedure per esportare le modifiche ai dati e ai metadati sul file system in bucket S3 collegati utilizzando la console Amazon FSx e la CLI. Tieni presente che puoi utilizzare un'attività di archivio dati per più attività. DRAs

## Per esportare le modifiche (console)
<a name="create-dra-repo-task-console"></a>

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Nel pannello di navigazione, scegli **File system**, quindi scegli il tuo Lustre file system.

1. Scegli la scheda **Archivio dati**.

1. Nel riquadro **Associazioni tra archivi di dati**, scegli l'associazione di archivi di dati per cui desideri creare l'attività di esportazione.

1. Per **Azioni**, scegli **Esporta** attività. Questa scelta non è disponibile se il file system non è collegato a un archivio di dati su S3. Viene visualizzata la **finestra di dialogo Crea attività di esportazione dell'archivio dei dati**.

1. (Facoltativo) Specificate fino a 32 cartelle o file da esportare dal vostro FSx file system Amazon fornendo i percorsi di tali directory o file in **Percorsi del file system da esportare**. I percorsi forniti devono essere relativi al punto di montaggio del file system. Se il punto di montaggio è `/mnt/fsx` ed `/mnt/fsx/path1` è una directory o un file sul file system che si desidera esportare, il percorso da fornire è`path1`.
**Nota**  
Se un percorso fornito non è valido, l'operazione ha esito negativo.

1. (Facoltativo) Scegliete **Abilita** in **Rapporto di completamento** per generare un rapporto sul completamento dell'attività dopo il completamento dell'attività. Un *rapporto sul completamento dell'attività* fornisce dettagli sui file elaborati dall'attività che soddisfano l'ambito fornito in Ambito del **rapporto**. Per specificare la posizione in cui Amazon FSx deve recapitare il report, inserisci un percorso relativo nel repository di dati S3 collegato al file system per **Report** path.

1. Scegli **Create** (Crea).

   Una notifica nella parte superiore della pagina **File system** mostra l'attività che hai appena creato in corso. 

Per visualizzare lo stato e i dettagli dell'attività, scorri verso il basso fino al riquadro **Attività del data Repository** nella scheda **Data Repository** per il file system. L'ordinamento predefinito mostra l'attività più recente nella parte superiore dell'elenco.

Per visualizzare un riepilogo dell'attività da questa pagina, scegli **Task ID** per l'attività appena creata. Viene visualizzata la pagina di **riepilogo** dell'attività.

## Per esportare le modifiche (CLI)
<a name="create-data-repo-task-cli"></a>
+ Utilizzate il comando [https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html)CLI per esportare le modifiche ai dati e ai metadati sul file system FSx for Lustre. L'operazione API corrispondente è. [https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html)

  ```
  $ aws fsx create-data-repository-task \
      --file-system-id fs-0123456789abcdef0 \
      --type EXPORT_TO_REPOSITORY \
      --paths path1,path2/file1 \
      --report Enabled=true
  ```

  Dopo aver creato correttamente l'attività di data repository, Amazon FSx restituisce la descrizione dell'attività come JSON, come mostrato nell'esempio seguente.

  ```
  {
      "Task": {
          "TaskId": "task-123f8cd8e330c1321",
          "Type": "EXPORT_TO_REPOSITORY",
          "Lifecycle": "PENDING",
          "FileSystemId": "fs-0123456789abcdef0",
          "Paths": ["path1", "path2/file1"],
          "Report": {
              "Path":"s3://dataset-01/reports",
              "Format":"REPORT_CSV_20191124",
              "Enabled":true,
              "Scope":"FAILED_FILES_ONLY"
          },
          "CreationTime": "1545070680.120",
          "ClientRequestToken": "10192019-drt-12",
          "ResourceARN": "arn:aws:fsx:us-east-1:123456789012:task:task-123f8cd8e330c1321"
      }
  }
  ```

Dopo aver creato l'attività per esportare i dati nel repository di dati collegato, puoi verificare lo stato dell'attività di esportazione dell'archivio di dati. Per ulteriori informazioni sulla visualizzazione delle attività del data repository, vedere. [Accesso alle attività del repository di dati](view-data-repo-tasks.md)

# Esportazione di file utilizzando i comandi HSM
<a name="exporting-files-hsm"></a>

**Nota**  
Per esportare le modifiche ai dati e ai metadati del file system FSx for Lustre in un repository di dati durevole su Amazon S3, utilizza la funzionalità di esportazione automatica descritta in. [Esporta automaticamente gli aggiornamenti nel tuo bucket S3](autoexport-data-repo-dra.md) Puoi anche utilizzare le attività di esportazione del repository di dati, descritte in. [Utilizzo delle attività dell'archivio dati per esportare le modifiche](export-data-repo-task-dra.md)

Per esportare un singolo file nel tuo repository di dati e verificare che il file sia stato esportato correttamente nel tuo repository di dati, puoi eseguire i comandi mostrati di seguito. Il valore restituito da `states: (0x00000009) exists archived` indica che il file è stato esportato correttamente.

```
sudo lfs hsm_archive path/to/export/file
sudo lfs hsm_state path/to/export/file
```

**Nota**  
È necessario eseguire i comandi HSM (ad esempio`hsm_archive`) come utente root o utilizzando. `sudo`

Per esportare l'intero file system o un'intera directory del file system, eseguite i seguenti comandi. Se esporti più file contemporaneamente, Amazon FSx for Lustre esporta i file nel tuo repository di dati Amazon S3 in parallelo.

```
nohup find local/directory -type f -print0 | xargs -0 -n 1 sudo lfs hsm_archive &
```

Per determinare se l'esportazione è stata completata, esegui il comando seguente.

```
find path/to/export/file -type f -print0 | xargs -0 -n 1 -P 8 sudo lfs hsm_state | awk '!/\<archived\>/ || /\<dirty\>/' | wc -l
```

Se il comando restituisce zero file rimanenti, l'esportazione è completa.

# Attività di archiviazione dei dati
<a name="data-repository-tasks"></a>

Utilizzando le attività di importazione ed esportazione dell'archivio di dati, puoi gestire il trasferimento di dati e metadati tra il file system FSx for Lustre e uno qualsiasi dei suoi repository di dati durevoli su Amazon S3.

*Le attività di archiviazione dei dati ottimizzano i trasferimenti di dati e metadati tra il file system FSx for Lustre e un repository* di dati su S3. Un modo per farlo è tenere traccia delle modifiche tra il tuo FSx file system Amazon e il suo repository di dati collegato. Lo fanno anche utilizzando tecniche di trasferimento parallelo per trasferire dati a velocità fino a centinaia di GBps. Puoi creare e visualizzare attività di repository di dati utilizzando la FSx console Amazon AWS CLI, e l' FSx API Amazon. 

Le attività di archiviazione dei dati mantengono i metadati POSIX (Portable Operating System Interface) del file system, inclusi proprietà, autorizzazioni e timestamp. Poiché le attività mantengono questi metadati, è possibile implementare e gestire i controlli di accesso tra il file system FSx for Lustre e i relativi repository di dati collegati.

Puoi utilizzare un'attività di repository dei dati di rilascio per liberare spazio nel file system per nuovi file rilasciando i file esportati in Amazon S3. Il contenuto del file rilasciato viene rimosso, ma i metadati del file rilasciato rimangono nel file system. Gli utenti e le applicazioni possono comunque accedere a un file rilasciato leggendo nuovamente il file. Quando l'utente o l'applicazione legge il file rilasciato, FSx for Lustre recupera in modo trasparente il contenuto del file da Amazon S3.

## Tipi di attività di archiviazione dei dati
<a name="data-repo-task-types"></a>

Esistono tre tipi di attività di archiviazione dei dati:
+ **Esporta** le attività del repository di dati, esporta dal tuo Lustre file system a un bucket S3 collegato.
+ **Importa** le attività del repository di dati: importa da un bucket S3 collegato al tuo file system. Lustre
+ Le attività di **release** data repository rilasciano i file esportati in un bucket S3 collegato dal tuo file system. Lustre

Per ulteriori informazioni, consulta [Creazione di un'attività di repository di dati](creating-data-repo-task.md).

**Topics**
+ [Tipi di attività di archiviazione dei dati](#data-repo-task-types)
+ [Comprendere lo stato e i dettagli di un'attività](data-repo-task-status.md)
+ [Utilizzo delle attività dell'archivio di dati](managing-data-repo-task.md)
+ [Utilizzo dei report sul completamento delle attività](task-completion-report.md)
+ [Risoluzione dei problemi relativi alle attività del data repository](failed-tasks.md)

# Comprendere lo stato e i dettagli di un'attività
<a name="data-repo-task-status"></a>

 Un'attività di archivio dati contiene informazioni descrittive e uno stato del ciclo di vita.

Dopo aver creato un'attività, puoi visualizzare le seguenti informazioni dettagliate per un'attività di repository di dati utilizzando la FSx console Amazon, la CLI o l'API:
+ Il tipo di attività: 
  + `EXPORT_TO_REPOSITORY`indica un'attività di esportazione.
  + `IMPORT_METADATA_FROM_REPOSITORY`indica un'attività di importazione.
  + `RELEASE_DATA_FROM_FILESYSTEM`indica un'attività di rilascio.
+ Il file system su cui è stata eseguita l'operazione.
+ L'ora di creazione dell'attività.
+ Lo stato dell'attività.
+ Il numero totale di file elaborati dall'operazione.
+ Il numero totale di file che l'attività ha elaborato con successo.
+ Il numero totale di file che l'operazione non è riuscita a elaborare. Questo valore è maggiore di zero quando lo stato dell'attività è FALLITO. Informazioni dettagliate sui file che hanno avuto esito negativo sono disponibili in un rapporto sul completamento dell'attività. Per ulteriori informazioni, consulta [Utilizzo dei report sul completamento delle attività](task-completion-report.md).
+ L'ora in cui è iniziata l'attività.
+ L'ora dell'ultimo aggiornamento dello stato dell'attività. Lo stato dell'attività viene aggiornato ogni 30 secondi.

 Un'attività di archivio dati può avere uno dei seguenti stati:
+ **PENDING** indica che Amazon non FSx ha avviato l'attività.
+ **EXECUTING** indica che Amazon FSx sta elaborando l'operazione.
+ **FAILED** indica che Amazon FSx non ha elaborato correttamente l'operazione. Ad esempio, potrebbero esserci dei file che l'operazione non è riuscita a elaborare. I dettagli dell'attività forniscono ulteriori informazioni sull'errore. Per ulteriori informazioni sulle attività non riuscite, vedere[Risoluzione dei problemi relativi alle attività del data repository](failed-tasks.md).
+ **SUCCEEDED** indica che Amazon FSx ha completato l'attività con successo.
+ **ANNULLATO** indica che l'attività è stata annullata e non completata.
+ **ANNULLAMENTO** indica che Amazon FSx sta annullando l'operazione.

Le informazioni sulle attività del data repository vengono conservate per 14 giorni dopo il termine dell'attività. Per ulteriori informazioni sull'accesso alle attività esistenti nell'archivio di dati, vedere. [Accesso alle attività del repository di dati](view-data-repo-tasks.md)

# Utilizzo delle attività dell'archivio di dati
<a name="managing-data-repo-task"></a>

Nelle sezioni seguenti, è possibile trovare informazioni dettagliate sulla gestione delle attività del repository di dati. Puoi creare, duplicare, visualizzare i dettagli e annullare le attività del repository di dati utilizzando la FSx console Amazon, la CLI o l'API.

**Topics**
+ [Creazione di un'attività di repository di dati](creating-data-repo-task.md)
+ [Duplicazione di un'attività](recreate-task.md)
+ [Accesso alle attività del repository di dati](view-data-repo-tasks.md)
+ [Annullamento di un'attività di archiviazione dati](cancel-data-repo-task.md)

# Creazione di un'attività di repository di dati
<a name="creating-data-repo-task"></a>

Puoi creare un'attività di repository di dati utilizzando la FSx console Amazon, la CLI o l'API. Dopo aver creato un'attività, puoi visualizzarne l'avanzamento e lo stato utilizzando la console, la CLI o l'API.

È possibile creare tre tipi di attività nell'archivio dati:
+ L'attività **Esporta** archivio dati esporta dal Lustre file system in un bucket S3 collegato. Per ulteriori informazioni, consulta [Utilizzo delle attività dell'archivio dati per esportare le modifiche](export-data-repo-task-dra.md).
+ L'attività **Importa** archivio dati importa da un bucket S3 collegato al file system. Lustre Per ulteriori informazioni, consulta [Utilizzo delle attività di archiviazione dei dati per importare le modifiche](import-data-repo-task-dra.md).
+ L'attività **Release** data repository rilascia i file dal Lustre file system che sono stati esportati in un bucket S3 collegato. Per ulteriori informazioni, consulta [Utilizzo delle attività di archiviazione dei dati per rilasciare file](release-files-task.md).

# Duplicazione di un'attività
<a name="recreate-task"></a>

Puoi duplicare un'attività di repository di dati esistente nella console Amazon FSx . Quando si duplica un'attività, una copia esatta dell'operazione esistente viene visualizzata nella pagina **Create import data repository** o **Create export data** repository. È possibile apportare modifiche ai percorsi di esportazione o importazione, in base alle esigenze, prima di creare ed eseguire la nuova attività.

**Nota**  
Una richiesta di esecuzione di un'attività duplicata avrà esito negativo se una copia esatta di tale attività è già in esecuzione. Una copia esatta di un'operazione già in esecuzione contiene lo stesso percorso o gli stessi percorsi del file system nel caso di un'attività di esportazione o gli stessi percorsi dell'archivio dati nel caso di un'attività di importazione.

È possibile duplicare un'attività dalla visualizzazione dei dettagli dell'attività, dal riquadro **Attività dell'archivio dati** nella scheda **Data Repository** per il file system o dalla pagina Attività dell'archivio **dati**.

**Per duplicare un'attività esistente**

1. Scegli un'attività nel riquadro **Attività dell'archivio dati** nella scheda **Archivio dati** per il file system.

1. Scegli **Duplica attività**. A seconda del tipo di attività scelto, viene visualizzata la **pagina Crea archivio dati di importazione** o **Crea archivio dati di esportazione**. Tutte le impostazioni per la nuova attività sono identiche a quelle per l'attività che stai duplicando.

1. Modifica o aggiungi i percorsi da cui desideri importare o esportare.

1. Scegli **Create** (Crea).

# Accesso alle attività del repository di dati
<a name="view-data-repo-tasks"></a>

Dopo aver creato un'attività di archivio dati, puoi accedere all'attività e a tutte le attività esistenti nel tuo account utilizzando la FSx console Amazon, la CLI e l'API. Amazon FSx fornisce le seguenti informazioni dettagliate sulle attività: 
+ Tutte le attività esistenti.
+ Tutte le attività relative a un file system specifico.
+ Tutte le attività relative a una specifica associazione di archivi di dati.
+ Tutte le attività con uno stato del ciclo di vita specifico. Per ulteriori informazioni sui valori dello stato del ciclo di vita delle attività, vedere. [Comprendere lo stato e i dettagli di un'attività](data-repo-task-status.md)

Puoi accedere a tutte le attività di data repository esistenti nel tuo account utilizzando la FSx console Amazon, la CLI o l'API, come descritto di seguito.

## Per visualizzare le attività e i dettagli delle attività nell'archivio di dati (console)
<a name="access-all-tasks-console"></a>

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Nel riquadro di navigazione, scegli il file system per cui desideri visualizzare le attività del data repository. Viene visualizzata la pagina dei dettagli del file system.

1. Nella pagina dei dettagli del file system, scegli la scheda **Archivio dati**. Tutte le attività per questo file system vengono visualizzate nel pannello **Attività dell'archivio dati**.

1. Per visualizzare i dettagli di un'attività, scegliete **ID attività** o **Nome attività** nel pannello **Attività dell'archivio dati**. Viene visualizzata la pagina dei dettagli dell'attività.  
![\[Pagina delle attività del data repository\]](http://docs.aws.amazon.com/it_it/fsx/latest/LustreGuide/images/task-details-rprt.png)

## Per recuperare le attività dell'archivio di dati e i dettagli delle attività (CLI)
<a name="task-details-cli"></a>

Utilizzando il comando Amazon FSx [https://docs.aws.amazon.com/cli/latest/reference/fsx/describe-data-repository-tasks.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/describe-data-repository-tasks.html)CLI, puoi visualizzare tutte le attività del repository di dati e i relativi dettagli nel tuo account. [https://docs.aws.amazon.com/fsx/latest/APIReference/API_DescribeDataRepositoryTasks.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_DescribeDataRepositoryTasks.html)è il comando API equivalente.
+ Usa il comando seguente per visualizzare tutti gli oggetti dell'attività del data repository nel tuo account.

  ```
  aws fsx describe-data-repository-tasks
  ```

  Se il comando ha esito positivo, Amazon FSx restituisce la risposta in formato JSON.

  ```
  {
      "DataRepositoryTasks": [
          {
              "Lifecycle": "EXECUTING",
              "Paths": [],
              "Report": {
                  "Path":"s3://dataset-01/reports",
                  "Format":"REPORT_CSV_20191124",
                  "Enabled":true,
                  "Scope":"FAILED_FILES_ONLY"
              },
              "StartTime": 1591863862.288,
              "EndTime": ,
              "Type": "EXPORT_TO_REPOSITORY",
              "Tags": [],
              "TaskId": "task-0123456789abcdef3",
              "Status": {
                  "SucceededCount": 4255,
                  "TotalCount": 4200,
                  "FailedCount": 55,
                  "LastUpdatedTime": 1571863875.289
              },
              "FileSystemId": "fs-0123456789a7",
              "CreationTime": 1571863850.075,
              "ResourceARN": "arn:aws:fsx:us-east-1:1234567890:task/task-0123456789abcdef3"
          },
          {
              "Lifecycle": "FAILED",
              "Paths": [],
              "Report": {
                  "Enabled": false,
              },
              "StartTime": 1571863862.288,
              "EndTime": 1571863905.292,
              "Type": "EXPORT_TO_REPOSITORY",
              "Tags": [],
              "TaskId": "task-0123456789abcdef1",
              "Status": {
                  "SucceededCount": 1153,
                  "TotalCount": 1156,
                  "FailedCount": 3,
                  "LastUpdatedTime": 1571863875.289
              },
              "FileSystemId": "fs-0123456789abcdef0",
              "CreationTime": 1571863850.075,
              "ResourceARN": "arn:aws:fsx:us-east-1:1234567890:task/task-0123456789abcdef1"
          },
          {
              "Lifecycle": "SUCCEEDED",
              "Paths": [],
              "Report": {
                  "Path":"s3://dataset-04/reports",
                  "Format":"REPORT_CSV_20191124",
                  "Enabled":true,
                  "Scope":"FAILED_FILES_ONLY"
              },
              "StartTime": 1571863862.288,
              "EndTime": 1571863905.292,
              "Type": "EXPORT_TO_REPOSITORY",
              "Tags": [],
              "TaskId": "task-04299453935122318",
              "Status": {
                  "SucceededCount": 258,
                  "TotalCount": 258,
                  "FailedCount": 0,
                  "LastUpdatedTime": 1771848950.012,
              },
              "FileSystemId": "fs-0123456789abcdef0",
              "CreationTime": 1771848950.012,
              "ResourceARN": "arn:aws:fsx:us-east-1:1234567890:task/task-0123456789abcdef0"
          }
      ]
  }
  ```

## Visualizzazione delle attività per file system
<a name="view-tasks-by-fs"></a>

Puoi visualizzare tutte le attività per un file system specifico utilizzando la FSx console Amazon, la CLI o l'API, come descritto di seguito.

### Per visualizzare le attività per file system (console)
<a name="tasks-by-fs-console"></a>

1. Scegli **File system** nel pannello di navigazione. Viene visualizzata la pagina **File system**.

1. Scegliete il file system per il quale desiderate visualizzare le attività del data repository. Viene visualizzata la pagina dei dettagli del file system.

1. Nella pagina dei dettagli del file system, scegli la scheda **Archivio dati**. Tutte le attività per questo file system vengono visualizzate nel pannello **Attività dell'archivio dati**.

### Per recuperare le attività tramite file system (CLI)
<a name="task-by-fs-cli"></a>
+ Utilizzare il comando seguente per visualizzare tutte le attività di archiviazione dei dati per il file system. `fs-0123456789abcdef0`

  ```
  aws fsx describe-data-repository-tasks \
      --filters Name=file-system-id,Values=fs-0123456789abcdef0
  ```

  Se il comando ha esito positivo, Amazon FSx restituisce la risposta in formato JSON.

  ```
  {
      "DataRepositoryTasks": [
          {
              "Lifecycle": "FAILED",
              "Paths": [],
              "Report": {
                  "Path":"s3://dataset-04/reports",
                  "Format":"REPORT_CSV_20191124",
                  "Enabled":true,
                  "Scope":"FAILED_FILES_ONLY"
              },
              "StartTime": 1571863862.288,
              "EndTime": 1571863905.292,
              "Type": "EXPORT_TO_REPOSITORY",
              "Tags": [],
              "TaskId": "task-0123456789abcdef1",
              "Status": {
                  "SucceededCount": 1153,
                  "TotalCount": 1156,
                  "FailedCount": 3,
                  "LastUpdatedTime": 1571863875.289
              },
              "FileSystemId": "fs-0123456789abcdef0",
              "CreationTime": 1571863850.075,
              "ResourceARN": "arn:aws:fsx:us-east-1:1234567890:task/task-0123456789abcdef1"
          },
          {
              "Lifecycle": "SUCCEEDED",
              "Paths": [],
              "Report": {
                  "Enabled": false,
              },
              "StartTime": 1571863862.288,
              "EndTime": 1571863905.292,
              "Type": "EXPORT_TO_REPOSITORY",
              "Tags": [],
              "TaskId": "task-0123456789abcdef0",
              "Status": {
                  "SucceededCount": 258,
                  "TotalCount": 258,
                  "FailedCount": 0,
                  "LastUpdatedTime": 1771848950.012,
              },
              "FileSystemId": "fs-0123456789abcdef0",
              "CreationTime": 1771848950.012,
              "ResourceARN": "arn:aws:fsx:us-east-1:1234567890:task/task-0123456789abcdef0"
          }
      ]
  }
  ```

# Annullamento di un'attività di archiviazione dati
<a name="cancel-data-repo-task"></a>

È possibile annullare un'attività dell'archivio dati mentre si trova nello stato PENDING o EXECUTING. Quando si annulla un'attività, si verifica quanto segue:
+ Amazon FSx non elabora i file in coda per l'elaborazione.
+ Amazon FSx continua a elaborare tutti i file attualmente in corso.
+ Amazon FSx non ripristina i file che l'attività ha già elaborato.

## Per annullare un'attività di archiviazione dati (console)
<a name="w2aac13c33c17c13b7b1"></a>

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Fai clic sul file system per il quale desideri annullare un'attività di archiviazione dei dati.

1. Apri la scheda **Data Repository** e scorri verso il basso per visualizzare il pannello **Data Repository** Tasks.

1. Scegliete **ID attività** **o Nome attività** per l'attività che desiderate annullare.

1. Scegli **Annulla attività** per annullare l'attività.

1. Inserisci l'ID dell'attività per confermare la richiesta di annullamento.

## Per annullare un'attività di archiviazione dati (CLI)
<a name="w2aac13c33c17c13b7b3"></a>

Utilizza il comando Amazon FSx [https://docs.aws.amazon.com/cli/latest/reference/fsx/cancel-data-repository-task.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/cancel-data-repository-task.html)CLI per annullare un'attività. [https://docs.aws.amazon.com/fsx/latest/APIReference/API_CancelDataRepositoryTask.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CancelDataRepositoryTask.html)è il comando API equivalente.
+ Utilizzare il comando seguente per annullare un'attività di archiviazione dati.

  ```
  aws fsx cancel-data-repository-task \
      --task-id task-0123456789abcdef0
  ```

  Se il comando ha esito positivo, Amazon FSx restituisce la risposta in formato JSON.

  ```
  {
      "Status": "CANCELING",
      "TaskId": "task-0123456789abcdef0"
  }
  ```

# Utilizzo dei report sul completamento delle attività
<a name="task-completion-report"></a>

Un *rapporto sul completamento di un'attività* fornisce dettagli sui risultati di un'attività di esportazione, importazione o rilascio di un archivio di dati. Il rapporto include i risultati dei file elaborati dall'attività che corrispondono all'ambito del rapporto. È possibile specificare se generare un rapporto per un'attività utilizzando il `Enabled` parametro. 

Amazon FSx invia il report al repository di dati collegato del file system in Amazon S3, utilizzando il percorso specificato quando abiliti il report per un'attività. Il nome del file del report serve `report.csv` per le attività di importazione e `failures.csv` per le attività di esportazione o rilascio.

Il formato del report è un file con valori separati da virgole (CSV) che contiene tre campi:`FilePath`, e. `FileStatus` `ErrorCode`

I report vengono codificati utilizzando la codifica in formato RFC-4180 come segue:
+ I percorsi che iniziano con uno dei seguenti caratteri sono contenuti tra virgolette singole: `@ + - =` 
+ Le stringhe che contengono almeno uno dei seguenti caratteri sono contenute tra virgolette doppie: `" ,`
+ A tutte le virgolette doppie viene aggiunta una virgoletta doppia aggiuntiva.

Di seguito sono riportati alcuni esempi di codifica dei report:
+ `@filename.txt`diventa `"""@filename.txt"""`
+ `+filename.txt`diventa `"""+filename.txt"""`
+ `file,name.txt`diventa `"file,name.txt"`
+ `file"name.txt`diventa `"file""name.txt"`

Per ulteriori informazioni sulla codifica RFC-4180, vedere [RFC-4180 - Common Format and MIME Type for Comma-Separated](https://tools.ietf.org/html/rfc4180) Values (CSV) sul sito Web IETF.

Di seguito è riportato un esempio delle informazioni fornite in un rapporto di completamento delle attività che include solo i file non riusciti.

```
myRestrictedFile,failed,S3AccessDenied
dir1/myLargeFile,failed,FileSizeTooLarge
dir2/anotherLargeFile,failed,FileSizeTooLarge
```

Per ulteriori informazioni sugli errori delle attività e su come risolverli, vedere[Risoluzione dei problemi relativi alle attività del data repository](failed-tasks.md).

# Risoluzione dei problemi relativi alle attività del data repository
<a name="failed-tasks"></a>

Puoi [attivare la registrazione in CloudWatch Logs per registrare le informazioni su](cw-event-logging.md) eventuali errori riscontrati durante l'importazione o l'esportazione di file utilizzando le attività del repository di dati. Per informazioni sui registri degli eventi di Logs, vedere CloudWatch . [Registri degli eventi del data repository](data-repo-event-logs.md)

Quando un'attività di data repository non riesce, puoi trovare il numero di file che Amazon FSx non è riuscito a elaborare in **File non riusciti a esportare** nella pagina di **stato dell'attività** della console. Oppure puoi utilizzare la CLI o l'API e visualizzare la proprietà dell'`Status: FailedCount`attività. Per informazioni sull'accesso a queste informazioni, consulta[Accesso alle attività del repository di dati](view-data-repo-tasks.md). 

Per le attività di archiviazione dei dati, Amazon fornisce FSx anche facoltativamente informazioni su file e directory specifici che non sono stati compilati in un rapporto di completamento. Il report sul completamento dell'attività contiene il percorso del file o della directory sul Lustre file system in cui si è verificato l'errore, lo stato e il motivo dell'errore. Per ulteriori informazioni, consulta [Utilizzo dei report sul completamento delle attività](task-completion-report.md).

Un'operazione di archiviazione dei dati può fallire per diversi motivi, inclusi quelli elencati di seguito.


| Codice di errore | Spiegazione | 
| --- | --- | 
|  `FileSizeTooLarge`  |  La dimensione massima dell'oggetto supportata da Amazon S3 è di 5 TiB.  | 
|  `InternalError`  |  Si è verificato un errore nel FSx file system di Amazon per un'attività di importazione, esportazione o rilascio. In genere, questo codice di errore indica che il FSx file system Amazon su cui è stata eseguita l'operazione non riuscita si trova in uno stato del ciclo di vita FAILED. In questo caso, i file interessati potrebbero non essere recuperabili a causa della perdita di dati. Altrimenti, puoi utilizzare i comandi HSM (Hierarchical Storage Management) per esportare i file e le directory nel repository di dati su S3. Per ulteriori informazioni, consulta [Esportazione di file utilizzando i comandi HSM](exporting-files-hsm.md).  | 
|  `OperationNotPermitted`  | Amazon FSxnon è riuscito a rilasciare il file perché non è stato esportato in un bucket S3 collegato. È necessario utilizzare le attività automatiche di esportazione o esportazione dell'archivio di dati per garantire che i file vengano prima esportati nel bucket Amazon S3 collegato.  | 
|  `PathSizeTooLong`  |  Il percorso di esportazione è troppo lungo. La lunghezza massima della chiave dell'oggetto supportata da S3 è di 1.024 caratteri.  | 
|  `ResourceBusy`  | Amazon FSxnon è riuscito a esportare o rilasciare il file perché un altro client del file system vi stava accedendo. È possibile riprovare DataRepositoryTask dopo che il flusso di lavoro ha terminato la scrittura sul file.  | 
|  `S3AccessDenied`  |  L'accesso ad Amazon S3 è stato negato per un'attività di esportazione o importazione di un repository di dati. Per le attività di esportazione, il FSx file system Amazon deve disporre dell'autorizzazione per eseguire l'`S3:PutObject`operazione di esportazione in un repository di dati collegato su S3. Questa autorizzazione viene concessa nel ruolo collegato al `AWSServiceRoleForFSxS3Access_fs-0123456789abcdef0` servizio. Per ulteriori informazioni, consulta [Utilizzo di ruoli collegati ai servizi per Amazon FSx](using-service-linked-roles.md). Per le attività di esportazione, poiché l'attività di esportazione richiede che i dati fluiscano all'esterno del VPC di un file system, questo errore può verificarsi se il repository di destinazione ha una policy bucket che contiene una delle chiavi di condizione globali `aws:SourceVpc` o `aws:SourceVpce` IAM. Per le attività di importazione, il FSx file system Amazon deve disporre dell'autorizzazione per eseguire le `S3:GetObject` operazioni `S3:HeadObject` e importare da un repository di dati collegato su S3. Per le attività di importazione, se il bucket S3 utilizza la crittografia lato server con chiavi gestite dal cliente archiviate in AWS Key Management Service (SSE-KMS), è necessario seguire le configurazioni delle policy riportate in. [Utilizzo di bucket Amazon S3 crittografati lato server](s3-server-side-encryption-support.md) Se il tuo bucket S3 contiene oggetti caricati da un account bucket S3 Account AWS diverso da quello collegato al file system, puoi assicurarti che le attività di repository dei dati possano modificare i metadati S3 o sovrascrivere gli oggetti S3 indipendentemente dall'account che li ha caricati. Ti consigliamo di abilitare la funzionalità S3 Object Ownership per il tuo bucket S3. Questa funzionalità ti consente di assumere la proprietà di nuovi oggetti che altri Account AWS caricano nel tuo bucket, forzando i caricamenti a fornire l'ACL predefinito. `-/-acl bucket-owner-full-control` Puoi abilitare S3 Object Ownership scegliendo l'opzione **preferita del proprietario del bucket nel tuo bucket** S3. Per ulteriori informazioni, consulta [Controllare la proprietà degli oggetti caricati utilizzando S3 Object Ownership](https://docs.aws.amazon.com/AmazonS3/latest/userguide/about-object-ownership.html) nella *Amazon S3* User Guide.  | 
|  `S3Error`  |  Amazon FSx ha riscontrato un errore relativo a S3 che non lo era. `S3AccessDenied`  | 
|  `S3FileDeleted`  | Amazon non FSx è stato in grado di esportare un file hard link perché il file sorgente non esiste nel repository di dati. | 
|  `S3ObjectInUnsupportedTier`  | Amazon FSx ha importato con successo un oggetto non symlink da una classe di storage S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. Sarà `succeeded with warning` incluso nel rapporto sul completamento dell'attività. `FileStatus` L'avviso indica che per recuperare i dati, è necessario ripristinare prima l'oggetto S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive e quindi utilizzare un comando per importare l'oggetto. `hsm_restore`  | 
|  `S3ObjectNotFound`  | Amazon non FSx è stato in grado di importare o esportare il file perché non esiste nell'archivio dati. | 
|  `S3ObjectPathNotPosixCompliant`  |  L'oggetto Amazon S3 esiste ma non può essere importato perché non è un oggetto conforme a POSIX. Per informazioni sui metadati POSIX supportati, consulta. [Supporto per metadati POSIX per archivi di dati](posix-metadata-support.md)  | 
|  `S3ObjectUpdateInProgressFromFileRename`  | Amazon FSxnon è riuscito a rilasciare il file perché l'esportazione automatica sta elaborando una ridenominazione del file. Il processo di ridenominazione automatica dell'esportazione deve essere completato prima che il file possa essere rilasciato.  | 
|  `S3SymlinkInUnsupportedTier`  | Amazon non FSx è riuscito a importare un oggetto symlink perché si trova in una classe di storage Amazon S3 non supportata, ad esempio una classe di storage S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. Sarà incluso nel rapporto sul completamento dell'attività. `FileStatus` `failed` | 
|  `SourceObjectDeletedBeforeReleasing`  | Amazon non FSx è stato in grado di rilasciare il file dal file system perché il file è stato eliminato dall'archivio dati prima che potesse essere rilasciato. | 

# Rilascio di file
<a name="file-release"></a>

Le attività di rilascio del data repository rilasciano i dati dei file dal file system FSx for Lustre per liberare spazio per nuovi file. Il rilascio di un file mantiene l'elenco dei file e i metadati, ma rimuove la copia locale del contenuto del file. Se un utente o un'applicazione accede a un file rilasciato, i dati vengono caricati automaticamente e in modo trasparente sul file system dal bucket Amazon S3 collegato.

**Nota**  
Le attività relative al repository dei dati di rilascio non sono disponibili sui file system Lustre FSx 2.10.

I parametri **Percorsi di rilascio del file system** e **Durata minima dall'ultimo accesso** determinano quali file verranno rilasciati.
+ **Percorsi del file system da rilasciare**: specifica il percorso da cui verranno rilasciati i file.
+ **Durata minima dall'ultimo accesso**: specifica la durata, in giorni, di modo che tutti i file a cui non si accede durante tale periodo debbano essere rilasciati. La durata dall'ultimo accesso a un file viene calcolata prendendo la differenza tra l'ora di creazione dell'attività di rilascio e l'ultima volta in cui è stato effettuato l'accesso a un file (valore massimo di `atime``mtime`, e`ctime`).

I file verranno rilasciati lungo il percorso del file solo se sono stati esportati in S3 e hanno una durata dall'ultimo accesso superiore al valore minimo di durata dall'ultimo accesso. Fornendo una durata minima dall'ultimo accesso di `0` giorni, i file verranno rilasciati indipendentemente dalla loro durata dall'ultimo accesso.

**Nota**  
L'uso di caratteri jolly per includere o escludere file da rilasciare non è supportato.

Le attività del repository di dati di rilascio rilasceranno solo i dati dai file che sono già stati esportati in un repository di dati S3 collegato. Puoi esportare i dati in S3 utilizzando la funzione di esportazione automatica, un'attività di esportazione del repository di dati o i comandi HSM. Per verificare che un file sia stato esportato nel tuo repository di dati, puoi eseguire il seguente comando. Il valore restituito da `states: (0x00000009) exists archived` indica che il file è stato esportato correttamente.

```
sudo lfs hsm_state path/to/export/file
```

**Nota**  
È necessario eseguire il comando HSM come utente root o utilizzando. `sudo`

Per rilasciare i dati dei file a intervalli regolari, puoi pianificare un'attività di repository di dati di rilascio ricorrente utilizzando Amazon Scheduler. EventBridge Per ulteriori informazioni, consulta la sezione [Guida introduttiva a EventBridge Scheduler](https://docs.aws.amazon.com/scheduler/latest/UserGuide/getting-started.html) nella *Amazon EventBridge Scheduler User Guide*.

**Topics**
+ [Utilizzo delle attività di archiviazione dei dati per rilasciare file](release-files-task.md)

# Utilizzo delle attività di archiviazione dei dati per rilasciare file
<a name="release-files-task"></a>

Utilizza le seguenti procedure per creare attività che rilasciano file dal file system utilizzando la FSx console Amazon e la CLI. Il rilascio di un file mantiene l'elenco dei file e i metadati, ma rimuove la copia locale del contenuto del file.

## Per rilasciare file (console)
<a name="create-release-task-console"></a>

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Nel riquadro di navigazione a sinistra, scegli **File system**, quindi scegli il tuo Lustre file system.

1. Scegli la scheda **Archivio dati**.

1. Nel riquadro **Associazioni tra archivi di dati**, scegli l'associazione di repository di dati per cui desideri creare l'attività di rilascio.

1. Per **Azioni**, scegli **Crea attività di rilascio**. Questa scelta è disponibile solo se il file system è collegato a un archivio di dati su S3. Viene visualizzata la **finestra di dialogo Create release data repository task.**

1. In **Percorsi del file system da rilasciare**, specifica fino a 32 directory o file da rilasciare dal tuo FSx file system Amazon fornendo i percorsi di tali directory o file. I percorsi che fornisci devono essere relativi al punto di montaggio del file system. Ad esempio, se il punto di montaggio `/mnt/fsx/path1` è `/mnt/fsx` ed è un file sul file system che si desidera rilasciare, il percorso da fornire è`path1`. Per rilasciare tutti i file del file system, specificate una barra (/) come percorso.
**Nota**  
Se un percorso fornito non è valido, l'operazione ha esito negativo.

1. Per la **durata minima dall'ultimo accesso**, specifica la durata, in giorni, in modo che tutti i file a cui non si accede durante tale periodo debbano essere rilasciati. L'ora dell'ultimo accesso viene calcolata utilizzando il valore massimo di `atime``mtime`, e`ctime`. I file con un periodo di durata dell'ultimo accesso superiore alla durata minima dall'ultimo accesso (relativa all'ora di creazione dell'attività) verranno rilasciati. I file con un periodo di durata dell'ultimo accesso inferiore a questo numero di giorni non verranno rilasciati, anche se si trovano nel campo **Percorsi di rilascio del file system**. Fornisci una durata di `0` giorni per il rilascio dei file indipendentemente dalla durata dell'ultimo accesso.

1. (Facoltativo) In **Rapporto di completamento**, scegli **Abilita** per generare un rapporto sul completamento delle attività che fornisca dettagli sui file che soddisfano l'ambito fornito nell'ambito fornito nell'**ambito del rapporto**. Per specificare una posizione in FSx cui Amazon deve recapitare il report, inserisci un percorso relativo nel repository di dati S3 collegato al file system per **Report** path.

1. Scegli l'**attività Crea archivio dati**.

   Una notifica nella parte superiore della pagina **File system** mostra l'attività che hai appena creato in corso. 

Per visualizzare lo stato e i dettagli dell'attività, nella scheda **Data Repository**, scorri verso il basso fino a **Data Repository** Tasks. L'ordinamento predefinito mostra l'attività più recente nella parte superiore dell'elenco.

Per visualizzare un riepilogo dell'attività da questa pagina, scegli **Task ID** per l'attività appena creata.

## Per rilasciare file (CLI)
<a name="create-release-task-cli"></a>
+ Utilizzate il comando [https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html)CLI per creare un'attività che rilasci file sul file system FSx for Lustre. L'operazione API corrispondente è. [https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html)

  Imposta i seguenti parametri:
  + `--file-system-id`Imposta l'ID del file system da cui stai rilasciando i file.
  + Imposta `--paths` i percorsi sul file system da cui verranno rilasciati i dati. Se viene specificata una directory, i file all'interno della directory vengono rilasciati. Se viene specificato un percorso di file, viene rilasciato solo quel file. Per rilasciare tutti i file del file system che sono stati esportati in un bucket S3 collegato, specifica una barra (/) per il percorso.
  + Imposta `--type` su `RELEASE_DATA_FROM_FILESYSTEM`.
  + Imposta le opzioni come segue`--release-configuration DurationSinceLastAccess`:
    + `Unit`: impostato su `DAYS`.
    + `Value`— Specificate un numero intero che rappresenti la durata, espressa in giorni, in modo che tutti i file a cui non si accede durante tale periodo debbano essere rilasciati. I file a cui è stato effettuato l'accesso durante un periodo inferiore a questo numero di giorni non verranno rilasciati, anche se sono inclusi nel `--paths` parametro. Fornisci una durata di `0` giorni per il rilascio dei file indipendentemente dalla durata dell'ultimo accesso.

  Questo comando di esempio specifica che i file che sono stati esportati in un bucket S3 collegato e soddisfano i `--release-configuration` criteri verranno rilasciati dalle directory nei percorsi specificati.

  ```
  $ aws fsx create-data-repository-task \
      --file-system-id fs-0123456789abcdef0 \
      --type RELEASE_DATA_FROM_FILESYSTEM \
      --paths path1,path2/file1 \
      --release-configuration '{"DurationSinceLastAccess":{"Unit":"DAYS","Value":10}}' \
      --report Enabled=false
  ```

  Dopo aver creato correttamente l'attività di archiviazione dei dati, Amazon FSx restituisce la descrizione dell'attività come JSON.

Dopo aver creato l'attività per rilasciare i file, puoi controllare lo stato dell'attività. Per ulteriori informazioni sulla visualizzazione delle attività del repository di dati, vedere[Accesso alle attività del repository di dati](view-data-repo-tasks.md).

# Usare Amazon FSx con i tuoi dati locali
<a name="fsx-on-premises"></a>

Puoi utilizzare Lustre FSx per elaborare i tuoi dati locali con istanze di elaborazione in-cloud. FSx for Lustre supporta l'accesso tramite Direct Connect e la VPN, che consentono di montare i file system da client locali.

**Da utilizzare FSx per Lustre con i dati locali**

1. Creare un file system. Per ulteriori informazioni, consulta l'[Passaggio 1: crea il tuo FSx file system for Lustre](getting-started.md#getting-started-step1)esercizio introduttivo.

1. Installa il file system dai client locali. Per ulteriori informazioni, consulta [Montaggio di FSx file system Amazon da un ambiente locale o da un Amazon VPC peer-to-peer](mounting-on-premises.md).

1. Copia i dati che desideri elaborare nel file system FSx for Lustre.

1. Esegui il tuo carico di lavoro ad alta intensità di calcolo su istanze Amazon EC2 nel cloud montando il tuo file system.

1. Al termine, copia i risultati finali dal file system nella posizione dei dati locale ed elimina il file system for Lustre. FSx 

# Registri degli eventi del data repository
<a name="data-repo-event-logs"></a>

È possibile attivare la registrazione nei CloudWatch registri per registrare le informazioni su eventuali errori riscontrati durante l'importazione o l'esportazione di file utilizzando le attività di importazione, esportazione, archiviazione dati ed eventi di ripristino. Per ulteriori informazioni, consulta [Registrazione con Amazon CloudWatch Logs](cw-event-logging.md).

**Nota**  
Quando un'attività di data repository fallisce, Amazon scrive FSx anche le informazioni sull'errore nel report di completamento dell'attività. Per ulteriori informazioni sulle informazioni sugli errori nei report di completamento, consulta[Risoluzione dei problemi relativi alle attività del data repository](failed-tasks.md).

**Topics**
+ [Importazione di eventi](#import-event-logging)
+ [Esporta eventi](#export-event-logging)
+ [Eventi di ripristino HSM](#hsm-restore-event-logging)

## Importazione di eventi
<a name="import-event-logging"></a>


| Tipi di errore | Livello di log | Messaggio di registro | Causa principale | Codice di errore nel rapporto di completamento | 
| --- | --- | --- | --- | --- | 
| Errore nell'elenco degli oggetti | ERRORE | Impossibile elencare gli oggetti S3 nel bucket bucket\$1name S3 con prefisso. prefix | Amazon FSx non è riuscito a elencare gli oggetti S3 nel bucket S3. Questo può accadere se la policy del bucket S3 non fornisce autorizzazioni sufficienti ad Amazon. FSx | N/D | 
| Classe di storage S3 non supportata | WARN | Impossibile importare l'oggetto S3 con chiave key\$1value nel bucket S3 a bucket\$1name causa di un oggetto S3 in un livello non supportato. S3\$1tier\$1name | Amazon non FSx è riuscito a importare un oggetto S3 perché si trova in una classe di storage Amazon S3 non supportata, come la classe di storage S3 Glacier Flexible Retrieval o la classe di storage S3 Glacier Deep Archive. | S3ObjectInUnsupportedTier | 
| Classe di storage symlink non supportata | ERRORE | Impossibile importare l'oggetto S3 con chiave key\$1value nel bucket S3 a bucket\$1name causa di un oggetto symlink S3 in un livello non supportato. S3\$1tier\$1name | Amazon non FSx è riuscito a importare un oggetto symlink perché si trova in una classe di storage Amazon S3 non supportata, come la classe di storage S3 Glacier Flexible Retrieval o la classe di storage S3 Glacier Deep Archive. | S3SymlinkInUnsupportedTier | 
| Accesso S3 negato | ERRORE | Impossibile importare l'oggetto S3 con chiave key\$1value nel bucket S3 bucket\$1name perché l'accesso all'oggetto S3 è stato negato. | L'accesso è stato negato ad Amazon S3 per un'attività di importazione di esportazione di un repository di dati. Per le attività di importazione, il FSx file system Amazon deve disporre dell'autorizzazione per eseguire le `s3:GetObject` operazioni `s3:HeadObject` e importare da un repository di dati collegato su S3. Per le attività di importazione, se il bucket S3 utilizza la crittografia lato server con chiavi gestite dal cliente archiviate in AWS Key Management Service (SSE-KMS), è necessario seguire le configurazioni delle policy riportate in. [Utilizzo di bucket Amazon S3 crittografati lato server](s3-server-side-encryption-support.md)  | S3AccessDenied | 
| Eliminazione: accesso negato | ERRORE | Impossibile eliminare il file locale per l'oggetto S3 con chiave key\$1value nel bucket S3 bucket\$1name perché l'accesso all'oggetto S3 è stato negato. | All'importazione automatica è stato negato l'accesso a un oggetto S3. | N/D | 
| Oggetto non conforme a POSIX | ERRORE | Impossibile importare l'oggetto S3 con la chiave key\$1value nel bucket S3 bucket\$1name perché l'oggetto S3 non è conforme a POSIX. |  L'oggetto Amazon S3 esiste ma non può essere importato perché non è un oggetto conforme a POSIX. Per informazioni sui metadati POSIX supportati, consulta. [Supporto per metadati POSIX per archivi di dati](posix-metadata-support.md)  | S3ObjectPathNotPosixCompliant | 
| Mancata corrispondenza del tipo di oggetto | ERRORE | Impossibile importare l'oggetto S3 con la chiave key\$1value nel bucket S3 bucket\$1name perché un oggetto S3 con lo stesso nome è già stato importato nel file system. | L'oggetto S3 da importare è di un tipo diverso (file o directory) rispetto a un oggetto esistente con lo stesso nome nel file system. | S3ObjectTypeMismatch | 
| Errore di aggiornamento dei metadati della directory | ERRORE | Impossibile aggiornare i metadati della directory locale a causa di un errore interno. | Impossibile importare i metadati delle directory a causa di un errore interno. | N/D | 
| Oggetto S3 non trovato | ERRORE | Impossibile importare l'oggetto S3 con chiave key\$1value perché non è stato trovato nel bucket S3. bucket\$1name | Amazon non FSx è stato in grado di importare i metadati dei file perché l'oggetto corrispondente non esiste nel repository di dati. | S3FileDeleted | 
| Bucket S3 non trovato | ERRORE | Impossibile importare l'oggetto S3 con la chiave key\$1value nel bucket S3 bucket\$1name perché il bucket non esiste. | Amazon FSx non può importare automaticamente un oggetto S3 nel file system perché il bucket S3 non esiste più. | N/D | 
| Bucket S3 non trovato | ERRORE | Impossibile eliminare il file locale per l'oggetto S3 con la chiave key\$1value nel bucket S3 bucket\$1name perché il bucket non esiste. | Amazon FSx non può eliminare un file collegato a un oggetto S3 sul file system perché il bucket S3 non esiste più. | N/D | 
| Errore di creazione della directory | ERRORE | Impossibile creare la directory locale a causa di un errore interno. | Amazon FSx non è riuscito a importare automaticamente la creazione di una directory sul file system a causa di un errore interno. | N/D | 
| Spazio su disco pieno | ERRORE | Impossibile importare l'oggetto S3 con la chiave key\$1value nel bucket S3 bucket\$1name perché il file system è pieno. | Il file system ha esaurito lo spazio su disco sui server di metadati durante la creazione del file o della directory. | N/D | 

## Esporta eventi
<a name="export-event-logging"></a>


| Tipi di errore | Livello di log | Messaggio di registro | Causa principale | Codice di errore nel rapporto di completamento | 
| --- | --- | --- | --- | --- | 
| Accesso negato | ERRORE | Impossibile esportare il file perché è stato negato l'accesso all'oggetto S3 con chiave key\$1value nel bucket S3. bucket\$1name | L'accesso ad Amazon S3 è stato negato per un'attività di esportazione di un repository di dati. Per le attività di esportazione, il FSx file system Amazon deve disporre dell'autorizzazione per eseguire l'`s3:PutObject`operazione di esportazione in un repository di dati collegato su S3. Questa autorizzazione viene concessa nel ruolo collegato al `AWSServiceRoleForFSxS3Access_fs-0123456789abcdef0` servizio. Per ulteriori informazioni, consulta [Utilizzo di ruoli collegati ai servizi per Amazon FSx](using-service-linked-roles.md). Poiché l'attività di esportazione richiede che i dati fluiscano all'esterno del VPC di un file system, questo errore può verificarsi se il repository di destinazione ha una policy bucket che contiene una delle chiavi di condizione globali `aws:SourceVpc` o `aws:SourceVpce` IAM. Se il tuo bucket S3 contiene oggetti caricati da un account bucket S3 Account AWS diverso da quello collegato al file system, puoi assicurarti che le attività del repository di dati possano modificare i metadati S3 o sovrascrivere gli oggetti S3 indipendentemente dall'account che li ha caricati. Ti consigliamo di abilitare la funzionalità S3 Object Ownership per il tuo bucket S3. Questa funzionalità ti consente di assumere la proprietà di nuovi oggetti che altri Account AWS caricano nel tuo bucket, forzando i caricamenti a fornire l'ACL predefinito. `--acl bucket-owner-full-control` Puoi abilitare S3 Object Ownership scegliendo l'opzione **preferita del proprietario del bucket nel tuo bucket** S3. Per ulteriori informazioni, consulta [Controllare la proprietà degli oggetti caricati utilizzando S3 Object Ownership](https://docs.aws.amazon.com/AmazonS3/latest/userguide/about-object-ownership.html) nella *Amazon S3* User Guide.  | S3AccessDenied | 
| Percorso di esportazione troppo lungo | ERRORE | Impossibile esportare il file perché la dimensione del percorso del file locale supera la lunghezza massima della chiave dell'oggetto supportata da S3. | Il percorso di esportazione è troppo lungo. La lunghezza massima della chiave dell'oggetto supportata da S3 è di 1.024 caratteri.  | PathSizeTooLong | 
| File troppo grande | ERRORE | Impossibile esportare il file perché la dimensione del file supera la dimensione massima supportata degli oggetti S3. | La dimensione massima dell'oggetto supportata da Amazon S3 è di 5 TiB. | FileSizeTooLarge | 
| Chiave KMS non trovata | ERRORE | Impossibile esportare il file per l'oggetto S3 con la chiave key\$1value nel bucket S3 bucket\$1name perché la chiave KMS del bucket non è stata trovata. | Amazon non FSx è riuscito a esportare il file perché AWS KMS key non è stato trovato. Assicurati di utilizzare una chiave che sia Regione AWS uguale a quella del bucket S3. Per ulteriori informazioni sulla creazione di chiavi KMS, consulta [Creating keys](https://docs.aws.amazon.com/kms/latest/developerguide/create-keys.html) nella Developer Guide. AWS Key Management Service  | N/A | 
| Risorsa occupata | ERRORE | Impossibile esportare il file perché è utilizzato da un altro processo. | Amazon non FSx è stato in grado di esportare il file perché era stato modificato da un altro client sul file system. Puoi riprovare l'operazione dopo che il flusso di lavoro ha terminato la scrittura sul file. | ResourceBusy | 
| File rilasciato | WARN | Esportazione ignorata: il file locale è in stato di rilascio e un oggetto S3 collegato con chiave non key\$1value è stato trovato nel bucket. bucket\$1name | Amazon non FSx è stato in grado di esportare il file perché era in uno stato rilasciato sul file system. | N/D | 
| Mancata corrispondenza del percorso del repository di dati | WARN | Esportazione ignorata: il file locale non appartiene a un percorso del file system collegato a un archivio di dati. | Amazon non FSx è riuscito a esportare perché l'oggetto non appartiene a un percorso del file system collegato a un repository di dati. | N/D | 
| Errore interno | ERRORE | L'esportazione automatica ha rilevato un errore interno durante l'esportazione di un oggetto del file system | L'esportazione non è riuscita a causa di un errore interno (esportazione automatica o a livello di lustre). | N/D | 
| Errore di caricamento del rapporto di completamento | ERRORE | Impossibile caricare il rapporto di completamento dell'attività del repository di dati in bucket\$1name | Amazon non FSx è stato in grado di caricare il rapporto di completamento. | N/D | 
| Errore di convalida del rapporto di completamento | ERRORE | Impossibile caricare il report di completamento delle attività dell'archivio dati nel bucket bucket\$1name perché il percorso del rapporto di completamento report\$1path non appartiene a un archivio di dati associato a questo file system | Amazon non FSx è stato in grado di caricare il report di completamento perché il percorso S3 fornito dal cliente non appartiene a un repository di dati collegato. | N/D | 

## Eventi di ripristino HSM
<a name="hsm-restore-event-logging"></a>


| Tipi di errore | Livello di log | Messaggio di registro | Causa principale | 
| --- | --- | --- | --- | 
| Accesso negato | ERRORE | Impossibile ripristinare il file perché è stato negato l'accesso all'oggetto S3 object\$1name nel bucket S3. bucket\$1name | L'accesso è stato negato ad Amazon S3 durante il tentativo di ripristinare un file utilizzando i comandi HSM. Il file system deve disporre dell'autorizzazione per eseguire `s3:GetObject` le operazioni `s3:HeadObject` e il ripristino dal repository di dati collegato su S3. | 
| Classe di storage S3 non supportata | WARN | Impossibile ripristinare il file perché l'oggetto S3 object\$1name nel bucket si bucket\$1name trovava in un file non supportato. S3\$1storage\$1class \$1name | Amazon non FSx è riuscito a ripristinare il file perché l'oggetto S3 corrispondente si trova in una classe di storage S3 non supportata, come S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. È necessario ripristinare l'oggetto dalla classe di storage Glacier prima di utilizzarlo. `hsm_restore` | 
| Oggetto S3 non trovato | ERRORE | Impossibile ripristinare il file perché l'oggetto S3 con chiave non key\$1value è stato trovato nel bucket S3. bucket\$1name | Amazon non FSx è riuscito a ripristinare il file perché l'oggetto S3 corrispondente non esiste nel repository di dati. | 
| Bucket S3 non trovato | ERRORE | Impossibile ripristinare il file perché il bucket bucket\$1name S3 non esiste. | Amazon FSx non può ripristinare il file perché il bucket S3 collegato non esiste più. | 
| Spazio su disco pieno | ERRORE | Impossibile ripristinare il file perché non c'era spazio di archiviazione disponibile sul file system. | Il file system ha esaurito lo spazio di archiviazione disponibile durante il tentativo di ripristinare i dati del file da S3. Prendi in considerazione l'aumento della capacità di archiviazione del file system o il rilascio di file per liberare spazio. | 

# Utilizzo di tipi di distribuzione precedenti
<a name="older-deployment-types"></a>

Questa sezione si applica ai file system con tipo di distribuzione Scratch 1 e anche ai file system con `Scratch 2` o tipi di `Persistent 1` distribuzione che non utilizzano associazioni di repository di dati. Tieni presente che l'esportazione automatica e il supporto per più repository di dati non sono disponibili sui FSx file system Lustre che non utilizzano associazioni di repository di dati.

**Topics**
+ [Collega il tuo file system a un bucket Amazon S3](#legacy-link-to-S3)
+ [Importa automaticamente gli aggiornamenti dal tuo bucket S3](#legacy-auto-import-from-s3)

## Collega il tuo file system a un bucket Amazon S3
<a name="legacy-link-to-S3"></a>

Quando crei un file system Amazon FSx for Lustre, puoi collegarlo a un repository di dati durevole in Amazon S3. Prima di creare il file system, assicurati di aver già creato il bucket Amazon S3 a cui ti stai collegando. Nella procedura guidata **per la creazione del file system**, si impostano le seguenti proprietà di configurazione del repository di dati nel riquadro opzionale **Import/Export dell'archivio dati**.
+ Scegli in che modo Amazon FSx mantiene aggiornato il tuo elenco di file e directory man mano che aggiungi o modifichi oggetti nel tuo bucket S3 dopo la creazione del file system. Per ulteriori informazioni, consulta [Importa automaticamente gli aggiornamenti dal tuo bucket S3](#legacy-auto-import-from-s3).
+ **Bucket di importazione**: inserisci il nome del bucket S3 che stai utilizzando per il repository collegato.
+ **Prefisso di importazione**: inserisci un prefisso di importazione opzionale se desideri importare nel tuo file system solo alcuni elenchi di file e directory di dati nel tuo bucket S3. Il prefisso di importazione definisce da dove importare i dati nel bucket S3.
+ **Prefisso di esportazione**: definisce dove Amazon FSx esporta il contenuto del tuo file system nel bucket S3 collegato.

Puoi creare una mappatura 1:1 in cui Amazon FSx esporta i dati dal tuo file system FSx for Lustre nelle stesse directory del bucket S3 da cui sono stati importati. Per avere una mappatura 1:1, specifica un percorso di esportazione verso il bucket S3 senza prefissi quando crei il file system.
+ Quando crei un file system utilizzando la console, scegli l'opzione **Esporta prefisso > Un prefisso che specifichi e mantieni vuoto il campo del prefisso**.
+ Quando crei un file system utilizzando la AWS CLI o l'API, specifica il percorso di esportazione come nome del bucket S3 senza prefissi aggiuntivi, ad esempio. `ExportPath=s3://amzn-s3-demo-bucket/`

Utilizzando questo metodo, puoi includere un prefisso di importazione quando specifichi il percorso di importazione e ciò non influisce sulla mappatura 1:1 per le esportazioni.

### Creazione di file system collegati a un bucket S3
<a name="legacy-create-linked-S3"></a>

Le seguenti procedure illustrano il processo di creazione di un FSx file system Amazon collegato a un bucket S3 utilizzando la console di AWS gestione e l'interfaccia a riga di AWS comando (CLI AWS ).

------
#### [ Console ]

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Dalla dashboard, scegli **Crea file system**.

1. Per il tipo di file system, scegliete **FSx Lustre**, quindi scegliete **Avanti**.

1. Fornite le informazioni richieste per le sezioni **Dettagli del file system** e **Rete e sicurezza**. Per ulteriori informazioni, consulta [Passaggio 1: crea il tuo FSx file system for Lustre](getting-started.md#getting-started-step1).

1. Utilizza il pannello di **importazione/esportazione del repository di dati** per configurare un repository di dati collegato in Amazon S3. Seleziona **Importa dati da ed esporta dati su S3 per** espandere la sezione **Import/Export dell'archivio dati e configurare le impostazioni** dell'archivio di dati.  
![\[Il pannello di importazione ed esportazione dell'archivio dati per configurare un repository di dati collegato in Amazon S3.\]](http://docs.aws.amazon.com/it_it/fsx/latest/LustreGuide/images/legacy-data-repository-import-export.png)

1. Scegli in che modo Amazon FSx mantiene aggiornato il tuo elenco di file e directory man mano che aggiungi o modifichi oggetti nel tuo bucket S3. Quando crei il file system, gli oggetti S3 esistenti vengono visualizzati come elenchi di file e directory.
   + **Aggiorna il mio elenco di file e directory man mano che gli oggetti vengono aggiunti al mio bucket S3**: (impostazione predefinita) Amazon aggiorna FSx automaticamente gli elenchi di file e directory di tutti i nuovi oggetti aggiunti al bucket S3 collegato che non esistono attualmente nel file system. FSx Amazon FSx non aggiorna gli elenchi di oggetti che sono stati modificati nel bucket S3. Amazon FSx non elimina gli elenchi di oggetti eliminati nel bucket S3.
**Nota**  
L'impostazione predefinita delle preferenze di importazione per l'importazione di dati da un bucket S3 collegato utilizzando la CLI e l'API è. `NONE` L'impostazione predefinita delle preferenze di importazione quando si utilizza la console è quella di aggiornarsi Lustre man mano che vengono aggiunti nuovi oggetti al bucket S3.
   + **Aggiorna il mio elenco di file e directory man mano che gli oggetti vengono aggiunti o modificati nel mio bucket S3**: Amazon aggiorna FSx automaticamente gli elenchi di file e directory di tutti i nuovi oggetti aggiunti al bucket S3 e di tutti gli oggetti esistenti che vengono modificati nel bucket S3 dopo aver scelto questa opzione. Amazon FSx non elimina gli elenchi di oggetti eliminati nel bucket S3.
   + **Aggiorna il mio elenco di file e directory man mano che gli oggetti vengono aggiunti, modificati o eliminati dal mio bucket S3**: Amazon aggiorna FSx automaticamente gli elenchi di file e directory di tutti i nuovi oggetti aggiunti al bucket S3, di tutti gli oggetti esistenti che vengono modificati nel bucket S3 e di tutti gli oggetti esistenti che vengono eliminati nel bucket S3 dopo aver scelto questa opzione.
   + **Non aggiornare il mio file e la mia lista direttamente quando gli oggetti vengono aggiunti, modificati o eliminati dal mio bucket S3**: Amazon aggiorna gli elenchi di file e directory dal bucket S3 collegato FSx solo quando viene creato il file system. FSx non aggiorna gli elenchi di file e directory per oggetti nuovi, modificati o eliminati dopo aver scelto questa opzione.

1. Inserisci un **prefisso di importazione** opzionale se desideri importare solo alcuni degli elenchi di file e directory dei dati nel tuo bucket S3 nel tuo file system. Il prefisso di importazione definisce da dove importare i dati nel bucket S3. Per ulteriori informazioni, consulta [Importa automaticamente gli aggiornamenti dal tuo bucket S3](autoimport-data-repo-dra.md).

1. Scegli una delle opzioni di prefisso di **esportazione** disponibili:
   + **Un prefisso unico che Amazon FSx crea nel tuo bucket**: scegli questa opzione per esportare oggetti nuovi e modificati utilizzando un prefisso generato da FSx for Lustre. Il prefisso è simile al seguente:. `/FSxLustrefile-system-creation- timestamp` Il timestamp è in formato UTC, ad esempio `FSxLustre20181105T222312Z`.
   + **Lo stesso prefisso da cui hai importato (sostituisci gli oggetti esistenti con quelli aggiornati)**: Scegli questa opzione per sostituire gli oggetti esistenti con quelli aggiornati.
   + **Un prefisso specificato**: scegliete questa opzione per conservare i dati importati ed esportare oggetti nuovi e modificati utilizzando un prefisso specificato dall'utente. Per ottenere una mappatura 1:1 durante l'esportazione dei dati nel bucket S3, scegli questa opzione e lascia vuoto il campo del prefisso. FSx esporterà i dati nelle stesse directory da cui sono stati importati.

1. (Facoltativo) Imposta **le preferenze di manutenzione** o utilizza le impostazioni predefinite del sistema.

1. Scegliete **Avanti** e controllate le impostazioni del file system. Apportate eventuali modifiche, se necessario.

1. Scegliere **Create file system (Crea file system)**.

------
#### [ AWS CLI ]

L'esempio seguente crea un FSx file system Amazon collegato a`amzn-s3-demo-bucket`, con una preferenza di importazione che importa tutti i file nuovi, modificati ed eliminati nel repository di dati collegato dopo la creazione del file system.

**Nota**  
L'impostazione delle preferenze di importazione predefinita per l'importazione di dati da un bucket S3 collegato utilizzando la CLI e l'API è`NONE`, che è diversa dal comportamento predefinito quando si utilizza la console.

Per creare un file system FSx for Lustre, usa il [https://docs.aws.amazon.com/cli/latest/reference/fsx/create-file-system.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/create-file-system.html)comando Amazon FSx CLI, come illustrato di seguito. L'operazione API corrispondente è. [https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html)

```
$ aws fsx create-file-system \
--client-request-token CRT1234 \
--file-system-type LUSTRE \
--file-system-type-version 2.10 \
--lustre-configuration
AutoImportPolicy=NEW_CHANGED_DELETED,DeploymentType=SCRATCH_1,ImportPath=s
3://amzn-s3-demo-bucket/,ExportPath=s3://amzn-s3-demo-bucket/export,
PerUnitStorageThroughput=50 \
--storage-capacity 2400 \
--subnet-ids subnet-123456 \
--tags Key=Name,Value=Lustre-TEST-1 \
--region us-east-2
```

Dopo aver creato correttamente il file system, Amazon FSx restituisce la descrizione del file system come JSON, come mostrato nell'esempio seguente.

```
{
    "FileSystems": [
        {
            "OwnerId": "owner-id-string",
            "CreationTime": 1549310341.483,
            "FileSystemId": "fs-0123456789abcdef0",
            "FileSystemType": "LUSTRE",
            "FileSystemTypeVersion": "2.10",
            "Lifecycle": "CREATING",
            "StorageCapacity": 2400,
            "VpcId": "vpc-123456",
            "SubnetIds": [
                "subnet-123456"
            ],
            "NetworkInterfaceIds": [
                "eni-039fcf55123456789"
            ],
            "DNSName": "fs-0123456789abcdef0.fsx.us-east-2.amazonaws.com",
            "ResourceARN": "arn:aws:fsx:us-east-2:123456:file-system/fs-0123456789abcdef0",
            "Tags": [
                {
                    "Key": "Name",
                    "Value": "Lustre-TEST-1"
                }
            ],
            "LustreConfiguration": {
                "DeploymentType": "PERSISTENT_1",
                "DataRepositoryConfiguration": {
                    "AutoImportPolicy": "NEW_CHANGED_DELETED",
                    "Lifecycle": "UPDATING",
                    "ImportPath": "s3://amzn-s3-demo-bucket/",
                    "ExportPath": "s3://amzn-s3-demo-bucket/export",
                    "ImportedFileChunkSize": 1024
                },
                "PerUnitStorageThroughput": 50
            }
        }
    ]
}
```

------

### Visualizzazione del percorso di esportazione di un file system
<a name="legacy-view-export"></a>

È possibile visualizzare il percorso di esportazione di un file system utilizzando la console FSx for Lustre, la AWS CLI e l'API.

------
#### [ Console ]

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/)

1. Scegli **il nome del** **file system o l'ID** del file system FSx for Lustre per il quale desideri visualizzare il percorso di esportazione.

    Viene visualizzata la pagina dei dettagli del file system per quel file system.

1. Scegli la scheda **Archivio dati**.

   Viene visualizzato il pannello di **integrazione dell'archivio dati**, che mostra i percorsi di importazione ed esportazione.

![\[I percorsi di importazione ed esportazione dell'archivio dati nel pannello di integrazione dell'archivio dati.\]](http://docs.aws.amazon.com/it_it/fsx/latest/LustreGuide/images/legacy-view-export-path.png)


------
#### [ CLI ]

Per determinare il percorso di esportazione per il file system, utilizzate il comando [https://docs.aws.amazon.com/cli/latest/reference/fsx/describe-file-systems.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/describe-file-systems.html) AWS CLI.

```
aws fsx describe-file-systems
```

Cerca la `ExportPath` proprietà sotto `LustreConfiguration` nella risposta.

```
{
    "OwnerId": "111122223333",
    "CreationTime": 1563382847.014,
    "FileSystemId": "",
    "FileSystemType": "LUSTRE",
    "Lifecycle": "AVAILABLE",
    "StorageCapacity": 2400,
    "VpcId": "vpc-6296a00a",
    "SubnetIds": [
        "subnet-1111111"
    ],
    "NetworkInterfaceIds": [
        "eni-0c288d5b8cc06c82d",
        "eni-0f38b702442c6918c"
    ],
    "DNSName": "fs-0123456789abcdef0.fsx.us-east-2.amazonaws.com",
    "ResourceARN": "arn:aws:fsx:us-east-2:267731178466:file-system/fs-0123456789abcdef0",
    "Tags": [
        {
          "Key": "Name",
          "Value": "Lustre System"
        }
    ],
	"LustreConfiguration": {
    "DeploymentType": "SCRATCH_1",
    "DataRepositoryConfiguration": {
    "AutoImportPolicy": " NEW_CHANGED_DELETED",
    "Lifecycle": "AVAILABLE",
    "ImportPath": "s3://amzn-s3-demo-bucket/",
    "ExportPath": "s3://amzn-s3-demo-bucket/FSxLustre20190717T164753Z",
    "ImportedFileChunkSize": 1024
    }
  },
  "PerUnitStorageThroughput": 50,
  "WeeklyMaintenanceStartTime": "6:09:30"
}
```

------

### Stato del ciclo di vita del repository di dati
<a name="legacy-data-lifecycle"></a>

Lo stato del ciclo di vita del data repository fornisce informazioni sullo stato del repository di dati collegato al file system. Un repository di dati può avere i seguenti stati del ciclo di vita.
+ **Creazione**: Amazon FSx sta creando la configurazione del repository di dati tra il file system e il repository di dati collegato. L'archivio di dati non è disponibile.
+ **Disponibile**: l'archivio di dati è disponibile per l'uso.
+ **Aggiornamento**: la configurazione dell'archivio dati è in fase di aggiornamento avviato dal cliente che potrebbe influire sulla sua disponibilità.
+ **Configurato erroneamente**: Amazon FSx non può importare automaticamente gli aggiornamenti dal bucket S3 finché la configurazione del repository di dati non viene corretta. Per ulteriori informazioni, consulta [Risoluzione dei problemi relativi a un bucket S3 collegato non correttamente configurato](troubleshooting-misconfigured-data-repository.md).

Puoi visualizzare lo stato del ciclo di vita del repository di dati collegato di un file system utilizzando la FSx console Amazon, l'interfaccia a riga di AWS comando e l'API Amazon. FSx Nella FSx console Amazon, puoi accedere **allo stato del ciclo** di vita del repository di dati nel riquadro **Data Repository Integration** della scheda **Data Repository** per il file system. La `Lifecycle` proprietà si trova nell'`DataRepositoryConfiguration`oggetto nella risposta di un comando [https://docs.aws.amazon.com/cli/latest/reference/fsx/describe-file-systems.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/describe-file-systems.html)CLI (l'azione API equivalente è [https://docs.aws.amazon.com/fsx/latest/APIReference/API_DescribeFileSystems.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_DescribeFileSystems.html)).

## Importa automaticamente gli aggiornamenti dal tuo bucket S3
<a name="legacy-auto-import-from-s3"></a>

Per impostazione predefinita, quando crei un nuovo file system, Amazon FSx importa i metadati dei file (nome, proprietà, timestamp e autorizzazioni) degli oggetti nel bucket S3 collegato al momento della creazione del file system. Puoi configurare il file system FSx for Lustre per importare automaticamente i metadati degli oggetti aggiunti, modificati o eliminati dal bucket S3 dopo la creazione del file system. FSx for Lustre aggiorna l'elenco di file e directory di un oggetto modificato dopo la creazione nello stesso modo in cui importa i metadati dei file durante la creazione del file system. Quando Amazon FSx aggiorna l'elenco di file e directory di un oggetto modificato, se l'oggetto modificato nel bucket S3 non contiene più i relativi metadati, Amazon FSx mantiene i valori correnti dei metadati del file, anziché utilizzare le autorizzazioni predefinite.

**Nota**  
Le impostazioni di importazione sono disponibili FSx per i file system Lustre creati dopo le 15:00 EDT del 23 luglio 2020.

È possibile impostare le preferenze di importazione quando si crea un nuovo file system e aggiornare le impostazioni sui file system esistenti utilizzando la console di FSx gestione, la AWS CLI e l' AWS API. Quando crei il file system, gli oggetti S3 esistenti vengono visualizzati come elenchi di file e directory. Dopo aver creato il file system, come vuoi aggiornarlo man mano che i contenuti del tuo bucket S3 vengono aggiornati? Un file system può avere una delle seguenti preferenze di importazione:

**Nota**  
Il file system FSx for Lustre e il bucket S3 collegato devono trovarsi nella stessa AWS regione per importare automaticamente gli aggiornamenti.
+ **Aggiorna il mio elenco di file e directory man mano che gli oggetti vengono aggiunti al mio bucket S3**: (impostazione predefinita) Amazon aggiorna FSx automaticamente gli elenchi di file e directory di tutti i nuovi oggetti aggiunti al bucket S3 collegato che non esistono attualmente nel file system. FSx Amazon FSx non aggiorna gli elenchi di oggetti che sono stati modificati nel bucket S3. Amazon FSx non elimina gli elenchi di oggetti eliminati nel bucket S3.
**Nota**  
L'impostazione predefinita delle preferenze di importazione per l'importazione di dati da un bucket S3 collegato utilizzando la CLI e l'API è. `NONE` L'impostazione predefinita delle preferenze di importazione quando si utilizza la console è quella di aggiornarsi Lustre man mano che vengono aggiunti nuovi oggetti al bucket S3.
+ **Aggiorna il mio elenco di file e directory man mano che gli oggetti vengono aggiunti o modificati nel mio bucket S3**: Amazon aggiorna FSx automaticamente gli elenchi di file e directory di tutti i nuovi oggetti aggiunti al bucket S3 e di tutti gli oggetti esistenti che vengono modificati nel bucket S3 dopo aver scelto questa opzione. Amazon FSx non elimina gli elenchi di oggetti eliminati nel bucket S3.
+ **Aggiorna il mio elenco di file e directory man mano che gli oggetti vengono aggiunti, modificati o eliminati dal mio bucket S3**: Amazon aggiorna FSx automaticamente gli elenchi di file e directory di tutti i nuovi oggetti aggiunti al bucket S3, di tutti gli oggetti esistenti che vengono modificati nel bucket S3 e di tutti gli oggetti esistenti che vengono eliminati nel bucket S3 dopo aver scelto questa opzione.
+ **Non aggiornare il mio file e la mia lista direttamente quando gli oggetti vengono aggiunti, modificati o eliminati dal mio bucket S3**: Amazon aggiorna gli elenchi di file e directory dal bucket S3 collegato FSx solo quando viene creato il file system. FSx non aggiorna gli elenchi di file e directory per oggetti nuovi, modificati o eliminati dopo aver scelto questa opzione.

Quando imposti le preferenze di importazione per aggiornare gli elenchi dei file system e delle directory in base alle modifiche nel bucket S3 collegato, Amazon FSx crea una configurazione di notifica degli eventi sul bucket S3 collegato denominato. `FSx` Non modificare o eliminare la configurazione di notifica degli `FSx` eventi sul bucket S3: in questo modo si evita l'importazione automatica di elenchi di file e directory nuovi o modificati nel file system. 

Quando Amazon FSx aggiorna un elenco di file che è stato modificato nel bucket S3 collegato, sovrascrive il file locale con la versione aggiornata, anche se il file è bloccato in scrittura. Allo stesso modo, quando Amazon FSx aggiorna un elenco di file quando l'oggetto corrispondente è stato eliminato dal bucket S3 collegato, elimina il file locale, anche se il file è bloccato in scrittura.

Amazon FSx fa del suo meglio per aggiornare il file system. Amazon FSx non può aggiornare il file system apportando modifiche nelle seguenti situazioni:
+ Quando Amazon FSx non dispone dell'autorizzazione per aprire l'oggetto S3 nuovo o modificato.
+ Quando la configurazione di notifica `FSx` degli eventi sul bucket S3 collegato viene eliminata o modificata.

**Entrambe queste condizioni causano una configurazione errata dello stato del ciclo di vita del repository di dati.** Per ulteriori informazioni, consulta [Stato del ciclo di vita del repository di dati](#legacy-data-lifecycle).

### Prerequisiti
<a name="legacy-auto-import-prereq"></a>

Le seguenti condizioni sono necessarie per consentire FSx ad Amazon di importare automaticamente file nuovi, modificati o eliminati dal bucket S3 collegato:
+ Il file system e il bucket S3 collegato devono trovarsi nella stessa regione. AWS 
+ Il bucket S3 non ha uno stato del ciclo di vita configurato in modo errato. Per ulteriori informazioni, consulta [Stato del ciclo di vita del repository di dati](#legacy-data-lifecycle).
+ Il tuo account deve disporre delle autorizzazioni necessarie per configurare e ricevere notifiche di eventi sul bucket S3 collegato.

### Tipi di modifiche ai file supportati
<a name="legacy-file-types-supported"></a>

Amazon FSx supporta l'importazione delle seguenti modifiche a file e cartelle che si verificano nel bucket S3 collegato:
+ Modifiche al contenuto dei file
+ Modifiche ai metadati di file o cartelle
+ Modifiche alla destinazione o ai metadati del collegamento simbolico

  

### Aggiornamento delle preferenze di importazione
<a name="legacy-update-import-pref"></a>

È possibile impostare le preferenze di importazione di un file system quando si crea un nuovo file system. Per ulteriori informazioni, consulta [Collegamento del file system a un bucket Amazon S3](create-dra-linked-data-repo.md).

Puoi anche aggiornare le preferenze di importazione di un file system dopo averlo creato utilizzando la Console di AWS gestione, la AWS CLI e l' FSx API Amazon, come illustrato nella procedura seguente.

------
#### [ Console ]

1. Apri la FSx console Amazon all'indirizzo [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Dalla dashboard, scegli **File system**.

1. Seleziona il file system che desideri gestire per visualizzare i dettagli del file system.

1. Scegli **Archivio dati** per visualizzare le impostazioni dell'archivio dati. ****È possibile modificare le preferenze di importazione se lo stato del ciclo di vita è DISPONIBILE o NON È CONFIGURATO CORRETTAMENTE.**** Per ulteriori informazioni, consulta [Stato del ciclo di vita del repository di dati](#legacy-data-lifecycle).

1. Scegliete **Azioni**, quindi scegliete **Aggiorna preferenze di importazione** per visualizzare la finestra di dialogo **Aggiorna preferenze di importazione**.

1. Selezionate la nuova impostazione, quindi scegliete **Aggiorna** per apportare la modifica.

------
#### [ CLI ]

Per aggiornare le preferenze di importazione, utilizzate il [https://docs.aws.amazon.com/cli/latest/reference/fsx/update-file-system.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/update-file-system.html)comando CLI. L'operazione API corrispondente è [https://docs.aws.amazon.com/fsx/latest/APIReference/API_UpdateFileSystem.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_UpdateFileSystem.html). 

Dopo aver aggiornato correttamente il file system`AutoImportPolicy`, Amazon FSx restituisce la descrizione del file system aggiornato come JSON, come mostrato di seguito:

```
{
    "FileSystems": [
        {
            "OwnerId": "111122223333",
            "CreationTime": 1549310341.483,
            "FileSystemId": "fs-0123456789abcdef0",
            "FileSystemType": "LUSTRE",
            "Lifecycle": "UPDATING",
            "StorageCapacity": 2400,
            "VpcId": "vpc-123456",
            "SubnetIds": [
                "subnet-123456"
            ],
            "NetworkInterfaceIds": [
                "eni-039fcf55123456789"
            ],
            "DNSName": "fs-0123456789abcdef0.fsx.us-east-2.amazonaws.com",
            "ResourceARN": "arn:aws:fsx:us-east-2:123456:file-system/fs-0123456789abcdef0",
            "Tags": [
                {
                    "Key": "Name",
                    "Value": "Lustre-TEST-1"
                }
            ],
            "LustreConfiguration": {
                "DeploymentType": "SCRATCH_1",
                "DataRepositoryConfiguration": {
                    "AutoImportPolicy": "NEW_CHANGED_DELETED",
                    "Lifecycle": "UPDATING",
                    "ImportPath": "s3://amzn-s3-demo-bucket/",
                    "ExportPath": "s3://amzn-s3-demo-bucket/export",
                    "ImportedFileChunkSize": 1024
                }
                "PerUnitStorageThroughput": 50,
                "WeeklyMaintenanceStartTime": "2:04:30"
            }
        }
    ]
}
```

------