

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Uso de repositorios de datos con Amazon FSx for Lustre
<a name="fsx-data-repositories"></a>

Amazon FSx for Lustre proporciona sistemas de archivos de alto rendimiento optimizados para un procesamiento rápido de las cargas de trabajo. Puede soportar cargas de trabajo como el machine learning, la computación de alto rendimiento (HPC), el procesamiento de vídeo, la modelización financiera y la Electronic Design Automation (EDA). Estas cargas de trabajo suelen requerir que los datos se presenten mediante una interfaz de sistema de archivos de escalabilidad y de alta velocidad para el acceso a los datos. A menudo, los conjuntos de datos que se utilizan para estas cargas de trabajo se almacenan en repositorios de datos a largo plazo en Amazon S3. FSx for Lustre está integrado de forma nativa con Amazon S3, lo que facilita el procesamiento de conjuntos de datos con el Lustre sistema de archivos.

**nota**  
Las copias de seguridad de los sistemas de archivos no se admiten en los sistemas de archivos que están vinculados a un repositorio de datos de Amazon S3. Para obtener más información, consulte [Protección de los datos con copias de seguridad](using-backups-fsx.md).
Los sistemas de archivos Intelligent-Tiering no admiten la vinculación a los repositorios de datos de Amazon S3.

**Topics**
+ [Información general de los repositorios de datos](overview-dra-data-repo.md)
+ [Soporte de metadatos POSIX para repositorios de datos](posix-metadata-support.md)
+ [Vincular el sistema de archivos a un bucket de Amazon S3](create-dra-linked-data-repo.md)
+ [Importación de cambios desde su repositorio de datos](importing-files-dra.md)
+ [Exportación de los cambios al repositorio de datos](export-changed-data-meta-dra.md)
+ [Tareas de repositorio de datos](data-repository-tasks.md)
+ [Liberación de archivos](file-release.md)
+ [Uso de Amazon FSx con tus datos locales](fsx-on-premises.md)
+ [Registros de eventos del repositorio de datos](data-repo-event-logs.md)
+ [Trabajar con tipos de implementación antiguos](older-deployment-types.md)

# Información general de los repositorios de datos
<a name="overview-dra-data-repo"></a>

Cuando utiliza Amazon FSx for Lustre con repositorios de datos, puede ingerir y procesar grandes volúmenes de datos de archivos en un sistema de archivos de alto rendimiento mediante tareas automáticas de importación e importación de repositorios de datos. Al mismo tiempo, puede escribir los resultados en sus repositorios de datos mediante tareas automáticas de exportación o exportación de repositorios de datos. Con estas características, puede reiniciar su carga de trabajo en cualquier momento utilizando los datos más recientes almacenados en su repositorio de datos.

**nota**  
 Las asociaciones de repositorios de datos, la exportación automática y la compatibilidad con varios repositorios de datos no están disponibles en los sistemas de archivos o FSx sistemas de archivos Lustre 2.10. `Scratch 1` 

FSx para Lustre está profundamente integrado con Amazon S3. Esta integración significa que puede acceder sin problemas a los objetos almacenados en sus buckets de Amazon S3 desde las aplicaciones que montan su sistema de archivos de FSx para Lustre. También puede ejecutar sus cargas de trabajo de procesamiento intensivo en instancias de Amazon EC2 en Nube de AWS y exportar los resultados a su repositorio de datos una vez finalizada la carga de trabajo.

Para acceder a los objetos del repositorio de datos de Amazon S3 como archivos y directorios del sistema de archivos, los metadatos de los archivos y directorios deben cargarse en el sistema de archivos. Puede cargar metadatos desde un repositorio de datos vinculado al crear una asociación de repositorios de datos.

Además, puede importar metadatos de archivos y directorios de sus repositorios de datos vinculados al sistema de archivos mediante la importación automática o mediante una tarea de importación del repositorio de datos. Al activar la importación automática para una asociación de repositorios de datos, el sistema de archivos importa automáticamente los metadatos de los archivos a medida que se crean, modifican o and/or eliminan archivos en el repositorio de datos de S3. Como alternativa, puede importar metadatos para archivos y directorios nuevos o modificados mediante una tarea de importación del repositorio de datos.

**nota**  
Las tareas automáticas de importación e importación del repositorio de datos se pueden utilizar simultáneamente en un sistema de archivos.

También puede exportar los archivos y los metadatos asociados del sistema de archivos al repositorio de datos mediante la exportación automática o mediante una tarea de exportación del repositorio de datos. Al activar la exportación automática en una asociación de repositorio de datos, el sistema de archivos exporta automáticamente los datos y metadatos de los archivos cuando estos se crean, modifican o eliminan. Como alternativa, puede exportar archivos o directorios mediante una tarea de exportación de repositorios de datos. Cuando utiliza una tarea de repositorio de datos de exportación, se exportan los datos y metadatos de los archivos que se crearon o modificaron desde la última tarea de este tipo.

**nota**  
Las tareas de exportación automática y exportación de repositorio de datos no pueden utilizarse simultáneamente en un sistema de archivos.
Las asociaciones de repositorios de datos solo exportan archivos, enlaces simbólicos y directorios normales. Esto significa que todos los demás tipos de archivos (FIFO especial, bloque especial, especial de caracteres y conector) no se exportarán como parte de los procesos de exportación, como las tareas automáticas de exportación y exportación del repositorio de datos.

FSx for Lustre también admite cargas de trabajo repletas de nubes con sistemas de archivos locales, ya que le permite copiar datos de clientes locales mediante una VPN. Direct Connect 

**importante**  
Si ha vinculado uno o más sistemas de archivos de FSx For Lustre a un repositorio de datos en Amazon S3, no elimine el bucket de Amazon S3 hasta que haya eliminado o desvinculado todos los sistemas de archivos vinculados.

## Soporte regional y de cuenta para los buckets de S3 enlazados
<a name="dra-regional-support"></a>

Al crear enlaces a buckets de S3, tenga en cuenta las siguientes limitaciones de compatibilidad de cuentas y regiones:
+ La exportación automática admite configuraciones entre regiones. El sistema de FSx archivos de Amazon y el bucket de S3 vinculado pueden estar ubicados en el mismo lugar Región de AWS o en sitios diferentes Regiones de AWS.
+ La importación automática no admite configuraciones entre regiones. Tanto el sistema de FSx archivos de Amazon como el bucket de S3 vinculado deben estar ubicados en el mismo lugar Región de AWS.
+ Tanto la exportación automática como la importación automática admiten configuraciones entre cuentas. El sistema de FSx archivos de Amazon y el bucket de S3 vinculado pueden pertenecer al mismo Cuenta de AWS o a uno diferente Cuentas de AWS.

# Soporte de metadatos POSIX para repositorios de datos
<a name="posix-metadata-support"></a>

Amazon FSx for Lustre transfiere automáticamente los metadatos de la Interfaz de Sistema Operativo Portátil (POSIX) para archivos, directorios y enlaces simbólicos (enlaces simbólicos) al importar y exportar datos a y desde un repositorio de datos enlazados en Amazon S3. Cuando exporta los cambios de su sistema de archivos a su repositorio de datos enlazado, FSx for Lustre también exporta los cambios en los metadatos de POSIX como metadatos de objetos de S3. Esto significa que si otro sistema FSx de archivos de Lustre importa los mismos archivos de S3, los archivos tendrán los mismos metadatos POSIX en ese sistema de archivos, incluidos la propiedad y los permisos.

FSx para Lustre, importa solo los objetos de S3 que tienen claves de objeto compatibles con POSIX, como las siguientes.

```
mydir/
mydir/myfile1
mydir/mysubdir/
mydir/mysubdir/myfile2.txt
```

FSx En el caso de Lustre, los directorios y los enlaces simbólicos se almacenan como objetos independientes en el repositorio de datos enlazados de S3. En el caso de los directorios, FSx en el caso de Lustre, crea un objeto de S3 con un nombre clave que termina en una barra («/»), de la siguiente manera:
+ La clave del objeto de S3 se `mydir/` asigna al directorio de Lustre FSx . `mydir/`
+ La clave de objeto S3 se `mydir/mysubdir/` asigna al directorio FSx for Lustre. `mydir/mysubdir/`

Para los enlaces simbólicos, FSx para Lustre utiliza el siguiente esquema de Amazon S3:
+ **Clave de objeto S3**: la ruta al enlace, en relación con el directorio de montaje FSx de Lustre
+ **Datos del objeto S3**: la ruta de destino de este enlace simbólico
+ **Metadatos del objeto S3**: los metadatos del enlace simbólico

FSx for Lustre almacena los metadatos POSIX, que incluyen la propiedad, los permisos y las marcas de tiempo de los archivos, directorios y enlaces simbólicos, en los objetos de S3 de la siguiente manera:
+ `Content-Type`: el encabezado de la entidad HTTP que se utiliza para indicar el tipo de medio del recurso para los navegadores web.
+ `x-amz-meta-file-permissions`: el tipo de archivo y los permisos del formato `<octal file type><octal permission mask>`, de acuerdo con los `st_mode` de la [Página del manual de Linux stat (2)](https://man7.org/linux/man-pages/man2/lstat.2.html).
**nota**  
FSx porque Lustre no importa ni retiene información. `setuid`
+ `x-amz-meta-file-owner`: el ID de usuario (UID) del propietario expresado en forma de número entero.
+ `x-amz-meta-file-group`: el ID de grupo (GID) expresado en forma de número entero.
+ `x-amz-meta-file-atime`: el tiempo de acceso por última vez en nanosegundos desde el comienzo de la era de Unix. Termine el valor de tiempo con`ns`; de lo contrario FSx , Lustre interpreta el valor como milisegundos.
+ `x-amz-meta-file-mtime`: el tiempo de la última modificación en nanosegundos desde el comienzo de la era de Unix. Termine el valor de tiempo con`ns`; de lo contrario, FSx para Lustre interpreta el valor como milisegundos.
+ `x-amz-meta-user-agent`— El agente de usuario, ignorado FSx durante la importación de Lustre. Durante la exportación, FSx for Lustre establece este valor en. `aws-fsx-lustre`

Al importar objetos de S3 que no tienen permisos POSIX asociados, el permiso POSIX predeterminado que FSx Lustre asigna a un archivo es. `755` Este permiso permite el acceso de lectura y ejecución para todos los usuarios y el acceso de escritura para el propietario del archivo.

**nota**  
FSx for Lustre no conserva ningún metadato personalizado definido por el usuario en los objetos de S3.

# Enlaces duros y exportación a Amazon S3
<a name="hard-links"></a>

Si la exportación automática (con políticas NUEVAS y CAMBIADAS) está habilitada en una DRA de su sistema de archivos, cada enlace duro contenido en la DRA se exporta a Amazon S3 como un objeto S3 independiente para cada enlace duro. Si se modifica un archivo con varios enlaces duros en el sistema de archivos, se actualizan todas las copias de S3, independientemente del enlace duro que se haya utilizado al cambiar el archivo.

Si los enlaces físicos se exportan a S3 mediante tareas de repositorio de datos (DRTs), cada enlace físico contenido en las rutas especificadas para la DRT se exporta a S3 como un objeto S3 independiente para cada enlace duro. Si se modifica un archivo con varios enlaces duros en el sistema de archivos, se actualizan todas las copias en S3 en el momento en que se exporta el enlace duro respectivo, independientemente del enlace duro que se haya utilizado al modificar el archivo.

**importante**  
Cuando un nuevo sistema de archivos FSx for Lustre se vincula a un bucket de S3 al que anteriormente otro sistema de archivos FSx for Lustre, AWS DataSync o Amazon FSx File Gateway, los enlaces duros se importan posteriormente como archivos independientes en el nuevo sistema de archivos.

## Enlaces duros y archivos liberados
<a name="hard-links-released-files"></a>

Un archivo liberado es un archivo cuyos metadatos están presentes en el sistema de archivos, pero cuyo contenido solo se almacena en S3. Para más información sobre los archivos liberados, consulte [Liberación de archivos](file-release.md).

**importante**  
El uso de enlaces físicos en un sistema de archivos que tiene asociaciones de repositorios de datos (DRAs) está sujeto a las siguientes limitaciones:  
Al eliminar y volver a crear un archivo liberado que tiene varios enlaces duros, es posible que se sobrescriba el contenido de todos los enlaces duros.
Al eliminar un archivo liberado, se eliminará el contenido de todos los enlaces duros que se encuentren fuera de una asociación de repositorios de datos.
La creación de un enlace duro a un archivo liberado cuyo objeto S3 correspondiente se encuentre en las clases de almacenamiento S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive no creará un objeto nuevo en S3 para el enlace duro.

# Tutorial: adjuntar permisos POSIX al cargar objetos a un bucket de Amazon S3
<a name="attach-s3-posix-permissions"></a>

El siguiente procedimiento presenta el proceso de carga de objetos en Amazon S3 con permisos POSIX. Si lo hace, podrá importar los permisos POSIX cuando cree un sistema de FSx archivos de Amazon que esté vinculado a ese bucket de S3.

**Para cargar objetos con permisos POSIX a Amazon S3**

1. Desde su ordenador o máquina local, utilice los siguientes comandos de ejemplo para crear un directorio de prueba (`s3cptestdir`) y un archivo (`s3cptest.txt`) que se cargarán en el bucket de S3.

   ```
   $ mkdir s3cptestdir
   $ echo "S3cp metadata import test" >> s3cptestdir/s3cptest.txt
   $ ls -ld s3cptestdir/ s3cptestdir/s3cptest.txt
   drwxr-xr-x 3 500 500 96 Jan 8 11:29 s3cptestdir/
   -rw-r--r-- 1 500 500 26 Jan 8 11:29 s3cptestdir/s3cptest.txt
   ```

   El archivo y el directorio recién creados tienen un ID de usuario (UID) y un ID de grupo (GID) del propietario del archivo de 500 y los permisos que se muestran en el ejemplo anterior.

1. Llame a la API de Amazon S3 para crear el directorio `s3cptestdir` con permisos de metadatos. Debe especificar el nombre del directorio con una barra diagonal (`/`) al final. Para obtener información acerca de los metadatos POSIX soportados, consulte [Soporte de metadatos POSIX para repositorios de datos](posix-metadata-support.md).

   Reemplace `bucket_name` con el nombre real de su bucket de Amazon S3.

   ```
   $ aws s3api put-object --bucket bucket_name --key s3cptestdir/ --metadata '{"user-agent":"aws-fsx-lustre" , \
         "file-atime":"1595002920000000000ns" , "file-owner":"500" , "file-permissions":"0100664","file-group":"500" , \
         "file-mtime":"1595002920000000000ns"}'
   ```

1. Compruebe que los permisos POSIX estén etiquetados en los metadatos del objeto S3.

   ```
   $ aws s3api head-object --bucket bucket_name --key s3cptestdir/
   {
       "AcceptRanges": "bytes",
       "LastModified": "Fri, 08 Jan 2021 17:32:27 GMT",
       "ContentLength": 0,
       "ETag": "\"d41d8cd98f00b204e9800998ecf8427e\"",
       "VersionId": "bAlhCoWq7aIEjc3R6Myc6UOb8sHHtJkR",
       "ContentType": "binary/octet-stream",
       "Metadata": {
           "user-agent": "aws-fsx-lustre",
           "file-atime": "1595002920000000000ns",
           "file-owner": "500",
           "file-permissions": "0100664",
           "file-group": "500",
           "file-mtime": "1595002920000000000ns"
       }
   }
   ```

1. Cargue el archivo de prueba (creado en el paso 1) desde su ordenador al bucket de S3 con permisos de metadatos.

   ```
   $ aws s3 cp s3cptestdir/s3cptest.txt s3://bucket_name/s3cptestdir/s3cptest.txt \
         --metadata '{"user-agent":"aws-fsx-lustre" , "file-atime":"1595002920000000000ns" , \
         "file-owner":"500" , "file-permissions":"0100664","file-group":"500" , "file-mtime":"1595002920000000000ns"}'
   ```

1. Compruebe que los permisos POSIX estén etiquetados en los metadatos del objeto S3.

   ```
   $ aws s3api head-object --bucket bucket_name --key s3cptestdir/s3cptest.txt
   {
       "AcceptRanges": "bytes",
       "LastModified": "Fri, 08 Jan 2021 17:33:35 GMT",
       "ContentLength": 26,
       "ETag": "\"eb33f7e1f44a14a8e2f9475ae3fc45d3\"",
       "VersionId": "w9ztRoEhB832m8NC3a_JTlTyIx7Uzql6",
       "ContentType": "text/plain",
       "Metadata": {
           "user-agent": "aws-fsx-lustre",
           "file-atime": "1595002920000000000ns",
           "file-owner": "500",
           "file-permissions": "0100664",
           "file-group": "500",
           "file-mtime": "1595002920000000000ns"
       }
   }
   ```

1. Verifica los permisos en el sistema de FSx archivos de Amazon vinculado al bucket de S3.

   ```
   $ sudo lfs df -h /fsx
   UUID                       bytes        Used   Available Use% Mounted on
   3rnxfbmv-MDT0000_UUID       34.4G        6.1M       34.4G   0% /fsx[MDT:0]
   3rnxfbmv-OST0000_UUID        1.1T        4.5M        1.1T   0% /fsx[OST:0]
    
   filesystem_summary:         1.1T        4.5M        1.1T   0% /fsx
    
   $ cd /fsx/s3cptestdir/
   $ ls -ld s3cptestdir/
   drw-rw-r-- 2 500 500 25600 Jan  8 17:33 s3cptestdir/
   
   $ ls -ld s3cptestdir/s3cptest.txt
   -rw-rw-r-- 1 500 500 26 Jan 8 17:33 s3cptestdir/s3cptest.txt
   ```

Tanto el directorio `s3cptestdir` como el archivo `s3cptest.txt` tienen permisos POSIX importados.

# Vincular el sistema de archivos a un bucket de Amazon S3
<a name="create-dra-linked-data-repo"></a>

Puede vincular su sistema de archivos Amazon FSx for Lustre a los repositorios de datos de Amazon S3. Puede crear el enlace al crear el sistema de archivos o en cualquier momento después de crearlo.

Un vínculo entre un directorio del sistema de archivos y un bucket o prefijo de S3 se denomina *asociación de repositorio de datos (DRA)*. Puede configurar un máximo de 8 asociaciones de repositorios de datos en un sistema de archivos FSx de Lustre. Se pueden poner en cola un máximo de 8 solicitudes de DRA, pero solo se puede trabajar con una solicitud a la vez para el sistema de archivos. Cada DRA debe tener un directorio del sistema de archivos exclusivo FSx para Lustre y un bucket o prefijo S3 único asociado a él.

**nota**  
 Las asociaciones de repositorios de datos, la exportación automática y la compatibilidad con varios repositorios de datos no están disponibles en los sistemas de archivos Lustre 2.10 ni en FSx los sistemas de archivos. `Scratch 1` 

Para acceder a los objetos del repositorio de datos S3 como archivos y directorios en el sistema de archivos, los metadatos de archivos y directorios deben cargarse en el sistema de archivos. Puede cargar los metadatos de un repositorio de datos vinculado al crear el DRA o cargar los metadatos de los lotes de archivos y directorios a los que desee acceder mediante el FSx sistema de archivos de Lustre más adelante mediante una tarea de importación de repositorio de datos, o utilizar la exportación automática para cargar los metadatos automáticamente cuando se añaden, modifican o eliminan objetos del repositorio de datos.

Puede configurar una DRA solo para la importación automática, solo para la exportación automática o para ambas. Una asociación de repositorios de datos configurada con importación y exportación automáticas propaga los datos en ambas direcciones entre el sistema de archivos y el bucket de S3 vinculado. A medida que realiza cambios en los datos de su repositorio de datos de S3, FSx for Lustre detecta los cambios y, a continuación, los importa automáticamente a su sistema de archivos. A medida que crea, modifica o elimina archivos, FSx for Lustre exporta automáticamente los cambios a Amazon S3 de forma asíncrona una vez que la aplicación termine de modificar el archivo.

**importante**  
Si modifica el mismo archivo tanto en el sistema de archivos como en el bucket de S3, debe garantizar la coordinación a nivel de la aplicación para evitar conflictos. FSx for Lustre no evita escrituras conflictivas en varias ubicaciones.
En el caso de los archivos marcados con un atributo inmutable, FSx for Lustre no puede sincronizar los cambios entre el sistema de archivos de FSx For Lustre y un bucket de S3 vinculado al sistema de archivos. Si se establece un indicador inmutable durante un período de tiempo prolongado, se puede reducir el rendimiento del movimiento de datos entre Amazon FSx y S3.

Al crear una asociación de repositorios de datos, puede configurar las siguientes propiedades:
+ **Ruta del sistema de archivos**: introduzca una ruta local en el sistema de archivos que apunte a un directorio (por ejemplo`/ns1/`) o subdirectorio (por ejemplo`/ns1/subdir/`) que se asignará a la ruta del repositorio de datos especificada one-to-one a continuación. Se requiere la barra diagonal que aparece al principio del nombre. Dos asociaciones de repositorios de datos no pueden tener rutas de sistema de archivos superpuestas. Por ejemplo, si un repositorio de datos está asociado a la ruta del sistema de archivos `/ns1`, no se puede vincular otro repositorio de datos con la ruta del sistema de archivos `/ns1/ns2`.
**nota**  
Si especifica solo una barra diagonal (`/`) como ruta del sistema de archivos, a este solo se puede vincular un repositorio de datos. Solo puede especificar “/” como la ruta del sistema de archivos del primer repositorio de datos asociado a un sistema de archivos.
+ **Data repository path**: introduzca una ruta en el repositorio de datos de S3. La ruta puede ser un bucket de S3 o un prefijo con el formato `s3://bucket-name/prefix/`. Esta propiedad especifica el lugar desde el que se importarán o exportarán los archivos del repositorio de datos de S3. FSx for Lustre añadirá una «/» al final a la ruta del repositorio de datos si no la proporciona. Por ejemplo, si proporciona una ruta de repositorio de datos de`s3://amzn-s3-demo-bucket/my-prefix`, FSx for Lustre la interpretará como. `s3://amzn-s3-demo-bucket/my-prefix/`

  Dos asociaciones de repositorios de datos no pueden tener rutas de repositorios de datos superpuestas. Por ejemplo, si un repositorio de datos con la ruta `s3://amzn-s3-demo-bucket/my-prefix/` está vinculado al sistema de archivos, no se puede crear otra asociación de repositorio de datos con la ruta de repositorio de datos `s3://amzn-s3-demo-bucket/my-prefix/my-sub-prefix`.
+ **Import metadata from repository**: puede seleccionar esta opción para importar metadatos de todo el repositorio de datos inmediatamente después de crear la asociación de repositorios de datos. Como alternativa, puede ejecutar una tarea de importación del repositorio de datos para cargar todos o un subconjunto de los metadatos del repositorio de datos vinculado al sistema de archivos en cualquier momento después de crear la asociación de repositorios de datos.
+ **Import settings**: elija una política de importación que especifique el tipo de objetos actualizados (cualquier combinación de objetos nuevos, modificados y eliminados) que se importarán automáticamente desde el bucket de S3 vinculado a su sistema de archivos. La importación automática (nueva, modificada, eliminada) se activa de forma predeterminada cuando se añade un repositorio de datos desde la consola, pero se desactiva de forma predeterminada cuando se utiliza la FSx API AWS CLI o Amazon.
+ **Export settings**: elija una política de exportación que especifique el tipo de objetos actualizados (cualquier combinación de nuevos, modificados y eliminados) que se exportarán automáticamente al bucket de S3. La exportación automática (nueva, modificada, eliminada) se activa de forma predeterminada cuando se añade un repositorio de datos desde la consola, pero se desactiva de forma predeterminada cuando se utiliza la FSx API AWS CLI o Amazon.

La configuración de la **ruta del sistema de archivos** y la **ruta del repositorio de datos** proporcionan un mapeo 1:1 entre las rutas en Amazon FSx y las claves de objeto en S3.

**Topics**
+ [Crear un enlace a un bucket de S3](create-linked-dra.md)
+ [Actualización de la configuración de asociación de repositorios de datos](update-dra-settings.md)
+ [Eliminación de una asociación a un bucket de S3](delete-linked-dra.md)
+ [Visualización de los detalles de asociación del repositorio de datos](view-dra-details.md)
+ [Estado del ciclo de vida de la asociación de repositorios](dra-lifecycles.md)
+ [Trabajo con buckets de Amazon S3 cifrados del lado del servidor](s3-server-side-encryption-support.md)

# Crear un enlace a un bucket de S3
<a name="create-linked-dra"></a>

Los siguientes procedimientos le guiarán por el proceso de creación de una asociación de repositorios de datos FSx para un sistema de archivos de Lustre con un bucket de S3 existente, mediante el comando Consola de administración de AWS and AWS Command Line Interface ()AWS CLI. Para obtener información sobre cómo añadir permisos a un bucket de S3 para vincularlo a su sistema de archivos, consulte [Agregar permisos para utilizar repositorios de datos en Amazon S3](setting-up.md#fsx-adding-permissions-s3).

**nota**  
Los repositorios de datos no se pueden vincular a sistemas de archivos que tengan habilitadas las copias de seguridad del sistema de archivos. Deshabilite las copias de seguridad antes de vincularlas a un repositorio de datos.

## Para vincular un bucket de S3 al crear un sistema de archivos (consola)
<a name="export-path-lustre-console-dra-new"></a>

1. Abre la FSx consola de Amazon en [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Siga el procedimiento para crear un nuevo sistema de archivos que se describe en [Paso 1: crear un sistema de archivos FSx para Lustre](getting-started.md#getting-started-step1) en la sección Primeros pasos. 

1. Abra la sección ***opcional* del repositorio Import/Export de datos**. De forma predeterminada, esta característica está deshabilitada.

1. Elija **Import data from and export data to S3**.

1. En el cuadro de diálogo de **Data repository association information**, proporcione información para los siguientes campos.
   + **Ruta del sistema de archivos**: introduzca el nombre de un directorio de alto nivel (por ejemplo`/ns1`) o subdirectorio (por ejemplo`/ns1/subdir`) del sistema de FSx archivos de Amazon que se asociará al repositorio de datos de S3. Se requiere la barra diagonal inicial en la ruta. Dos asociaciones de repositorios de datos no pueden tener rutas de sistema de archivos superpuestas. Por ejemplo, si un repositorio de datos está asociado a la ruta del sistema de archivos `/ns1`, no se puede vincular otro repositorio de datos con la ruta del sistema de archivos `/ns1/ns2`. La configuración de la **File system path** debe ser única en todas las asociaciones de repositorios de datos del sistema de archivos.
   + **Data repository path**: introduzca la ruta de un bucket o prefijo de S3 existente para asociarlo a su sistema de archivos (por ejemplo, `s3://amzn-s3-demo-bucket/my-prefix`). Dos asociaciones de repositorios de datos no pueden tener rutas de repositorios de datos superpuestas. La configuración de la **File system path** debe ser única en todas las asociaciones de repositorios de datos del sistema de archivos.
   + **Import metadata from repository**: seleccione esta propiedad para ejecutar, de manera opcional, una tarea de importación de repositorios de datos para importar metadatos inmediatamente después de crear el vínculo.

1. En el caso de los **Import settings - optional**, defina **Import Policy** que determine cómo se mantienen actualizados los listados de archivos y directorios al añadir, cambiar o eliminar objetos del bucket de S3. Por ejemplo, elija **New** para importar los metadatos a su sistema de archivos para los nuevos objetos creados en el bucket de S3. Para obtener más información sobre las políticas de importación, consulte [Importe automáticamente actualizaciones desde un bucket de S3](autoimport-data-repo-dra.md).

1. Para **Export policy**, defina una política de exportación que determine cómo se exportarán sus archivos al bucket de S3 vinculado a medida que añada, modifique o elimine objetos del sistema de archivos. Por ejemplo, elija **Changed** para exportar los objetos cuyo contenido o metadatos se hayan modificado en su sistema de archivos. Para obtener más información acerca de las políticas de exportación, consulte [Exporte automáticamente las actualizaciones a su bucket de S3](autoexport-data-repo-dra.md).

1. Continúe con la siguiente sección del asistente de creación del sistema de archivos.

## Para vincular un bucket de S3 a un sistema de archivos existente (consola)
<a name="export-path-lustre-console-dra"></a>

1. Abre la FSx consola de Amazon en [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. En el panel, elija **File systems** y, a continuación, seleccione el sistema de archivos para el que desee crear una asociación de repositorios de datos. 

1. Seleccione la pestaña **Data repository**.

1. En el panel **Data repository associations**, elija **Create data repository association**.

1. En el cuadro de diálogo de **Data repository association information**, proporcione información para los siguientes campos.
   + **Ruta del sistema de archivos**: introduzca el nombre de un directorio de alto nivel (por ejemplo`/ns1`) o subdirectorio (por ejemplo`/ns1/subdir`) del sistema de FSx archivos de Amazon que se asociará al repositorio de datos de S3. Se requiere la barra diagonal inicial en la ruta. Dos asociaciones de repositorios de datos no pueden tener rutas de sistema de archivos superpuestas. Por ejemplo, si un repositorio de datos está asociado a la ruta del sistema de archivos `/ns1`, no se puede vincular otro repositorio de datos con la ruta del sistema de archivos `/ns1/ns2`. La configuración de la **File system path** debe ser única en todas las asociaciones de repositorios de datos del sistema de archivos.
   + **Data repository path**: introduzca la ruta de un bucket o prefijo de S3 existente para asociarlo a su sistema de archivos (por ejemplo, `s3://amzn-s3-demo-bucket/my-prefix`). Dos asociaciones de repositorios de datos no pueden tener rutas de repositorios de datos superpuestas. La configuración de la **File system path** debe ser única en todas las asociaciones de repositorios de datos del sistema de archivos.
   + **Import metadata from repository**: seleccione esta propiedad para ejecutar, de manera opcional, una tarea de importación de repositorios de datos para importar metadatos inmediatamente después de crear el vínculo.

1. En el caso de los **Import settings - optional**, defina **Import Policy** que determine cómo se mantienen actualizados los listados de archivos y directorios al añadir, cambiar o eliminar objetos del bucket de S3. Por ejemplo, elija **New** para importar los metadatos a su sistema de archivos para los nuevos objetos creados en el bucket de S3. Para obtener más información acerca de las políticas de importación, consulte [Importe automáticamente actualizaciones desde un bucket de S3](autoimport-data-repo-dra.md).

1. Para **Export policy**, defina una política de exportación que determine cómo se exportarán sus archivos al bucket de S3 vinculado a medida que añada, modifique o elimine objetos del sistema de archivos. Por ejemplo, elija **Changed** para exportar los objetos cuyo contenido o metadatos se hayan modificado en su sistema de archivos. Para obtener más información acerca de las políticas de exportación, consulte [Exporte automáticamente las actualizaciones a su bucket de S3](autoexport-data-repo-dra.md).

1. Seleccione **Crear**.

## Para vincular su sistema de archivos a un bucket de S3 (AWS CLI)
<a name="export-path-lustre-cli-dra"></a>

El siguiente ejemplo crea una asociación de repositorios de datos que vincula un sistema de FSx archivos de Amazon a un bucket de S3, con una política de importación que importa todos los archivos nuevos o modificados al sistema de archivos y una política de exportación que exporta los archivos nuevos, modificados o eliminados al bucket de S3 vinculado.
+ Para crear una asociación de repositorios de datos, utilice el comando Amazon FSx CLI`create-data-repository-association`, tal y como se muestra a continuación.

  ```
  $ aws fsx create-data-repository-association \
        --file-system-id fs-0123456789abcdef0 \
        --file-system-path /ns1/path1/ \
        --data-repository-path s3://amzn-s3-demo-bucket/myprefix/ \
        --s3 "AutoImportPolicy={Events=[NEW,CHANGED,DELETED]},AutoExportPolicy={Events=[NEW,CHANGED,DELETED]}"
  ```

Amazon FSx devuelve inmediatamente la descripción en JSON del DRA. La DRA se crea de forma asíncrona.

Puede utilizar este comando para crear una asociación de repositorios de datos incluso antes de que el sistema de archivos haya terminado de crearse. La solicitud se pondrá en cola y la asociación de repositorios de datos se creará cuando el sistema de archivos esté disponible.

# Actualización de la configuración de asociación de repositorios de datos
<a name="update-dra-settings"></a>

Puede actualizar la configuración de una asociación de repositorios de datos existente mediante la Consola de administración de AWS AWS CLI, la y la FSx API de Amazon, tal y como se muestra en los siguientes procedimientos.

**nota**  
No puede actualizar la `File system path` o la `Data repository path` de una DRA una vez creado. Si desea cambiar la `File system path` o la `Data repository path`, debe eliminar la DRA y volver a crearlo.

## Cómo actualizar la configuración de una asociación de repositorios de datos existente (consola)
<a name="update-dra-console"></a>

1. Abre la FSx consola de Amazon en [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. En el panel, elija **File systems** y, a continuación, seleccione el sistema de archivos que desea administrar.

1. Elija la pestaña **Data repository**.

1. En el panel **Data repository associations**, elija la asociación de repositorios de datos que desea modificar.

1. Elija **Update**. Aparece un cuadro de diálogo de edición para la asociación del repositorio de datos.

1. Para **Import settings - optional**, puede actualizar su **Import Policy**. Para obtener más información sobre las políticas de importación, consulte [Importe automáticamente actualizaciones desde un bucket de S3](autoimport-data-repo-dra.md).

1. Para **Export settings - optional**, puede actualizar su política de exportación. Para más información sobre políticas de exportación, consulte [Exporte automáticamente las actualizaciones a su bucket de S3](autoexport-data-repo-dra.md).

1. Elija **Actualizar**.

## Para actualizar la configuración de una asociación de repositorios de datos existente (CLI)
<a name="update-dra-cli"></a>
+ Para actualizar una asociación de repositorios de datos, utilice el comando Amazon FSx CLI`update-data-repository-association`, tal y como se muestra a continuación.

  ```
  $ aws fsx update-data-repository-association \
        --association-id 'dra-872abab4b4503bfc2' \
        --s3 "AutoImportPolicy={Events=[NEW,CHANGED,DELETED]},AutoExportPolicy={Events=[NEW,CHANGED,DELETED]}"
  ```

Tras actualizar correctamente las políticas de importación y exportación de la asociación de repositorios de datos, Amazon FSx devuelve la descripción de la asociación de repositorios de datos actualizada en formato JSON.

# Eliminación de una asociación a un bucket de S3
<a name="delete-linked-dra"></a>

Los siguientes procedimientos le guiarán por el proceso de eliminar una asociación de repositorio de datos de un sistema de FSx archivos de Amazon existente a un bucket de S3 existente, mediante el Consola de administración de AWS comando and AWS Command Line Interface (AWS CLI). Al eliminar la asociación de repositorios de datos, se desvincula el sistema de archivos del bucket de S3.

## Para eliminar un vínculo de un sistema de archivos a un bucket de S3 (consola)
<a name="delete-dra-console-dra"></a>

1. Abre la FSx consola de Amazon en [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. En el panel, elija **File systems** y, a continuación, seleccione el sistema de archivos del que desee eliminar una asociación de repositorios de datos. 

1. Elija la pestaña **Data repository**.

1. En el panel **Data repository associations**, elija la asociación de repositorios de datos que desea eliminar.

1. En **Actions**, elija **Delete association**.

1. En el cuadro de diálogo **Eliminar**, puede elegir **Eliminar datos en el sistema de archivos** para eliminar físicamente los datos del sistema de archivos que corresponden a la asociación del repositorio de datos.

   Elija esta opción si planea crear una nueva asociación de repositorios de datos utilizando la misma ruta del sistema de archivos pero apuntando a un prefijo de bucket de S3 diferente, o si ya no necesita los datos de su sistema de archivos.

1. Elija **Delete** para eliminar la asociación de repositorios de datos del sistema de archivos.

## Para eliminar un vínculo de un sistema de archivos a un bucket de S3 (AWS CLI)
<a name="delete-dra-cli-dra"></a>

En el siguiente ejemplo, se elimina una asociación de repositorios de datos que vincula un sistema de FSx archivos de Amazon a un bucket de S3. El parámetro `--association-id` especifica el ID de la asociación de repositorios de datos que se va a eliminar.
+ Para eliminar una asociación de repositorios de datos, utilice el comando Amazon FSx CLI`delete-data-repository-association`, tal y como se muestra a continuación.

  ```
  $ aws fsx delete-data-repository-association \
        --association-id dra-872abab4b4503bfc \
        --delete-data-in-file-system false
  ```

Tras eliminar correctamente la asociación de repositorios de datos, Amazon FSx devuelve su descripción como JSON.

**Recreando DRAs con la misma ruta del sistema de archivos**  
No se recomienda eliminar ni volver a crear las asociaciones de repositorios de datos que utilizan la misma ruta del sistema de archivos. Si elimina un DRA y, posteriormente, crea uno nuevo utilizando la misma ruta del sistema de archivos, es posible que algunos archivos conserven el estado HSM del DRA eliminado anteriormente.  
Si necesita exportar archivos de una DRA recreada que estaban gestionados por una DRA eliminada anteriormente, debe marcarlos como archivos sin procesar mediante el siguiente comando y, a continuación, ejecutar una tarea de exportación de datos en el repositorio de datos:  

```
sudo lfs hsm_set --dirty file_path
```

# Visualización de los detalles de asociación del repositorio de datos
<a name="view-dra-details"></a>

Puede ver los detalles de una asociación de repositorios de datos mediante la consola FSx de Lustre AWS CLI, la y la API. Los detalles incluyen el ID de asociación de la DRA, la ruta del sistema de archivos, la ruta del repositorio de datos, la configuración de importación, la configuración de exportación, el estado y el ID del sistema de archivos asociado.

## Cómo ver los detalles de la DRA (consola)
<a name="view-dra-details-console"></a>

1. Abre la FSx consola de Amazon en [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. En el panel, elija **File systems** y, a continuación, seleccione el sistema de archivos del que desee ver los detalles de una asociación de repositorios de datos.

1. Elija la pestaña **Data repository**.

1. En el panel **Data repository associations**, elija la asociación de repositorios de datos que desea ver. Aparece la página de **Summary**, que muestra los detalles de la DRA.  
![\[Página de FSx detalles de Amazon de una asociación de repositorios de datos.\]](http://docs.aws.amazon.com/es_es/fsx/latest/LustreGuide/images/dra-describe.png)

## Cómo ver los detalles de la DRA (CLI)
<a name="view-dra-details-cli"></a>
+ Para ver los detalles de una asociación de repositorios de datos específica, utilice el comando Amazon FSx CLI`describe-data-repository-associations`, tal y como se muestra a continuación.

  ```
  $ aws fsx describe-data-repository-associations \
        --association-ids dra-872abab4b4503bfc2
  ```

  Amazon FSx devuelve la descripción de la asociación de repositorios de datos en formato JSON.

# Estado del ciclo de vida de la asociación de repositorios
<a name="dra-lifecycles"></a>

El estado del ciclo de vida de la asociación del repositorio de datos proporciona información de estado sobre una DRA específica. Una asociación de repositorios de datos puede tener los siguientes **Lifecycle states**:
+ **Creación**: Amazon FSx está creando la asociación de repositorios de datos entre el sistema de archivos y el repositorio de datos vinculado. El repositorio de datos no está disponible.
+ **Available**: la asociación de repositorios de datos está disponible para su uso.
+ **Updating**: la asociación de repositorios de datos está siendo objeto de una actualización iniciada por el cliente que podría afectar a su disponibilidad.
+ **Deleting**: se está procediendo a una eliminación de la asociación de repositorios de datos iniciada por el cliente.
+ Configuración **incorrecta**: Amazon FSx no puede importar automáticamente las actualizaciones del bucket de S3 ni exportarlas automáticamente al bucket de S3 hasta que se corrija la configuración de asociación del repositorio de datos.

  Un DRA puede **configurarse incorrectamente** debido a lo siguiente:
  + Amazon FSx carece de los permisos de IAM necesarios para acceder al bucket de S3.
  + La configuración de notificación de FSx eventos del bucket de S3 se elimina o modifica.
  + El bucket de S3 tiene notificaciones de eventos existentes que se superponen con los tipos de FSx eventos.

  Tras resolver el problema subyacente, el DRA vuelve automáticamente al estado **Disponible** en 15 minutos. También puede activar el cambio de estado inmediatamente mediante el AWS CLI comando [update-data-repository-association](https://docs.aws.amazon.com/cli/latest/reference/fsx/update-data-repository-association.html). 
+ **Failed**: la asociación del repositorio de datos está en un estado terminal que no se puede recuperar (por ejemplo, porque se elimina la ruta del sistema de archivos o se elimina el bucket de S3).

 Puede ver el estado del ciclo de vida de una asociación de repositorios de datos mediante la FSx consola de Amazon AWS Command Line Interface, la y la FSx API de Amazon. Para obtener más información, consulte [Visualización de los detalles de asociación del repositorio de datos](view-dra-details.md).

# Trabajo con buckets de Amazon S3 cifrados del lado del servidor
<a name="s3-server-side-encryption-support"></a>

 FSx for Lustre admite buckets de Amazon S3 que utilizan cifrado del lado del servidor con claves administradas por S3 (SSE-S3) y almacenadas en (SSE-KMS). AWS KMS keys AWS Key Management Service 

Si quieres que Amazon cifre los datos FSx al escribir en tu bucket de S3, debes configurar el cifrado predeterminado de tu bucket de S3 en SSE-S3 o SSE-KMS. Para obtener más información, consulte [Configuración del cifrado predeterminado](https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-bucket-encryption.html) en la *Guía del usuario de Amazon S3*. Al escribir archivos en el depósito de S3, Amazon FSx sigue la política de cifrado predeterminada del depósito de S3.

De forma predeterminada, Amazon FSx admite buckets S3 cifrados mediante SSE-S3. Si desea vincular su sistema de FSx archivos de Amazon a un bucket de S3 cifrado mediante el cifrado SSE-KMS, debe añadir una declaración a su política de claves gestionadas por el cliente que permita FSx a Amazon cifrar y descifrar los objetos de su bucket de S3 con su clave de KMS.

La siguiente declaración permite a un sistema de FSx archivos de Amazon específico cifrar y descifrar objetos para un bucket de S3 específico,. *bucket\$1name*

```
{
    "Sid": "Allow access through S3 for the FSx SLR to use the KMS key on the objects in the given S3 bucket",
    "Effect": "Allow",
    "Principal": {
        "AWS": "arn:aws:iam::aws_account_id:role/aws-service-role/s3.data-source.lustre.fsx.amazonaws.com/AWSServiceRoleForFSxS3Access_fsx_file_system_id"
    },
    "Action": [
        "kms:Encrypt",
        "kms:Decrypt",
        "kms:ReEncrypt*",
        "kms:GenerateDataKey*",
        "kms:DescribeKey"
    ],
    "Resource": "*",
    "Condition": {
        "StringEquals": {
            "kms:CallerAccount": "aws_account_id",
            "kms:ViaService": "s3.bucket-region.amazonaws.com"
        },
        "StringLike": {
            "kms:EncryptionContext:aws:s3:arn": "arn:aws:s3:::bucket_name/*"
        }
    }
}
```

**nota**  
 Si utiliza un KMS con una CMK para cifrar su bucket de S3 con las claves de bucket de S3 habilitadas, establezca el `EncryptionContext` en la ARN del bucket, no en el ARN del objeto, como en este ejemplo:  

```
"StringLike": {
    "kms:EncryptionContext:aws:s3:arn": "arn:aws:s3:::bucket_name"
}
```

La siguiente declaración de política permite que todos los sistemas de FSx archivos de Amazon de tu cuenta se vinculen a un bucket de S3 específico.

```
{
      "Sid": "Allow access through S3 for the FSx SLR to use the KMS key on the objects in the given S3 bucket",
      "Effect": "Allow",
      "Principal": {
        "AWS": "*"
      },
      "Action": [
        "kms:Encrypt",
        "kms:Decrypt",
        "kms:ReEncrypt*",
        "kms:GenerateDataKey*",
        "kms:DescribeKey"
      ],
      "Resource": "*",
      "Condition": {
        "StringEquals": {
          "kms:ViaService": "s3.bucket-region.amazonaws.com",
          "kms:CallerAccount": "aws_account_id"
        },
        "StringLike": {
            "kms:EncryptionContext:aws:s3:arn": "arn:aws:s3:::bucket_name/*"
        },
        "ArnLike": {
          "aws:PrincipalArn": "arn:aws_partition:iam::aws_account_id:role/aws-service-role/s3.data-source.lustre.fsx.amazonaws.com/AWSServiceRoleForFSxS3Access_fs-*"
        }
      }
}
```

## Acceder a buckets de Amazon S3 cifrados del lado del servidor en una VPC diferente Cuenta de AWS o desde una VPC compartida
<a name="s3-server-side-cross-account-support"></a>

Tras crear un sistema de archivos FSx para Lustre vinculado a un depósito de Amazon S3 cifrado, debe conceder al rol `AWSServiceRoleForFSxS3Access_fs-01234567890` vinculado al servicio (SLR) acceso a la clave de KMS utilizada para cifrar el depósito de S3 antes de leer o escribir datos del depósito de S3 vinculado. Puede utilizar un rol de IAM que ya tenga permisos para acceder a la clave de KMS.

**nota**  
Esta función de IAM debe estar en la cuenta en la que se creó el sistema de archivos FSx for Lustre (que es la misma cuenta que la SLR de S3), no en la cuenta a la que pertenece la clave KMS o el depósito de S3.

Utilice la función de IAM para llamar a la siguiente AWS KMS API a fin de crear una concesión para la SLR de S3, de forma que la SLR obtenga permiso para acceder a los objetos de S3. Para encontrar la ARN asociado a su SLR, busque sus roles de IAM utilizando el ID del sistema de archivos como cadena de búsqueda.

```
$ aws kms create-grant --region fs_account_region \
      --key-id arn:aws:kms:s3_bucket_account_region:s3_bucket_account:key/key_id \
      --grantee-principal arn:aws:iam::fs_account_id:role/aws-service-role/s3.data-source.lustre.fsx.amazonaws.com/AWSServiceRoleForFSxS3Access_file-system-id \
      --operations "Decrypt" "Encrypt" "GenerateDataKey" "GenerateDataKeyWithoutPlaintext" "CreateGrant" "DescribeKey" "ReEncryptFrom" "ReEncryptTo"
```

Para obtener más información acerca de los roles vinculados a servicios, consulte [Uso de roles vinculados a servicios para Amazon FSx](using-service-linked-roles.md).

# Importación de cambios desde su repositorio de datos
<a name="importing-files-dra"></a>

Puedes importar los cambios en los datos y metadatos POSIX desde un repositorio de datos vinculado a tu sistema de FSx archivos de Amazon. Los metadatos POSIX asociados incluyen la propiedad, los permisos y las marcas de tiempo.

Para importar cambios al sistema de archivos, utilice alguno de los métodos siguientes:
+ Configure el sistema de archivos para importar automáticamente los archivos nuevos, modificados o eliminados del repositorio de datos vinculado. Para obtener más información, consulte [Importe automáticamente actualizaciones desde un bucket de S3](autoimport-data-repo-dra.md).
+ Seleccione la opción de importar metadatos al crear una asociación de repositorios de datos. Esto iniciará una tarea de importación del repositorio de datos inmediatamente después de crear la asociación de repositorios de datos.
+ Utilice una tarea de repositorio de datos de importación bajo demanda. Para obtener más información, consulte [Uso de las tareas del repositorio de datos para importar los cambios](import-data-repo-task-dra.md).

Las tareas automáticas de importación e importación del repositorio de datos se pueden ejecutar al mismo tiempo.

Al activar la importación automática para una asociación de repositorio de datos, el sistema de archivos actualiza automáticamente los metadatos de archivo a medida que se crean, modifican o eliminan objetos en S3. Si selecciona la opción de importar metadatos al crear una asociación de repositorios de datos, el sistema de archivos importa los metadatos de todos los objetos del repositorio de datos. Al importar mediante una tarea de importación de un repositorio de datos, el sistema de archivos solo importa los metadatos de los objetos que se crearon o modificaron desde la última importación.

FSx for Lustre copia automáticamente el contenido de un archivo de su repositorio de datos y lo carga en el sistema de archivos cuando su aplicación accede por primera vez al archivo del sistema de archivos. For Lustre gestiona este movimiento de datos y es transparente FSx para sus aplicaciones. Las lecturas posteriores de estos archivos se realizan directamente desde el sistema de archivos con latencias inferiores a un milisegundo.

También puede precargar todo el sistema de archivos o un directorio dentro de su sistema de archivos. Para obtener más información, consulte [Precargar los archivos en el sistema de archivos](preload-file-contents-hsm-dra.md). Si solicita la precarga de varios archivos simultáneamente, Lustre carga FSx los archivos del repositorio de datos de Amazon S3 en paralelo.

FSx for Lustre solo importa objetos de S3 que tengan claves de objeto compatibles con POSIX. Tanto las tareas de importación automática como las de importación del repositorio de datos importan metadatos POSIX. Para obtener más información, consulte [Soporte de metadatos POSIX para repositorios de datos](posix-metadata-support.md).

**nota**  
FSx for Lustre no admite la importación de metadatos para enlaces simbólicos (enlaces simbólicos) de las clases de almacenamiento S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive. Los metadatos de los objetos S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive que no sean enlaces simbólicos se pueden importar (es decir, se crea un inodo en el FSx sistema de archivos de Lustre con los metadatos correctos). Sin embargo, para leer estos datos del sistema de archivos, primero debe restaurar el objeto S3 Glacier Flexible Retrieval o S3 Glacier Flexible Archive. No se admite la importación de datos de archivos directamente desde objetos de Amazon S3 de la clase de almacenamiento S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive a FSx for Lustre.

# Importe automáticamente actualizaciones desde un bucket de S3
<a name="autoimport-data-repo-dra"></a>

Puede configurar Lustre FSx para que actualice automáticamente los metadatos en el sistema de archivos a medida que se agreguen, modifiquen o eliminen objetos de su bucket de S3. FSx for Lustre crea, actualiza o elimina la lista de archivos y directorios correspondiente al cambio en S3. Si el objeto modificado del bucket de S3 ya no contiene sus metadatos, FSx for Lustre mantiene los valores de metadatos actuales del archivo, incluidos los permisos actuales.

**nota**  
El sistema FSx de archivos de Lustre y el depósito de S3 vinculado deben estar ubicados en el mismo lugar Región de AWS para que las actualizaciones se importen automáticamente.

Puede configurar la importación automática al crear la asociación de repositorios de datos, y puede actualizar la configuración de importación automática en cualquier momento mediante la consola FSx de administración AWS CLI, la API o la AWS API.

**nota**  
Puede configurar tanto la importación automática como la exportación automática en la misma asociación de repositorios de datos. En este tema se describe únicamente la característica de importación automática.

**importante**  
Si se modifica un objeto en S3 con todas las políticas de importación automática activadas y la exportación automática desactivada, el contenido de ese objeto siempre se importa al archivo correspondiente del sistema de archivos. Si ya existe un archivo en la ubicación de destino, se sobrescribe.
Si se modifica un archivo tanto en el sistema de archivos como en S3, con todas las políticas de importación y exportación automáticas activadas, el otro podría sobrescribir el archivo del sistema de archivos o el objeto de S3. No se garantiza que una edición posterior en una ubicación sobrescriba una edición anterior en otra ubicación. Si modifica el mismo archivo tanto en el sistema de archivos como en el bucket de S3, debe garantizar la coordinación a nivel de la aplicación para evitar este tipo de conflictos. FSx for Lustre no evita escrituras conflictivas en varias ubicaciones.

La política de importación especifica cómo desea FSx que Lustre actualice su sistema de archivos a medida que cambie el contenido del bucket de S3 vinculado. Una asociación de repositorios de datos puede tener una de las siguientes políticas de importación:
+ **Nuevo**: FSx para Lustre, solo actualiza automáticamente los metadatos de los archivos y directorios cuando se añaden nuevos objetos al repositorio de datos de S3 vinculado.
+ **Modificado**: FSx ya que Lustre actualiza automáticamente los metadatos de los archivos y directorios solo cuando se cambia un objeto existente en el repositorio de datos.
+ **Eliminado**: FSx ya que Lustre actualiza automáticamente los metadatos de los archivos y directorios solo cuando se elimina un objeto del repositorio de datos.
+ **Cualquier combinación de nuevo, modificado y eliminado: FSx para Lustre,** se actualizan automáticamente los metadatos de los archivos y directorios cuando se produce alguna de las acciones especificadas en el repositorio de datos de S3. Por ejemplo, puede especificar que el sistema de archivos se actualice cuando se añada un objeto (**New**) o se elimine (**Deleted**) del repositorio de S3, pero que no se actualice cuando se cambie un objeto.
+ **Sin política configurada**, FSx ya que Lustre no actualiza los metadatos de los archivos y directorios del sistema de archivos cuando se añaden, modifican o eliminan objetos del repositorio de datos de S3. Si no configura una política de importación, la importación automática se deshabilita para la asociación de repositorios de datos. Aún puede importar manualmente los cambios en los metadatos mediante una tarea de importación del repositorio de datos, tal y como se describe en [Uso de las tareas del repositorio de datos para importar los cambios](import-data-repo-task-dra.md).

**importante**  
La importación automática no sincronizará las siguientes acciones de S3 con el sistema de archivos vinculado FSx a Lustre:  
Eliminar un objeto mediante los vencimientos del ciclo de vida de los objetos de S3
Eliminación permanente de la versión actual del objeto en un bucket con control de versiones habilitado
Anular la eliminación de un objeto en un bucket con control de versiones habilitado

Para la mayoría de los casos de uso, se recomienda configurar una política de importación de **New**, **Changed** y **Deleted**. Esta política garantiza que todas las actualizaciones realizadas en el repositorio de datos de S3 vinculado se importen automáticamente a su sistema de archivos.

Al establecer una política de importación para actualizar los metadatos de los archivos y directorios del sistema de archivos en función de los cambios en el repositorio de datos de S3 vinculado, FSx Lustre crea una configuración de notificación de eventos en el bucket de S3 vinculado. La configuración de notificación de eventos se denomina `FSx`. No modifique o elimine la configuración de notificación de eventos `FSx` en el bucket S3; si lo hace, impedirá la importación automática de los metadatos actualizados de los archivos y directorios a su sistema de archivos.

Cuando FSx Lustre actualiza una lista de archivos que ha cambiado en el repositorio de datos de S3 vinculado, sobrescribe el archivo local con la versión actualizada, incluso si el archivo tiene la escritura bloqueada.

FSx for Lustre hace todo lo posible por actualizar su sistema de archivos. FSx for Lustre no puede actualizar el sistema de archivos en las siguientes situaciones:
+ Si FSx for Lustre no tiene permiso para abrir el objeto S3 nuevo o modificado. En este caso, FSx for Lustre omite el objeto y continúa. El estado del ciclo de vida de la DRA no se ve afectado.
+ Si FSx for Lustre no tiene permisos a nivel de bucket, como for. `GetBucketAcl` Esto hará que el estado del ciclo de vida del repositorio de datos se convierta en **Misconfigured**. Para obtener más información, consulte [Estado del ciclo de vida de la asociación de repositorios](dra-lifecycles.md).
+ Si se elimina o modifica la configuración de notificación de eventos `FSx` en el bucket S3 vinculado. Esto hará que el estado del ciclo de vida del repositorio de datos se convierta en **Misconfigured**. Para obtener más información, consulte [Estado del ciclo de vida de la asociación de repositorios](dra-lifecycles.md).

Le recomendamos que [active el registro en](cw-event-logging.md#manage-logging) CloudWatch los registros para registrar la información sobre cualquier archivo o directorio que no se pueda importar automáticamente. Las advertencias y los errores del registro contienen información sobre el motivo del error. Para obtener más información, consulte [Registros de eventos del repositorio de datos](data-repo-event-logs.md).

## Requisitos previos
<a name="auto-import-prereqs-dra"></a>

Se requieren las siguientes condiciones FSx para que Lustre importe automáticamente los archivos nuevos, modificados o eliminados del bucket de S3 vinculado:
+ El sistema de archivos y su bucket de S3 vinculado se encuentran en la misma Región de AWS.
+ El bucket de S3 no tiene el **Lifecycle state** mal configurado. Para obtener más información, consulte [Estado del ciclo de vida de la asociación de repositorios](dra-lifecycles.md).
+ Su cuenta tiene los permisos necesarios para configurar y recibir notificaciones de eventos en el bucket de S3 vinculado.

## Tipos de cambios de archivos compatibles
<a name="file-change-support-dra"></a>

FSx for Lustre admite la importación de los siguientes cambios en los archivos y directorios que se producen en el bucket de S3 vinculado:
+ Cambios en el contenido de los archivos.
+ Cambios en los metadatos de los archivos o directorios.
+ Cambios en el destino o los metadatos del enlace simbólico.
+ Eliminaciones de archivos y directorios. Si elimina un objeto del bucket de S3 vinculado que corresponde a un directorio del sistema de archivos (es decir, un objeto con un nombre clave que termina con una barra), FSx Lustre eliminará el directorio correspondiente del sistema de archivos solo si está vacío.

## Actualización de la configuración de importación
<a name="manage-autoimport-dra"></a>

Puede establecer la configuración de importación de un sistema de archivos para un bucket de S3 vinculado al crear la asociación de repositorios de datos. Para obtener más información, consulte [Crear un enlace a un bucket de S3](create-linked-dra.md).

También puede actualizar la configuración de importación en cualquier momento, incluida la política de importación. Para obtener más información, consulte [Actualización de la configuración de asociación de repositorios de datos](update-dra-settings.md).

## Monitorización de la importación automática
<a name="monitoring-autoimport"></a>

Si la velocidad de cambio de su bucket de S3 supera la velocidad a la que la importación automática puede procesar estos cambios, los cambios de metadatos correspondientes que se importen a su sistema de archivos de FSx For Lustre se retrasarán. Si esto ocurre, puede utilizar la métrica `AgeOfOldestQueuedMessage` para monitorizar la antigüedad del cambio más antiguo que espera ser procesado mediante la importación automática. Para obtener más información sobre esta métrica, consulte [Métricas del repositorio de S3 de FSx para Lustre](fs-metrics.md#auto-import-export-metrics).

Si el retraso en la importación de los cambios de metadatos supera los 14 días (medido con la métrica `AgeOfOldestQueuedMessage`), los cambios del bucket de S3 que no se hayan procesado mediante la importación automática no se importarán a su sistema de archivos. Además, el ciclo de vida de la asociación del repositorio de datos se marca como **MISCONFIGURED** y la importación automática se detiene. Si tiene habilitada la exportación automática, la exportación automática seguirá supervisando los cambios en su FSx sistema de archivos de Lustre. Sin embargo, los cambios adicionales no se sincronizan desde su sistema de archivos FSx de Lustre con S3.

Para que la asociación de repositorios de datos pase del estado de ciclo de vida **MISCONFIGURED** al estado de ciclo de vida **AVAILABLE**, debe actualizar la asociación de repositorios de datos. Puede actualizar la asociación del repositorio de datos mediante el comando [update-data-repository-association](https://docs.aws.amazon.com/cli/latest/reference/fsx/update-data-repository-association.html)CLI (o la operación de [UpdateDataRepositoryAssociation](https://docs.aws.amazon.com/fsx/latest/APIReference/API_UpdateDataRepositoryAssociation.html)API correspondiente). El único parámetro de solicitud que necesita es el `AssociationID` de la asociación de repositorios de datos que desea actualizar.

Cuando el estado del ciclo de vida de la asociación de repositorios de datos cambie a **AVAILABLE**, se reiniciará la importación automática (y la exportación automática si está habilitada). Al reiniciarse, la exportación automática reanuda la sincronización de los cambios del sistema de archivos a S3. Para sincronizar los metadatos de los objetos nuevos y modificados de S3 con su sistema de archivos de FSx For Lustre que no se hayan importado o que procedan de cuando la asociación de repositorios de datos estaba mal configurada, ejecute una tarea de [importación del repositorio de datos](import-data-repo-task-dra.md). Las tareas de importación del repositorio de datos no sincronizan las eliminaciones del depósito de S3 con el sistema de archivos de For Lustre FSx . Si desea sincronizar completamente S3 con su sistema de archivos (incluidas las eliminaciones), debe volver a crear el sistema de archivos.

Para garantizar que los retrasos en la importación de los cambios en los metadatos no superen los 14 días, le recomendamos que configure una alarma en la métrica `AgeOfOldestQueuedMessage` y reduzca la actividad en su bucket de S3 si la métrica `AgeOfOldestQueuedMessage` supera el umbral de alarma. En el caso de un FSx sistema de archivos de Lustre conectado a un depósito de S3 con una sola partición que envíe de forma continua el máximo número de cambios posibles desde S3, y que solo se ejecute la importación automática en el sistema de archivos de FSx For Lustre, la importación automática puede procesar una acumulación de 7 horas de cambios de S3 en un plazo de 14 días.

Además, con una sola acción de S3, puede generar más cambios de los que la importación automática procesará en 14 días. Algunos ejemplos de este tipo de acciones son, entre otros, las subidas de AWS Snowball a S3 y las eliminaciones a gran escala. Si realiza un cambio a gran escala en su depósito de S3 y desea que se sincronice con su sistema de archivos de FSx For Lustre, para evitar que los cambios de importación automática superen los 14 días, debe eliminar su sistema de archivos y volver a crearlo una vez que se haya completado el cambio de S3.

Si su `AgeOfOldestQueuedMessage` métrica está aumentando, revise su bucket `GetRequests` de S3 y sus `DeleteRequests` métricas para `PostRequests` ver si hay cambios en la actividad que podrían provocar un aumento en el and/or número de cambios que se envían a la importación automática. `PutRequests` Para obtener información sobre las métricas de S3 disponibles, consulte [Monitorización de Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/monitoring-overview.html) en la *Guía del usuario de Amazon S3*.

Para ver una lista de todas las métricas FSx de Lustre disponibles, consulte[Supervisión con Amazon CloudWatch](monitoring-cloudwatch.md).

# Uso de las tareas del repositorio de datos para importar los cambios
<a name="import-data-repo-task-dra"></a>

La tarea de importación del repositorio de datos importa los metadatos de los objetos nuevos o modificados en el repositorio de datos de S3, lo que crea una nueva lista de archivos o directorios para cualquier objeto nuevo del repositorio de datos de S3. Para cualquier objeto que se haya modificado en el repositorio de datos, la lista de archivos o directorios correspondiente se actualiza con los nuevos metadatos. No se realiza ninguna acción con los objetos que se han eliminado del repositorio de datos.

Utilice los siguientes procedimientos para importar los cambios en los metadatos mediante la FSx consola y la CLI de Amazon. Tenga en cuenta que puede usar una tarea de repositorio de datos para varias DRAs.

## Para importar cambios en los metadatos (consola)
<a name="create-import-data-repo-task-dra-console"></a>

1. Abre la FSx consola de Amazon en [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. En el panel de navegación, elija **Sistemas de archivos** y, a continuación, elija el sistema de archivos de Lustre.

1. Elija la pestaña **Data repository**.

1. En el panel **Data repository associations**, elija las asociaciones de repositorios de datos para las que desea crear la tarea de importación.

1. En el menú **Actions**, elija **Import task**. Esta opción no está disponible si el sistema de archivos no está vinculado a un repositorio de datos. Aparece la página de **Create import data repository task**.

1. (Opcional) Especifique hasta 32 directorios o archivos para importar desde los buckets de S3 vinculados proporcionando las rutas a dichos directorios o archivos en **Data repository paths to import**.
**nota**  
Si la ruta que proporciona no es válida, la tarea devuelve un error.

1. (Opcional) Elija **Enable** en el **Completion report** para generar un informe de finalización de la tarea una vez finalizada la tarea. Un *task completion report* proporciona detalles sobre los archivos procesados por la tarea que cumplen con el alcance indicado en el **Report scope**. Para especificar la ubicación en la FSx que Amazon entregará el informe, introduce una ruta relativa en un repositorio de datos de S3 vinculado para la **ruta del informe**.

1. Seleccione **Crear**. 

   Una notificación en la parte superior de la página de **File systems** muestra la tarea que acaba de crear en curso. 

Para ver el estado y los detalles de la tarea, desplácese hacia abajo hasta el panel **Data Repository Tasks** de la pestaña **Data Repository** del sistema de archivos. El orden predeterminado muestra la tarea más reciente en la parte superior de la lista.

Para ver un resumen de la tarea en esta página, elija el **Task ID** de la tarea que acaba de crear. Aparece la página de **Summary** de la tarea. 

## Para importar cambios en los metadatos (CLI)
<a name="create-import-data-repo-task-dra-cli"></a>
+ Utilice el comando [https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html)CLI para importar los cambios de metadatos en su sistema de archivos de FSx for Lustre. La operación de API correspondiente es [https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html).

  ```
  $ aws fsx create-data-repository-task \
      --file-system-id fs-0123456789abcdef0 \
      --type IMPORT_METADATA_FROM_REPOSITORY \
      --paths s3://bucketname1/dir1/path1 \
      --report Enabled=true,Path=s3://bucketname1/dir1/path1,Format=REPORT_CSV_20191124,Scope=FAILED_FILES_ONLY
  ```

  Tras crear correctamente la tarea de repositorio de datos, Amazon FSx devuelve la descripción de la tarea en formato JSON.

Después de crear la tarea para importar metadatos del repositorio de datos vinculado, puede comprobar el estado de la tarea de importación del repositorio de datos. Para obtener más información sobre cómo ver las tareas del repositorio de datos, consulte [Acceder a las tareas del repositorio de datos](view-data-repo-tasks.md).

# Precargar los archivos en el sistema de archivos
<a name="preload-file-contents-hsm-dra"></a>

Si lo desea, puede precargar el contenido, archivos individuales o directorios en su sistema de archivos.

## Importación de archivos mediante comandos de HSM
<a name="preload-hsm"></a>

Amazon FSx copia los datos del repositorio de datos de Amazon S3 cuando se accede a un archivo por primera vez. Gracias a este enfoque, la lectura o escritura inicial en un archivo tiene una pequeña latencia. Si su aplicación es sensible a esta latencia y sabe a qué archivos o directorios debe acceder, si lo desea, puede precargar el contenido de archivos o directorios individuales. Para ello, use el siguiente comando `hsm_restore`, como se indica a continuación.

Puede utilizar el comando `hsm_action` (emitido con la utilidad de usuario `lfs`) para comprobar que el contenido del archivo ha terminado de cargarse en el sistema de archivos. Un valor devuelto de `NOOP` indica que el archivo se ha cargado correctamente. Ejecute los siguientes comandos desde una instancia de procesamiento con el sistema de archivos montado. *path/to/file*Sustitúyalos por la ruta del archivo que está precargando en su sistema de archivos.

```
sudo lfs hsm_restore path/to/file
sudo lfs hsm_action path/to/file
```

Puede precargar todo el sistema de archivos o todo un directorio del sistema de archivos mediante los siguientes comandos. (El ampersand final hace que un comando se ejecute como proceso en segundo plano). Si solicita la precarga de varios archivos simultáneamente, Amazon FSx carga los archivos del repositorio de datos de Amazon S3 en paralelo. Si un archivo ya se ha cargado en el sistema de archivos, el comando `hsm_restore` no lo vuelve a cargar.

```
nohup find local/directory -type f -print0 | xargs -0 -n 1 -P 8 sudo lfs hsm_restore &
```

**nota**  
Si el bucket de S3 vinculado es más grande que el sistema de archivos, debería poder importar todos los metadatos de los archivos a su sistema de archivos. Sin embargo, solo puede cargar la cantidad de datos de archivos reales que quepa en el espacio de almacenamiento restante del sistema de archivos. Recibirá un mensaje de error si intenta acceder a los datos de los archivos cuando ya no quede espacio de almacenamiento en el sistema de archivos. Si esto ocurre, puede aumentar la cantidad de capacidad de almacenamiento según sea necesario. Para obtener más información, consulte [Administración de la capacidad de almacenamiento](managing-storage-capacity.md).

## Paso de validación
<a name="preload-validation"></a>

Puede ejecutar el script de bash que se indica a continuación para ayudarle a descubrir cuántos archivos u objetos están archivados (liberados).

Para mejorar el rendimiento del script, especialmente en los sistemas de archivos con un gran número de archivos, los subprocesos de la CPU se determinan automáticamente en función del archivo `/proc/cpuproc`. Es decir, obtendrá un rendimiento más rápido con una instancia de Amazon EC2 con un mayor número de vCPU.

1. Configure el script de bash.

   ```
   #!/bin/bash
   
   # Check if a directory argument is provided
   if [ $# -ne 1 ]; then
       echo "Usage: $0 /path/to/lustre/mount"
       exit 1
   fi
   
   # Set the root directory from the argument
   ROOT_DIR="$1"
   
   # Check if the provided directory exists
   if [ ! -d "$ROOT_DIR" ]; then
       echo "Error: Directory $ROOT_DIR does not exist."
       exit 1
   fi
   
   # Automatically detect number of CPUs and set threads
   if command -v nproc &> /dev/null; then
       THREADS=$(nproc)
   elif [ -f /proc/cpuinfo ]; then
       THREADS=$(grep -c ^processor /proc/cpuinfo)
   else
       echo "Unable to determine number of CPUs. Defaulting to 1 thread."
       THREADS=1
   fi
   
   # Output file
   OUTPUT_FILE="released_objects_$(date +%Y%m%d_%H%M%S).txt"
   
   echo "Searching in $ROOT_DIR for all released objects using $THREADS threads"
   echo "This may take a while depending on the size of the filesystem..."
   
   # Find all released files in the specified lustre directory using parallel
   # If you  get false positives for file names/paths that include the word 'released',
   # you can grep 'released exists archived' instead of just 'released'
   time sudo lfs find "$ROOT_DIR" -type f | \
   parallel --will-cite -j "$THREADS" -n 1000 "sudo lfs hsm_state {} | grep released" > "$OUTPUT_FILE"
   
   echo "Search complete. Released objects are listed in $OUTPUT_FILE"
   echo "Total number of released objects: $(wc -l <"$OUTPUT_FILE")"
   ```

1. Haga que el script sea ejecutable:

   ```
   $ chmod +x find_lustre_released_files.sh
   ```

1. Ejecute el script, como en el siguiente ejemplo:

   ```
   $ ./find_lustre_released_files.sh /fsxl/sample
   Searching in /fsxl/sample for all released objects using 16 threads
   This may take a while depending on the size of the filesystem...
   real 0m9.906s
   user 0m1.502s
   sys 0m5.653s
   Search complete. Released objects are listed in released_objects_20241121_184537.txt
   Total number of released objects: 30000
   ```

Si hay objetos liberados, realice una restauración masiva en los directorios deseados para llevar los archivos a FSx Lustre desde S3, como en el siguiente ejemplo:

```
$ DIR=/path/to/lustre/mount
$ nohup find $DIR -type f -print0 | xargs -0 -n 1 -P 8 sudo lfs hsm_restore &
```

Tenga en cuenta que `hsm_restore` llevará un tiempo si hay millones de archivos.

# Exportación de los cambios al repositorio de datos
<a name="export-changed-data-meta-dra"></a>

Puede exportar los cambios en los datos y los cambios en los metadatos POSIX desde su sistema de archivos de FSx for Lustre a un repositorio de datos vinculado. Los metadatos POSIX asociados incluyen la propiedad, los permisos y las marcas de tiempo.

Para exportar los cambios del sistema de archivos, utilice uno de los siguientes métodos.
+ Configure el sistema de archivos para que exporte automáticamente los archivos nuevos, modificados o eliminados al repositorio de datos vinculado. Para obtener más información, consulte [Exporte automáticamente las actualizaciones a su bucket de S3](autoexport-data-repo-dra.md).
+ Utilice una tarea de repositorio de datos de exportación bajo demanda. Para obtener más información, consulte [Uso de las tareas del repositorio de datos para exportar los cambios](export-data-repo-task-dra.md)

Las tareas automáticas de exportación y exportación del repositorio de datos no se pueden ejecutar al mismo tiempo.

**importante**  
La exportación automática no sincronizará las siguientes operaciones de metadatos del sistema de archivos con S3 si los objetos correspondientes están almacenados en S3 Glacier Flexible Retrieval:   
chmod
chown
rename

Al activar la exportación automática para una asociación de repositorios de datos, el sistema de archivos exporta automáticamente los cambios en los datos y los metadatos de los archivos a medida que se crean, modifican o eliminan los archivos. Al exportar archivos o directorios mediante una tarea de exportación de repositorios de datos, el sistema de archivos solo exporta los archivos de datos y los metadatos que se crearon o modificaron desde la última exportación.

Tanto las tareas de exportación automática como las de exportación del repositorio de datos exportan metadatos POSIX. Para obtener más información, consulte [Soporte de metadatos POSIX para repositorios de datos](posix-metadata-support.md). 

**importante**  
Para garantizar que FSx Lustre pueda exportar sus datos a su bucket de S3, debe almacenarlos en un formato compatible con UTF-8.
Las claves de objeto de S3 tienen una longitud máxima de 1024 bytes. FSx for Lustre no exportará archivos cuya clave de objeto de S3 correspondiente supere los 1024 bytes.

**nota**  
Todos los objetos creados mediante las tareas automáticas de exportación y exportación del repositorio de datos se escriben con la clase de almacenamiento S3 Standard.

**Topics**
+ [Exporte automáticamente las actualizaciones a su bucket de S3](autoexport-data-repo-dra.md)
+ [Uso de las tareas del repositorio de datos para exportar los cambios](export-data-repo-task-dra.md)
+ [Exportación de archivos mediante comandos de HSM](exporting-files-hsm.md)

# Exporte automáticamente las actualizaciones a su bucket de S3
<a name="autoexport-data-repo-dra"></a>

Puede configurar su sistema de archivos de FSx For Lustre para que actualice automáticamente el contenido de un bucket de S3 vinculado a medida que se añaden, modifican o eliminan archivos del sistema de archivos. FSx for Lustre crea, actualiza o elimina el objeto en S3 en función del cambio en el sistema de archivos.

**nota**  
La exportación automática no está disponible en FSx los sistemas de archivos Lustre 2.10 ni en los sistemas de archivos. `Scratch 1`

Puede exportar a un repositorio de datos que esté en el Región de AWS mismo sistema de archivos o en uno diferente. Región de AWS

Puede configurar la exportación automática al crear la asociación de repositorios de datos y actualizar la configuración de exportación automática en cualquier momento mediante la consola de FSx administración AWS CLI, la API y la AWS API.

**importante**  
Si se modifica un archivo en el sistema de archivos con todas las políticas de exportación automática activadas y la importación automática desactivada, el contenido de ese archivo siempre se exporta al objeto correspondiente en S3. Si ya existe un objeto en la ubicación de destino, se sobrescribe.
Si se modifica un archivo tanto en el sistema de archivos como en S3, con todas las políticas de importación y exportación automáticas activadas, el otro podría sobrescribir el archivo del sistema de archivos o el objeto de S3. No se garantiza que una edición posterior en una ubicación sobrescriba una edición anterior en otra ubicación. Si modifica el mismo archivo tanto en el sistema de archivos como en el bucket de S3, debe garantizar la coordinación a nivel de la aplicación para evitar este tipo de conflictos. FSx for Lustre no evita escrituras conflictivas en varias ubicaciones.

La política de exportación especifica cómo desea FSx que Lustre actualice su bucket de S3 vinculado a medida que el contenido del sistema de archivos cambia. Una asociación de repositorios de datos puede tener una de las siguientes políticas de exportación automática:
+ **Nuevo**: FSx para Lustre, solo actualiza automáticamente el repositorio de datos de S3 cuando se crea un nuevo archivo, directorio o enlace simbólico en el sistema de archivos.
+ **Modificado**: FSx para Lustre, solo actualiza automáticamente el repositorio de datos de S3 cuando se cambia un archivo existente en el sistema de archivos. En el caso de los cambios en el contenido de los archivos, el archivo debe cerrarse antes de propagarse al repositorio de S3. Los cambios en los metadatos (cambio de nombre, propiedad, permisos y marcas de tiempo) se propagan al finalizar la operación. Al cambiar el nombre de los cambios (incluidos los movimientos), se elimina el objeto de S3 existente (renombrado previamente) y se crea un nuevo objeto de S3 con el nuevo nombre.
+ **Eliminado**: FSx porque Lustre actualiza automáticamente el repositorio de datos de S3 solo cuando se elimina un archivo, directorio o enlace simbólico del sistema de archivos.
+ **Cualquier combinación de nuevo, modificado y eliminado**: FSx ya que Lustre actualiza automáticamente el repositorio de datos de S3 cuando se produce alguna de las acciones especificadas en el sistema de archivos. Por ejemplo, puede especificar que el repositorio de S3 se actualice cuando se añada un archivo (**New**) o se elimine (**Deleted**) del sistema de archivos, pero no cuando se cambie un archivo.
+ **Sin política configurada**, FSx ya que Lustre no actualiza automáticamente el repositorio de datos de S3 cuando se añaden, modifican o eliminan archivos del sistema de archivos. Si no configura una política de exportación, la exportación automática está deshabilitada. Aún puede exportar los cambios manualmente mediante una tarea de exportación de repositorio de datos, tal y como se describe en [Uso de las tareas del repositorio de datos para exportar los cambios](export-data-repo-task-dra.md).

Para la mayoría de los casos de uso, se recomienda configurar una política de exportación de **New**, **Changed** y **Deleted**. Esta política garantiza que todas las actualizaciones realizadas en el sistema de archivos se exporten automáticamente al repositorio de datos de S3 vinculado.

Le recomendamos que [active el registro en](cw-event-logging.md#manage-logging) CloudWatch los registros para registrar la información sobre cualquier archivo o directorio que no se pueda exportar automáticamente. Las advertencias y los errores del registro contienen información sobre el motivo del error. Para obtener más información, consulte [Registros de eventos del repositorio de datos](data-repo-event-logs.md).

**nota**  
Si bien la hora de acceso (`atime`) y la hora de modificación (`mtime`) se sincronizan con S3 durante las operaciones de exportación, los cambios en estas marcas de tiempo por sí solos no activan la exportación automática. Solo los cambios en el contenido del archivo u otros metadatos (como la propiedad o los permisos) activarán una exportación automática a S3.

## Actualización de la configuración de exportación
<a name="manage-autoexport-dra"></a>

Puede establecer la configuración de exportación de un sistema de archivos a un bucket de S3 vinculado al crear la asociación de repositorios de datos. Para obtener más información, consulte [Crear un enlace a un bucket de S3](create-linked-dra.md).

También puede actualizar la configuración de exportación en cualquier momento, incluida la política de exportación. Para obtener más información, consulte [Actualización de la configuración de asociación de repositorios de datos](update-dra-settings.md).

## Monitorización de la exportación automática
<a name="monitoring-autoexport"></a>

Puedes supervisar las asociaciones de repositorios de datos habilitadas para la exportación automática mediante un conjunto de métricas publicadas en Amazon CloudWatch. La métrica `AgeOfOldestQueuedMessage` representa la antigüedad de la actualización más antigua realizada en el sistema de archivos y que aún no se ha exportado a S3. Si `AgeOfOldestQueuedMessage` es mayor que cero durante un período prolongado, se recomienda reducir temporalmente el número de cambios (en particular, los cambios de nombre de los directorios) que se están realizando activamente en el sistema de archivos hasta que se reduzca la cola de mensajes. Para obtener más información, consulte [Métricas del repositorio de S3 de FSx para Lustre](fs-metrics.md#auto-import-export-metrics).

**importante**  
Al eliminar una asociación de repositorios de datos o un sistema de archivos con la exportación automática habilitada, primero debe asegurarse de que `AgeOfOldestQueuedMessage` es cero, lo que significa que no hay cambios que aún no se hayan exportado. Si `AgeOfOldestQueuedMessage` es mayor que cero al eliminar la asociación de repositorios de datos o el sistema de archivos, los cambios que aún no se hayan exportado no llegarán al bucket de S3 vinculado. Para evitarlo, espere a que `AgeOfOldestQueuedMessage` llegue a cero antes de eliminar la asociación de repositorios de datos o el sistema de archivos.

# Uso de las tareas del repositorio de datos para exportar los cambios
<a name="export-data-repo-task-dra"></a>

La tarea de exportación del repositorio de datos exporta los archivos nuevos o modificados en el sistema de archivos. Crea un objeto nuevo en S3 para cualquier archivo nuevo del sistema de archivos. Para cualquier archivo que se haya modificado en el sistema de archivos o cuyos metadatos se hayan modificado, el objeto correspondiente de S3 se sustituye por un objeto nuevo con los nuevos datos y metadatos. No se realiza ninguna acción en relación con los archivos que se han eliminado del sistema de archivos.

**nota**  
Tenga en cuenta las siguientes consideraciones al utilizar las tareas de exportación de repositorios de datos:  
No se admite el uso de caracteres comodín para incluir o excluir archivos para la exportación.
Al realizar operaciones `mv`, el archivo de destino después de moverlo se exportará a S3 aunque no se haya producido ningún cambio en el UID, el GID, el permiso o el contenido.

Utilice los siguientes procedimientos para exportar los cambios de datos y metadatos del sistema de archivos a buckets S3 vinculados mediante la FSx consola de Amazon y la CLI. Tenga en cuenta que puede usar una tarea de repositorio de datos para varias DRAs.

## Para exportar cambios (consola)
<a name="create-dra-repo-task-console"></a>

1. Abre la FSx consola de Amazon en [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. En el panel de navegación, elija **Sistemas de archivos** y, a continuación, elija el sistema de archivos de Lustre.

1. Elija la pestaña **Data repository**.

1. En el panel **Data repository associations**, elija la asociación de repositorios de datos para la que desea crear la tarea de exportación.

1. Para **Actions**, elija **Export**. Esta opción no está disponible si el sistema de archivos no está vinculado a un repositorio de datos en S3. Aparece el cuadro de diálogo de **Create export data repository task**.

1. (Opcional) Especifica hasta 32 directorios o archivos para exportar desde tu sistema de FSx archivos de Amazon proporcionando las rutas a esos directorios o archivos en **Rutas del sistema de archivos a exportar**. Las rutas que proporcione deben estar en relación con el punto de montaje del sistema de archivos. Si el punto de montaje es `/mnt/fsx` y `/mnt/fsx/path1` es un directorio o un archivo del sistema de archivos que desea exportar, la ruta que debe proporcionarse es `path1`.
**nota**  
Si la ruta que proporciona no es válida, la tarea devuelve un error.

1. (Opcional) Elija **Enable** en el **Completion report** para generar un informe de finalización de la tarea una vez finalizada la tarea. Un *task completion report* proporciona detalles sobre los archivos procesados por la tarea que cumplen con el alcance indicado en el **Report scope**. Para especificar la ubicación en la FSx que Amazon entregará el informe, introduce una ruta relativa en el repositorio de datos S3 vinculado al sistema de archivos para la **ruta del informe**.

1. Seleccione **Crear**.

   Una notificación en la parte superior de la página de **File systems** muestra la tarea que acaba de crear en curso. 

Para ver el estado y los detalles de la tarea, desplácese hacia abajo hasta el panel **Data Repository Tasks** de la pestaña **Data Repository** del sistema de archivos. El orden predeterminado muestra la tarea más reciente en la parte superior de la lista.

Para ver un resumen de la tarea en esta página, elija el **Task ID** de la tarea que acaba de crear. Aparece la página de **Summary** de la tarea.

## Para exportar cambios (CLI)
<a name="create-data-repo-task-cli"></a>
+ Utilice el comando [https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html)CLI para exportar los cambios de datos y metadatos a su sistema de archivos FSx for Lustre. La operación de API correspondiente es [https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html).

  ```
  $ aws fsx create-data-repository-task \
      --file-system-id fs-0123456789abcdef0 \
      --type EXPORT_TO_REPOSITORY \
      --paths path1,path2/file1 \
      --report Enabled=true
  ```

  Tras crear correctamente la tarea de repositorio de datos, Amazon FSx devuelve la descripción de la tarea en formato JSON, como se muestra en el siguiente ejemplo.

  ```
  {
      "Task": {
          "TaskId": "task-123f8cd8e330c1321",
          "Type": "EXPORT_TO_REPOSITORY",
          "Lifecycle": "PENDING",
          "FileSystemId": "fs-0123456789abcdef0",
          "Paths": ["path1", "path2/file1"],
          "Report": {
              "Path":"s3://dataset-01/reports",
              "Format":"REPORT_CSV_20191124",
              "Enabled":true,
              "Scope":"FAILED_FILES_ONLY"
          },
          "CreationTime": "1545070680.120",
          "ClientRequestToken": "10192019-drt-12",
          "ResourceARN": "arn:aws:fsx:us-east-1:123456789012:task:task-123f8cd8e330c1321"
      }
  }
  ```

Después de crear la tarea para exportar datos al repositorio de datos vinculado, puede comprobar el estado de la tarea de exportación de datos. Para obtener más información sobre cómo ver las tareas del repositorio de datos, consulte [Acceder a las tareas del repositorio de datos](view-data-repo-tasks.md).

# Exportación de archivos mediante comandos de HSM
<a name="exporting-files-hsm"></a>

**nota**  
Para exportar los cambios en los datos y metadatos de su sistema de archivos FSx for Lustre a un repositorio de datos duradero en Amazon S3, utilice la función de exportación automática que se describe en[Exporte automáticamente las actualizaciones a su bucket de S3](autoexport-data-repo-dra.md). También puede utilizar las tareas de exportación de repositorios de datos, que se describen en [Uso de las tareas del repositorio de datos para exportar los cambios](export-data-repo-task-dra.md).

Para exportar un archivo individual a su repositorio de datos y comprobar que el archivo se ha exportado correctamente a su repositorio de datos, puede ejecutar los comandos que se muestran a continuación. Un valor devuelto de `states: (0x00000009) exists archived` indica que el archivo se ha exportado correctamente.

```
sudo lfs hsm_archive path/to/export/file
sudo lfs hsm_state path/to/export/file
```

**nota**  
Debe ejecutar los comandos de HSM (como `hsm_archive`) como usuario raíz o mediante `sudo`.

Para exportar todo el sistema de archivos o un directorio completo del sistema de archivos, ejecute los siguientes comandos. Si exporta varios archivos simultáneamente, Amazon FSx for Lustre exporta los archivos a su repositorio de datos de Amazon S3 en paralelo.

```
nohup find local/directory -type f -print0 | xargs -0 -n 1 sudo lfs hsm_archive &
```

Para determinar si la exportación se ha completado, ejecute el siguiente comando.

```
find path/to/export/file -type f -print0 | xargs -0 -n 1 -P 8 sudo lfs hsm_state | awk '!/\<archived\>/ || /\<dirty\>/' | wc -l
```

Si el comando se devuelve y no quedan archivos, la exportación se ha completado.

# Tareas de repositorio de datos
<a name="data-repository-tasks"></a>

Mediante las tareas de importación y exportación de repositorios de datos, puede gestionar la transferencia de datos y metadatos entre su sistema de archivos FSx for Lustre y cualquiera de sus repositorios de datos duraderos en Amazon S3.

*Las tareas de repositorio de datos optimizan las* transferencias de datos y metadatos entre su sistema FSx de archivos de Lustre y un repositorio de datos de S3. Una forma de hacerlo es mediante el seguimiento de los cambios entre tu sistema de FSx archivos de Amazon y su repositorio de datos enlazado. También lo hacen mediante el uso de técnicas de transferencia paralela para transferir datos a velocidades de hasta cientos de GBps. Las tareas del repositorio de datos se crean y visualizan mediante la FSx consola de Amazon AWS CLI, la y la FSx API de Amazon. 

Las tareas de repositorio de datos mantienen los metadatos de la interfaz portátil del sistema operativo (POSIX) del sistema de archivos, incluidos la propiedad, los permisos y las marcas de tiempo. Como las tareas mantienen estos metadatos, puede implementar y mantener controles de acceso entre su sistema de archivos de FSx For Lustre y sus repositorios de datos vinculados.

Puede utilizar una tarea de liberación de repositorios de datos para liberar espacio en el sistema de archivos para nuevos archivos mediante la liberación de archivos exportados a Amazon S3. El contenido del archivo liberado se elimina, pero los metadatos del archivo liberado permanecen en el sistema de archivos. Los usuarios y las aplicaciones pueden seguir accediendo a un archivo liberado volviendo a leer el archivo. Cuando el usuario o la aplicación leen el archivo publicado, FSx for Lustre recupera de forma transparente el contenido del archivo de Amazon S3.

## Tipos de tareas de repositorio de datos
<a name="data-repo-task-types"></a>

Existen tres tipos de tareas de repositorio de datos:
+ Las tareas **Exportar** del repositorio de datos exportan desde el sistema de archivos de Lustre a un bucket de S3 vinculado.
+ Las tareas **Importar** del repositorio de datos importan desde un bucket de S3 vinculado al sistema de archivos de Lustre.
+ Las tareas **Liberar** del repositorio de datos liberan archivos exportados a un bucket de S3 vinculado desde el sistema de archivos de Lustre.

Para obtener más información, consulte [Creación de una tarea de repositorio de datos](creating-data-repo-task.md).

**Topics**
+ [Tipos de tareas de repositorio de datos](#data-repo-task-types)
+ [Comprender el estado y los detalles de una tarea](data-repo-task-status.md)
+ [Uso de tareas de repositorio de datos](managing-data-repo-task.md)
+ [Trabajar con informes de finalización de tareas](task-completion-report.md)
+ [Resolución de fallos en las tareas del repositorio de datos](failed-tasks.md)

# Comprender el estado y los detalles de una tarea
<a name="data-repo-task-status"></a>

 Una tarea de repositorio de datos tiene información descriptiva y un estado del ciclo de vida.

Tras crear una tarea, puede ver la siguiente información detallada de una tarea de repositorio de datos mediante la FSx consola, la CLI o la API de Amazon:
+ El tipo de tarea: 
  + `EXPORT_TO_REPOSITORY` indica una tarea de exportación.
  + `IMPORT_METADATA_FROM_REPOSITORY` indica una tarea de importación.
  + `RELEASE_DATA_FROM_FILESYSTEM` indica una tarea de liberación.
+ El sistema de archivos en el que se ejecutó la tarea.
+ La hora de creación de la tarea.
+ El estado de la tarea.
+ El número total de archivos que procesó la tarea.
+ El número total de archivos que la tarea procesó correctamente.
+ El número total de archivos que la tarea no pudo procesar. Este valor es mayor que cero cuando el estado de la tarea es FAILED. La información detallada sobre los archivos que fallaron está disponible en un informe de finalización de tarea. Para obtener más información, consulte [Trabajar con informes de finalización de tareas](task-completion-report.md).
+ La hora en que comenzó la tarea.
+ La hora en que se actualizó por última vez el estado de la tarea. El estado de la tarea se actualiza cada 30 segundos.

 Una tarea de repositorio de datos puede tener uno de los siguientes estados:
+ **PENDIENTE** indica que Amazon no FSx ha iniciado la tarea.
+ **EJECUTAR** indica que Amazon FSx está procesando la tarea.
+ **FAILED** indica que Amazon FSx no ha procesado correctamente la tarea. Por ejemplo, puede haber archivos que la tarea no haya podido procesar. Los detalles de la tarea proporcionan más información sobre el fallo. Para obtener más información sobre las tareas fallidas, consulte [Resolución de fallos en las tareas del repositorio de datos](failed-tasks.md).
+ **SUCEDED** indica que Amazon FSx ha completado la tarea correctamente.
+ **CANCELED** indica que la tarea se canceló y no se completó.
+ **CANCELAR** indica que Amazon FSx está cancelando la tarea.

La información de las tareas del repositorio de datos se conserva durante 14 días una vez finalizada la tarea. Para obtener más información sobre el acceso a las tareas de repositorio de datos existentes, consulte [Acceder a las tareas del repositorio de datos](view-data-repo-tasks.md).

# Uso de tareas de repositorio de datos
<a name="managing-data-repo-task"></a>

En las siguientes secciones, encontrará información detallada sobre cómo administrar las tareas del repositorio de datos. Puede crear, duplicar, ver los detalles y cancelar las tareas del repositorio de datos mediante la FSx consola, la CLI o la API de Amazon.

**Topics**
+ [Creación de una tarea de repositorio de datos](creating-data-repo-task.md)
+ [Duplicación de una tarea](recreate-task.md)
+ [Acceder a las tareas del repositorio de datos](view-data-repo-tasks.md)
+ [Cancelar una tarea de repositorio de datos](cancel-data-repo-task.md)

# Creación de una tarea de repositorio de datos
<a name="creating-data-repo-task"></a>

Puede crear una tarea de repositorio de datos mediante la FSx consola, la CLI o la API de Amazon. Después de crear una tarea, puede ver el progreso y el estado de la tarea mediante la consola, la CLI o la API.

Puede crear tres tipos de tareas de repositorio de datos:
+ La tarea **Exportar** del repositorio de datos exporta desde el sistema de archivos de Lustre a un bucket de S3 vinculado. Para obtener más información, consulte [Uso de las tareas del repositorio de datos para exportar los cambios](export-data-repo-task-dra.md).
+ La tarea **Importar** del repositorio de datos importa desde un bucket de S3 vinculado al sistema de archivos de Lustre. Para obtener más información, consulte [Uso de las tareas del repositorio de datos para importar los cambios](import-data-repo-task-dra.md).
+ La tarea **Liberar** del repositorio de datos libera los archivos del sistema de archivos de Lustre que se hayan exportado a un bucket de S3 vinculado. Para obtener más información, consulte [Utilizar las tareas del repositorio de datos para liberar archivos](release-files-task.md).

# Duplicación de una tarea
<a name="recreate-task"></a>

Puedes duplicar una tarea de repositorio de datos existente en la FSx consola de Amazon. Cuando duplica una tarea, se muestra una copia exacta de la tarea existente en la página **Crear tarea de repositorio de datos de importación** o **Crear tarea de repositorio de datos de exportación**. Puede realizar cambios en las rutas para exportar o importar, según sea necesario, antes de crear y ejecutar la nueva tarea.

**nota**  
Una solicitud para ejecutar una tarea duplicada fallará si ya se está ejecutando una copia exacta de esa tarea. Una copia exacta de una tarea que ya se está ejecutando contiene la misma ruta o rutas del sistema de archivos en el caso de una tarea de exportación o las mismas rutas del repositorio de datos en el caso de una tarea de importación.

Puede duplicar una tarea desde la vista de detalles de la tarea, el panel **Tareas del repositorio de datos** en la pestaña **Repositorio de datos** para el sistema de archivos o desde la página **Tareas del repositorio de datos**.

**Para duplicar una tarea existente**

1. Elija una tarea en el panel **Tareas del repositorio de datos** en la pestaña **Repositorio de datos** para el sistema de archivos.

1. Elija **Duplicate task (Duplicar tarea)**. Según el tipo de tarea que elija, aparecerá la página **Crear tarea de repositorio de datos de importación** o **Crear tarea de repositorio de datos de exportación**. Todos los ajustes de la nueva tarea son idénticos a los de la tarea que está duplicando.

1. Cambie o añada las rutas desde las que quiera importar o a las que desea exportar.

1. Seleccione **Crear**.

# Acceder a las tareas del repositorio de datos
<a name="view-data-repo-tasks"></a>

Tras crear una tarea de repositorio de datos, puede acceder a la tarea y a todas las tareas existentes en su cuenta mediante la FSx consola, la CLI y la API de Amazon. Amazon FSx proporciona la siguiente información detallada sobre las tareas: 
+ Todas las tareas existentes.
+ Todas las tareas de un sistema de archivos específico.
+ Todas las tareas de una asociación de repositorios de datos específica.
+ Todas las tareas con un estado de ciclo de vida específico. Para obtener más información sobre los valores de estado del ciclo de vida de las tareas, consulte [Comprender el estado y los detalles de una tarea](data-repo-task-status.md).

Puede acceder a todas las tareas del repositorio de datos existentes en su cuenta mediante la FSx consola, la CLI o la API de Amazon, tal y como se describe a continuación.

## Cómo ver las tareas del repositorio de datos y los detalles de las tareas (consola)
<a name="access-all-tasks-console"></a>

1. Abre la FSx consola de Amazon en [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. En el panel de navegación, seleccione el sistema de archivos para el que desea ver las tareas del repositorio de datos. Aparecerá la página de detalles del sistema de archivos.

1. En la página de detalles del sistema de archivos, seleccione la pestaña **Repositorio de datos**. Todas las tareas de este sistema de archivos aparecen en el panel de **Tareas del repositorio de datos**.

1. Para ver los detalles de una tarea, elija el **ID de la tarea** o el **Nombre de la tarea** en el panel de **Tareas del repositorio de datos**. Aparece la página de detalles de la tarea.  
![\[Página de tareas de repositorio de datos\]](http://docs.aws.amazon.com/es_es/fsx/latest/LustreGuide/images/task-details-rprt.png)

## Para recuperar las tareas del repositorio de datos y los detalles de las tareas (CLI)
<a name="task-details-cli"></a>

Con el comando Amazon FSx [https://docs.aws.amazon.com/cli/latest/reference/fsx/describe-data-repository-tasks.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/describe-data-repository-tasks.html)CLI, puede ver todas las tareas del repositorio de datos y sus detalles en su cuenta. [https://docs.aws.amazon.com/fsx/latest/APIReference/API_DescribeDataRepositoryTasks.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_DescribeDataRepositoryTasks.html)es el comando de API equivalente.
+ Utilice el siguiente comando para ver todos los objetos de tarea de repositorio de datos de su cuenta.

  ```
  aws fsx describe-data-repository-tasks
  ```

  Si el comando se ejecuta correctamente, Amazon FSx devuelve la respuesta en formato JSON.

  ```
  {
      "DataRepositoryTasks": [
          {
              "Lifecycle": "EXECUTING",
              "Paths": [],
              "Report": {
                  "Path":"s3://dataset-01/reports",
                  "Format":"REPORT_CSV_20191124",
                  "Enabled":true,
                  "Scope":"FAILED_FILES_ONLY"
              },
              "StartTime": 1591863862.288,
              "EndTime": ,
              "Type": "EXPORT_TO_REPOSITORY",
              "Tags": [],
              "TaskId": "task-0123456789abcdef3",
              "Status": {
                  "SucceededCount": 4255,
                  "TotalCount": 4200,
                  "FailedCount": 55,
                  "LastUpdatedTime": 1571863875.289
              },
              "FileSystemId": "fs-0123456789a7",
              "CreationTime": 1571863850.075,
              "ResourceARN": "arn:aws:fsx:us-east-1:1234567890:task/task-0123456789abcdef3"
          },
          {
              "Lifecycle": "FAILED",
              "Paths": [],
              "Report": {
                  "Enabled": false,
              },
              "StartTime": 1571863862.288,
              "EndTime": 1571863905.292,
              "Type": "EXPORT_TO_REPOSITORY",
              "Tags": [],
              "TaskId": "task-0123456789abcdef1",
              "Status": {
                  "SucceededCount": 1153,
                  "TotalCount": 1156,
                  "FailedCount": 3,
                  "LastUpdatedTime": 1571863875.289
              },
              "FileSystemId": "fs-0123456789abcdef0",
              "CreationTime": 1571863850.075,
              "ResourceARN": "arn:aws:fsx:us-east-1:1234567890:task/task-0123456789abcdef1"
          },
          {
              "Lifecycle": "SUCCEEDED",
              "Paths": [],
              "Report": {
                  "Path":"s3://dataset-04/reports",
                  "Format":"REPORT_CSV_20191124",
                  "Enabled":true,
                  "Scope":"FAILED_FILES_ONLY"
              },
              "StartTime": 1571863862.288,
              "EndTime": 1571863905.292,
              "Type": "EXPORT_TO_REPOSITORY",
              "Tags": [],
              "TaskId": "task-04299453935122318",
              "Status": {
                  "SucceededCount": 258,
                  "TotalCount": 258,
                  "FailedCount": 0,
                  "LastUpdatedTime": 1771848950.012,
              },
              "FileSystemId": "fs-0123456789abcdef0",
              "CreationTime": 1771848950.012,
              "ResourceARN": "arn:aws:fsx:us-east-1:1234567890:task/task-0123456789abcdef0"
          }
      ]
  }
  ```

## Visualización de las tareas por sistema de archivos
<a name="view-tasks-by-fs"></a>

Puede ver todas las tareas de un sistema de archivos específico mediante la FSx consola, la CLI o la API de Amazon, tal y como se describe a continuación.

### Cómo ver las tareas por sistema de archivos (consola)
<a name="tasks-by-fs-console"></a>

1. En el panel de navegación, elija **File systems (Sistema de archivos)**. Aparece la página **File system (Sistema de archivos)**.

1. Seleccione el sistema de archivos para el que desea ver las tareas del repositorio de datos. Aparecerá la página de detalles del sistema de archivos.

1. En la página de detalles del sistema de archivos, seleccione la pestaña **Repositorio de datos**. Todas las tareas de este sistema de archivos aparecen en el panel de **Tareas del repositorio de datos**.

### Para recuperar tareas por sistema de archivos (CLI)
<a name="task-by-fs-cli"></a>
+ Utilice el siguiente comando para ver todas las tareas del repositorio de datos del sistema de archivos `fs-0123456789abcdef0`.

  ```
  aws fsx describe-data-repository-tasks \
      --filters Name=file-system-id,Values=fs-0123456789abcdef0
  ```

  Si el comando se ejecuta correctamente, Amazon FSx devuelve la respuesta en formato JSON.

  ```
  {
      "DataRepositoryTasks": [
          {
              "Lifecycle": "FAILED",
              "Paths": [],
              "Report": {
                  "Path":"s3://dataset-04/reports",
                  "Format":"REPORT_CSV_20191124",
                  "Enabled":true,
                  "Scope":"FAILED_FILES_ONLY"
              },
              "StartTime": 1571863862.288,
              "EndTime": 1571863905.292,
              "Type": "EXPORT_TO_REPOSITORY",
              "Tags": [],
              "TaskId": "task-0123456789abcdef1",
              "Status": {
                  "SucceededCount": 1153,
                  "TotalCount": 1156,
                  "FailedCount": 3,
                  "LastUpdatedTime": 1571863875.289
              },
              "FileSystemId": "fs-0123456789abcdef0",
              "CreationTime": 1571863850.075,
              "ResourceARN": "arn:aws:fsx:us-east-1:1234567890:task/task-0123456789abcdef1"
          },
          {
              "Lifecycle": "SUCCEEDED",
              "Paths": [],
              "Report": {
                  "Enabled": false,
              },
              "StartTime": 1571863862.288,
              "EndTime": 1571863905.292,
              "Type": "EXPORT_TO_REPOSITORY",
              "Tags": [],
              "TaskId": "task-0123456789abcdef0",
              "Status": {
                  "SucceededCount": 258,
                  "TotalCount": 258,
                  "FailedCount": 0,
                  "LastUpdatedTime": 1771848950.012,
              },
              "FileSystemId": "fs-0123456789abcdef0",
              "CreationTime": 1771848950.012,
              "ResourceARN": "arn:aws:fsx:us-east-1:1234567890:task/task-0123456789abcdef0"
          }
      ]
  }
  ```

# Cancelar una tarea de repositorio de datos
<a name="cancel-data-repo-task"></a>

Puede cancelar una tarea de repositorio de datos mientras se encuentra en estado PENDIENTE o EN EJECUCIÓN. Cuando cancela una tarea, ocurre lo siguiente:
+ Amazon FSx no procesa ningún archivo que esté en cola para ser procesado.
+ Amazon FSx continúa procesando todos los archivos que estén actualmente en proceso.
+ Amazon FSx no revierte ningún archivo que la tarea ya haya procesado.

## Para cancelar una tarea de repositorio de datos (consola)
<a name="w2aac13c33c17c13b7b1"></a>

1. Abre la FSx consola de Amazon en [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Haga clic en el sistema de archivos para el que desee cancelar una tarea de repositorio de datos.

1. Abra la pestaña **Repositorio de datos** y desplácese hacia abajo para ver el panel **Tareas del repositorio de datos**.

1. Seleccione **ID de tarea** o **Nombre de tarea** para la tarea que quiere cancelar.

1. Seleccione **Cancelar tarea** para cancelar la tarea.

1. Introduzca el ID de la tarea para confirmar la solicitud de cancelación.

## Para cancelar una tarea de repositorio de datos (consola)
<a name="w2aac13c33c17c13b7b3"></a>

Utilice el comando Amazon FSx [https://docs.aws.amazon.com/cli/latest/reference/fsx/cancel-data-repository-task.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/cancel-data-repository-task.html)CLI para cancelar una tarea. [https://docs.aws.amazon.com/fsx/latest/APIReference/API_CancelDataRepositoryTask.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CancelDataRepositoryTask.html)es el comando de API equivalente.
+ Utilice el siguiente comando para cancelar una tarea de repositorio de datos.

  ```
  aws fsx cancel-data-repository-task \
      --task-id task-0123456789abcdef0
  ```

  Si el comando se ejecuta correctamente, Amazon FSx devuelve la respuesta en formato JSON.

  ```
  {
      "Status": "CANCELING",
      "TaskId": "task-0123456789abcdef0"
  }
  ```

# Trabajar con informes de finalización de tareas
<a name="task-completion-report"></a>

Un *informe de finalización de tarea* proporciona detalles sobre los resultados de una tarea de repositorio de datos de exportación, importación o liberación. El informe incluye los resultados de los archivos procesados por la tarea que coinciden con el alcance del informe. Puede especificar si se va a generar un informe para una tarea mediante el parámetro `Enabled`. 

Amazon FSx envía el informe al repositorio de datos enlazados del sistema de archivos en Amazon S3, utilizando la ruta que especifique al habilitar el informe para una tarea. El nombre de archivo del informe es `report.csv` para las tareas de importación y `failures.csv` para las tareas de exportación o liberación.

El formato del informe es un archivo de valores separados por comas (CSV) que tiene tres campos: `FilePath`, `FileStatus` y `ErrorCode`.

Los informes se codifican con el formato RFC-4180 de la siguiente manera:
+ Las rutas que comiencen con cualquiera de los siguientes caracteres aparecen entre comillas simples: `@ + - =` 
+ Las cadenas que contienen al menos uno de los caracteres siguientes van entre comillas dobles: `" ,`
+ Todas las comillas dobles se escapan con una comilla doble adicional.

A continuación se muestran algunos ejemplos de codificación de informes:
+ `@filename.txt` se convertirá en `"""@filename.txt"""`
+ `+filename.txt` se convertirá en `"""+filename.txt"""`
+ `file,name.txt` se convertirá en `"file,name.txt"`
+ `file"name.txt` se convertirá en `"file""name.txt"`

Para obtener más información sobre la codificación RFC-4180, consulte [Formato común RFC-4180 y tipo MIME para archivos de valores separados por comas [CSV]](https://tools.ietf.org/html/rfc4180) en el sitio web del IETF.

El siguiente es un ejemplo de la información proporcionada en un informe de finalización de tareas que incluye solo los archivos con errores.

```
myRestrictedFile,failed,S3AccessDenied
dir1/myLargeFile,failed,FileSizeTooLarge
dir2/anotherLargeFile,failed,FileSizeTooLarge
```

Para obtener más información sobre los fallos de las tareas y cómo resolverlos, consulte [Resolución de fallos en las tareas del repositorio de datos](failed-tasks.md).

# Resolución de fallos en las tareas del repositorio de datos
<a name="failed-tasks"></a>

Puede [activar el registro en CloudWatch Logs para registrar](cw-event-logging.md) información sobre cualquier error que se haya producido al importar o exportar archivos mediante tareas de repositorio de datos. Para obtener información sobre CloudWatch los registros de eventos de Logs, consulte[Registros de eventos del repositorio de datos](data-repo-event-logs.md).

Cuando se produce un error en una tarea de repositorio de datos, puedes encontrar el número de archivos que Amazon FSx no ha podido procesar en **Files failed to export** en la página de **estado de la tarea** de la consola. O bien, puede usar la CLI o la API y ver la propiedad de la tarea `Status: FailedCount`. Para obtener información sobre cómo acceder a esta información, consulte [Acceder a las tareas del repositorio de datos](view-data-repo-tasks.md). 

Para las tareas de repositorio de datos, Amazon FSx también proporciona opcionalmente información sobre los archivos y directorios específicos en los que se produjo un error en un informe de finalización. El informe de finalización de tareas contiene la ruta del archivo o directorio del sistema de archivos de Lustre en el que se produjo el error, su estado y el motivo del error. Para obtener más información, consulte [Trabajar con informes de finalización de tareas](task-completion-report.md).

Una tarea de repositorio de datos puede fallar por varios motivos, incluidos los que se enumeran a continuación.


| Código de error | Explicación | 
| --- | --- | 
|  `FileSizeTooLarge`  |  El tamaño máximo de objeto que admite Amazon S3 es de 5 TiB.  | 
|  `InternalError`  |  Se ha producido un error en el sistema de FSx archivos de Amazon durante una tarea de importación, exportación o publicación. Por lo general, este código de error significa que el sistema de FSx archivos de Amazon en el que se ejecutó la tarea fallida se encuentra en un estado de ciclo de vida FALLIDO. Cuando esto ocurre, es posible que los archivos afectados no se puedan recuperar debido a la pérdida de datos. De lo contrario, puede utilizar los comandos de gestión de almacenamiento jerárquico (HSM) para exportar los archivos y directorios al repositorio de datos de S3. Para obtener más información, consulte [Exportación de archivos mediante comandos de HSM](exporting-files-hsm.md).  | 
|  `OperationNotPermitted`  | Amazon FSx no pudo liberar el archivo porque no se ha exportado a un bucket de S3 vinculado. Debe utilizar las tareas automáticas de exportación o exportación del repositorio de datos para asegurarse de que sus archivos se exporten primero al bucket de Amazon S3 vinculado.  | 
|  `PathSizeTooLong`  |  La ruta de exportación es demasiado larga. La longitud máxima de la clave de objeto que admite S3 es de 1024 caracteres.  | 
|  `ResourceBusy`  | Amazon FSx no pudo exportar o liberar el archivo porque estaba siendo modificado por otro cliente del sistema de archivos. Puedes volver a intentarlo cuando tu flujo DataRepositoryTask de trabajo haya terminado de escribirse en el archivo.  | 
|  `S3AccessDenied`  |  Se denegó el acceso a Amazon S3 para una tarea de exportación o importación de un repositorio de datos. Para las tareas de exportación, el sistema de FSx archivos de Amazon debe tener permiso para realizar la `S3:PutObject` operación de exportación a un repositorio de datos vinculado en S3. Este permiso se concede en el rol vinculado al servicio `AWSServiceRoleForFSxS3Access_fs-0123456789abcdef0`. Para obtener más información, consulte [Uso de roles vinculados a servicios para Amazon FSx](using-service-linked-roles.md). Para las tareas de exportación, debido a que la tarea de exportación requiere que los datos fluyan fuera de la VPC de un sistema de archivos, este error puede producirse si el repositorio de destino tiene una política de bucket que contenga una de las claves de condición globales de IAM `aws:SourceVpc` o `aws:SourceVpce`. Para las tareas de importación, el sistema de FSx archivos de Amazon debe tener permiso para realizar `S3:HeadObject` las `S3:GetObject` operaciones de importación desde un repositorio de datos vinculado en S3. Para las tareas de importación, si su bucket de S3 utiliza el cifrado del lado del servidor con claves administradas por el cliente almacenadas en AWS Key Management Service (SSE-KMS), debe seguir las configuraciones de política que se indican en. [Trabajo con buckets de Amazon S3 cifrados del lado del servidor](s3-server-side-encryption-support.md) Si su bucket de S3 contiene objetos cargados desde una cuenta de bucket de S3 Cuenta de AWS distinta a la de su sistema de archivos, puede asegurarse de que las tareas del repositorio de datos puedan modificar los metadatos de S3 o sobrescribir los objetos de S3, independientemente de la cuenta en la que se hayan cargado. Le recomendamos que habilite la característica de la propiedad de objetos de S3 en el bucket de S3. Esta función le permite apropiarse de los objetos nuevos que otros Cuentas de AWS cargan en su bucket, ya que obliga a las cargas a proporcionar la ACL predeterminada`-/-acl bucket-owner-full-control`. Para habilitar la propiedad de objetos de S3, elija la opción que **prefiera el propietario del bucket** en su bucket de S3. Para obtener más información, consulte [Control de la propiedad de objetos cargados mediante la propiedad de objetos de S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/about-object-ownership.html) en la *Guía del usuario de Amazon S3*.  | 
|  `S3Error`  |  Amazon FSx encontró un error relacionado con S3 que no era así. `S3AccessDenied`  | 
|  `S3FileDeleted`  | Amazon no FSx ha podido exportar un archivo de enlace duro porque el archivo fuente no existe en el repositorio de datos. | 
|  `S3ObjectInUnsupportedTier`  | Amazon importó FSx correctamente un objeto sin enlace simbólico de una clase de almacenamiento S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. El `FileStatus` será `succeeded with warning` en el informe de finalización de la tarea. La advertencia indica que, para recuperar los datos, primero debe restaurar el objeto S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive y luego utilizar un comando `hsm_restore` para importar el objeto.  | 
|  `S3ObjectNotFound`  | Amazon no FSx ha podido importar ni exportar el archivo porque no existe en el repositorio de datos. | 
|  `S3ObjectPathNotPosixCompliant`  |  El objeto Amazon S3 existe, pero no se puede importar porque no es un objeto compatible con POSIX. Para obtener información acerca de los metadatos POSIX soportados, consulte [Soporte de metadatos POSIX para repositorios de datos](posix-metadata-support.md).  | 
|  `S3ObjectUpdateInProgressFromFileRename`  | Amazon FSx no pudo liberar el archivo porque la exportación automática está procesando un cambio de nombre del archivo. El proceso de cambio de nombre de la exportación automática debe finalizar antes de poder liberar el archivo.  | 
|  `S3SymlinkInUnsupportedTier`  | Amazon no FSx ha podido importar un objeto de enlace simbólico porque se encuentra en una clase de almacenamiento de Amazon S3 que no es compatible, como una clase de almacenamiento S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. El `FileStatus` será `failed` en el informe de finalización de la tarea. | 
|  `SourceObjectDeletedBeforeReleasing`  | Amazon no FSx ha podido liberar el archivo del sistema de archivos porque se ha eliminado del repositorio de datos antes de que pudiera publicarse. | 

# Liberación de archivos
<a name="file-release"></a>

Las tareas de repositorio de datos liberan los datos de los archivos de su sistema de archivos FSx para Lustre a fin de liberar espacio para nuevos archivos. Al liberar un archivo, se retiene la lista de archivos y los metadatos, pero se elimina la copia local del contenido de ese archivo. Si un usuario o una aplicación accede a un archivo liberado, los datos se vuelven a cargar de forma automática y transparente en el sistema de archivos desde el bucket de Amazon S3 vinculado.

**nota**  
Las tareas de publicación del repositorio de datos no están disponibles en los FSx sistemas de archivos Lustre 2.10.

Los parámetros **Rutas del sistema de archivos por publicar** y **Duración mínima desde el último acceso** determinan qué archivos se publicarán.
+ **Rutas del sistema de archivos por publicar**: especifica la ruta desde la que se publicarán los archivos.
+ **Duración mínima desde el último acceso**: especifica la duración, en días, de modo que se libere cualquier archivo al que no se haya accedido durante ese periodo. El tiempo transcurrido desde la última vez que se accedió a un archivo se calcula tomando la diferencia entre la hora de creación de la tarea de publicación y la última vez que se accedió a un archivo (el valor máximo es `atime`, `mtime` y `ctime`).

Los archivos solo se liberarán por la ruta del archivo si se han exportado a S3 y tienen una duración desde el último acceso superior a la duración mínima desde el último acceso. Indicar una duración mínima de `0` días desde el último acceso liberará los archivos independientemente de la duración desde el último acceso.

**nota**  
No se admite el uso de caracteres comodín para incluir o excluir archivos para publicación.

Las tareas de publicación del repositorio de datos solo liberarán los datos de los archivos que ya se hayan exportado a un repositorio de datos de S3 vinculado. Puede exportar datos a S3 mediante la característica de exportación automática, una tarea de exportación de un repositorio de datos o los comandos del HSM. Para comprobar que un archivo se haya exportado al repositorio de datos, puede ejecutar el siguiente comando. Un valor devuelto de `states: (0x00000009) exists archived` indica que el archivo se ha exportado correctamente.

```
sudo lfs hsm_state path/to/export/file
```

**nota**  
Debe ejecutar el comando del HSM como usuario raíz o mediante `sudo`.

Para publicar datos de archivos a intervalos regulares, puede programar una tarea de repositorio de datos de publicación periódica mediante Amazon EventBridge Scheduler. Para obtener más información, consulte [Introducción a EventBridge Scheduler](https://docs.aws.amazon.com/scheduler/latest/UserGuide/getting-started.html) en la Guía del *usuario de Amazon EventBridge Scheduler*.

**Topics**
+ [Utilizar las tareas del repositorio de datos para liberar archivos](release-files-task.md)

# Utilizar las tareas del repositorio de datos para liberar archivos
<a name="release-files-task"></a>

Utilice los siguientes procedimientos para crear tareas que liberen archivos del sistema de archivos mediante la FSx consola Amazon y la CLI. Al liberar un archivo, se retiene la lista de archivos y los metadatos, pero se elimina la copia local del contenido de ese archivo.

## Para liberar archivos (consola)
<a name="create-release-task-console"></a>

1. Abre la FSx consola de Amazon en [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. En el panel de navegación izquierdo, elija **Sistemas de archivos**, a continuación, elija el sistema de archivos de Lustre.

1. Elija la pestaña **Data repository**.

1. En el panel **Data repository associations**, elija la asociación de repositorios de datos para la que desea crear la tarea de liberación.

1. En **Actions**, elija **Create read replica**. Esta opción solo está disponible si el sistema de archivos está vinculado a un repositorio de datos en S3. Aparece el cuadro de diálogo de **Create release data repository task**.

1. En **Rutas del sistema de archivos que se van a liberar**, especifica hasta 32 directorios o archivos que se van a liberar de tu sistema de FSx archivos de Amazon proporcionando las rutas a esos directorios o archivos. Las rutas que proporcione deben estar relacionadas con el punto de montaje del sistema de archivos. Por ejemplo, si el punto de montaje es `/mnt/fsx` y `/mnt/fsx/path1` es un archivo del sistema de archivos que desea liberar, la ruta que debe proporcionarse es `path1`. Para liberar todos los archivos del sistema de archivos, especifique una barra diagonal (/) como ruta.
**nota**  
Si la ruta que proporciona no es válida, la tarea devuelve un error.

1. En **Minimum duration since last access**, especifique la duración, en días, de modo que se libere cualquier archivo al que no se haya accedido durante ese período. La hora del último acceso se calcula utilizando el valor máximo de `atime`, `mtime`, y `ctime`. Se liberarán los archivos con un período de duración del último acceso superior a la duración mínima desde el último acceso (en relación con la hora de creación de la tarea). No se liberarán los archivos con un período de duración del último acceso inferior a este número de días, aunque estén en el campo **File system paths to release**. Indique una duración de `0` días para liberar los archivos independientemente de la duración desde el último acceso.

1. (Opcional) En **Completion report**, elija **Enable** para generar un informe de finalización de tareas que proporcione detalles sobre los archivos que cumplen el alcance indicado en el **Report scope**. Para especificar una ubicación en la FSx que Amazon entregará el informe, introduce una ruta relativa en el repositorio de datos S3 vinculado al sistema de archivos para la **ruta del informe**.

1. Elija **Create data repository task**.

   Una notificación en la parte superior de la página de **File systems** muestra la tarea que acaba de crear en curso. 

Para ver el estado y los detalles de la tarea, en la pestaña **Data Repository**, desplácese hacia abajo hasta **Data Repository Tasks**. El orden predeterminado muestra la tarea más reciente en la parte superior de la lista.

Para ver un resumen de la tarea en esta página, elija el **Task ID** de la tarea que acaba de crear.

## Para liberar archivos (CLI)
<a name="create-release-task-cli"></a>
+ Utilice el comando [https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html)CLI para crear una tarea que libere archivos en su sistema de archivos FSx for Lustre. La operación de API correspondiente es [https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html).

  Establezca los siguientes parámetros:
  + Establezca `--file-system-id` como el ID del sistema de archivos del que está liberando archivos.
  + Establezca `--paths` en las rutas del sistema de archivos desde las que se liberarán los datos. Si se especifica un directorio, se liberan los archivos del directorio. Si se especifica una ruta de archivo, solo se libera ese archivo. Para liberar todos los archivos del sistema de archivos que se han exportado a un bucket de S3 vinculado, especifique una barra diagonal (/) para la ruta.
  + Establece `--type` en `RELEASE_DATA_FROM_FILESYSTEM`.
  + Configure las opciones `--release-configuration DurationSinceLastAccess` de la siguiente manera:
    + `Unit`: se establece en `DAYS`.
    + `Value`: Especifique un número entero que represente la duración, en días, de modo que se libere cualquier archivo al que no se haya accedido durante ese período. Los archivos a los que se haya accedido durante un período inferior a este número de días no se liberarán, aunque estén incluidos en el parámetro `--paths`. Indique una duración de `0` días para liberar los archivos independientemente de la duración desde el último acceso.

  Este comando de ejemplo especifica que los archivos que se hayan exportado a un bucket de S3 vinculado y que cumplan los criterios `--release-configuration` se liberarán de los directorios de las rutas especificadas.

  ```
  $ aws fsx create-data-repository-task \
      --file-system-id fs-0123456789abcdef0 \
      --type RELEASE_DATA_FROM_FILESYSTEM \
      --paths path1,path2/file1 \
      --release-configuration '{"DurationSinceLastAccess":{"Unit":"DAYS","Value":10}}' \
      --report Enabled=false
  ```

  Tras crear correctamente la tarea de repositorio de datos, Amazon FSx devuelve la descripción de la tarea en formato JSON.

Después de crear la tarea para liberar los archivos, puede comprobar el estado de la tarea. Para obtener más información sobre cómo ver las tareas del repositorio de datos, consulte [Acceder a las tareas del repositorio de datos](view-data-repo-tasks.md).

# Uso de Amazon FSx con tus datos locales
<a name="fsx-on-premises"></a>

Puede usar Lustre FSx para procesar sus datos locales con instancias informáticas en la nube. FSx for Lustre admite el acceso a través de Direct Connect una VPN, lo que le permite montar sus sistemas de archivos desde clientes locales.

**FSx Para usar Lustre con sus datos locales**

1. Cree un sistema de archivos. Para más información, consulte [Paso 1: crear un sistema de archivos FSx para Lustre](getting-started.md#getting-started-step1) en el ejercicio de introducción.

1. Monte el sistema de archivos desde clientes en las instalaciones. Para obtener más información, consulte [Montaje de sistemas de FSx archivos de Amazon desde una VPC local o interconectada](mounting-on-premises.md).

1. Copie los datos que desee procesar en su sistema de archivos de FSx for Lustre.

1. Ejecute su carga de trabajo de procesamiento intensivo en instancias de Amazon EC2 en la nube montando su sistema de archivos.

1. Cuando haya terminado, vuelva a copiar los resultados finales de su sistema de archivos a su ubicación de datos local y elimine su sistema de archivos de FSx For Lustre.

# Registros de eventos del repositorio de datos
<a name="data-repo-event-logs"></a>

Puede activar el registro en CloudWatch para registrar información sobre cualquier error que se haya producido al importar o exportar archivos mediante las tareas de importación, exportación y repositorio de datos y eventos de restauración. Para obtener más información, consulte [Iniciar sesión con Amazon CloudWatch Logs](cw-event-logging.md).

**nota**  
Cuando se produce un error en una tarea de repositorio de datos, Amazon FSx también escribe la información del error en el informe de finalización de la tarea. Para obtener más información acerca de los errores en los informes de finalización, consulte [Resolución de fallos en las tareas del repositorio de datos](failed-tasks.md).

**Topics**
+ [Cómo importar eventos](#import-event-logging)
+ [Exportación de eventos](#export-event-logging)
+ [Eventos de restauración de HSM](#hsm-restore-event-logging)

## Cómo importar eventos
<a name="import-event-logging"></a>


| Tipo de error | Nivel de registro | Mensajes de registro | Causa raíz | Código de error al finalizar el informe | 
| --- | --- | --- | --- | --- | 
| Error en la enumeración de objetos | ERROR | No se pudieron enumerar los objetos de S3 en el bucket de S3 bucket\$1name con el prefijo. | Amazon FSx no pudo enumerar los objetos de S3 en el bucket de S3. Esto puede ocurrir si la política del bucket de S3 no proporciona suficientes permisos a Amazon FSx. | N/A | 
| Clase de almacenamiento de S3 no compatible | WARN | Se ha producido un error al importar un objeto de S3 con la clave key\$1value en el bucket de S3 bucket\$1name debido a un objeto de S3 en un nivel no admitido S3\$1tier\$1name. | Amazon FSx no pudo importar un objeto de S3 porque se encuentra en una clase de almacenamiento de Amazon S3 que no se admite, como la clase de almacenamiento S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. | S3ObjectInUnsupportedTier | 
| Clase de almacenamiento de enlaces simbólicos no admitida | ERROR | Se ha producido un error al importar un objeto de S3 con la clave key\$1value en el bucket de S3 bucket\$1name debido a un objeto de enlace simbólico S3 en un nivel no admitido S3\$1tier\$1name. | Amazon FSx no pudo importar un objeto de enlace simbólico porque se encuentra en una clase de almacenamiento de Amazon S3 que no se admite, como la clase de almacenamiento S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. | S3SymlinkInUnsupportedTier | 
| Acceso denegado a S3 | ERROR | No se pudo importar el objeto de S3 con la clave key\$1value en el bucket de S3 bucket\$1name porque se denegó el acceso al objeto de S3. | Se denegó el acceso a Amazon S3 para una tarea de exportación e importación de un repositorio de datos. Para las tareas de importación, el sistema de archivos Amazon FSx debe tener permiso para realizar las operaciones `s3:HeadObject` y `s3:GetObject` para importar desde un repositorio de datos enlazados en S3. Para las tareas de importación, si su bucket de S3 utiliza cifrado del lado del servidor con claves administradas por el cliente almacenadas en AWS Key Management Service (SSE-KMS), debe seguir las configuraciones de política que se indican en [Trabajo con buckets de Amazon S3 cifrados del lado del servidor](s3-server-side-encryption-support.md).  | S3AccessDenied | 
| Eliminación del acceso denegado | ERROR | No se pudo eliminar el archivo local para el objeto de S3 con la clave key\$1value en el bucket de S3 bucket\$1name porque se denegó el acceso al objeto de S3. | Se denegó el acceso a un objeto de S3 a la importación automática. | N/A | 
| Objeto no compatible con POSIX | ERROR | No se pudo importar el objeto de S3 con la clave key\$1value en el bucket de S3 bucket\$1name porque el objeto de S3 no es compatible con POSIX. |  El objeto Amazon S3 existe, pero no se puede importar porque no es un objeto compatible con POSIX. Para obtener información acerca de los metadatos POSIX soportados, consulte [Soporte de metadatos POSIX para repositorios de datos](posix-metadata-support.md).  | S3ObjectPathNotPosixCompliant | 
| Discrepancia de tipos de objeto | ERROR | No se pudo importar el objeto S3 con la clave key\$1value en el bucket de S3 bucket\$1name porque ya se ha importado un objeto de S3 con el mismo nombre en el sistema de archivos. | El objeto de S3 que se está importando es de un tipo diferente (archivo o directorio) al de un objeto existente con el mismo nombre en el sistema de archivos. | S3ObjectTypeMismatch | 
| Error de actualización de metadatos del directorio | ERROR | No se pudieron actualizar los metadatos del directorio local debido a un error interno. | No se pudieron importar los metadatos de directorio debido a un error interno. | N/A | 
| No se ha encontrado el objeto S3 | ERROR | No se pudo importar el objeto de S3 con la clave key\$1value porque no se encontró en el bucket de S3 bucket\$1name. | Amazon FSx no pudo importar los metadatos de los archivos porque el objeto correspondiente no existe en el repositorio de datos. | S3FileDeleted | 
| Bucket de S3 no encontrado | ERROR | No se pudo importar el objeto de S3 con la clave key\$1value en el bucket de S3 bucket\$1name porque el bucket no existe. | Amazon FSx no puede importar automáticamente un objeto de S3 al sistema de archivos porque el bucket de S3 ya no existe. | N/A | 
| Bucket de S3 no encontrado | ERROR | No se pudo eliminar el archivo local para el objeto de S3 con la clave key\$1value en el bucket de S3 bucket\$1name porque el bucket no existe. | Amazon FSx no puede eliminar un archivo vinculado a un objeto de S3 en el sistema de archivos porque el bucket de S3 ya no existe. | N/A | 
| Error de creación de directorio | ERROR | No se pudo crear el directorio local debido a un error interno. | Amazon FSx no pudo importar automáticamente la creación de un directorio en el sistema de archivos debido a un error interno. | N/A | 
| El espacio en el disco está lleno | ERROR | No se pudo importar el objeto S3 con la clave key\$1value en el bucket de S3 bucket\$1name porque el sistema de archivos está lleno. | El sistema de archivos se quedó sin espacio en disco en el servidor de metadatos mientras se creaba el archivo o directorio. | N/A | 

## Exportación de eventos
<a name="export-event-logging"></a>


| Tipo de error | Nivel de registro | Mensajes de registro | Causa raíz | Código de error al finalizar el informe | 
| --- | --- | --- | --- | --- | 
| Acceso denegado | ERROR | No se pudo exportar el archivo porque se denegó el acceso al objeto de S3 con la clave key\$1value en el bucket de S3 bucket\$1name. | Se denegó el acceso a Amazon S3 para una tarea de exportación de un repositorio de datos. Para las tareas de exportación, el sistema de archivos de Amazon FSx debe tener permiso para realizar la operación `s3:PutObject` para exportar a un repositorio de datos vinculados en S3. Este permiso se concede en el rol vinculado al servicio `AWSServiceRoleForFSxS3Access_fs-0123456789abcdef0`. Para obtener más información, consulte [Uso de roles vinculados a servicios para Amazon FSx](using-service-linked-roles.md). Como la tarea de exportación requiere que los datos fluyan fuera de la VPC de un sistema de archivos, este error puede producirse si el repositorio de destino tiene una política de bucket que contenga una de las claves de condición globales de IAM `aws:SourceVpc` o `aws:SourceVpce`. Si su bucket de S3 contiene objetos cargados desde una Cuenta de AWS diferente a la de su cuenta de bucket de S3 vinculada al sistema de archivos, puede asegurarse de que sus tareas de repositorio de datos puedan modificar los metadatos de S3 o sobrescribir objetos de S3 independientemente de la cuenta que los haya cargado. Le recomendamos que habilite la característica de la propiedad de objetos de S3 en el bucket de S3. Esta característica le permite tomar posesión de los nuevos objetos que otras Cuentas de AWS suben en el bucket, al forzar las subidas para proporcionar la ACL `--acl bucket-owner-full-control` predefinida. Para habilitar la propiedad de objetos de S3, elija la opción que **prefiera el propietario del bucket** en su bucket de S3. Para obtener más información, consulte [Control de la propiedad de objetos cargados mediante la propiedad de objetos de S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/about-object-ownership.html) en la *Guía del usuario de Amazon S3*.  | S3AccessDenied | 
| La ruta de exportación es demasiado larga | ERROR | No se pudo exportar el archivo porque el tamaño de la ruta del archivo local supera la longitud máxima de clave de objeto admitida por S3. | La ruta de exportación es demasiado larga. La longitud máxima de la clave de objeto que admite S3 es de 1024 caracteres.  | PathSizeTooLong | 
| El archivo es demasiado grande | ERROR | No se pudo exportar el archivo porque su tamaño supera el tamaño máximo admitido para los objetos de S3. | El tamaño máximo de objeto que admite Amazon S3 es de 5 TiB. | FileSizeTooLarge | 
| No se encuentra la clave de KMS | ERROR | No se pudo exportar el archivo del objeto de S3 con la clave key\$1value en el bucket de S3 bucket\$1name porque no se encontró la clave de KMS del bucket. | Amazon FSx no pudo exportar el archivo porque AWS KMS key no se pudo encontrar. Asegúrese de utilizar una clave que esté en la misma Región de AWS que el bucket de S3. Para obtener más información sobre la creación de claves KMS, consulte [Creating keys (Creación de claves)](https://docs.aws.amazon.com/kms/latest/developerguide/create-keys.html) en la Guía para desarrolladores de AWS Key Management Service. | N/A | 
| Recurso ocupado | ERROR | No se pudo exportar el archivo porque lo está utilizando otro proceso. | Amazon FSx no pudo exportar el archivo porque lo estaba modificando otro cliente del sistema de archivos. Puede volver a intentar la tarea cuando el flujo de trabajo haya terminado de escribirse en el archivo. | ResourceBusy | 
| Archivo publicado | WARN | Exportación omitida: el archivo local está en estado liberado y no se ha encontrado un objeto de S3 vinculado con la clave key\$1value en el bucket bucket\$1name. | Amazon FSx no pudo exportar el archivo porque estaba publicado en el sistema de archivos. | N/A | 
| La ruta del repositorio de datos no coincide | WARN | Exportación omitida: el archivo local no pertenece a una ruta de sistema de archivos vinculada a un repositorio de datos. | Amazon FSx no pudo exportar porque el objeto no pertenece a una ruta del sistema de archivos vinculada a un repositorio de datos. | N/A | 
| Internal Failure (Error interno) | ERROR | La exportación automática detectó un error interno al exportar un objeto del sistema de archivos | La exportación ha fallado debido a un error interno (a nivel de autoexportación o de lustre). | N/A | 
| Error de carga del informe de finalización | ERROR | No se pudo cargar el informe de finalización de la tarea del repositorio de datos en bucket\$1name | Amazon FSx no ha podido cargar el informe de finalización. | N/A | 
| Error de validación del informe de finalización | ERROR | No se pudo cargar el informe de finalización de la tarea del repositorio de datos en el bucket bucket\$1name porque la ruta del informe de finalización, report\$1path, no pertenece a un repositorio de datos asociado a este sistema de archivos | Amazon FSx no pudo cargar el informe de finalización porque la ruta S3 proporcionada por el cliente no pertenece a un repositorio de datos vinculado. | N/A | 

## Eventos de restauración de HSM
<a name="hsm-restore-event-logging"></a>


| Tipo de error | Nivel de registro | Mensajes de registro | Causa raíz | 
| --- | --- | --- | --- | 
| Acceso denegado | ERROR | No se pudo restaurar el archivo porque se denegó el acceso al objeto de S3 con la clave object\$1name en el bucket de S3 bucket\$1name. | Se denegó el acceso al S3 de Amazon al intentar restaurar un archivo mediante comandos de HSM. El sistema de archivos Amazon FSx debe tener permiso para realizar las operaciones `s3:HeadObject` y `s3:GetObject` para restaurar desde el repositorio de datos enlazados en S3. | 
| Clase de almacenamiento de S3 no compatibles | WARN | No se pudo restaurar el archivo porque el objeto S3 object\$1name de del bucket bucket\$1name estaba en un S3\$1storage\$1class \$1name no compatible. | Amazon FSx no pudo restaurar el archivo porque el objeto de S3 correspondiente se encuentra en una clase de almacenamiento de S3 que no se admite, como S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. Primero debe restaurar el objeto de la clase de almacenamiento Glacier antes de usar `hsm_restore`. | 
| No se ha encontrado el objeto S3 | ERROR | No se pudo restaurar el archivo porque el objeto S3 con la clave key\$1value no se encontró en el bucket de S3 bucket\$1name. | Amazon FSx no pudo restaurar el archivo porque el objeto S3 correspondiente no existe en el repositorio de datos. | 
| Bucket de S3 no encontrado | ERROR | No se pudo restaurar el archivo porque el bucket de S3 bucket\$1name no existe. | Amazon FSx no puede restaurar el archivo porque el bucket del S3 vinculado ya no existe. | 
| El espacio en el disco está lleno | ERROR | No se pudo restaurar el archivo porque no había espacio de almacenamiento disponible en el sistema de archivos. | El sistema de archivos se quedó sin espacio de almacenamiento disponible al intentar restaurar los datos del archivo desde el S3. Considere aumentar la capacidad de almacenamiento del sistema de archivos o liberar archivos para liberar espacio. | 

# Trabajar con tipos de implementación antiguos
<a name="older-deployment-types"></a>

Esta sección se aplica a los sistemas de archivos con tipo de implementación Scratch 1, y también a los sistemas de archivos con tipos de implementación `Scratch 2` o `Persistent 1` que no utilizan asociaciones de repositorios de datos. Tenga en cuenta que la exportación automática y la compatibilidad con varios repositorios de datos no están disponibles en los sistemas FSx de archivos de Lustre que no utilizan asociaciones de repositorios de datos.

**Topics**
+ [Vincular su sistema de archivos a un bucket de Amazon S3](#legacy-link-to-S3)
+ [Importar automáticamente actualizaciones desde un bucket de S3](#legacy-auto-import-from-s3)

## Vincular su sistema de archivos a un bucket de Amazon S3
<a name="legacy-link-to-S3"></a>

Al crear un sistema de archivos Amazon FSx for Lustre, puede vincularlo a un repositorio de datos duradero en Amazon S3. Antes de crear su sistema de archivos, asegúrese de que ya haya creado el bucket de Amazon S3 al que va a realizar el enlace. En el asistente **Crear sistema de archivos**, se establecen las siguientes propiedades de configuración del repositorio de datos en el panel opcional **Importar/Exportar repositorio de datos**.
+ Elige cómo Amazon FSx mantiene actualizada tu lista de archivos y directorios a medida que añades o modificas objetos en tu bucket de S3 una vez creado el sistema de archivos. Para obtener más información, consulte [Importar automáticamente actualizaciones desde un bucket de S3](#legacy-auto-import-from-s3).
+ **Importar bucket:**: ingrese el nombre del bucket de S3 que está utilizando para el repositorio vinculado.
+ **Prefijo de importación**: introduzca un prefijo de importación opcional si desea importar solo algunos listados de datos de archivos y directorios de su bucket de S3 a su sistema de archivos. El prefijo de importación define desde qué lugar del bucket de S3 se van a importar los datos.
+ **Prefijo de exportación**: define dónde FSx exporta Amazon el contenido de tu sistema de archivos al bucket de S3 vinculado.

Puede tener un mapeo 1:1 en el que Amazon FSx exporte los datos de su sistema de archivos FSx for Lustre a los mismos directorios del bucket de S3 desde el que se importaron. Para tener una asignación 1:1, especifique una ruta de exportación al bucket de S3 sin prefijos cuando cree su sistema de archivos.
+ Al crear un sistema de archivos mediante la consola, elija la opción **Exportar prefijo > El prefijo que especifique** y deje el campo del prefijo en blanco.
+ Al crear un sistema de archivos mediante la AWS CLI o la API, especifique la ruta de exportación como el nombre del bucket de S3 sin prefijos adicionales, por ejemplo,`ExportPath=s3://amzn-s3-demo-bucket/`.

Utilizando este método, puede incluir un prefijo de importación cuando especifique la ruta de importación, y no afecta a una asignación 1:1 para las exportaciones.

### Creación de sistemas de archivos vinculados a un bucket de S3
<a name="legacy-create-linked-S3"></a>

Los siguientes procedimientos le guiarán por el proceso de creación de un sistema de FSx archivos de Amazon vinculado a un bucket de S3 mediante la consola de AWS administración y la interfaz de línea de AWS comandos (AWS CLI).

------
#### [ Console ]

1. Abre la FSx consola de Amazon en [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. En el panel, elija **Crear sistema de archivos**.

1. Para el tipo de sistema de archivos, selecciona **FSx Lustre** y, a continuación, selecciona **Siguiente**.

1. Proporcione la información necesaria para las secciones **Información del sistema de archivos** y **Red y seguridad**. Para obtener más información, consulte [Paso 1: crear un sistema de archivos FSx para Lustre](getting-started.md#getting-started-step1).

1. Utilice el panel de **Importación/Exportación de repositorios de datos** para configurar un repositorio de datos vinculados en Amazon S3. Seleccione **Importar datos y exportar datos a S3** para ampliar la sección **Importación/Exportación del repositorio de datos** y configurar los ajustes del repositorio de datos.  
![\[Panel de importación y exportación de repositorios de datos para configurar un repositorio de datos vinculados en Amazon S3.\]](http://docs.aws.amazon.com/es_es/fsx/latest/LustreGuide/images/legacy-data-repository-import-export.png)

1. Elige cómo Amazon FSx mantiene actualizada tu lista de archivos y directorios a medida que añades o modificas objetos en tu bucket de S3. Al crear el sistema de archivos, los objetos de S3 existentes aparecen como descripciones de archivos y directorios.
   + **Actualizar mi lista de archivos y directorios a medida que se añaden objetos a mi bucket de S3**: (predeterminado) Amazon actualiza FSx automáticamente las listas de archivos y directorios de cualquier objeto nuevo que se añada al bucket de S3 vinculado y que no exista actualmente en el sistema de FSx archivos. Amazon FSx no actualiza los listados de objetos que han cambiado en el bucket de S3. Amazon FSx no elimina las listas de objetos que se eliminan en el bucket de S3.
**nota**  
La configuración predeterminada de las preferencias de importación para importar datos de un bucket de S3 vinculado mediante la CLI y la API es `NONE`. La configuración predeterminada de las preferencias de importación al usar la consola es actualizar Lustre a medida que se agregan nuevos objetos al bucket de S3.
   + **Actualizar mi lista de archivos y directorios a medida que se añaden o modifican objetos en mi bucket de S3**: Amazon actualiza FSx automáticamente las listas de archivos y directorios de cualquier objeto nuevo que se añada al bucket de S3 y de cualquier objeto existente que se modifique en el bucket de S3 después de seleccionar esta opción. Amazon FSx no elimina las listas de objetos que se eliminan en el bucket de S3.
   + **Actualizar mi lista de archivos y directorios a medida que se añaden, modifican o eliminan objetos de mi bucket de S3**: Amazon actualiza FSx automáticamente las listas de archivos y directorios de cualquier objeto nuevo que se añada al bucket de S3, de cualquier objeto existente que se modifique en el bucket de S3 y de cualquier objeto existente que se elimine en el bucket de S3 después de seleccionar esta opción.
   + **No actualice mi archivo ni mi lista directamente cuando añada, modifique o elimine objetos de mi bucket de S3**: Amazon FSx solo actualiza las listas de archivos y directorios del bucket de S3 vinculado cuando se crea el sistema de archivos. FSx no actualiza las listas de archivos y directorios de ningún objeto nuevo, modificado o eliminado después de seleccionar esta opción.

1. Introduzca un **prefijo de importación** opcional si desea importar solo algunos de los listados de archivos y directorios de datos de su bucket de S3 en el sistema de archivos. El prefijo de importación define desde qué lugar del bucket de S3 se van a importar los datos. Para obtener más información, consulte [Importe automáticamente actualizaciones desde un bucket de S3](autoimport-data-repo-dra.md).

1. Elija una de las opciones de **Prefijo de exportación** disponibles:
   + **Un prefijo exclusivo que Amazon FSx crea en tu bucket**: elige esta opción para exportar objetos nuevos y modificados con un prefijo generado por FSx for Lustre. El resultado es similar al siguiente: `/FSxLustrefile-system-creation- timestamp`. La marca temporal está en formato UTC. Por ejemplo `FSxLustre20181105T222312Z`.
   + **El mismo prefijo del que importó (sustituya los objetos existentes por los actualizados)**: seleccione esta opción para reemplazar los objetos existentes por otros actualizados.
   + **Un prefijo que especifique**: elija esta opción para conservar los datos importados y exportar los objetos nuevos y modificados con el prefijo que especifique. Para lograr un mapeo 1:1 al exportar datos a su bucket de S3, elija esta opción y deje el campo del prefijo en blanco. FSx exportará los datos a los mismos directorios desde los que se importaron.

1. (Opcional) Establezca las **Preferencias de mantenimiento** o utilice los valores predeterminados del sistema.

1. Elija **Siguiente** y revise la configuración. Realice los cambios necesarios.

1. Seleccione **Crear sistema de archivos**.

------
#### [ AWS CLI ]

El siguiente ejemplo crea un sistema de FSx archivos de Amazon vinculado al`amzn-s3-demo-bucket`, con una preferencia de importación que importa cualquier archivo nuevo, modificado o eliminado del repositorio de datos vinculado una vez creado el sistema de archivos.

**nota**  
La configuración predeterminada de las preferencias de importación para importar datos de un bucket de S3 vinculado mediante la CLI y la API es `NONE`, que es diferente del comportamiento predeterminado cuando se utiliza la consola.

Para crear un sistema de archivos FSx para Lustre, utilice el comando Amazon FSx CLI [https://docs.aws.amazon.com/cli/latest/reference/fsx/create-file-system.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/create-file-system.html), como se muestra a continuación. La operación de API correspondiente es [https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html).

```
$ aws fsx create-file-system \
--client-request-token CRT1234 \
--file-system-type LUSTRE \
--file-system-type-version 2.10 \
--lustre-configuration
AutoImportPolicy=NEW_CHANGED_DELETED,DeploymentType=SCRATCH_1,ImportPath=s
3://amzn-s3-demo-bucket/,ExportPath=s3://amzn-s3-demo-bucket/export,
PerUnitStorageThroughput=50 \
--storage-capacity 2400 \
--subnet-ids subnet-123456 \
--tags Key=Name,Value=Lustre-TEST-1 \
--region us-east-2
```

Tras crear correctamente el sistema de archivos, Amazon FSx devuelve la descripción del sistema de archivos en formato JSON, como se muestra en el siguiente ejemplo.

```
{
    "FileSystems": [
        {
            "OwnerId": "owner-id-string",
            "CreationTime": 1549310341.483,
            "FileSystemId": "fs-0123456789abcdef0",
            "FileSystemType": "LUSTRE",
            "FileSystemTypeVersion": "2.10",
            "Lifecycle": "CREATING",
            "StorageCapacity": 2400,
            "VpcId": "vpc-123456",
            "SubnetIds": [
                "subnet-123456"
            ],
            "NetworkInterfaceIds": [
                "eni-039fcf55123456789"
            ],
            "DNSName": "fs-0123456789abcdef0.fsx.us-east-2.amazonaws.com",
            "ResourceARN": "arn:aws:fsx:us-east-2:123456:file-system/fs-0123456789abcdef0",
            "Tags": [
                {
                    "Key": "Name",
                    "Value": "Lustre-TEST-1"
                }
            ],
            "LustreConfiguration": {
                "DeploymentType": "PERSISTENT_1",
                "DataRepositoryConfiguration": {
                    "AutoImportPolicy": "NEW_CHANGED_DELETED",
                    "Lifecycle": "UPDATING",
                    "ImportPath": "s3://amzn-s3-demo-bucket/",
                    "ExportPath": "s3://amzn-s3-demo-bucket/export",
                    "ImportedFileChunkSize": 1024
                },
                "PerUnitStorageThroughput": 50
            }
        }
    ]
}
```

------

### Visualización de la ruta de exportación de un sistema de archivos
<a name="legacy-view-export"></a>

Puede ver la ruta de exportación de un sistema de archivos mediante la consola FSx for Lustre, la AWS CLI y la API.

------
#### [ Console ]

1. Abre la FSx consola de Amazon en [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/)

1. Elija **el nombre del sistema** de **archivos o el ID del sistema** de archivos FSx para el sistema de archivos de Lustre cuya ruta de exportación desee ver.

    Aparecerá la página de detalles del sistema de archivos correspondiente.

1. Elija la pestaña **Repositorio de datos**.

   Aparece el panel de **Integración del repositorio de datos** que muestra las rutas de importación y exportación.

![\[Las rutas de importación y exportación del repositorio de datos en el panel de integración del repositorio de datos.\]](http://docs.aws.amazon.com/es_es/fsx/latest/LustreGuide/images/legacy-view-export-path.png)


------
#### [ CLI ]

Para determinar la ruta de exportación del sistema de archivos, utilice el comando [https://docs.aws.amazon.com/cli/latest/reference/fsx/describe-file-systems.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/describe-file-systems.html) AWS CLI.

```
aws fsx describe-file-systems
```

Busque la propiedad `ExportPath` en `LustreConfiguration` en la respuesta.

```
{
    "OwnerId": "111122223333",
    "CreationTime": 1563382847.014,
    "FileSystemId": "",
    "FileSystemType": "LUSTRE",
    "Lifecycle": "AVAILABLE",
    "StorageCapacity": 2400,
    "VpcId": "vpc-6296a00a",
    "SubnetIds": [
        "subnet-1111111"
    ],
    "NetworkInterfaceIds": [
        "eni-0c288d5b8cc06c82d",
        "eni-0f38b702442c6918c"
    ],
    "DNSName": "fs-0123456789abcdef0.fsx.us-east-2.amazonaws.com",
    "ResourceARN": "arn:aws:fsx:us-east-2:267731178466:file-system/fs-0123456789abcdef0",
    "Tags": [
        {
          "Key": "Name",
          "Value": "Lustre System"
        }
    ],
	"LustreConfiguration": {
    "DeploymentType": "SCRATCH_1",
    "DataRepositoryConfiguration": {
    "AutoImportPolicy": " NEW_CHANGED_DELETED",
    "Lifecycle": "AVAILABLE",
    "ImportPath": "s3://amzn-s3-demo-bucket/",
    "ExportPath": "s3://amzn-s3-demo-bucket/FSxLustre20190717T164753Z",
    "ImportedFileChunkSize": 1024
    }
  },
  "PerUnitStorageThroughput": 50,
  "WeeklyMaintenanceStartTime": "6:09:30"
}
```

------

### Estado del ciclo de vida del repositorio de datos
<a name="legacy-data-lifecycle"></a>

El estado del ciclo de vida del repositorio de datos proporciona información de estado sobre el repositorio de datos vinculado del sistema de archivos. Un repositorio de datos puede tener los siguientes estados de ciclo de vida.
+ **Creación**: Amazon FSx está creando la configuración del repositorio de datos entre el sistema de archivos y el repositorio de datos vinculado. El repositorio de datos no está disponible.
+ **Disponible**: El repositorio de datos está disponible para su uso.
+ **Actualizando**: La configuración del repositorio de datos está siendo objeto de una actualización iniciada por el cliente que podría afectar a su disponibilidad.
+ Configuración **incorrecta**: Amazon FSx no puede importar automáticamente las actualizaciones del bucket de S3 hasta que se corrija la configuración del repositorio de datos. Para obtener más información, consulte [Resolución de problemas de un bucket de S3 vinculado mal configurado](troubleshooting-misconfigured-data-repository.md).

Puede ver el estado del ciclo de vida del repositorio de datos vinculado de un sistema de archivos mediante la FSx consola de Amazon, la interfaz de línea de AWS comandos y la FSx API de Amazon. En la FSx consola de Amazon, puede acceder al **estado del ciclo de vida del** repositorio de **datos en el panel Integración del repositorio** de **datos de la pestaña Repositorio** de datos del sistema de archivos. La propiedad `Lifecycle` se encuentra en el objeto `DataRepositoryConfiguration` en la respuesta a un comando de CLI [https://docs.aws.amazon.com/cli/latest/reference/fsx/describe-file-systems.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/describe-file-systems.html) (la acción de API equivalente es [https://docs.aws.amazon.com/fsx/latest/APIReference/API_DescribeFileSystems.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_DescribeFileSystems.html)).

## Importar automáticamente actualizaciones desde un bucket de S3
<a name="legacy-auto-import-from-s3"></a>

De forma predeterminada, al crear un nuevo sistema de archivos, Amazon FSx importa los metadatos del archivo (el nombre, la propiedad, la marca de tiempo y los permisos) de los objetos del depósito de S3 vinculado en el momento de la creación del sistema de archivos. Puede configurar su sistema de archivos de Lustre FSx para que importe automáticamente los metadatos de los objetos que se añadan, modifiquen o eliminen de su depósito de S3 tras la creación del sistema de archivos. FSx for Lustre actualiza la lista de archivos y directorios de un objeto modificado tras su creación, del mismo modo que importa los metadatos del archivo al crear el sistema de archivos. Cuando Amazon FSx actualiza la lista de archivos y directorios de un objeto modificado, si el objeto modificado del bucket de S3 ya no contiene sus metadatos, Amazon FSx mantiene los valores de metadatos actuales del archivo, en lugar de utilizar los permisos predeterminados.

**nota**  
La configuración de importación está disponible en FSx los sistemas de archivos Lustre creados después de las 15:00 EDT del 23 de julio de 2020.

Puede establecer las preferencias de importación al crear un nuevo sistema de archivos y actualizar la configuración en los sistemas de archivos existentes mediante la consola de FSx administración, la AWS CLI y la AWS API. Al crear el sistema de archivos, los objetos de S3 existentes aparecen como descripciones de archivos y directorios. Después de crear su sistema de archivos, ¿cómo desea actualizarlo a medida que se actualiza el contenido de su bucket de S3? Un sistema de archivos puede tener una de las siguientes preferencias de importación:

**nota**  
El sistema FSx de archivos de Lustre y su depósito de S3 vinculado deben estar ubicados en la misma AWS región para poder importar automáticamente las actualizaciones.
+ **Actualizar mi lista de archivos y directorios a medida que se añaden objetos a mi bucket de S3**: (predeterminado) Amazon actualiza FSx automáticamente las listas de archivos y directorios de cualquier objeto nuevo que se añada al bucket de S3 vinculado y que no exista actualmente en el sistema de FSx archivos. Amazon FSx no actualiza los listados de objetos que han cambiado en el bucket de S3. Amazon FSx no elimina las listas de objetos que se eliminan en el bucket de S3.
**nota**  
La configuración predeterminada de las preferencias de importación para importar datos de un bucket de S3 vinculado mediante la CLI y la API es `NONE`. La configuración predeterminada de las preferencias de importación al usar la consola es actualizar Lustre a medida que se agregan nuevos objetos al bucket de S3.
+ **Actualizar mi lista de archivos y directorios a medida que se añaden o modifican objetos en mi bucket de S3**: Amazon actualiza FSx automáticamente las listas de archivos y directorios de cualquier objeto nuevo que se añada al bucket de S3 y de cualquier objeto existente que se modifique en el bucket de S3 después de seleccionar esta opción. Amazon FSx no elimina las listas de objetos que se eliminan en el bucket de S3.
+ **Actualizar mi lista de archivos y directorios a medida que se añaden, modifican o eliminan objetos de mi bucket de S3**: Amazon actualiza FSx automáticamente las listas de archivos y directorios de cualquier objeto nuevo que se añada al bucket de S3, de cualquier objeto existente que se modifique en el bucket de S3 y de cualquier objeto existente que se elimine en el bucket de S3 después de seleccionar esta opción.
+ **No actualice mi archivo ni mi lista directamente cuando añada, modifique o elimine objetos de mi bucket de S3**: Amazon FSx solo actualiza las listas de archivos y directorios del bucket de S3 vinculado cuando se crea el sistema de archivos. FSx no actualiza las listas de archivos y directorios de ningún objeto nuevo, modificado o eliminado después de seleccionar esta opción.

Al configurar las preferencias de importación para actualizar los listados de archivos y directorios del sistema de archivos en función de los cambios en el bucket de S3 vinculado, Amazon FSx crea una configuración de notificación de eventos en el bucket de S3 vinculado denominado`FSx`. No modifique ni elimine la configuración de notificación de eventos `FSx` en el bucket de S3, ya que esto impide la importación automática de listados de archivos y directorios nuevos o modificados a su sistema de archivos. 

Cuando Amazon FSx actualiza una lista de archivos que ha cambiado en el bucket de S3 vinculado, sobrescribe el archivo local con la versión actualizada, incluso si el archivo tiene la escritura bloqueada. Del mismo modo, cuando Amazon FSx actualiza una lista de archivos cuando se ha eliminado el objeto correspondiente en el bucket de S3 vinculado, elimina el archivo local, incluso si el archivo está bloqueado por escritura.

Amazon FSx hace todo lo posible por actualizar tu sistema de archivos. Amazon FSx no puede actualizar el sistema de archivos con cambios en las siguientes situaciones:
+ Cuando Amazon FSx no tiene permiso para abrir el objeto S3 nuevo o modificado.
+ Cuando se elimina o modifica la configuración de notificación de eventos `FSx` en el bucket S3 vinculado.

Cualquiera de estas condiciones provoca que el estado del ciclo de vida del repositorio de datos se convierta en **Mal configurado**. Para obtener más información, consulte [Estado del ciclo de vida del repositorio de datos](#legacy-data-lifecycle).

### Requisitos previos
<a name="legacy-auto-import-prereq"></a>

Se requieren las siguientes condiciones para FSx que Amazon importe automáticamente los archivos nuevos, modificados o eliminados del bucket de S3 vinculado:
+ El sistema de archivos y su bucket S3 vinculado deben estar ubicados en la misma Región AWS .
+ El bucket S3 no tiene un estado de ciclo de vida mal configurado. Para obtener más información, consulte [Estado del ciclo de vida del repositorio de datos](#legacy-data-lifecycle).
+ Su cuenta debe tener los permisos necesarios para configurar y recibir notificaciones de eventos en el bucket de S3 vinculado.

### Tipos de cambios de archivos compatibles
<a name="legacy-file-types-supported"></a>

Amazon FSx admite la importación de los siguientes cambios en los archivos y carpetas que se producen en el bucket de S3 vinculado:
+ Cambios en el contenido de los archivos
+ Cambios en los metadatos de archivos o carpetas
+ Cambios en el destino o los metadatos del enlace simbólico

  

### Actualización de las preferencias de importación
<a name="legacy-update-import-pref"></a>

Puede configurar las preferencias de importación de un sistema de archivos al crear un nuevo sistema de archivos. Para obtener más información, consulte [Vincular el sistema de archivos a un bucket de Amazon S3](create-dra-linked-data-repo.md).

También puede actualizar las preferencias de importación de un sistema de archivos después de crearlo mediante la consola de AWS administración, la AWS CLI y la FSx API de Amazon, como se muestra en el siguiente procedimiento.

------
#### [ Console ]

1. Abre la FSx consola de Amazon en [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. En el panel, elija **Sistemas de archivos**.

1. Seleccione el sistema de archivos que desee gestionar para ver los detalles del sistema de archivos.

1. Elija **Repositorio de datos** para ver la configuración del repositorio de datos. Puede modificar las preferencias de importación si el estado del ciclo de vida es **DISPONIBLE** o **MAL CONFIGURADO**. Para obtener más información, consulte [Estado del ciclo de vida del repositorio de datos](#legacy-data-lifecycle).

1. Seleccione **Acciones** y, a continuación, elija **Actualizar preferencias de importación** para mostrar el cuadro de diálogo **Actualizar preferencias de importación**.

1. Seleccione la nueva configuración y, a continuación, elija **Actualizar** para realizar el cambio.

------
#### [ CLI ]

Para actualizar las preferencias de importación, utilice el comando CLI [https://docs.aws.amazon.com/cli/latest/reference/fsx/update-file-system.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/update-file-system.html). La operación de API correspondiente es [https://docs.aws.amazon.com/fsx/latest/APIReference/API_UpdateFileSystem.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_UpdateFileSystem.html). 

Tras actualizar correctamente el sistema de archivos`AutoImportPolicy`, Amazon FSx devuelve la descripción del sistema de archivos actualizado en formato JSON, tal y como se muestra a continuación:

```
{
    "FileSystems": [
        {
            "OwnerId": "111122223333",
            "CreationTime": 1549310341.483,
            "FileSystemId": "fs-0123456789abcdef0",
            "FileSystemType": "LUSTRE",
            "Lifecycle": "UPDATING",
            "StorageCapacity": 2400,
            "VpcId": "vpc-123456",
            "SubnetIds": [
                "subnet-123456"
            ],
            "NetworkInterfaceIds": [
                "eni-039fcf55123456789"
            ],
            "DNSName": "fs-0123456789abcdef0.fsx.us-east-2.amazonaws.com",
            "ResourceARN": "arn:aws:fsx:us-east-2:123456:file-system/fs-0123456789abcdef0",
            "Tags": [
                {
                    "Key": "Name",
                    "Value": "Lustre-TEST-1"
                }
            ],
            "LustreConfiguration": {
                "DeploymentType": "SCRATCH_1",
                "DataRepositoryConfiguration": {
                    "AutoImportPolicy": "NEW_CHANGED_DELETED",
                    "Lifecycle": "UPDATING",
                    "ImportPath": "s3://amzn-s3-demo-bucket/",
                    "ExportPath": "s3://amzn-s3-demo-bucket/export",
                    "ImportedFileChunkSize": 1024
                }
                "PerUnitStorageThroughput": 50,
                "WeeklyMaintenanceStartTime": "2:04:30"
            }
        }
    ]
}
```

------