

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Configuración
<a name="configuration"></a>

De forma predeterminada, AWS ParallelCluster utiliza el `~/.parallelcluster/config` archivo para todos los parámetros de configuración. Puede especificar un archivo de configuración personalizado mediante la opción de la línea de comandos `-c` o `--config`, o la variable de entorno `AWS_PCLUSTER_CONFIG_FILE`.

Se instala un archivo de configuración de ejemplo AWS ParallelCluster en el directorio de Python en`site-packages/aws-parallelcluster/examples/config`. El archivo de configuración de ejemplo también está disponible en GitHub, en[https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config).

Versión AWS ParallelCluster 2 actual: 2.11.9.

**Topics**
+ [

## Diseño
](#layout)
+ [

# Sección de `[global]`
](global.md)
+ [

# Sección de `[aws]`
](aws.md)
+ [

# Sección de `[aliases]`
](aliases.md)
+ [

# Sección de `[cluster]`
](cluster-definition.md)
+ [

# Sección de `[compute_resource]`
](compute-resource-section.md)
+ [

# Sección de `[cw_log]`
](cw-log-section.md)
+ [

# Sección de `[dashboard]`
](dashboard-section.md)
+ [

# Sección de `[dcv]`
](dcv-section.md)
+ [

# Sección de `[ebs]`
](ebs-section.md)
+ [

# Sección de `[efs]`
](efs-section.md)
+ [

# Sección de `[fsx]`
](fsx-section.md)
+ [

# Sección de `[queue]`
](queue-section.md)
+ [

# Sección de `[raid]`
](raid-section.md)
+ [

# Sección de `[scaling]`
](scaling-section.md)
+ [

# Sección de `[vpc]`
](vpc-section.md)
+ [

# Ejemplos
](examples.md)

## Diseño
<a name="layout"></a>

Una AWS ParallelCluster configuración se define en varias secciones.

Las siguientes secciones son obligatorias: [sección `[global]`](global.md) y [sección `[aws]`](aws.md).

También debe incluir al menos una [sección `[cluster]`](cluster-definition.md) y una [sección `[vpc]`](vpc-section.md).

Las secciones comienzan con el nombre de sección entre corchetes, seguido de los parámetros y la configuración.

```
[global]
cluster_template = default
update_check = true
sanity_check = true
```

# Sección de `[global]`
<a name="global"></a>

Especifica opciones de configuración globales relacionadas con `pcluster`.

```
[global]
```

**Topics**
+ [

## `cluster_template`
](#cluster-template)
+ [

## `update_check`
](#update-check)
+ [

## `sanity_check`
](#sanity-check)

## `cluster_template`
<a name="cluster-template"></a>

Define el nombre de la sección `cluster` que se usa para el clúster de forma predeterminada. Para obtener más información sobre las secciones `cluster`, consulte la [sección `[cluster]`](cluster-definition.md). El nombre del clúster debe comenzar por una letra, contener no más de 60 caracteres y solo letras, números y guiones (-).

Por ejemplo, la siguiente configuración especifica que la sección que comienza `[cluster default]` se utilice de forma predeterminada.

```
cluster_template = default
```

[Política de actualización: esta configuración no se analiza durante una actualización.](using-pcluster-update.md#update-policy-setting-ignored)

## `update_check`
<a name="update-check"></a>

**(Opcional)** Compruebe si hay actualizaciones de `pcluster`.

El valor predeterminado es `true`.

```
update_check = true
```

[Política de actualización: esta configuración no se analiza durante una actualización.](using-pcluster-update.md#update-policy-setting-ignored)

## `sanity_check`
<a name="sanity-check"></a>

**(Opcional)** Se usa para validar la configuración de los recursos que se definen en los parámetros de clúster.

El valor predeterminado es `true`.

**aviso**  
Si `sanity_check` se establece en `false`, se omiten comprobaciones importantes. Esto podría provocar que la configuración no funcione según lo previsto.

```
sanity_check = true
```

**nota**  
Antes de AWS ParallelCluster la versión 2.5.0, [`sanity_check`](#sanity-check) por defecto era. `false`

[Política de actualización: esta configuración no se analiza durante una actualización.](using-pcluster-update.md#update-policy-setting-ignored)

# Sección de `[aws]`
<a name="aws"></a>

**(Opcional)** Se utiliza para seleccionar el Región de AWS.

La creación de clústeres utiliza este orden de prioridad Región de AWS para seleccionar el clúster nuevo:

1. Parámetro `-r` o `--region` para [`pcluster create`](pluster.create.md).

1. `AWS_DEFAULT_REGION` variable de entorno

1. `aws_region_name`configuración en `[aws]` la sección del archivo de AWS ParallelCluster configuración (la ubicación predeterminada es`~/.parallelcluster/config`.) Esta es la ubicación actualizada por el comando [`pcluster configure`](pcluster.configure.md).

1. `region`configuración en `[default]` la sección del archivo de AWS CLI configuración (`~/.aws/config`.)

**nota**  
Antes de AWS ParallelCluster la versión 2.10.0, estos ajustes eran obligatorios y se aplicaban a todos los clústeres.

Para almacenar las credenciales, puede utilizar el entorno, las funciones de IAM para Amazon o las EC2 [AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html), en lugar de guardar las credenciales en el archivo de AWS ParallelCluster configuración.

```
[aws]
aws_region_name = Region
```

[Política de actualización: esta configuración no se analiza durante una actualización.](using-pcluster-update.md#update-policy-setting-ignored)

# Sección de `[aliases]`
<a name="aliases"></a>

**Topics**

Especifica los alias y le permite personalizar el comando `ssh`.

Tenga en cuenta la configuración predeterminada siguiente:
+ `CFN_USER` se establece en el nombre de usuario predeterminado para el sistema operativo
+ `MASTER_IP` se establece en la dirección IP del nodo principal
+ `ARGS` se establece con los argumentos que el usuario proporcione después de *`pcluster ssh cluster_name`*

```
[aliases]
# This is the aliases section, you can configure
# ssh alias here
ssh = ssh {CFN_USER}@{MASTER_IP} {ARGS}
```

[Política de actualización: esta configuración no se analiza durante una actualización.](using-pcluster-update.md#update-policy-setting-ignored)

# Sección de `[cluster]`
<a name="cluster-definition"></a>

Define una plantilla de clúster que se puede utilizar para crear un clúster. Un archivo de configuración puede contener varias secciones de `[cluster]`.

Se puede usar la misma plantilla de clúster para crear varios clústeres.

El formato es `[cluster cluster-template-name]`. La [sección de `[cluster]`](#cluster-definition) nombrada por la configuración de [`cluster_template`](global.md#cluster-template) de la [sección de `[global]`](global.md) se usa de forma predeterminada, pero se puede anular en la línea de comandos de [`pcluster`](pcluster.md).

*cluster-template-name*debe empezar por una letra, no contener más de 30 caracteres y contener únicamente letras, números, guiones (-) y guiones bajos (\$1).

```
[cluster default]
```

**Topics**
+ [

## `additional_cfn_template`
](#additional-cfn-template)
+ [

## `additional_iam_policies`
](#additional-iam-policies)
+ [

## `base_os`
](#base-os)
+ [

## `cluster_resource_bucket`
](#cluster-resource-bucket-section)
+ [

## `cluster_type`
](#cluster-type)
+ [

## `compute_instance_type`
](#compute-instance-type)
+ [

## `compute_root_volume_size`
](#compute-root-volume-size)
+ [

## `custom_ami`
](#custom-ami-section)
+ [

## `cw_log_settings`
](#cw-log-settings)
+ [

## `dashboard_settings`
](#dashboard-settings)
+ [

## `dcv_settings`
](#dcv-settings)
+ [

## `desired_vcpus`
](#desired-vcpus)
+ [

## `disable_cluster_dns`
](#disable-cluster-dns-settings)
+ [

## `disable_hyperthreading`
](#disable-hyperthreading)
+ [

## `ebs_settings`
](#ebs-settings)
+ [

## `ec2_iam_role`
](#ec2-iam-role)
+ [

## `efs_settings`
](#efs-settings)
+ [

## `enable_efa`
](#enable-efa)
+ [

## `enable_efa_gdr`
](#enable-efa-gdr)
+ [

## `enable_intel_hpc_platform`
](#enable-intel-hpc-platform)
+ [

## `encrypted_ephemeral`
](#encrypted-ephemeral)
+ [

## `ephemeral_dir`
](#ephemeral-dir)
+ [

## `extra_json`
](#extra-json)
+ [

## `fsx_settings`
](#fsx-settings)
+ [

## `iam_lambda_role`
](#iam-lambda-role)
+ [

## `initial_queue_size`
](#configuration-initial-queue-size)
+ [

## `key_name`
](#key-name)
+ [

## `maintain_initial_size`
](#maintain-initial-size)
+ [

## `master_instance_type`
](#master-instance-type)
+ [

## `master_root_volume_size`
](#master-root-volume-size)
+ [

## `max_queue_size`
](#configuration-max-queue-size)
+ [

## `max_vcpus`
](#max-vcpus)
+ [

## `min_vcpus`
](#min-vcpus)
+ [

## `placement`
](#placement)
+ [

## `placement_group`
](#placement-group)
+ [

## `post_install`
](#post-install)
+ [

## `post_install_args`
](#post-install-args)
+ [

## `pre_install`
](#pre-install)
+ [

## `pre_install_args`
](#pre-install-args)
+ [

## `proxy_server`
](#proxy-server)
+ [

## `queue_settings`
](#queue-settings)
+ [

## `raid_settings`
](#raid-settings)
+ [

## `s3_read_resource`
](#s3-read-resource)
+ [

## `s3_read_write_resource`
](#s3-read-write-resource)
+ [

## `scaling_settings`
](#scaling-settings)
+ [

## `scheduler`
](#scheduler)
+ [

## `shared_dir`
](#cluster-shared-dir)
+ [

## `spot_bid_percentage`
](#spot-bid-percentage)
+ [

## `spot_price`
](#spot-price)
+ [

## `tags`
](#tags)
+ [

## `template_url`
](#template-url)
+ [

## `vpc_settings`
](#vpc-settings)

## `additional_cfn_template`
<a name="additional-cfn-template"></a>

**(Opcional)** Define una AWS CloudFormation plantilla adicional para lanzarla junto con el clúster. Esta plantilla adicional se utiliza para la creación de recursos que existen fuera del clúster pero que forman parte del ciclo de vida de este.

Este valor tiene que ser una dirección URL HTTP a una plantilla pública con todos los parámetros incluidos.

No hay valor predeterminado.

```
additional_cfn_template = https://<bucket-name>.s3.amazonaws.com/my-cfn-template.yaml
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `additional_iam_policies`
<a name="additional-iam-policies"></a>

**(Opcional)** Especifica una lista de nombres de recursos de Amazon (ARN) de las políticas de IAM para Amazon EC2. Esta lista se asocia al rol raíz utilizado en el clúster, además de los permisos requeridos por AWS ParallelCluster separados por comas. El nombre de una política de IAM y su ARN son diferentes. Los nombres no se pueden utilizar como argumento para `additional_iam_policies`.

Si su intención es añadir políticas adicionales a la configuración predeterminada de los nodos del clúster, le recomendamos que apruebe las políticas de IAM personalizadas adicionales con la configuración de `additional_iam_policies` en lugar de utilizar la configuración de [`ec2_iam_role`](#ec2-iam-role) para añadir sus políticas de EC2 específicas. Esto se debe a `additional_iam_policies` que se agregan a los permisos predeterminados que se AWS ParallelCluster requieren. Un [`ec2_iam_role`](#ec2-iam-role) existente debe incluir todos los permisos necesarios. Sin embargo, dado que los permisos necesarios suelen cambiar de una versión a otra a medida que se añaden características, un [`ec2_iam_role`](#ec2-iam-role) existente puede quedar obsoleto.

No hay valor predeterminado.

```
additional_iam_policies = arn:aws:iam::123456789012:policy/CustomEC2Policy
```

**nota**  
Se ha agregado compatibilidad para [`additional_iam_policies`](#additional-iam-policies) en la versión 2.5.0 de AWS ParallelCluster .

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `base_os`
<a name="base-os"></a>

**(Obligatorio)** Especifica qué tipo de sistema operativo se utiliza en el clúster.

Las opciones disponibles son:
+ `alinux2`
+ `centos7`
+ `ubuntu1804`
+ `ubuntu2004`

**nota**  
Solo para instancias AWS basadas en Graviton `alinux2``ubuntu1804`, o `ubuntu2004` son compatibles.

**nota**  
El soporte para `centos8` se eliminó en la AWS ParallelCluster versión 2.11.4. Se ha agregado compatibilidad para `ubuntu2004` y se ha eliminado la compatibilidad con `alinux` y `ubuntu1604` en la versión 2.11.0 de AWS ParallelCluster . Se agregó soporte para y se `centos8` `centos6` eliminó el soporte para en la AWS ParallelCluster versión 2.10.0. Se ha agregado compatibilidad para `alinux2` en la versión 2.6.0 de AWS ParallelCluster . Se ha agregado compatibilidad para `ubuntu1804` y se ha eliminado la compatibilidad con `ubuntu1404` en la versión 2.5.0 de AWS ParallelCluster .

Aparte de las especificas Regiones de AWS mencionadas en la siguiente tabla que no son compatibles. `centos7` Todas las demás regiones AWS comerciales son compatibles con los siguientes sistemas operativos.


| Partición (Regiones de AWS) | `alinux2` | `centos7` | `ubuntu1804` y `ubuntu2004` | 
| --- | --- | --- | --- | 
| Comercial ( Regiones de AWS ninguno de ellos se menciona específicamente) | True | True | True | 
| AWS GovCloud (Este de EE. UU.) (us-gov-east-1) | True | False | True | 
| AWS GovCloud (EEUU-Oeste) () us-gov-west-1 | True | False | True | 
| China (Pekín) (cn-north-1) | True | False | True | 
| China (Ningxia) (cn-northwest-1) | True | False | True | 

**nota**  
Nota: El parámetro [`base_os`](#base-os) también determina el nombre de usuario que se utiliza para iniciar sesión en el clúster.
+ `centos7`: `centos` 
+ `ubuntu1804` y `ubuntu2004`: `ubuntu` 
+ `alinux2`: `ec2-user` 

**nota**  
Antes de AWS ParallelCluster la versión 2.7.0, el [`base_os`](#base-os) parámetro era opcional y el predeterminado era. `alinux` A partir de la versión 2.7.0 de AWS ParallelCluster , el parámetro [`base_os`](#base-os) es obligatorio.

**nota**  
Si el parámetro [`scheduler`](#scheduler) es `awsbatch`, solo se admite `alinux2`.

```
base_os = alinux2
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `cluster_resource_bucket`
<a name="cluster-resource-bucket-section"></a>

**(Opcional)** Especifica el nombre del bucket de Amazon S3 que se utiliza para alojar los recursos que se generan al crear el clúster. El bucket debe tener habilitado el control de versiones. Para obtener más información, consulte [Uso del control de versiones](https://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html) en la *Guía del usuario de Amazon Simple Storage Service*. Este bucket se puede utilizar para varios clústeres. El bucket debe estar en la misma región que el clúster.

Si no se especifica este parámetro, se crea un bucket nuevo al crear el clúster. El nuevo bucket tiene el nombre de `parallelcluster-random_string`. En este nombre, *random\$1string* hay una cadena aleatoria de caracteres alfanuméricos. Todos los recursos del clúster se almacenan en este depósito en una ruta con el formulario`bucket_name/resource_directory`. `resource_directory`tiene la forma`stack_name-random_string`, donde *stack\$1name* es el nombre de una de las CloudFormation pilas utilizadas por AWS ParallelCluster. El valor de *bucket\$1name* se encuentra en el `ResourcesS3Bucket` valor de la salida de la `parallelcluster-clustername` pila. El valor de *resource\$1directory* se encuentra en el valor de la `ArtifactS3RootDirectory` salida de la misma pila.

El valor predeterminado es `parallelcluster-random_string`.

```
cluster_resource_bucket = amzn-s3-demo-bucket
```

**nota**  
El soporte para [`cluster_resource_bucket`](#cluster-resource-bucket-section) se agregó en la AWS ParallelCluster versión 2.10.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización. No se puede forzar la actualización de esta configuración.](using-pcluster-update.md#update-policy-read-only-resource-bucket)

## `cluster_type`
<a name="cluster-type"></a>

**(Opcional)** Define el tipo de clúster que se va a lanzar. Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe reemplazarse por la configuración de [`compute_type`](queue-section.md#queue-compute-type) en las [secciones de `[queue]`](queue-section.md).

Las opciones válidas son: `ondemand` y `spot`.

El valor predeterminado es `ondemand`.

Para obtener más información acerca de las instancias de Spot, consulte [Uso de instancias de spot](spot.md).

**nota**  
El uso de instancias de spot requiere que el rol de `AWSServiceRoleForEC2Spot` vinculado al servicio esté en su cuenta. Para crear este rol en su cuenta mediante el AWS CLI, ejecute el siguiente comando:  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Para obtener más información, consulte [Rol vinculado al servicio para solicitudes de instancias de spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) en la *Guía del usuario de Amazon EC2*.

```
cluster_type = ondemand
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_instance_type`
<a name="compute-instance-type"></a>

**(Opcional)** Define el tipo de instancia de Amazon EC2 que se utiliza para los nodos de computación en clúster. La arquitectura del tipo de instancia debe ser la misma que la arquitectura utilizada para la configuración de [`master_instance_type`](#master-instance-type). Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe reemplazarse por la configuración de [`instance_type`](compute-resource-section.md#compute-resource-instance-type) en las [secciones de `[compute_resource]`](compute-resource-section.md).

Si utilizas el `awsbatch` programador, consulta la sección Creación de entornos de cómputo en la AWS Batch interfaz de usuario para ver una lista de los tipos de instancias compatibles.

El valor predeterminado es `t2.micro`, `optimal` cuando el programador es `awsbatch`.

```
compute_instance_type = t2.micro
```

**nota**  
En la AWS ParallelCluster versión 2.8.0 se agregó soporte para instancias AWS basadas en Graviton (incluidas `C6g` las instancias `A1` Y).

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_root_volume_size`
<a name="compute-root-volume-size"></a>

**(Opcional)** Especifica el tamaño del volumen ComputeFleet raíz en gibibytes (GiB). La AMI debe admitir `growroot`.

El valor predeterminado es `35`.

**nota**  
Para AWS ParallelCluster las versiones entre 2.5.0 y 2.10.4, el valor predeterminado era 25. Antes de AWS ParallelCluster la versión 2.5.0, el valor predeterminado era 20.

```
compute_root_volume_size = 35
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `custom_ami`
<a name="custom-ami-section"></a>

**(Opcional)** Especifica el ID de una AMI personalizada que se utilizará en los nodos principal y de cómputo en lugar de la [publicada](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/amis.txt) de forma predeterminada AMIs. Para obtener más información, consulte [Modificar una AMI de](tutorials_02_ami_customization.md#modify-an-aws-parallelcluster-ami) o [Cree una AWS ParallelCluster AMI personalizada](tutorials_02_ami_customization.md#build-a-custom-aws-parallelcluster-ami).

No hay valor predeterminado.

```
custom_ami = ami-00d4efc81188687a0
```

Si la AMI personalizada requiere permisos adicionales para su lanzamiento, estos permisos se deben agregar a las políticas de usuario y de nodo principal.

Por ejemplo, si una AMI personalizada tiene asociada una instantánea cifrada, se requieren las siguientes políticas adicionales tanto en las políticas de usuario como en las del nodo principal:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```

------

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `cw_log_settings`
<a name="cw-log-settings"></a>

**(Opcional)** Identifica la `[cw_log]` sección con la configuración de CloudWatch registros. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección de `[cw_log]`](cw-log-section.md), [CloudWatch Panel de control de Amazon](cloudwatch-dashboard.md) y [Integración con Amazon CloudWatch Logs](cloudwatch-logs.md).

Por ejemplo, la siguiente configuración especifica que la sección que se inicia `[cw_log custom-cw]` se usa para la configuración de CloudWatch registros.

```
cw_log_settings = custom-cw
```

**nota**  
El soporte para [`cw_log_settings`](#cw-log-settings) se agregó en la AWS ParallelCluster versión 2.6.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `dashboard_settings`
<a name="dashboard-settings"></a>

**(Opcional)** Identifica la `[dashboard]` sección con la configuración del CloudWatch tablero. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[dashboard]`](dashboard-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que se inicia `[dashboard custom-dashboard` se usa para la configuración del CloudWatch panel.

```
dashboard_settings = custom-dashboard
```

**nota**  
El soporte para [`dashboard_settings`](#dashboard-settings) se agregó en la AWS ParallelCluster versión 2.10.0.

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `dcv_settings`
<a name="dcv-settings"></a>

**(Opcional)** Identifica la sección `[dcv]` con la configuración de Amazon DCV. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[dcv]`](dcv-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que inicia `[dcv custom-dcv]` se utiliza para la configuración de Amazon DCV.

```
dcv_settings = custom-dcv
```

**nota**  
En las instancias AWS basadas en Graviton, Amazon DCV solo es compatible con. `alinux2`

**nota**  
El soporte para [`dcv_settings`](#dcv-settings) se agregó en la AWS ParallelCluster versión 2.5.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `desired_vcpus`
<a name="desired-vcpus"></a>

**(Opcional)** Especifica el número deseado de v CPUs en el entorno informático. Solo se utiliza si el programador es `awsbatch`.

El valor predeterminado es `4`.

```
desired_vcpus = 4
```

[Política de actualización: esta configuración no se analiza durante una actualización.](using-pcluster-update.md#update-policy-setting-ignored)

## `disable_cluster_dns`
<a name="disable-cluster-dns-settings"></a>

**(Opcional)** Especifica si no se deben crear las entradas de DNS del clúster. De forma predeterminada, AWS ParallelCluster crea una zona alojada en Route 53. Si `disable_cluster_dns` se establece en `true`, no se crea la zona alojada.

El valor predeterminado es `false`.

```
disable_cluster_dns = true
```

**aviso**  
Se requiere un sistema de resolución de nombres para que el clúster funcione correctamente. Si `disable_cluster_dns` está establecido en `true`, también se debe proporcionar un sistema de resolución de nombres adicional.

**importante**  
[`disable_cluster_dns`](#disable-cluster-dns-settings) = `true` solo se admite si se especifica la configuración de [`queue_settings`](#queue-settings).

**nota**  
El soporte para [`disable_cluster_dns`](#disable-cluster-dns-settings) se agregó en la AWS ParallelCluster versión 2.9.1.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `disable_hyperthreading`
<a name="disable-hyperthreading"></a>

Deshabilita la tecnología Hyper-Threading en los nodos principal y de computación. No todos los tipos de instancias pueden deshabilitar la tecnología Hyper-Threading. Para obtener una lista de los tipos de instancias que admiten la desactivación de la tecnología Hyper-Threading, consulte [Núcleos de CPU y subprocesos por núcleo de CPU por tipo de instancia](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) en la *Guía del usuario de Amazon EC2*. Si se define la configuración de [`queue_settings`](#queue-settings), se puede definir esta configuración o se puede definir la configuración de [`disable_hyperthreading`](queue-section.md#queue-disable-hyperthreading) en las [secciones de `[queue]`](queue-section.md).

El valor predeterminado es `false`.

```
disable_hyperthreading = true
```

**nota**  
[`disable_hyperthreading`](#disable-hyperthreading) solo afecta al nodo principal cuando `scheduler = awsbatch`.

**nota**  
Se ha agregado compatibilidad para [`disable_hyperthreading`](#disable-hyperthreading) en la versión 2.5.0 de AWS ParallelCluster .

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `ebs_settings`
<a name="ebs-settings"></a>

**(Opcional)** Identifica las secciones de `[ebs]` con los volúmenes de Amazon EBS que están montados en el nodo principal. Si utiliza varios volúmenes de Amazon EBS, introduzca estos parámetros en una lista separados por una coma. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Se admiten hasta cinco (5) volúmenes de Amazon EBS adicionales.

Para obtener más información, consulte la [sección `[ebs]`](ebs-section.md).

Por ejemplo, la siguiente configuración especifica que las secciones que inician `[ebs custom1]` y `[ebs custom2]` se utilizan para los volúmenes de Amazon EBS.

```
ebs_settings = custom1, custom2
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `ec2_iam_role`
<a name="ec2-iam-role"></a>

**(Opcional)** Define el nombre de un rol de IAM ya existente para Amazon EC2 que se asocia a todas las instancias del clúster. El nombre de una función de IAM y su nombre de recurso de Amazon (ARN) son diferentes. ARNs no se puede usar como argumento para. `ec2_iam_role`

Si se especifica esta opción, se omite el valor [`additional_iam_policies`](#additional-iam-policies). Si su intención es añadir políticas adicionales a la configuración predeterminada de los nodos del clúster, le recomendamos que apruebe las políticas de IAM personalizadas adicionales utilizando la configuración de [`additional_iam_policies`](#additional-iam-policies) en lugar de la de `ec2_iam_role`.

Si no se especifica esta opción, se utiliza la función de AWS ParallelCluster IAM predeterminada para Amazon EC2. Para obtener más información, consulte [AWS Identity and Access Management funciones en AWS ParallelCluster](iam.md).

No hay valor predeterminado.

```
ec2_iam_role = ParallelClusterInstanceRole
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `efs_settings`
<a name="efs-settings"></a>

**(Opcional)** Especifica la configuración relacionada con el sistema de archivos de Amazon EFS. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[efs]`](efs-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que inicia `[efs customfs]` se utiliza para la configuración del sistema de archivos de Amazon EFS.

```
efs_settings = customfs
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `enable_efa`
<a name="enable-efa"></a>

Si está presente, especifica que Elastic Fabric Adapter (EFA) se ha habilitado para los nodos de computación. Para ver la lista de instancias de EC2 compatibles con EFA, consulte [Tipos de instancias admitidas](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) en la *Guía del usuario para instancias de Linux de Amazon EC2*. Para obtener más información, consulte [Elastic Fabric Adapter](efa.md). Si se define la configuración de [`queue_settings`](#queue-settings), se puede definir esta configuración o se puede definir la configuración de [`enable_efa`](queue-section.md#queue-enable-efa) en la [sección de `[queue]`](queue-section.md). Se debe utilizar un grupo de ubicación del clúster para minimizar las latencias entre instancias. Para obtener más información, consulte [`placement`](#placement) y [`placement_group`](#placement-group).

```
enable_efa = compute
```

**nota**  
En la versión 2.10.1 se agregó soporte para EFA en instancias Graviton2 basadas en ARM. AWS ParallelCluster 

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `enable_efa_gdr`
<a name="enable-efa-gdr"></a>

**(Opcional)** A partir de la AWS ParallelCluster versión 2.11.3, esta configuración no tiene efecto. La compatibilidad con el Elastic Fabric Adapter (EFA) para GPUDirect RDMA (acceso remoto directo a memoria) siempre está habilitada si es compatible tanto con el tipo de instancia como con el sistema operativo.

**nota**  
AWS ParallelCluster de la versión 2.10.0 a la 2.11.2: Si`compute`, especifica que la compatibilidad con el Elastic Fabric Adapter (EFA) GPUDirect para RDMA (acceso remoto directo a la memoria) está habilitada para los nodos de procesamiento. Si se establece esta configuración en `compute`, es necesario que la configuración de [`enable_efa`](#enable-efa) esté establecida en `compute`. El soporte de EFA para GPUDirect RDMA lo admiten tipos de instancias específicos (`p4d.24xlarge`) en sistemas operativos específicos (es decir,, o). [`base_os`](#base-os) `alinux2` `centos7` `ubuntu1804` `ubuntu2004` Si se define la configuración de [`queue_settings`](#queue-settings), se puede definir esta configuración o se puede definir la configuración de [`enable_efa_gdr`](queue-section.md#queue-enable-efa-gdr) en las [secciones de `[queue]`](queue-section.md). Se debe utilizar un grupo de ubicación del clúster para minimizar las latencias entre instancias. Para obtener más información, consulte [`placement`](#placement) y [`placement_group`](#placement-group).

```
enable_efa_gdr = compute
```

**nota**  
El soporte para `enable_efa_gdr` se agregó en la AWS ParallelCluster versión 2.10.0.

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_intel_hpc_platform`
<a name="enable-intel-hpc-platform"></a>

Si existe, indica que se acepta el Acuerdo de licencia de usuario final para Intel Parallel Studio. Esto hace que Intel Parallel Studio se instale en el nodo maestro y se comparta con los nodos de computación. Esto añade varios minutos al tiempo que tarda el nodo principal en arrancar. El valor de [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) solo se admite en CentOS 7 ([`base_os`](#base-os)` = centos7`).

El valor predeterminado es `false`.

```
enable_intel_hpc_platform = true
```

**nota**  
El [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) parámetro no es compatible con las instancias basadas en AWS Graviton.

**nota**  
Se ha agregado compatibilidad para [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) en la versión 2.5.0 de AWS ParallelCluster .

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `encrypted_ephemeral`
<a name="encrypted-ephemeral"></a>

Cifra los volúmenes de almacenes de instancias efímeros con claves en memoria no recuperables, mediante LUKS (configuración de clave unificada de Linux).

Para obtener más información, consulte [https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md](https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md).

El valor predeterminado es `false`.

```
encrypted_ephemeral = true
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `ephemeral_dir`
<a name="ephemeral-dir"></a>

Define la ruta donde se montan los volúmenes de almacenes de instancias, si se usan.

El valor predeterminado es `/scratch`.

```
ephemeral_dir = /scratch
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `extra_json`
<a name="extra-json"></a>

**(Opcional)** Define el JSON adicional que se fusiona en `dna.json` de Chef. Para obtener más información, consulte [Creación de una AWS ParallelCluster AMI personalizada](tutorials_02_ami_customization.md).

El valor predeterminado es `{}`.

```
extra_json = {}
```

**nota**  
A partir de AWS ParallelCluster la versión 2.6.1, la mayoría de las recetas de instalación se omiten de forma predeterminada al lanzar nodos para mejorar los tiempos de inicio. Para ejecutar todas las recetas de instalación para una mejor compatibilidad con versiones anteriores a costa de los tiempos de inicio, añada `"skip_install_recipes" : "no"` a la clave `cluster` en la configuración [`extra_json`](#extra-json). Por ejemplo:  

```
extra_json = { "cluster" : { "skip_install_recipes" : "no" } }
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `fsx_settings`
<a name="fsx-settings"></a>

**(Opcional)** Especifica la sección que define la configuración FSx de Lustre. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[fsx]`](fsx-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que comienza `[fsx fs]` se usa FSx para la configuración de Lustre.

```
fsx_settings = fs
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `iam_lambda_role`
<a name="iam-lambda-role"></a>

**(Opcional)** Define el nombre de un rol de AWS Lambda ejecución existente. Este rol está asociado a todas las funciones de Lambda en el clúster. Para obtener más información, consulte [Rol de ejecución de AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/lambda-intro-execution-role.html) en la *Guía para desarrolladores de AWS Lambda *.

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de planificadoresSGE. Torque

El nombre de una función de IAM y su nombre de recurso de Amazon (ARN) son diferentes. ARNs no se puede usar como argumento para. `iam_lambda_role` Si ambos [`ec2_iam_role`](#ec2-iam-role) y `iam_lambda_role` están definidos, y el [`scheduler`](#scheduler) es `sge`, `slurm` o `torque`, entonces no se creará ningún rol. Si [`scheduler`](#scheduler) se establece en `awsbatch`, se crearán roles durante [`pcluster start`](pcluster.start.md). Para obtener ejemplos de políticas, consulte [`ParallelClusterLambdaPolicy`usando, o SGE Slurm Torque](iam.md#parallelcluster-lambda-policy) y [`ParallelClusterLambdaPolicy` con `awsbatch`](iam.md#parallelcluster-lambda-policy-batch).

No hay valor predeterminado.

```
iam_lambda_role = ParallelClusterLambdaRole
```

**nota**  
El soporte para `iam_lambda_role` se agregó en la AWS ParallelCluster versión 2.10.1.

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `initial_queue_size`
<a name="configuration-initial-queue-size"></a>

**(Opcional)** Establece el número inicial de instancias de Amazon EC2 que se lanzarán como nodos de computación en el clúster. Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe eliminarse y reemplazarse por la configuración de [`initial_count`](compute-resource-section.md#compute-resource-initial-count) en las [secciones de `[compute_resource]`](compute-resource-section.md).

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE planificadores o. Torque

Esta configuración solo se aplica a los programadores tradicionales (SGE, Slurm y Torque). Si la configuración de [`maintain_initial_size`](#maintain-initial-size) es `true`, entonces la configuración de [`initial_queue_size`](#configuration-initial-queue-size) debe ser al menos una (1).

Si el programador es `awsbatch`, utilice [`min_vcpus`](#min-vcpus) en su lugar.

El valor predeterminado es `2`.

```
initial_queue_size = 2
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `key_name`
<a name="key-name"></a>

**(Opcional)** Asigna un nombre a un par de claves de Amazon EC2 existente con el que se va a habilitar el acceso de SSH a las instancias.

```
key_name = mykey
```

**nota**  
Antes de AWS ParallelCluster la versión 2.11.0, era una configuración obligatoria. `key_name`

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `maintain_initial_size`
<a name="maintain-initial-size"></a>

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de planificadores. SGE Torque

**(Opcional)** Mantiene el tamaño inicial del grupo de escalado automático para programadores tradicionales (SGE, Slurm y Torque).

Si el programador es `awsbatch`, utilice [`desired_vcpus`](#desired-vcpus) en su lugar.

Esta configuración es un indicador booleano. Si se establece en `true`, el grupo de escalado automático nunca tendrá menos miembros que el valor de [`initial_queue_size`](#configuration-initial-queue-size), y el valor de [`initial_queue_size`](#configuration-initial-queue-size) debe ser uno (1) o mayor. El clúster también se puede ampliar y escalar hasta el valor de [`max_queue_size`](#configuration-max-queue-size). Si `cluster_type = spot`, el grupo de escalado automático puede tener instancias interrumpidas y el tamaño puede ser inferior a [`initial_queue_size`](#configuration-initial-queue-size).

Si se establece en `false`, el grupo de escalado automático se puede reducir a cero (0) miembros, para evitar que los recursos permanezcan inactivos cuando no sean necesarios.

Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe eliminarse y reemplazarse por la configuración de [`initial_count`](compute-resource-section.md#compute-resource-initial-count) y [`min_count`](compute-resource-section.md#compute-resource-min-count) en las [secciones de `[compute_resource]`](compute-resource-section.md).

El valor predeterminado es `false`.

```
maintain_initial_size = false
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `master_instance_type`
<a name="master-instance-type"></a>

**(Opcional)** Define el tipo de instancia de Amazon EC2 que se utiliza para el nodo principal. La arquitectura del tipo de instancia debe ser la misma que la arquitectura utilizada para la configuración de [`compute_instance_type`](#compute-instance-type).

Si Regiones de AWS tiene una capa gratuita, el valor predeterminado es el tipo de instancia de capa gratuita (o). `t2.micro` `t3.micro` Si Regiones de AWS no tiene un nivel gratuito, el valor predeterminado es. `t3.micro` Para obtener más información sobre la capa AWS gratuita, consulte la [capa AWS gratuita. FAQs](https://aws.amazon.com/free/free-tier-faqs/)

```
master_instance_type = t2.micro
```

**nota**  
Antes de AWS ParallelCluster la versión 2.10.1, el valor predeterminado era «`t2.micro`en todos». Regiones de AWS En AWS ParallelCluster versión 2.10.0, `p4d.24xlarge` no era compatible con el nodo principal. La compatibilidad con instancias AWS basadas en Graviton (como `A1` y`C6g`) se agregó en la AWS ParallelCluster versión 2.8.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `master_root_volume_size`
<a name="master-root-volume-size"></a>

**(Opcional)** Especifica el tamaño del volumen raíz del nodo principal en gibibytes (GiB). La AMI debe admitir `growroot`.

El valor predeterminado es `35`.

**nota**  
Para AWS ParallelCluster las versiones entre 2.5.0 y 2.10.4, el valor predeterminado era 25. Antes de AWS ParallelCluster la versión 2.5.0, el valor predeterminado era 20.

```
master_root_volume_size = 35
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `max_queue_size`
<a name="configuration-max-queue-size"></a>

Establece el número máximo de instancias que se pueden lanzar en el clúster. Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe eliminarse y reemplazarse por la configuración de [`max_count`](compute-resource-section.md#compute-resource-max-count) en las [secciones de `[compute_resource]`](compute-resource-section.md).

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE planificadores o. Torque

Esta configuración solo se aplica a los programadores tradicionales (SGE, Slurm y Torque).

Si el programador es `awsbatch`, utilice [`max_vcpus`](#max-vcpus) en su lugar.

El valor predeterminado es `10`.

```
max_queue_size = 10
```

Política de actualización: esta configuración se puede cambiar durante una actualización, pero la flota de computación debe detenerse si se reduce el valor. De lo contrario, es posible que se cierren los nodos existentes.

## `max_vcpus`
<a name="max-vcpus"></a>

**(Opcional)** Especifica el número máximo de v CPUs en el entorno informático. Solo se utiliza si el programador es `awsbatch`.

El valor predeterminado es `20`.

```
max_vcpus = 20
```

[Política de actualización: esta configuración no se puede reducir durante una actualización.](using-pcluster-update.md#update-policy-no-decrease)

## `min_vcpus`
<a name="min-vcpus"></a>

**(Opcional)** Mantiene el tamaño inicial del grupo de escalado automático para el programador de `awsbatch`.

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de planificadores SGE oTorque.

Si el programador es SGE, Slurm o Torque, utilice [`maintain_initial_size`](#maintain-initial-size) en su lugar.

El entorno informático nunca tendrá menos miembros que el valor de [`min_vcpus`](#min-vcpus).

El valor predeterminado es `0`.

```
min_vcpus = 0
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `placement`
<a name="placement"></a>

**(Opcional)** Define la lógica de los grupos con ubicación en clúster, lo que permite a todo el clúster o solo a las instancias de computación utilizar el grupo con ubicación en clúster.

Si se define la configuración de[`queue_settings`](#queue-settings), esta configuración debe eliminarse y reemplazarse por la configuración de [`placement_group`](queue-section.md#queue-placement-group) en cada una de las [secciones de `[queue]`](queue-section.md). Si se usa el mismo grupo de ubicación para distintos tipos de instancias, es más probable que la solicitud no se realice correctamente debido a un error de capacidad insuficiente. Para obtener más información, consulte [Capacidad de la instancia insuficiente](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) en la *Guía del usuario de Amazon EC2*. Las colas múltiples solo pueden compartir un grupo de ubicación si se crean con antelación y se configuran en la configuración de [`placement_group`](queue-section.md#queue-placement-group) de cada cola. Si cada [sección de `[queue]`](queue-section.md) define una configuración de [`placement_group`](queue-section.md#queue-placement-group), el nodo principal no puede estar en el grupo de ubicación de una cola.

Las opciones válidas son `cluster` o `compute`.

Este parámetro no se usa cuando el programador es `awsbatch`.

El valor predeterminado es `compute`.

```
placement = compute
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `placement_group`
<a name="placement-group"></a>

**(Opcional)** Define el grupo de ubicación en clúster. Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe eliminarse y reemplazarse por la configuración de [`placement_group`](queue-section.md#queue-placement-group) en las [secciones de `[queue]`](queue-section.md).

Las opciones válidas son las siguientes:
+ `DYNAMIC`
+ Un nombre de grupo con ubicación en clúster de Amazon EC2 existente

Cuando se establece en `DYNAMIC`, se crea y elimina un grupo de ubicación único como parte de la pila del clúster.

Este parámetro no se usa cuando el programador es `awsbatch`.

Para obtener más información sobre los grupos de colocación y cómo crearlos, consulte [Grupos de ubicación](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) en la *Guía del usuario de Amazon EC2*. Si se usa el mismo grupo de ubicación para distintos tipos de instancias, es más probable que la solicitud no se realice correctamente debido a un error de capacidad insuficiente. Para obtener más información, consulte [Capacidad de la instancia insuficiente](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) en la *Guía del usuario de Amazon EC2*.

No hay valor predeterminado.

No todos los tipos de instancias admiten grupos de ubicación en clúster. Por ejemplo, el tipo de instancia predeterminado `t3.micro` no admite grupos con ubicación en clúster. Para obtener información acerca de la lista de tipos de instancias que admiten grupos con ubicación en clúster, consulte [Reglas y limitaciones de los grupos de ubicación en clúster](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) en la *Guía del usuario de Amazon EC2*. Consulte [Problemas con los grupos de ubicación y el lanzamiento de instancias](troubleshooting.md#placement-groups-and-instance-launch-issues) para obtener sugerencias al trabajar con grupos de ubicación.

```
placement_group = DYNAMIC
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `post_install`
<a name="post-install"></a>

**(Opcional)** Especifica la URL de un script posterior a la instalación que se ejecuta una vez que se hayan completado todas las acciones de arranque del nodo. Para obtener más información, consulte [Acciones de arranque personalizadas](pre_post_install.md).

Cuando se utiliza `awsbatch` como programador, el script posterior a la instalación solo se ejecuta en el nodo principal.

El formato de los parámetros puede ser `http://hostname/path/to/script.sh` o `s3://bucket-name/path/to/script.sh`.

No hay valor predeterminado.

```
post_install = s3://<bucket-name>/my-post-install-script.sh
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `post_install_args`
<a name="post-install-args"></a>

**(Opcional)** Especifica una lista de argumentos entre comillas que se pasará al script posterior a la instalación.

No hay valor predeterminado.

```
post_install_args = "argument-1 argument-2"
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install`
<a name="pre-install"></a>

**(Opcional)** Especifica la URL de un script de preinstalación que se ejecuta antes de que se inicie cualquier acción de arranque de implementación de nodos. Para obtener más información, consulte [Acciones de arranque personalizadas](pre_post_install.md).

Cuando se utiliza `awsbatch` como programador, el script de preinstalación solo se ejecuta en el nodo principal.

El formato de los parámetros puede ser `http://hostname/path/to/script.sh` o `s3://bucket-name/path/to/script.sh`.

No hay valor predeterminado.

```
pre_install = s3://bucket-name/my-pre-install-script.sh
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install_args`
<a name="pre-install-args"></a>

Especifica una lista de argumentos entre comillas que se pasará al script de preinstalación.

No hay valor predeterminado.

```
pre_install_args = "argument-3 argument-4"
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `proxy_server`
<a name="proxy-server"></a>

Define un servidor proxy HTTP o HTTPS, normalmente .

No hay valor predeterminado.

```
proxy_server = http://10.11.12.13:8080
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `queue_settings`
<a name="queue-settings"></a>

**(Opcional)** [Especifica que el clúster usa colas en lugar de una flota de procesamiento homogénea y qué secciones se utilizan. `[queue]`](queue-section.md) La primera [sección de `[queue]`](queue-section.md) en la lista es la cola del programador predeterminada. Los nombres de la sección de `queue` deben comenzar por una letra, contener no más de 30 caracteres y solo letras, números y guiones (-).

**importante**  
Solo se admite cuando el spot se establece en . Los ajustes [`cluster_type`](#cluster-type), [`compute_instance_type`](#compute-instance-type), [`initial_queue_size`](#configuration-initial-queue-size), [`maintain_initial_size`](#maintain-initial-size), [`max_queue_size`](#configuration-max-queue-size), [`placement`](#placement), [`placement_group`](#placement-group) y [`spot_price`](#spot-price) no deben especificarse. La configuración de [`disable_hyperthreading`](#disable-hyperthreading) y [`enable_efa`](#enable-efa) se puede especificar en la [sección de `[cluster]`](#cluster-definition) o en las [secciones de `[queue]`](queue-section.md), pero no en ambas.

Se admiten hasta cinco (5) [secciones de `[queue]`](queue-section.md).

Para obtener más información, consulte la [sección `[queue]`](queue-section.md).

Por ejemplo, la siguiente configuración especifica que se utilicen las secciones que inician `[queue q1]` y `[queue q2]`.

```
queue_settings = q1, q2
```

**nota**  
El soporte para [`queue_settings`](#queue-settings) se agregó en la AWS ParallelCluster versión 2.9.0.

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `raid_settings`
<a name="raid-settings"></a>

**(Opcional)** Identifica la sección de `[raid]` con la configuración RAID del volumen de Amazon EBS. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[raid]`](raid-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que inicia `[raid rs]` se utiliza para la configuración del escalado automático.

```
raid_settings = rs
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `s3_read_resource`
<a name="s3-read-resource"></a>

**(Opcional)** Especifica un recurso de Amazon S3 al que se concede acceso de solo lectura a AWS ParallelCluster los nodos.

Por ejemplo, `arn:aws:s3:::my_corporate_bucket*` proporciona acceso de solo lectura al *my\$1corporate\$1bucket* bucket y a los objetos del bucket.

Consulte la sección sobre cómo [trabajar con ](s3_resources.md) para obtener información detallada sobre el formato.

No hay valor predeterminado.

```
s3_read_resource = arn:aws:s3:::my_corporate_bucket*
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `s3_read_write_resource`
<a name="s3-read-write-resource"></a>

**(Opcional)** Especifica un recurso de Amazon S3 al que se concede read/write acceso a AWS ParallelCluster los nodos.

Por ejemplo, `arn:aws:s3:::my_corporate_bucket/Development/*` proporciona read/write acceso a todos los objetos de la `Development` carpeta del *my\$1corporate\$1bucket* bucket.

Consulte la sección sobre cómo [trabajar con ](s3_resources.md) para obtener información detallada sobre el formato.

No hay valor predeterminado.

```
s3_read_write_resource = arn:aws:s3:::my_corporate_bucket/*
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `scaling_settings`
<a name="scaling-settings"></a>

Identifica la sección de `[scaling]` con la configuración del escalado automático. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[scaling]`](scaling-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que inicia `[scaling custom]` se utiliza para la configuración del escalado automático.

```
scaling_settings = custom
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `scheduler`
<a name="scheduler"></a>

**(Obligatorio)** Define el programador de clúster.

Las opciones válidas son las siguientes:

`awsbatch`  
AWS Batch  
Para obtener más información sobre el programador de `awsbatch`, consulte la [configuración de red](networking.md#awsbatch-networking) y [AWS Batch (`awsbatch`)](awsbatchcli.md).

`sge`  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de planificadoresSGE. Torque
Son of Grid Engine (SGE)

`slurm`  
Slurm Workload Manager (Slurm)

`torque`  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de planificadores o. SGE Torque
Torque Resource Manager (Torque)

**nota**  
Antes de AWS ParallelCluster la versión 2.7.0, el `scheduler` parámetro era opcional y el predeterminado era. `sge` A partir de AWS ParallelCluster la versión 2.7.0, el `scheduler` parámetro es obligatorio.

```
scheduler = slurm
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="cluster-shared-dir"></a>

Define la ruta donde se monta el volumen de compartido.

No use esta opción con varios volúmenes de . En su lugar, proporcione los valores [`shared_dir`](#cluster-shared-dir) en cada sección de .

Consulte la sección de para obtener información detallada sobre cómo trabajar con varios volúmenes de .

El valor predeterminado es `/shared`.

En el siguiente ejemplo se muestra un volumen de compartido montado en .

```
shared_dir = myshared
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `spot_bid_percentage`
<a name="spot-bid-percentage"></a>

**(Opcional)** Establece el porcentaje bajo demanda que se utiliza para calcular el precio máximo al ComputeFleet contado para `awsbatch` el planificador.

Si no se especifica, se selecciona el precio de mercado de spot actual con el precio bajo demanda como límite.

```
spot_bid_percentage = 85
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `spot_price`
<a name="spot-price"></a>

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE nuestros programadores. Torque

**(Opcional)** Establece el precio spot máximo para los ComputeFleet programadores tradicionales (, y). SGE Slurm Torque Solo se utiliza cuando la configuración [`cluster_type`](#cluster-type) se establece en `spot`. Si no especifica ningún valor, se le cobrará el precio de spot, con el precio bajo demanda como límite máximo. Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe eliminarse y reemplazarse por la configuración de [`spot_price`](compute-resource-section.md#compute-resource-spot-price) en las [secciones de `[compute_resource]`](compute-resource-section.md).

Si el programador es `awsbatch`, utilice [spot\$1bid\$1percentage](#spot-bid-percentage) en su lugar.

Para obtener ayuda para encontrar una instancia de spot que se ajuste a sus necesidades, consulte el [Asistente de instancias de spot](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

**nota**  
En AWS ParallelCluster la versión 2.5.0, si `cluster_type = spot` [`spot_price`](#spot-price) no se especifica, la instancia se lanza en caso de error. ComputeFleet Esto se solucionó en la AWS ParallelCluster versión 2.5.1.

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `tags`
<a name="tags"></a>

**(Opcional)** Define las etiquetas que utilizará. CloudFormation

Si se especifican etiquetas de línea de comandos a través de *--tags*, se combinan con etiquetas de configuración.

Las etiquetas de la línea de comandos sobrescriben las etiquetas de configuración que tienen la misma clave.

Las etiquetas están en formato JSON. No utilice comillas fuera de las llaves.

Para obtener más información, consulte [CloudFormation resource tags type](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) en la *Guía del usuario de AWS CloudFormation *.

```
tags = {"key" : "value", "key2" : "value2"}
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

**nota**  
La política de actualización no permitía cambiar la configuración `tags` hasta que se detuvo la flota informática desde AWS ParallelCluster versión 2.0.0 hasta la versión 2.9.1.  
En el caso de las versiones 2.10.0 a 2.11.7, la política de actualización indicada que permitía cambiar la configuración de `tags` no es precisa. No se admite una actualización de clúster al modificar esta configuración.

## `template_url`
<a name="template-url"></a>

**(Opcional)** Define la ruta a la AWS CloudFormation plantilla que se utiliza para crear el clúster.

Actualiza la plantilla que se utilizó originalmente para crear la pila.

El valor predeterminado es `https://aws_region_name-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version.cfn.json`.

**aviso**  
Este es un parámetro avanzado. Cualquier cambio en esta configuración es por su cuenta y riesgo.

```
template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json
```

[Política de actualización: esta configuración no se analiza durante una actualización.](using-pcluster-update.md#update-policy-setting-ignored)

## `vpc_settings`
<a name="vpc-settings"></a>

**(Obligatorio)** Identifica la sección de `[vpc]` con la configuración de Amazon VPC donde se implementa el clúster. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[vpc]`](vpc-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que inicia `[vpc public]` se utiliza para la configuración de Amazon VPC.

```
vpc_settings = public
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

# Sección de `[compute_resource]`
<a name="compute-resource-section"></a>

Define los ajustes de configuración de un recurso informático. [Las secciones `[compute_resource]`](#compute-resource-section) son referenciadas por el ajuste [`compute_resource_settings`](queue-section.md#queue-compute-resource-settings) en la [sección `[queue]`](queue-section.md). [Las secciones `[compute_resource]`](#compute-resource-section) solo son compatibles cuando [`scheduler`](cluster-definition.md#scheduler) está configurado a `slurm`.

El formato es`[compute_resource <compute-resource-name>]`. *compute-resource-name*debe empezar por una letra, no contener más de 30 caracteres y contener únicamente letras, números, guiones (-) y guiones bajos (\$1).

```
[compute_resource cr1]
instance_type = c5.xlarge
min_count = 0
initial_count = 2
max_count = 10
spot_price = 0.5
```

**nota**  
El soporte para la [`[compute_resource]`sección](#compute-resource-section) se agregó en la AWS ParallelCluster versión 2.9.0.

**Topics**
+ [

## `initial_count`
](#compute-resource-initial-count)
+ [

## `instance_type`
](#compute-resource-instance-type)
+ [

## `max_count`
](#compute-resource-max-count)
+ [

## `min_count`
](#compute-resource-min-count)
+ [

## `spot_price`
](#compute-resource-spot-price)

## `initial_count`
<a name="compute-resource-initial-count"></a>

**(Opcional)** Establece el número inicial de EC2 instancias de Amazon que se van a lanzar para este recurso de cómputo. La creación del clúster no se completa hasta que se hayan lanzado al menos este número de nodos al recurso informático. Si la configuración [`compute_type`](queue-section.md#queue-compute-type) de la cola es `spot` y no hay suficientes instancias de spot disponibles, es posible que se agote el tiempo de espera para la creación del clúster y se produzca un error. Cualquier recuento superior a la configuración [`min_count`](#compute-resource-min-count) es capacidad dinámica sujeta a la configuración [`scaledown_idletime`](scaling-section.md#scaledown-idletime). Esta configuración reemplaza la configuración [`initial_queue_size`](cluster-definition.md#configuration-initial-queue-size).

El valor predeterminado es `0`.

```
initial_count = 2
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `instance_type`
<a name="compute-resource-instance-type"></a>

**(Obligatorio)** Define el tipo de EC2 instancia de Amazon que se utiliza para este recurso informático. La arquitectura del tipo de instancia debe ser la misma que la arquitectura utilizada para la configuración de [`master_instance_type`](cluster-definition.md#master-instance-type). La configuración `instance_type` debe ser única para cada [sección `[compute_resource]` a la](#compute-resource-section) que haga referencia una [sección `[queue]`](queue-section.md). Esta configuración reemplaza la configuración [`compute_instance_type`](cluster-definition.md#compute-instance-type).

```
instance_type = t2.micro
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `max_count`
<a name="compute-resource-max-count"></a>

**(Opcional)** Establece el número máximo de EC2 instancias de Amazon que se pueden lanzar en este recurso informático. Cualquier recuento superior a la configuración [`initial_count`](#compute-resource-initial-count) se inicia en modo de apagado. Esta configuración reemplaza la configuración [`max_queue_size`](cluster-definition.md#configuration-max-queue-size).

El valor predeterminado es `10`.

```
max_count = 10
```

[Política de actualización: para reducir el tamaño de una cola por debajo del número actual de nodos, es necesario detener primero la flota de computación.](using-pcluster-update.md#update-policy-max-count)

**nota**  
La política de actualización no permitía cambiar la `max_count` configuración hasta que se interrumpiera la flota informática desde la AWS ParallelCluster versión 2.0.0 hasta la versión 2.9.1.

## `min_count`
<a name="compute-resource-min-count"></a>

**(Opcional)** Establece el número mínimo de EC2 instancias de Amazon que se pueden lanzar en este recurso informático. Todos estos nodos tienen capacidad estática. La creación del clúster no se completa hasta que se hayan lanzado al menos este número de nodos al recurso informático.

El valor predeterminado es `0`.

```
min_count = 1
```

[Política de actualización: para reducir el número de nodos estáticos de una cola, es necesario detener primero la flota de computación.](using-pcluster-update.md#update-policy-min-count)

**nota**  
La política de actualización no permitía cambiar la `min_count` configuración hasta que se interrumpiera la flota informática desde la AWS ParallelCluster versión 2.0.0 hasta la versión 2.9.1.

## `spot_price`
<a name="compute-resource-spot-price"></a>

**(Opcional)** Establece el precio spot máximo para este recurso informático. Se usa solo cuando la configuración de [`compute_type`](queue-section.md#queue-compute-type) de la cola que contiene estos recursos de cómputo está establecida en `spot`. Esta configuración reemplaza la configuración [`spot_price`](cluster-definition.md#spot-price).

Si no especifica ningún valor, se le cobrará el precio de spot, con el precio bajo demanda como límite máximo.

Para obtener ayuda para encontrar una instancia de spot que se ajuste a sus necesidades, consulte el [Asistente de instancias de spot](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

# Sección de `[cw_log]`
<a name="cw-log-section"></a>

Define los ajustes de configuración de CloudWatch los registros.

El formato es`[cw_log cw-log-name]`. *cw-log-name*debe empezar por una letra, no contener más de 30 caracteres y contener únicamente letras, números, guiones (-) y guiones bajos (\$1).

```
[cw_log custom-cw-log]
enable = true
retention_days = 14
```

Para obtener más información, consulte [Integración con Amazon CloudWatch Logs](cloudwatch-logs.md), [CloudWatch Panel de control de Amazon](cloudwatch-dashboard.md) y [Integración con Amazon CloudWatch Logs](cloudwatch-logs.md).

**nota**  
El soporte para `cw_log` se agregó en la AWS ParallelCluster versión 2.6.0.

## `enable`
<a name="cw-log-section-enable"></a>

 **(Opcional)** Indica si CloudWatch los registros están habilitados.

El valor predeterminado es `true`. Se usa `false` para deshabilitar CloudWatch los registros.

El siguiente ejemplo habilita CloudWatch los registros.

```
enable = true
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `retention_days`
<a name="cw-log-section-retention-days"></a>

 **(Opcional)** Indica cuántos días conserva CloudWatch Logs los eventos de registro individuales.

El valor predeterminado es `14`. Los valores admitidos son 1, 3, 5, 7, 14, 30, 60, 90, 120, 150, 180, 365, 400, 545, 731, 1827 y 3653.

En el siguiente ejemplo, se configuran CloudWatch los registros para conservar los eventos del registro durante 30 días.

```
retention_days = 30
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

# Sección de `[dashboard]`
<a name="dashboard-section"></a>

Define los ajustes de configuración del CloudWatch panel de mandos.

El formato es`[dashboard dashboard-name]`. *dashboard-name*debe empezar por una letra, no contener más de 30 caracteres y contener únicamente letras, números, guiones (-) y guiones bajos (\$1).

```
[dashboard custom-dashboard]
enable = true
```

**nota**  
El soporte para `dashboard` se agregó en la AWS ParallelCluster versión 2.10.0.

## `enable`
<a name="dashboard-section-enable"></a>

 **(Opcional)** Indica si el CloudWatch panel de control está activado.

El valor predeterminado es `true`. Se usa `false` para deshabilitar el CloudWatch panel de control.

El siguiente ejemplo habilita el CloudWatch panel.

```
enable = true
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

# Sección de `[dcv]`
<a name="dcv-section"></a>

Define los valores de configuración del servidor de Amazon DCV que se ejecuta en el nodo principal.

Para crear y configurar un servidor Amazon DCV, especifique el clúster [`dcv_settings`](cluster-definition.md#dcv-settings) con el nombre que defina en la sección de `dcv` y establezca [`enable`](#dcv-section-enable) en `master`, y [`base_os`](cluster-definition.md#base-os) en `alinux2`, `centos7`, `ubuntu1804` o `ubuntu2004`. Si el nodo principal es una instancia ARM, [`base_os`](cluster-definition.md#base-os) establézcalo en `alinux2`, `centos7` o`ubuntu1804`.

El formato es`[dcv dcv-name]`. *dcv-name*debe empezar por una letra, no contener más de 30 caracteres y contener únicamente letras, números, guiones (-) y guiones bajos (\$1).

```
[dcv custom-dcv]
enable = master
port = 8443
access_from = 0.0.0.0/0
```

Para obtener más información, consulte [Conexión al nodo principal a través de Amazon DCV](dcv.md)

**importante**  
De forma predeterminada, el puerto Amazon DCV configurado por AWS ParallelCluster está abierto a todas las IPv4 direcciones. Sin embargo, los usuarios solo pueden conectarse a un puerto de Amazon DCV si tienen la dirección URL de la sesión de Amazon DCV y se conectan a la sesión de Amazon DCV en un plazo de 30 segundos a partir del momento en que se devuelve la dirección URL de `pcluster dcv connect`. Utilice el valor [`access_from`](#dcv-section-access-from) para restringir aún más el acceso al puerto de Amazon DCV con un intervalo de direcciones IP con formato de CIDR y utilice la configuración de [`port`](#dcv-section-port) para establecer un puerto no estándar.

**nota**  
La compatibilidad con la [sección de `[dcv]`](#dcv-section) en `centos8` se eliminó en la versión 2.10.4 de AWS ParallelCluster . Support para la [`[dcv]`sección](#dcv-section) sobre `centos8` se agregó en la AWS ParallelCluster versión 2.10.0. El soporte para la [`[dcv]`sección](#dcv-section) sobre instancias AWS basadas en Graviton se agregó en la AWS ParallelCluster versión 2.9.0. Support para la [`[dcv]`sección](#dcv-section) sobre `alinux2` y `ubuntu1804` se agregó en la AWS ParallelCluster versión 2.6.0. Support para la [`[dcv]`sección](#dcv-section) sobre `centos7` se agregó en la AWS ParallelCluster versión 2.5.0.

## `access_from`
<a name="dcv-section-access-from"></a>

 **(Opcional, recomendado)** Especifica el intervalo de direcciones IP con formato CIDR para las conexiones a Amazon DCV. Esta configuración solo se usa cuando se AWS ParallelCluster crea el grupo de seguridad.

El valor predeterminado es `0.0.0.0/0`, que permite el acceso desde cualquier dirección de Internet.

```
access_from = 0.0.0.0/0
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `enable`
<a name="dcv-section-enable"></a>

 **(Obligatorio)** Indica si Amazon DCV está habilitado en el nodo principal. Para habilitar Amazon DCV en el nodo maestro y configurar la regla del grupo de seguridad requerida, establezca la opción `enable` en `master`.

En el siguiente ejemplo se habilita Amazon DCV en el nodo principal.

```
enable = master
```

**nota**  
Amazon DCV genera automáticamente un certificado autofirmado que se utiliza para proteger el tráfico entre el cliente de Amazon DCV y el servidor Amazon DCV en el nodo principal. Para configurar su propio certificado, consulte [Certificado HTTPS de Amazon DCV](dcv.md#dcv-certificate).

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `port`
<a name="dcv-section-port"></a>

 **(Opcional)** Especifica el puerto de Amazon DCV.

El valor predeterminado es `8443`.

```
port = 8443
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

# Sección de `[ebs]`
<a name="ebs-section"></a>

Define la configuración de volumen de Amazon EBS para los volúmenes que están montados en el nodo principal y se comparten a los nodos de computación a través de NFS.

Para obtener información sobre cómo incluir volúmenes Amazon EBS en la definición de su clúster, consulte `Sección de `[cluster]`` / ``ebs_settings``.

Si desea utilizar un volumen Amazon EBS existente para un almacenamiento permanente a largo plazo que sea independiente del ciclo de vida del clúster, especifique [`ebs_volume_id`](#ebs-volume-id).

Si no lo especifica[`ebs_volume_id`](#ebs-volume-id), AWS ParallelCluster crea el volumen de EBS a partir de la `[ebs]` configuración al crear el clúster y elimina el volumen y los datos cuando se elimina el clúster.

Para obtener más información, consulte [Prácticas recomendadas: mover un clúster a una nueva versión AWS ParallelCluster secundaria o a una versión de parche](best-practices.md#best-practices-cluster-upgrades).

El formato es. `[ebs ebs-name]` *ebs-name*debe empezar por una letra, no contener más de 30 caracteres y contener únicamente letras, números, guiones (-) y guiones bajos (\$1).

```
[ebs custom1]
shared_dir = vol1
ebs_snapshot_id = snap-xxxxx
volume_type = io1
volume_iops = 200
...

[ebs custom2]
shared_dir = vol2
...

...
```

**Topics**
+ [

## `shared_dir`
](#ebs-shared-dir)
+ [

## `ebs_kms_key_id`
](#ebs-kms-key-id)
+ [

## `ebs_snapshot_id`
](#ebs-snapshot-id)
+ [

## `ebs_volume_id`
](#ebs-volume-id)
+ [

## `encrypted`
](#encrypted)
+ [

## `volume_iops`
](#volume-iops)
+ [

## `volume_size`
](#volume-size)
+ [

## `volume_throughput`
](#volume-throughput)
+ [

## `volume_type`
](#volume-type)

## `shared_dir`
<a name="ebs-shared-dir"></a>

**(Obligatorio)** Especifica la ruta donde se monta el volumen de Amazon EBS compartido.

Este parámetro es obligatorio cuando se usan varios volúmenes de Amazon EBS.

Cuando se utiliza un volumen de Amazon EBS, esta opción sobrescribe el [`shared_dir`](cluster-definition.md#cluster-shared-dir) que se especifica en la [sección `[cluster]`](cluster-definition.md). En el siguiente ejemplo, el volumen se monta en `/vol1`.

```
shared_dir = vol1
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="ebs-kms-key-id"></a>

**(Opcional)** Especifica una AWS KMS clave personalizada que se utilizará para el cifrado.

Este parámetro se debe usar junto con la opción `encrypted = true`. También debe tener un [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) personalizado.

Para obtener más información, consulte [Cifrado de disco con una clave KMS personalizada](tutorials_04_encrypted_kms_fs.md).

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `ebs_snapshot_id`
<a name="ebs-snapshot-id"></a>

**(Opcional)** Define el ID de instantánea de Amazon EBS si utiliza una instantánea como origen del volumen.

No hay valor predeterminado.

```
ebs_snapshot_id = snap-xxxxx
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `ebs_volume_id`
<a name="ebs-volume-id"></a>

**(Opcional)** Define el ID de un volumen de Amazon EBS existente para adjuntarlo al nodo principal.

No hay valor predeterminado.

```
ebs_volume_id = vol-xxxxxx
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="encrypted"></a>

**(Opcional)** Especifica si el volumen de Amazon EBS está cifrado. Nota: *No* debe usarse con instantáneas.

El valor predeterminado es `false`.

```
encrypted = false
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="volume-iops"></a>

**(Opcional)** Define el número de IOPS para volúmenes de tipo `io1`, `io2` y `gp3`.

El valor predeterminado, los valores admitidos y la proporción de datos `volume_iops` a `volume_size` varía entre [`volume_type`](raid-section.md#raid-volume-type) y [`volume_size`](#volume-size).

`volume_type` = `io1`  
`volume_iops` predeterminado = 100  
Valores admitidos `volume_iops` = 100–64 000 †  
Relación máxima `volume_iops` a `volume_size` = 50 IOPS por cada GiB. 5000 IOPS requieren un `volume_size` de al menos 100 GiB.

`volume_type` = `io2`  
`volume_iops` predeterminado = 100  
Valores admitidos `volume_iops` = 100–64 000 (256 000 para los volúmenes de `io2` Block Express) †  
Relación máxima `volume_iops` a `volume_size` = 500 IOPS por cada GiB. 5000 IOPS requieren un `volume_size` de al menos 10 GiB.

`volume_type` = `gp3`  
`volume_iops` predeterminado = 3000  
Valores admitidos `volume_iops` = 3000–16 000  
Relación máxima `volume_iops` a `volume_size` = 500 IOPS por cada GiB. 5000 IOPS requieren un `volume_size` de al menos 10 GiB.

```
volume_iops = 200
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

† Las IOPS máximas solo se garantizan en [las instancias creadas en el sistema Nitro](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) aprovisionadas con más de 32 000 IOPS. Otras instancias garantizan hasta 32,000 IOPS. Es posible que los volúmenes [ más antiguos no alcancen el rendimiento máximo a menos que ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html)modifique el volumen`io1`. `io2` Los volúmenes de Block Express admiten valores de `volume_iops` de hasta 256 000. Para obtener más información, consulta [`io2`Block Express volume (en versión preliminar)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) en la *Guía del EC2 usuario de Amazon*.

## `volume_size`
<a name="volume-size"></a>

**(Opcional)** Especifica el tamaño del volumen que se va a crear, en GiB (si no se utiliza una instantánea).

El valor predeterminado y los valores admitidos varía en [`volume_type`](#volume-type).

`volume_type` = `standard`  
Predeterminado `volume_size` = 20 GiB  
Valores admitidos `volume_size` = 1–1024 GiB

`volume_type` = `gp2`, `io1`, `io2` y `gp3`  
Predeterminado `volume_size` = 20 GiB  
Valores admitidos `volume_size` = 1–16 384 GiB

`volume_type` = `sc1` y `st1`  
Predeterminado `volume_size` = 500 GiB  
Valores admitidos `volume_size` = 500–16 384 GiB

```
volume_size = 20
```

**nota**  
Antes de AWS ParallelCluster la versión 2.10.1, el valor predeterminado para todos los tipos de volumen era de 20 GiB.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="volume-throughput"></a>

**(Opcional)** Define el rendimiento de los tipos de volumen `gp3`, en MiB/s.

El valor predeterminado es `125`.

Valores admitidos `volume_throughput` = 125–1000 MiB/s

La relación entre `volume_throughput` y `volume_iops` no puede ser superior a 0,25. El rendimiento máximo de 1000 MiB/s requiere que la configuración de `volume_iops` sea de al menos 4000.

```
volume_throughput = 1000
```

**nota**  
El soporte para `volume_throughput` se agregó en la AWS ParallelCluster versión 2.10.1.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="volume-type"></a>

**(Opcional)** Especifica el [tipo de volumen de Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) del volumen que desea lanzar.

Las opciones de volumen válidas son las siguientes:

`gp2`, `gp3`  
General Purpose SSD

`io1`, `io2`  
Provisioned IOPS SSD

`st1`  
HDD con rendimiento optimizado

`sc1`  
HDD en frío

`standard`  
Magnéticos de generaciones anteriores

Para obtener más información, consulte los [tipos de volumen de Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) en la *Guía del EC2 usuario de Amazon*.

El valor predeterminado es `gp2`.

```
volume_type = io2
```

**nota**  
Support `gp3` y `io2` se agregó en la AWS ParallelCluster versión 2.10.1.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

# Sección de `[efs]`
<a name="efs-section"></a>

Define los ajustes de configuración del Amazon EFS que se ha montado en los nodos principal y de computación. Para obtener más información, consulte [CreateFileSystem](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html)la *referencia de la API de Amazon EFS*.

Para obtener información sobre cómo incluir los sistemas de archivos Amazon EFS en la definición de su clúster, consulte `Sección de `[cluster]`` / ``efs_settings``.

Si desea utilizar un sistema de archivos Amazon EFS existente para un almacenamiento permanente a largo plazo que sea independiente del ciclo de vida del clúster, especifique [`efs_fs_id`](#efs-efs-fs-id).

Si no lo especifica[`efs_fs_id`](#efs-efs-fs-id), AWS ParallelCluster crea el sistema de archivos Amazon EFS a partir de la `[efs]` configuración al crear el clúster y elimina el sistema de archivos y los datos cuando se elimina el clúster.

Para obtener más información, consulte [Prácticas recomendadas: mover un clúster a una nueva versión AWS ParallelCluster secundaria o a una versión de parche](best-practices.md#best-practices-cluster-upgrades).

El formato es`[efs efs-name]`. *efs-name*debe empezar por una letra, no contener más de 30 caracteres y contener únicamente letras, números, guiones (-) y guiones bajos (\$1).

```
[efs customfs]
shared_dir = efs
encrypted = false
performance_mode = generalPurpose
```

**Topics**
+ [

## `efs_fs_id`
](#efs-efs-fs-id)
+ [

## `efs_kms_key_id`
](#efs-efs-kms-key-id)
+ [

## `encrypted`
](#efs-encrypted)
+ [

## `performance_mode`
](#efs-performance-mode)
+ [

## `provisioned_throughput`
](#efs-provisioned-throughput)
+ [

## `shared_dir`
](#efs-shared-dir)
+ [

## `throughput_mode`
](#efs-throughput-mode)

## `efs_fs_id`
<a name="efs-efs-fs-id"></a>

**(Opcional)** Define el ID del sistema de archivos de Amazon EFS para un sistema de archivos ya existente.

Al especificar esta opción, anula las demás opciones de Amazon EFS salvo [`shared_dir`](cluster-definition.md#cluster-shared-dir).

Si establece esta opción, solo admite los sistemas de archivos siguientes:
+ Sistemas de archivos que no cuentan con un destino de montaje en la zona de disponibilidad de la pila.
+ Que cuentan con un destino de montaje ya existente en la zona de disponibilidad de la pila, con tráfico NFS de entrada y salida permitido desde `0.0.0.0/0`.

La comprobación de estado para validar [`efs_fs_id`](#efs-efs-fs-id) requiere que el rol de IAM tenga los siguientes permisos:
+ `elasticfilesystem:DescribeMountTargets`
+ `elasticfilesystem:DescribeMountTargetSecurityGroups`
+ `ec2:DescribeSubnets`
+ `ec2:DescribeSecurityGroups`
+ `ec2:DescribeNetworkInterfaceAttribute`

Para evitar errores, debe añadir los permisos siguientes a su rol de IAM o establecer `sanity_check = false`.

**importante**  
Cuando se establece un objetivo de montaje que permite el tráfico NFS entrante y saliente`0.0.0.0/0`, se expone el sistema de archivos a las solicitudes de montaje de NFS procedentes de cualquier parte de la zona de disponibilidad del objetivo de montaje. AWS no recomienda crear un objetivo de montaje en la zona de disponibilidad de la pila. En su lugar, dejemos que nos AWS encarguemos de este paso. Si debe tener un destino de montaje en la zona de disponibilidad de la pila, considere la posibilidad de usar un grupo de seguridad personalizado proporcionando una opción [`vpc_security_group_id`](vpc-section.md#vpc-security-group-id) en la [sección `[vpc]`](vpc-section.md). A continuación, añada dicho grupo de seguridad al destino de montaje y desactive `sanity_check` para crear el clúster.

No hay valor predeterminado.

```
efs_fs_id = fs-12345
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `efs_kms_key_id`
<a name="efs-efs-kms-key-id"></a>

**(Opcional)** Identifica la AWS Key Management Service (AWS KMS) clave administrada por el cliente que se utilizará para proteger el sistema de archivos cifrados. Si se ha configurado esta opción, el ajuste [`encrypted`](#efs-encrypted) debe establecerse en `true`. Esto corresponde al [KmsKeyId](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-KmsKeyId)parámetro de la *referencia de la API de Amazon EFS*.

No hay valor predeterminado.

```
efs_kms_key_id = 1234abcd-12ab-34cd-56ef-1234567890ab
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="efs-encrypted"></a>

**(Opcional)** Indica si el sistema de archivos está cifrado. Esto corresponde al parámetro [Encrypted](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-Encrypted) de la *Referencia de la API de Amazon EFS*.

El valor predeterminado es `false`.

```
encrypted = true
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `performance_mode`
<a name="efs-performance-mode"></a>

**(Opcional)** Define el modo de rendimiento del sistema de archivos. Esto corresponde al [PerformanceMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-PerformanceMode)parámetro de la *referencia de la API de Amazon EFS*.

Las opciones válidas son las siguientes:
+ `generalPurpose`
+ `maxIO`

 Ambos valores distinguen entre mayúsculas y minúsculas.

Recomendamos el modo de rendimiento `generalPurpose` para la mayoría de sistemas de archivos.

Los sistemas de archivos que usan el modo de rendimiento de `maxIO` pueden escalar a mayores niveles de rendimiento de agregación y operaciones por segundo. Sin embargo, hay una compensación de latencias ligeramente más altas para la mayoría de las operaciones de archivos.

Este parámetro no se puede cambiar después de que se haya creado el sistema de archivos.

El valor predeterminado es `generalPurpose`.

```
performance_mode = generalPurpose
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `provisioned_throughput`
<a name="efs-provisioned-throughput"></a>

**(Opcional)** Define el rendimiento aprovisionado del sistema de archivos, medido en MiB/s. Esto corresponde al [ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps)parámetro de la *referencia de la API de Amazon EFS*.

Si usa este parámetro, debe establecer [`throughput_mode`](#efs-throughput-mode) en `provisioned`.

La cuota de rendimiento es de `1024` MiB/s. Para solicitar un aumento de cuota, póngase en contacto con Soporte.

El valor mínimo es `0.0` MiB/s.

```
provisioned_throughput = 1024
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `shared_dir`
<a name="efs-shared-dir"></a>

**(Obligatorio)** Define el punto de montaje de Amazon EFS en los nodos principal y de computación.

Este parámetro es obligatorio. La sección de Amazon EFS solo se usa si se especifica [`shared_dir`](cluster-definition.md#cluster-shared-dir).

No utilice `NONE` o `/NONE` como directorio compartido.

En el siguiente ejemplo se monta Amazon EFS en `/efs`.

```
shared_dir = efs
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `throughput_mode`
<a name="efs-throughput-mode"></a>

**(Opcional)** Define el modo de rendimiento del sistema de archivos. Esto corresponde al [ThroughputMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-ThroughputMode)parámetro de la *referencia de la API de Amazon EFS*.

Las opciones válidas son las siguientes:
+ `bursting`
+ `provisioned`

El valor predeterminado es `bursting`.

```
throughput_mode = provisioned
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

# Sección de `[fsx]`
<a name="fsx-section"></a>

Define los ajustes de configuración de un sistema FSx de archivos adjunto a Lustre. Para obtener más información, consulta [Amazon FSx CreateFileSystem](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html) en la *referencia de la FSx API de Amazon*.

Si [`base_os`](cluster-definition.md#base-os) es`alinux2`,`centos7`, o `ubuntu1804``ubuntu2004`, FSx para Lustre, es compatible.

Si se utiliza Amazon Linux, el núcleo debe ser de la versión `4.14.104-78.84.amzn1.x86_64` o posterior. Para obtener instrucciones, consulte [Instalación del cliente lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/install-lustre-client.html) en la Guía del *usuario de Amazon FSx for Lustre*.

**nota**  
FSx for Lustre no es compatible actualmente cuando se utiliza `awsbatch` como programador.

**nota**  
La compatibilidad FSx con Lustre on `centos8` se eliminó en la AWS ParallelCluster versión 2.10.4. El soporte FSx para Lustre on `ubuntu2004` se agregó en la AWS ParallelCluster versión 2.11.0. El soporte FSx para Lustre on `centos8` se agregó en la AWS ParallelCluster versión 2.10.0. Support FSx para Lustre on `alinux2``ubuntu1604`, y `ubuntu1804` se agregó en la AWS ParallelCluster versión 2.6.0. El soporte FSx para Lustre on `centos7` se agregó en la AWS ParallelCluster versión 2.4.0.

Si se usa un sistema de archivos ya existente, debe asociarse a un grupo de seguridad que permita el tráfico TCP de entrada a través del puerto `988`. Establecer el origen en `0.0.0.0/0` en una regla de grupo de seguridad proporciona acceso cliente desde todos los intervalos IP del grupo de seguridad de VPC para el protocolo y el intervalo de puertos de esa regla. Para limitar aún más el acceso a los sistemas de archivos, recomendamos utilizar orígenes más restrictivos para las reglas de grupo de seguridad. Por ejemplo, puede usar rangos de CIDR, direcciones IP o grupos de seguridad más específicos. IDs Esto se realiza automáticamente si no se usa [`vpc_security_group_id`](vpc-section.md#vpc-security-group-id).

Para usar un sistema de FSx archivos de Amazon existente para el almacenamiento permanente a largo plazo que sea independiente del ciclo de vida del clúster, especifique[`fsx_fs_id`](#fsx-fs-id).

Si no lo especificas[`fsx_fs_id`](#fsx-fs-id), AWS ParallelCluster crea el sistema FSx de archivos de Lustre a partir de la `[fsx]` configuración al crear el clúster y elimina el sistema de archivos y los datos cuando se elimina el clúster.

Para obtener más información, consulte [Prácticas recomendadas: mover un clúster a una nueva versión AWS ParallelCluster secundaria o a una versión de parche](best-practices.md#best-practices-cluster-upgrades).

El formato es. `[fsx fsx-name]` *fsx-name*debe empezar por una letra, no contener más de 30 caracteres y contener únicamente letras, números, guiones (-) y guiones bajos (\$1).

```
[fsx fs]
shared_dir = /fsx
fsx_fs_id = fs-073c3803dca3e28a6
```

Para crear y configurar un nuevo sistema de archivos, use los siguientes parámetros:

```
[fsx fs]
shared_dir = /fsx
storage_capacity = 3600
imported_file_chunk_size = 1024
export_path = s3://bucket/folder
import_path = s3://bucket
weekly_maintenance_start_time = 1:00:00
```

**Topics**
+ [

## `auto_import_policy`
](#fsx-auto-import-policy)
+ [

## `automatic_backup_retention_days`
](#fsx-automatic-backup-retention-days)
+ [

## `copy_tags_to_backups`
](#fsx-copy-tags-to-backups)
+ [

## `daily_automatic_backup_start_time`
](#fsx-daily-automatic-backup-start-time)
+ [

## `data_compression_type`
](#fsx-data-compression-type)
+ [

## `deployment_type`
](#fsx-deployment-type)
+ [

## `drive_cache_type`
](#fsx-drive-cache-type)
+ [

## `export_path`
](#fsx-export-path)
+ [

## `fsx_backup_id`
](#fsx-backup-id)
+ [

## `fsx_fs_id`
](#fsx-fs-id)
+ [

## `fsx_kms_key_id`
](#fsx-kms-key-id)
+ [

## `import_path`
](#fsx-import-path)
+ [

## `imported_file_chunk_size`
](#fsx-imported-file-chunk-size)
+ [

## `per_unit_storage_throughput`
](#fsx-per-unit-storage-throughput)
+ [

## `shared_dir`
](#fsx-shared-dir)
+ [

## `storage_capacity`
](#fsx-storage-capacity)
+ [

## `storage_type`
](#fsx-storage-type)
+ [

## `weekly_maintenance_start_time`
](#fsx-weekly-maintenance-start-time)

## `auto_import_policy`
<a name="fsx-auto-import-policy"></a>

**(Opcional)** Especifica la política de importación automática para reflejar los cambios en el depósito de S3 utilizado para crear el sistema de archivos de FSx Lustre. Los valores posibles son los siguientes:

`NEW`  
FSx for Lustre importa automáticamente las listas de directorios de cualquier objeto nuevo que se añada al bucket de S3 vinculado y que no exista actualmente en el sistema de archivos de FSx for Lustre. 

`NEW_CHANGED`  
FSx for Lustre importa automáticamente las listas de archivos y directorios de cualquier objeto nuevo que se añada al bucket de S3 y de cualquier objeto existente que se modifique en el bucket de S3. 

Esto corresponde a la [AutoImportPolicy](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-autoimportpolicy)propiedad. Para obtener más información, consulte [Importación automática de actualizaciones desde su bucket de S3](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html) en la *Guía del usuario de Amazon FSx for Lustre*. Cuando se especifica el parámetro [`auto_import_policy`](#fsx-auto-import-policy), no se deben especificar los parámetros [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days), [`copy_tags_to_backups`](#fsx-copy-tags-to-backups), [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) y [`fsx_backup_id`](#fsx-backup-id).

Si no se especifica la `auto_import_policy` configuración, las importaciones automáticas están deshabilitadas. FSx for Lustre solo actualiza las listas de archivos y directorios del bucket de S3 vinculado cuando se crea el sistema de archivos.

```
auto_import_policy = NEW_CHANGED
```

**nota**  
El soporte para [`auto_import_policy`](#fsx-auto-import-policy) se agregó en la AWS ParallelCluster versión 2.10.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `automatic_backup_retention_days`
<a name="fsx-automatic-backup-retention-days"></a>

**(Opcional)** Especifica el número de días que se retienen las copias de seguridad automáticas. Solo es válido para su uso con tipos de implementación `PERSISTENT_1`. Cuando se especifica el parámetro [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days), no se deben especificar los parámetros [`auto_import_policy`](#fsx-auto-import-policy), [`export_path`](#fsx-export-path), [`import_path`](#fsx-import-path) y [`imported_file_chunk_size`](#fsx-imported-file-chunk-size). Esto corresponde a la [AutomaticBackupRetentionDays](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-automaticbackupretentiondays)propiedad.

El valor predeterminado es 0. Este ajuste deshabilita las copias de seguridad automáticas. Los valores posibles son números enteros entre 0 y 35, ambos inclusive.

```
automatic_backup_retention_days = 35
```

**nota**  
Se ha agregado compatibilidad para [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) en la versión 2.8.0 de AWS ParallelCluster .

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `copy_tags_to_backups`
<a name="fsx-copy-tags-to-backups"></a>

**(Opcional)** Especifica si las etiquetas del sistema de archivos se copian en las copias de seguridad. Solo es válido para su uso con tipos de implementación `PERSISTENT_1`. Cuando se especifica el parámetro [`copy_tags_to_backups`](#fsx-copy-tags-to-backups), se debe especificar el parámetro [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) con un valor superior a 0 y no se deben especificar los parámetros [`auto_import_policy`](#fsx-auto-import-policy), [`export_path`](#fsx-export-path), [`import_path`](#fsx-import-path) y [`imported_file_chunk_size`](#fsx-imported-file-chunk-size). Esto corresponde a la [CopyTagsToBackups](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-copytagstobackups)propiedad.

El valor predeterminado es `false`.

```
copy_tags_to_backups = true
```

**nota**  
El soporte para [`copy_tags_to_backups`](#fsx-copy-tags-to-backups) se agregó en la AWS ParallelCluster versión 2.8.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `daily_automatic_backup_start_time`
<a name="fsx-daily-automatic-backup-start-time"></a>

**(Opcional)** Especifica la hora del día (UTC) para iniciar las copias de seguridad automáticas. Solo es válido para su uso con tipos de implementación `PERSISTENT_1`. Cuando se especifica el parámetro [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time), se debe especificar el parámetro [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) con un valor superior a 0 y no se deben especificar los parámetros [`auto_import_policy`](#fsx-auto-import-policy), [`export_path`](#fsx-export-path), [`import_path`](#fsx-import-path) y [`imported_file_chunk_size`](#fsx-imported-file-chunk-size). Esto corresponde a la [DailyAutomaticBackupStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-dailyautomaticbackupstarttime)propiedad.

El formato es `HH:MM`, donde `HH` es la hora de relleno cero del día (0-23), y `MM` es el minuto de la hora con relleno cero. Por ejemplo, a las 1:03 a.m. UTC es la siguiente.

```
daily_automatic_backup_start_time = 01:03
```

El valor predeterminado es un tiempo aleatorio entre `00:00` y `23:59`.

**nota**  
Se ha agregado compatibilidad para [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) en la versión 2.8.0 de AWS ParallelCluster .

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `data_compression_type`
<a name="fsx-data-compression-type"></a>

**(Opcional)** Especifica el tipo FSx de compresión de datos de Lustre. Esto corresponde a la [DataCompressionType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-datacompressiontype)propiedad. Para obtener más información, consulte FSx la [compresión de datos de Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html) en la Guía del *usuario de Amazon FSx for Lustre*.

El único valor válido es `LZ4`. Para deshabilitar la compresión de datos, elimine el parámetro. [`data_compression_type`](#fsx-data-compression-type)

```
data_compression_type = LZ4
```

**nota**  
El soporte para [`data_compression_type`](#fsx-data-compression-type) se agregó en la AWS ParallelCluster versión 2.11.0.

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `deployment_type`
<a name="fsx-deployment-type"></a>

**(Opcional)** Especifica el tipo de FSx implementación de Lustre. Esto corresponde a la [DeploymentType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-deploymenttype)propiedad. Para obtener más información, consulte FSx las [opciones de implementación de Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) en la Guía del *usuario de Amazon FSx for Lustre*. Elija un tipo de implementación temporal para el almacenamiento temporal y el procesamiento de datos a corto plazo. `SCRATCH_2` es la última generación de sistemas de archivos temporales. Ofrece mayor rendimiento de ráfagas en comparación con el rendimiento de referencia y cifrado en tránsito de datos.

Los valores válidos son `SCRATCH_1`, `SCRATCH_2` y `PERSISTENT_1`.

`SCRATCH_1`  
El tipo de despliegue predeterminado FSx para Lustre. Con este tipo de implementación, los valores posibles de [`storage_capacity`](#fsx-storage-capacity) son 1200, 2400 y cualquier múltiplo de 3600. El soporte para `SCRATCH_1` se agregó en la AWS ParallelCluster versión 2.4.0.

`SCRATCH_2`  
La última generación de sistemas de archivos temporales. Soporta hasta seis veces el rendimiento básico para cargas de trabajo con picos de actividad. También admite el cifrado de datos en tránsito para los tipos de instancias compatibles, si es compatible. Regiones de AWS Para obtener más información, consulte [Cifrar datos en tránsito en](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html) la Guía del *usuario de Amazon FSx for Lustre*. Con este tipo de implementación, los valores posibles de [`storage_capacity`](#fsx-storage-capacity) son 1200 y cualquier múltiplo de 2400. Se ha agregado compatibilidad para `SCRATCH_2` en la versión 2.6.0 de AWS ParallelCluster .

`PERSISTENT_1`  
Diseñado para el almacenamiento a largo plazo. Los servidores de archivos son de alta disponibilidad, y los datos se replican dentro de la misma Zona de Disponibilidad de AWS en la que se encuentran los sistemas de archivos. Admite el cifrado en tránsito de datos para los tipos de instancia compatibles. Con este tipo de implementación, los valores posibles de [`storage_capacity`](#fsx-storage-capacity) son 1200 y cualquier múltiplo de 2400. El soporte para `PERSISTENT_1` se agregó en la AWS ParallelCluster versión 2.6.0.

El valor predeterminado es `SCRATCH_1`.

```
deployment_type = SCRATCH_2
```

**nota**  
El soporte para [`deployment_type`](#fsx-deployment-type) se agregó en la AWS ParallelCluster versión 2.6.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `drive_cache_type`
<a name="fsx-drive-cache-type"></a>

**(Opcional)** Especifica que el sistema de archivos tiene una memoria caché de unidad SSD. Esto solo debe configurarse si el ajuste [`storage_type`](#fsx-storage-type) se establece a `HDD`. Esto corresponde a la [DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype)propiedad. Para obtener más información, consulte FSx las [opciones de implementación de Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) en la Guía del *usuario de Amazon FSx for Lustre*.

El único valor válido es `READ`. Para deshabilitar la memoria caché de la unidad SSD, no especifique la configuración de `drive_cache_type`.

```
drive_cache_type = READ
```

**nota**  
El soporte para [`drive_cache_type`](#fsx-drive-cache-type) se agregó en la AWS ParallelCluster versión 2.10.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `export_path`
<a name="fsx-export-path"></a>

**(Opcional)** Especifica la ruta de Amazon S3 a la que se exporta la raíz del sistema de archivos. Cuando se especifica el parámetro [`export_path`](#fsx-export-path), no se deben especificar los parámetros [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days), [`copy_tags_to_backups`](#fsx-copy-tags-to-backups), [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) y [`fsx_backup_id`](#fsx-backup-id). Esto corresponde a la [ExportPath](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-exportpath)propiedad. Los datos y metadatos del archivo no se exportan automáticamente al`export_path`. Para obtener información sobre la exportación de datos y metadatos, consulte [Exportación de cambios al repositorio de datos](https://docs.aws.amazon.com/fsx/latest/LustreGuide/export-changed-data-meta-dra.html) en la *Guía del usuario de Amazon FSx for Lustre*.

El valor predeterminado es `s3://import-bucket/FSxLustre[creation-timestamp]`, donde `import-bucket` es el bucket que se proporciona en el parámetro [`import_path`](#fsx-import-path).

```
export_path = s3://bucket/folder
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `fsx_backup_id`
<a name="fsx-backup-id"></a>

**(Opcional)** Especifica el ID de la copia de seguridad que utilizar para restaurar el sistema de archivos a partir de una copia de seguridad existente. Cuando se especifica el parámetro [`fsx_backup_id`](#fsx-backup-id), no se deben especificar los parámetros [`auto_import_policy`](#fsx-auto-import-policy), [`deployment_type`](#fsx-deployment-type), [`export_path`](#fsx-export-path), [`fsx_kms_key_id`](#fsx-kms-key-id), [`import_path`](#fsx-import-path), [`imported_file_chunk_size`](#fsx-imported-file-chunk-size), [`storage_capacity`](#fsx-storage-capacity) y [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput). Estos parámetros se leen de la copia de seguridad. Además, no se deben especificar [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) los parámetros[`import_path`](#fsx-import-path),, y. [`auto_import_policy`](#fsx-auto-import-policy) [`export_path`](#fsx-export-path)

Esto corresponde a la [BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid)propiedad.

```
fsx_backup_id = backup-fedcba98
```

**nota**  
El soporte para [`fsx_backup_id`](#fsx-backup-id) se agregó en la AWS ParallelCluster versión 2.8.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `fsx_fs_id`
<a name="fsx-fs-id"></a>

**(Opcional)** Adjunta un sistema de archivos existente FSx para Lustre.

Si se especifica esta opción, solo se utilizarán los valores de [`shared_dir`](#fsx-shared-dir) y [`fsx_fs_id`](#fsx-fs-id) de la [sección `[fsx]`](#fsx-section) y se omitirán todos los demás valores de la [sección `[fsx]`](#fsx-section).

```
fsx_fs_id = fs-073c3803dca3e28a6
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `fsx_kms_key_id`
<a name="fsx-kms-key-id"></a>

**(Opcional)** Especifica el ID de clave de su AWS Key Management Service (AWS KMS) clave gestionada por el cliente.

Esta clave se utiliza para cifrar los datos de su sistema de archivos en reposo.

Debe utilizarse con un [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) personalizado. Para obtener más información, consulte [Cifrado de disco con una clave KMS personalizada](tutorials_04_encrypted_kms_fs.md). Esto corresponde al [KmsKeyId](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html#FSx-CreateFileSystem-request-KmsKeyId)parámetro de la *Amazon FSx API Reference*.

```
fsx_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

**nota**  
El soporte para [`fsx_kms_key_id`](#fsx-kms-key-id) se agregó en la AWS ParallelCluster versión 2.6.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `import_path`
<a name="fsx-import-path"></a>

**(Opcional)** Especifica el bucket de S3 que se utiliza para cargar datos desde el sistema de archivos y sirve como bucket exportador. Para obtener más información, consulte [`export_path`](#fsx-export-path). Si especifica el [`import_path`](#fsx-import-path) parámetro, no se [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) deben especificar [`fsx_backup_id`](#fsx-backup-id) los parámetros [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time),, y. Esto corresponde al [ImportPath](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystemLustreConfiguration.html#FSx-Type-CreateFileSystemLustreConfiguration-ImportPath)parámetro de la *Amazon FSx API Reference*.

La importación se produce al crear el clúster. Para obtener más información, consulte [Importación de datos de su repositorio de datos](https://docs.aws.amazon.com/fsx/latest/LustreGuide/importing-files.html) en la *Guía del usuario de Amazon FSx for Lustre*. Al importar, solo se importan los metadatos del archivo (nombre, propiedad, fecha y permisos). Los datos del archivo no se importan desde el bucket de S3 hasta que se accede al archivo por primera vez. Para obtener información sobre cómo precargar el contenido de los archivos, consulte [Carga previa de archivos en el sistema de archivos](https://docs.aws.amazon.com/fsx/latest/LustreGuide/preload-file-contents-hsm-dra.html) en la Guía del usuario de *Amazon FSx for Lustre*.

Si no se proporciona un valor, el sistema de archivos está vacío.

```
import_path =  s3://bucket
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `imported_file_chunk_size`
<a name="fsx-imported-file-chunk-size"></a>

**(Opcional)** Determina la cantidad de fragmentos y la cantidad máxima de datos por archivo (en MiB) que se almacenan en un único disco físico, para los archivos que se importan desde un repositorio de datos (con [`import_path`](#fsx-import-path)). El número máximo de discos en los que un único archivo se puede fraccionar está limitado por el número total de los discos que forman el sistema de archivos. Cuando se especifica el parámetro [`imported_file_chunk_size`](#fsx-imported-file-chunk-size), no se deben especificar los parámetros [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days), [`copy_tags_to_backups`](#fsx-copy-tags-to-backups), [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) y [`fsx_backup_id`](#fsx-backup-id). Esto corresponde a la propiedad. [ImportedFileChunkSize](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-importedfilechunksize)

El valor predeterminado de fragmento es `1024` (1 GiB) y puede llegar hasta 512 000 MiB (500 GiB). Los objetos de Amazon S3 tienen un tamaño máximo de 5 TB.

```
imported_file_chunk_size = 1024
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `per_unit_storage_throughput`
<a name="fsx-per-unit-storage-throughput"></a>

**(Necesario para los tipos de implementación `PERSISTENT_1`)** Para el tipo de implementación [`deployment_type`](#fsx-deployment-type)` = PERSISTENT_1`, describe el rendimiento de lectura y escritura por cada 1 tebibyte (TiB) de almacenamiento, en MB/s/TiB. La capacidad de rendimiento del sistema de archivos se calcula multiplicando la capacidad de almacenamiento del sistema de archivos (TiB) por el [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) rendimiento del [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) sistema de archivos MB/s/TiB). For a 2.4 TiB ﬁle system, provisioning 50 MB/s/TiB de 120 MB/s. Usted paga la cantidad de rendimiento aprovisionada. [PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput)Esto corresponde a la propiedad.

Los valores posibles dependen del valor del [`storage_type`](#fsx-storage-type) ajuste.

`storage\$1type = SSD`  
Los valores posibles son 50, 100 o 200.

`storage\$1type = HDD`  
Los valores posibles son 12 y 40.

```
per_unit_storage_throughput = 200
```

**nota**  
Se ha agregado compatibilidad para [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) en la versión 2.6.0 de AWS ParallelCluster .

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="fsx-shared-dir"></a>

**(Obligatorio)** Define el punto de montaje del sistema FSx de archivos Lustre en los nodos principales y de cómputo.

No utilice `NONE` o `/NONE` como directorio compartido.

En el siguiente ejemplo se monta el sistema de archivos en `/fsx`.

```
shared_dir = /fsx
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `storage_capacity`
<a name="fsx-storage-capacity"></a>

**(Obligatorio)** Especifica la capacidad de almacenamiento del sistema de archivos, en GiB. Esto corresponde a la [StorageCapacity](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagecapacity)propiedad.

Los valores posibles de capacidad de almacenamiento varían en función del valor de [`deployment_type`](#fsx-deployment-type).

`SCRATCH_1`  
Los valores posibles son 1200, 2400 y cualquier múltiplo de 3600.

`SCRATCH_2`  
Los valores posibles son 1200 y cualquier múltiplo de 2400.

`PERSISTENT_1`  
Los valores posibles varían en función del valor de otros ajustes.    
`storage\$1type = SSD`  
Los valores posibles son 1200 y cualquier múltiplo de 2400.  
`storage\$1type = HDD`  
Los valores posibles varían en función del [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) establecimiento.    
`per\$1unit\$1storage\$1throughput = 12`  
Los valores posibles son cualquier múltiplo de 6000.  
`per\$1unit\$1storage\$1throughput = 40`  
Los valores posibles son cualquier múltiplo de 1800.

```
storage_capacity = 7200
```

**nota**  
Para las AWS ParallelCluster versiones 2.5.0 y 2.5.1, se [`storage_capacity`](#fsx-storage-capacity) admitían valores posibles de 1200, 2400 y cualquier múltiplo de 3600. Para las AWS ParallelCluster versiones anteriores a la 2.5.0, [`storage_capacity`](#fsx-storage-capacity) tenía un tamaño mínimo de 3600.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `storage_type`
<a name="fsx-storage-type"></a>

**(Opcional)** Especifica el tipo de almacenamiento del sistema de archivos. Esto corresponde a la [StorageType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagetype)propiedad. Los valores posibles son `SSD` y `HDD`. El valor predeterminado es `SSD`.

El tipo de almacenamiento cambia los valores posibles de otras configuraciones.

`storage_type = SSD`   
Especifica el tipo de almacenamiento de unidades de estado sólido (SSD).  
`storage_type = SSD` cambia los valores posibles de varios otros ajustes.    
[`drive_cache_type`](#fsx-drive-cache-type)  
Este ajuste no se puede especificar.  
[`deployment_type`](#fsx-deployment-type)  
Este ajuste se puede establecer en `SCRATCH_1`, `SCRATCH_2` o`PERSISTENT_1`.  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
Este valor debe especificarse si [`deployment_type`](#fsx-deployment-type) está establecido en `PERSISTENT_1`. Los valores posibles son 50, 100 o 200.  
[`storage_capacity`](#fsx-storage-capacity)  
Este valor debe especificarse. Los valores posibles varían en función del [`deployment_type`](#fsx-deployment-type).    
`deployment_type = SCRATCH_1`  
[`storage_capacity`](#fsx-storage-capacity) puede ser 1200, 2400 o cualquier múltiplo de 3600.  
`deployment_type = SCRATCH_2` o `deployment_type = PERSISTENT_1`  
[`storage_capacity`](#fsx-storage-capacity) puede ser 1200 o cualquier múltiplo de 2400.

`storage_type = HDD`  
Especifica el tipo de almacenamiento de una unidad de disco duro (HDD).  
`storage_type = HDD` cambia los valores posibles de otros ajustes.    
[`drive_cache_type`](#fsx-drive-cache-type)  
Este ajuste se puede especificar.  
[`deployment_type`](#fsx-deployment-type)  
Este ajuste debe establecerse en `PERSISTENT_1`.  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
Este valor debe especificarse. Los valores posibles son 12 o 40.  
[`storage_capacity`](#fsx-storage-capacity)  
Este valor debe especificarse. Los valores posibles varían en función del valor de [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput).    
`storage_capacity = 12`  
[`storage_capacity`](#fsx-storage-capacity) puede ser cualquier múltiplo de 6000.  
`storage_capacity = 40`  
[`storage_capacity`](#fsx-storage-capacity) puede ser cualquier múltiplo de 1800.

```
storage_type = SSD
```

**nota**  
Se ha agregado compatibilidad para la [sección de `storage_type`](#fsx-storage-type) en la versión 2.10.0 de AWS ParallelCluster .

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `weekly_maintenance_start_time`
<a name="fsx-weekly-maintenance-start-time"></a>

**(Opcional)** Especifica una hora preferida para realizar el mantenimiento semanal, en la zona horaria UTC. Esto corresponde a la [WeeklyMaintenanceStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-weeklymaintenancestarttime)propiedad.

El formato es [día de la semana]: [hora del día]: [minuto]. Por ejemplo, lunes a medianoche es lo siguiente.

```
weekly_maintenance_start_time = 1:00:00
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

# Sección de `[queue]`
<a name="queue-section"></a>

Define los ajustes de configuración de una sola cola. [`[queue]`las secciones](#queue-section) solo se admiten cuando [`scheduler`](cluster-definition.md#scheduler) se establece en `slurm`.

El formato es`[queue <queue-name>]`. *queue-name*debe empezar con una letra minúscula, no contener más de 30 caracteres y solo letras minúsculas, números y guiones (-).

```
[queue q1]
compute_resource_settings = i1,i2
placement_group = DYNAMIC
enable_efa = true
disable_hyperthreading = false
compute_type = spot
```

**nota**  
El soporte para la [`[queue]`sección](#queue-section) se agregó en la AWS ParallelCluster versión 2.9.0.

**Topics**
+ [

## `compute_resource_settings`
](#queue-compute-resource-settings)
+ [

## `compute_type`
](#queue-compute-type)
+ [

## `disable_hyperthreading`
](#queue-disable-hyperthreading)
+ [

## `enable_efa`
](#queue-enable-efa)
+ [

## `enable_efa_gdr`
](#queue-enable-efa-gdr)
+ [

## `placement_group`
](#queue-placement-group)

## `compute_resource_settings`
<a name="queue-compute-resource-settings"></a>

**(Obligatorio)** Identifique las [`[compute_resource]`secciones](compute-resource-section.md) que contienen las configuraciones de los recursos informáticos de esta cola. Los nombres de sección deben comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

[Se admiten hasta tres (3) [`[compute_resource]`secciones](compute-resource-section.md) para cada sección `[queue]`](#queue-section)

Por ejemplo, la siguiente configuración especifica que se utilicen las secciones que inician `[compute_resource cr1]` y `[compute_resource cr2]`.

```
compute_resource_settings = cr1, cr2
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `compute_type`
<a name="queue-compute-type"></a>

**(Opcional)** Define el tipo de instancias que se van a lanzar para esta cola. Esta configuración reemplaza la configuración [`cluster_type`](cluster-definition.md#cluster-type).

Las opciones válidas son: `ondemand` y `spot`.

El valor predeterminado es `ondemand`.

Para obtener más información acerca de las instancias de Spot, consulte [Uso de instancias de spot](spot.md).

**nota**  
El uso de instancias de spot requiere que el rol de `AWSServiceRoleForEC2Spot` vinculado al servicio esté en su cuenta. Para crear este rol en su cuenta mediante el AWS CLI, ejecute el siguiente comando:  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Para obtener más información, consulte [Función vinculada a servicios para solicitudes de instancias puntuales](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) en la Guía * EC2 del usuario de Amazon*.

En el siguiente ejemplo, se utilizan SpotInstances los nodos de cómputo de esta cola.

```
compute_type = spot
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `disable_hyperthreading`
<a name="queue-disable-hyperthreading"></a>

**(Opcional)** Desactive los hipersubprocesos en los nodos de esta cola. No todos los tipos de instancias pueden deshabilitar la tecnología Hyper-Threading. Para obtener una lista de los tipos de instancias que admiten la desactivación del hiperproceso, consulta los [núcleos de CPU y los subprocesos de cada núcleo de CPU por tipo de instancia en la Guía](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) del usuario de *Amazon EC2 *. Si la configuración de [`disable_hyperthreading`](cluster-definition.md#disable-hyperthreading) de la [`[cluster]`sección](cluster-definition.md) está definida, no se puede definir esta configuración.

El valor predeterminado es `false`.

```
disable_hyperthreading = true
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa`
<a name="queue-enable-efa"></a>

**(Opcional)** Si se establece en`true`, especifique que el Elastic Fabric Adapter (EFA) esté habilitado para los nodos de esta cola. Para ver la lista de EC2 instancias compatibles con EFA, consulta los [tipos de instancias compatibles](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) en la *Guía del EC2 usuario de Amazon para instancias de Linux*. Si la configuración de [`enable_efa`](cluster-definition.md#enable-efa) de la [`[cluster]`sección](cluster-definition.md) está definida, no se puede definir esta configuración. Se debe utilizar un grupo de ubicación del clúster para minimizar las latencias entre instancias. Para obtener más información, consulte [`placement`](cluster-definition.md#placement) y [`placement_group`](cluster-definition.md#placement-group).

```
enable_efa = true
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa_gdr`
<a name="queue-enable-efa-gdr"></a>

**(Opcional)** A partir de AWS ParallelCluster la versión 2.11.3, esta configuración no tiene efecto. La compatibilidad con el Elastic Fabric Adapter (EFA) para GPUDirect RDMA (acceso remoto directo a memoria) está habilitada para los nodos de procesamiento y siempre está habilitada si el tipo de instancia lo admite.

**nota**  
AWS ParallelCluster de la versión 2.10.0 a la 2.11.2: If`true`, especifica que el RDMA GPUDirect (acceso remoto directo a memoria) del Elastic Fabric Adapter (EFA) está habilitado para los nodos de esta cola. Si se configura de esta manera, es `true` necesario que la [`enable_efa`](#queue-enable-efa) configuración esté establecida en `true` .EFA GPUDirect RDMA es compatible con los siguientes tipos de instancias (`p4d.24xlarge`) en estos sistemas operativos (,, o). `alinux2` `centos7` `ubuntu1804` `ubuntu2004` Si la configuración de [`enable_efa_gdr`](cluster-definition.md#enable-efa-gdr) de la [`[cluster]`sección](cluster-definition.md) está definida, no se puede definir esta configuración. Se debe utilizar un grupo de ubicación del clúster para minimizar las latencias entre instancias. Para obtener más información, consulte [`placement`](cluster-definition.md#placement) y [`placement_group`](cluster-definition.md#placement-group).

El valor predeterminado es `false`.

```
enable_efa_gdr = true
```

**nota**  
El soporte para `enable_efa_gdr` se agregó en la AWS ParallelCluster versión 2.10.0.

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `placement_group`
<a name="queue-placement-group"></a>

**(Opcional)** Si está presente, define el grupo de ubicaciones de esta cola. Esta configuración reemplaza la configuración [`placement_group`](cluster-definition.md#placement-group).

Las opciones válidas son las siguientes:
+ `DYNAMIC`
+ Un nombre de grupo de ubicación de EC2 clústeres de Amazon existente

Cuando se establece en `DYNAMIC`, se crea y elimina un grupo de ubicación único para esta cola como parte de la pila del clúster.

Para obtener más información sobre los grupos de ubicación, consulte [Grupos de ubicación](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) en la *Guía del EC2 usuario de Amazon*. Si se usa el mismo grupo de ubicación para distintos tipos de instancias, es más probable que la solicitud no se realice correctamente debido a un error de capacidad insuficiente. Para obtener más información, consulta [Capacidad de instancia insuficiente](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) en la *Guía del EC2 usuario de Amazon*.

No hay valor predeterminado.

No todos los tipos de instancias admiten grupos de ubicación en clúster. Por ejemplo, `t2.micro` no admite grupos con ubicación en clúster. Para obtener información sobre la lista de tipos de instancias que admiten grupos de ubicación en clústeres, consulta [Reglas y limitaciones de los grupos de ubicación en clústeres](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) en la *Guía del EC2 usuario de Amazon*. Consulte [Problemas con los grupos de ubicación y el lanzamiento de instancias](troubleshooting.md#placement-groups-and-instance-launch-issues) para obtener sugerencias al trabajar con grupos de ubicación.

```
placement_group = DYNAMIC
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

# Sección de `[raid]`
<a name="raid-section"></a>

Define las opciones de configuración para una matriz de RAID que se ha creado a partir de una serie de volúmenes de Amazon EBS idénticos. La unidad RAID se monta en el nodo principal y se exporta a nodos de computación con NFS.

El formato es`[raid raid-name]`. *raid-name*debe empezar por una letra, no contener más de 30 caracteres y contener únicamente letras, números, guiones (-) y guiones bajos (\$1).

```
[raid rs]
shared_dir = raid
raid_type = 1
num_of_raid_volumes = 2
encrypted = true
```

**Topics**
+ [

## `shared_dir`
](#raid-shared-dir)
+ [

## `ebs_kms_key_id`
](#raid-ebs_kms_key_id)
+ [

## `encrypted`
](#raid-encrypted)
+ [

## `num_of_raid_volumes`
](#num-of-raid-volumes)
+ [

## `raid_type`
](#raid-type)
+ [

## `volume_iops`
](#raid-volume-iops)
+ [

## `volume_size`
](#raid-volume-size)
+ [

## `volume_throughput`
](#raid-volume-throughput)
+ [

## `volume_type`
](#raid-volume-type)

## `shared_dir`
<a name="raid-shared-dir"></a>

**(Obligatorio)** Define el punto de montaje de la matriz de RAID en los nodos principal y de computación.

La unidad RAID solo se crea si se especifica este parámetro.

No utilice `NONE` o `/NONE` como directorio compartido.

En el siguiente ejemplo, se monta la matriz en `/raid`.

```
shared_dir = raid
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="raid-ebs_kms_key_id"></a>

**(Opcional)** Especifica una AWS KMS clave personalizada que se utilizará para el cifrado.

Este parámetro se debe usar junto con la opción `encrypted = true` y debe tener un [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) personalizado.

Para obtener más información, consulte [Cifrado de disco con una clave KMS personalizada](tutorials_04_encrypted_kms_fs.md).

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="raid-encrypted"></a>

**(Opcional)** Especifique si el sistema de archivos está cifrado.

El valor predeterminado es `false`.

```
encrypted = false
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `num_of_raid_volumes`
<a name="num-of-raid-volumes"></a>

**(Opcional)** Define el número de volúmenes de Amazon EBS desde los que se montará la matriz de RAID.

Número mínimo de volúmenes = `2`.

Número máximo de volúmenes = `5`.

El valor predeterminado es `2`.

```
num_of_raid_volumes = 2
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `raid_type`
<a name="raid-type"></a>

**(Obligatorio)** Define el tipo de RAID para la matriz de RAID.

La unidad RAID solo se crea si se especifica este parámetro.

Las opciones válidas son las siguientes:
+ `0`
+ `1`

Para obtener más información sobre los tipos de RAID, consulta la [información sobre RAID](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/raid-config.html) en la *Guía del EC2 usuario de Amazon*.

El siguiente ejemplo crea una matriz de RAID `0`:

```
raid_type = 0
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="raid-volume-iops"></a>

**(Opcional)** Define el número de IOPS para volúmenes de tipo `io1`, `io2` y `gp3`.

El valor predeterminado, los valores admitidos y la proporción de datos `volume_iops` a `volume_size` varía entre [`volume_type`](#raid-volume-type) y [`volume_size`](#raid-volume-size).

`volume_type` = `io1`  
`volume_iops` predeterminado = 100  
Valores admitidos `volume_iops` = 100–64 000 †  
Relación máxima `volume_iops` a `volume_size` = 50 IOPS por GiB. 5000 IOPS requieren un `volume_size` de al menos 100 GiB.

`volume_type` = `io2`  
`volume_iops` predeterminado = 100  
Valores admitidos `volume_iops` = 100–64 000 (256 000 para los volúmenes de `io2` Block Express) †  
Relación máxima `volume_iops` a `volume_size` = 500 IOPS por GiB. 5000 IOPS requieren un `volume_size` de al menos 10 GiB.

`volume_type` = `gp3`  
`volume_iops` predeterminado = 3000  
Valores admitidos `volume_iops` = 3000–16 000  
Relación máxima `volume_iops` a `volume_size` = 500 IOPS por GiB. 5000 IOPS requieren un `volume_size` de al menos 10 GiB.

```
volume_iops = 3000
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

† Las IOPS máximas solo se garantizan en [las instancias creadas en el sistema Nitro](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) aprovisionadas con más de 32 000 IOPS. Otras instancias garantizan hasta 32,000 IOPS. Es posible que los volúmenes `io1` más antiguos no alcancen el rendimiento máximo a menos que [modifique el volumen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html). `io2` Los volúmenes de Block Express admiten valores de `volume_iops` de hasta 256 000. Para obtener más información, consulta [`io2`Block Express volume (en versión preliminar)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) en la *Guía del EC2 usuario de Amazon*.

## `volume_size`
<a name="raid-volume-size"></a>

**(Opcional)** Define el tamaño del volumen que se va a crear, en GiB.

El valor predeterminado y los valores admitidos varía en [`volume_type`](#raid-volume-type).

`volume_type` = `standard`  
Predeterminado `volume_size` = 20 GiB  
Valores admitidos `volume_size` = 1–1024 GiB

`volume_type` = `gp2`, `io1`, `io2` y `gp3`  
Predeterminado `volume_size` = 20 GiB  
Valores admitidos `volume_size` = 1–16 384 GiB

`volume_type` = `sc1` y `st1`  
Predeterminado `volume_size` = 500 GiB  
Valores admitidos `volume_size` = 500–16 384 GiB

```
volume_size = 20
```

**nota**  
Antes de AWS ParallelCluster la versión 2.10.1, el valor predeterminado para todos los tipos de volumen era de 20 GiB.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="raid-volume-throughput"></a>

**(Opcional)** Define el rendimiento de los tipos de volumen `gp3`, en MiB/s.

El valor predeterminado es `125`.

Valores admitidos `volume_throughput` = 125–1000 MiB/s

La relación entre `volume_throughput` y `volume_iops` no puede ser superior a 0,25. El rendimiento máximo de 1000 MiB/s requiere que la configuración de `volume_iops` sea de al menos 4000.

```
volume_throughput = 1000
```

**nota**  
El soporte para `volume_throughput` se agregó en la AWS ParallelCluster versión 2.10.1.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="raid-volume-type"></a>

**(Opcional)** Define el tipo de volumen que se va a crear.

Las opciones válidas son las siguientes:

`gp2`, `gp3`  
General Purpose SSD

`io1`, `io2`  
Provisioned IOPS SSD

`st1`  
HDD con rendimiento optimizado

`sc1`  
HDD en frío

`standard`  
Magnéticos de generaciones anteriores

Para obtener más información, consulte los [tipos de volumen de Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) en la *Guía del EC2 usuario de Amazon*.

El valor predeterminado es `gp2`.

```
volume_type = io2
```

**nota**  
Support `gp3` y `io2` se agregó en la AWS ParallelCluster versión 2.10.1.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

# Sección de `[scaling]`
<a name="scaling-section"></a>

**Topics**
+ [

## `scaledown_idletime`
](#scaledown-idletime)

Especifica la configuración que define cómo se escalan los nodos de computación.

El formato es`[scaling scaling-name]`. *scaling-name*debe empezar por una letra, no contener más de 30 caracteres y contener únicamente letras, números, guiones (-) y guiones bajos (\$1).

```
[scaling custom]
scaledown_idletime = 10
```

## `scaledown_idletime`
<a name="scaledown-idletime"></a>

**(Opcional)** Especifica la cantidad de minutos sin realizar un trabajo, transcurridos los cuales el nodo de computación termina.

Este parámetro no se usa si `awsbatch` es el programador.

El valor predeterminado es `10`.

```
scaledown_idletime = 10
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

# Sección de `[vpc]`
<a name="vpc-section"></a>

Especifica los ajustes de configuración de Amazon VPC. Para obtener más información VPCs, consulte [¿Qué es Amazon VPC?](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html) y [las prácticas recomendadas de seguridad para su VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-best-practices.html) en la Guía del usuario de Amazon *VPC*.

El formato es. `[vpc vpc-name]` *vpc-name*debe empezar por una letra, no contener más de 30 caracteres y contener únicamente letras, números, guiones (-) y guiones bajos (\$1).

```
[vpc public]
vpc_id = vpc-xxxxxx
master_subnet_id = subnet-xxxxxx
```

**Topics**
+ [

## `additional_sg`
](#additional-sg)
+ [

## `compute_subnet_cidr`
](#compute-subnet-cidr)
+ [

## `compute_subnet_id`
](#compute-subnet-id)
+ [

## `master_subnet_id`
](#master-subnet-id)
+ [

## `ssh_from`
](#ssh-from)
+ [

## `use_public_ips`
](#use-public-ips)
+ [

## `vpc_id`
](#vpc-id)
+ [

## `vpc_security_group_id`
](#vpc-security-group-id)

## `additional_sg`
<a name="additional-sg"></a>

**(Opcional)** Proporcione un ID de grupo de seguridad de Amazon VPC adicional para todas las instancias.

No hay valor predeterminado.

```
additional_sg = sg-xxxxxx
```

## `compute_subnet_cidr`
<a name="compute-subnet-cidr"></a>

**(Opcional)** Especifica un bloque de enrutamiento entre dominios sin clases (CIDR). Utilice este parámetro si desea crear una AWS ParallelCluster subred de procesamiento.

```
compute_subnet_cidr = 10.0.100.0/24
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `compute_subnet_id`
<a name="compute-subnet-id"></a>

**(Opcional)** Especifique el ID de una subred existente en la que se van a aprovisionar los nodos de computación.

Si no se especifica, [`compute_subnet_id`](#compute-subnet-id) utiliza el valor de [`master_subnet_id`](#master-subnet-id).

Si la subred es privada, debe configurar NAT para el acceso web.

```
compute_subnet_id = subnet-xxxxxx
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `master_subnet_id`
<a name="master-subnet-id"></a>

**(Obligatorio)** Especifique el ID de una subred existente en la que se va a aprovisionar el nodo maestro.

```
master_subnet_id = subnet-xxxxxx
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `ssh_from`
<a name="ssh-from"></a>

**(Opcional)** Especifique un intervalo de IP con formato de CIDR desde el que se permite el acceso de SSH.

Este parámetro solo se usa cuando se AWS ParallelCluster crea el grupo de seguridad.

El valor predeterminado es `0.0.0.0/0`.

```
ssh_from = 0.0.0.0/0
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `use_public_ips`
<a name="use-public-ips"></a>

**(Opcional)** Define si se asignarán o no direcciones IP públicas a instancias de computación.

Si se establece en `true`, se asocia una dirección IP elástica al nodo principal.

Si se establece en `false`, el nodo principal tiene una IP pública (o no) según el valor del parámetro de configuración de subred "Auto-assign Public IP" (Asignar automáticamente IP pública).

Para ver ejemplos, consulte la [configuración de redes](networking.md).

El valor predeterminado es `true`.

```
use_public_ips = true
```

**importante**  
De forma predeterminada, todas Cuentas de AWS están limitadas a cinco (5) direcciones IP elásticas para cada una Región de AWS. Para obtener más información, consulta el [límite de direcciones IP elásticas](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/elastic-ip-addresses-eip.html#using-instance-addressing-limit) en la *Guía EC2 del usuario de Amazon*.

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `vpc_id`
<a name="vpc-id"></a>

**(Obligatorio)** Especifique el ID de la Amazon VPC en la que se va a aprovisionar el clúster.

```
vpc_id = vpc-xxxxxx
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `vpc_security_group_id`
<a name="vpc-security-group-id"></a>

**(Opcional)** Especifique el uso de un grupo de seguridad existente para todas las instancias.

No hay valor predeterminado.

```
vpc_security_group_id = sg-xxxxxx
```

El grupo de seguridad creado por AWS ParallelCluster permite el acceso SSH mediante el puerto 22 desde las direcciones especificadas en la [`ssh_from`](#ssh-from) configuración, o todas IPv4 las direcciones (`0.0.0.0/0`) si no se especifica la [`ssh_from`](#ssh-from) configuración. Si Amazon DCV está habilitado, el grupo de seguridad permite el acceso a Amazon DCV mediante el puerto 8443 (o lo que especifique la [`port`](dcv-section.md#dcv-section-port) configuración) desde las direcciones especificadas en la [`access_from`](dcv-section.md#dcv-section-access-from) configuración, o todas IPv4 las direcciones (`0.0.0.0/0`) si no se especifica la [`access_from`](dcv-section.md#dcv-section-access-from) configuración.

**aviso**  
Puede cambiar el valor de este parámetro y actualizar el clúster si [`[cluster]`[`fsx_settings`](cluster-definition.md#fsx-settings)](cluster-definition.md)no está especificado, o ambas opciones, `fsx_settings` y si se especifica un sistema de archivos externo existente FSx para Lustre. [`fsx-fs-id`[`[fsx fs]`](fsx-section.md)](fsx-section.md#fsx-fs-id)  
No puede cambiar el valor de este parámetro si se especifica un sistema de archivos AWS ParallelCluster gestionado FSx para Lustre en `fsx_settings` y. `[fsx fs]`

[Política de actualización: si los sistemas de archivos AWS ParallelCluster gestionados de Amazon FSx for Lustre no se especifican en la configuración, esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-no-managed-fsx-lustre)

# Ejemplos
<a name="examples"></a>

En los siguientes ejemplos de configuraciones se muestran AWS ParallelCluster las configuraciones que utilizan Slurm, Torquey AWS Batch programadores.

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores.

**Contents**
+ [

## Slurm Workload Manager (`slurm`)
](#example.slurm)
+ [

## Son of Grid Engine () `sge` y Torque Resource Manager (`torque`)
](#example.torque)
+ [

## AWS Batch (`awsbatch`)
](#example.awsbatch)

## Slurm Workload Manager (`slurm`)
<a name="example.slurm"></a>

El siguiente ejemplo lanza un clúster con el programador `slurm`. La configuración de ejemplo lanza 1 clúster con 2 colas de trabajos. La primera cola, `spot`, inicialmente tiene 2 instancias de spot `t3.micro` disponibles. Puede escalarse verticalmente hasta un máximo de 10 instancias y reducirse verticalmente hasta un mínimo de 1 instancia cuando no se ha ejecutado ningún trabajo durante 10 minutos (se puede ajustar mediante la configuración de [`scaledown_idletime`](scaling-section.md#scaledown-idletime)). La segunda cola, `ondemand`, comienza sin instancias y puede escalarse verticalmente hasta un máximo de 5 instancias `t3.micro` bajo demanda.

```
[global]
update_check = true
sanity_check = true
cluster_template = slurm

[aws]
aws_region_name = <your Región de AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster slurm]
key_name = <your EC2 keypair name>
base_os = alinux2                   # optional, defaults to alinux2
scheduler = slurm
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
queue_settings = spot,ondemand

[queue spot]
compute_resource_settings = spot_i1
compute_type = spot                 # optional, defaults to ondemand

[compute_resource spot_i1]
instance_type = t3.micro
min_count = 1                       # optional, defaults to 0
initial_count = 2                   # optional, defaults to 0

[queue ondemand]
compute_resource_settings = ondemand_i1

[compute_resource ondemand_i1]
instance_type = t3.micro
max_count = 5                       # optional, defaults to 10
```

## Son of Grid Engine () `sge` y Torque Resource Manager (`torque`)
<a name="example.torque"></a>

**nota**  
Este ejemplo solo se aplica a AWS ParallelCluster las versiones anteriores a la 2.11.4 (inclusive). A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores.

El siguiente ejemplo lanza un clúster con el programador `torque` o `sge`. Para utilizar SGE, cambiar `scheduler = torque` a. `scheduler = sge` La configuración de ejemplo le permite tener un máximo de 5 nodos simultáneos y se reduce verticalmente a dos cuando no se ha ejecutado ningún trabajo durante un plazo de 10 minutos.

```
[global]
update_check = true
sanity_check = true
cluster_template = torque

[aws]
aws_region_name = <your Región de AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster torque]
key_name = <your EC2 keypair name>but they aren't eligible for future updates
base_os = alinux2                   # optional, defaults to alinux2
scheduler = torque                  # optional, defaults to sge
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
initial_queue_size = 2              # optional, defaults to 0
maintain_initial_size = true        # optional, defaults to false
max_queue_size = 5                  # optional, defaults to 10
```

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores. Si usa estas versiones, puede seguir usándolas o bien puede solucionar problemas con el soporte de los equipos de AWS servicio y AWS soporte.

## AWS Batch (`awsbatch`)
<a name="example.awsbatch"></a>

El siguiente ejemplo lanza un clúster con el programador `awsbatch`. Se establece para elegir el tipo de instancia óptimo, en función de las necesidades de sus recursos de trabajo.

La configuración de ejemplo permite un máximo de 40 v CPUs simultáneos y se reduce a cero cuando no se ha ejecutado ningún trabajo durante 10 minutos (se puede ajustar mediante la [`scaledown_idletime`](scaling-section.md#scaledown-idletime) configuración).

```
[global]
update_check = true
sanity_check = true
cluster_template = awsbatch

[aws]
aws_region_name = <your Región de AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster awsbatch]
scheduler = awsbatch
compute_instance_type = optimal # optional, defaults to optimal
min_vcpus = 0                   # optional, defaults to 0
desired_vcpus = 0               # optional, defaults to 4
max_vcpus = 40                  # optional, defaults to 20
base_os = alinux2               # optional, defaults to alinux2, controls the base_os of
                                # the head node and the docker image for the compute fleet
key_name = <your EC2 keypair name>
vpc_settings = public
```