

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Sección de `[cluster]`
<a name="cluster-definition"></a>

Define una plantilla de clúster que se puede utilizar para crear un clúster. Un archivo de configuración puede contener varias secciones de `[cluster]`.

Se puede usar la misma plantilla de clúster para crear varios clústeres.

El formato es `[cluster cluster-template-name]`. La [sección de `[cluster]`](#cluster-definition) nombrada por la configuración de [`cluster_template`](global.md#cluster-template) de la [sección de `[global]`](global.md) se usa de forma predeterminada, pero se puede anular en la línea de comandos de [`pcluster`](pcluster.md).

*cluster-template-name*debe empezar por una letra, no contener más de 30 caracteres y contener únicamente letras, números, guiones (-) y guiones bajos (\$1).

```
[cluster default]
```

**Topics**
+ [

## `additional_cfn_template`
](#additional-cfn-template)
+ [

## `additional_iam_policies`
](#additional-iam-policies)
+ [

## `base_os`
](#base-os)
+ [

## `cluster_resource_bucket`
](#cluster-resource-bucket-section)
+ [

## `cluster_type`
](#cluster-type)
+ [

## `compute_instance_type`
](#compute-instance-type)
+ [

## `compute_root_volume_size`
](#compute-root-volume-size)
+ [

## `custom_ami`
](#custom-ami-section)
+ [

## `cw_log_settings`
](#cw-log-settings)
+ [

## `dashboard_settings`
](#dashboard-settings)
+ [

## `dcv_settings`
](#dcv-settings)
+ [

## `desired_vcpus`
](#desired-vcpus)
+ [

## `disable_cluster_dns`
](#disable-cluster-dns-settings)
+ [

## `disable_hyperthreading`
](#disable-hyperthreading)
+ [

## `ebs_settings`
](#ebs-settings)
+ [

## `ec2_iam_role`
](#ec2-iam-role)
+ [

## `efs_settings`
](#efs-settings)
+ [

## `enable_efa`
](#enable-efa)
+ [

## `enable_efa_gdr`
](#enable-efa-gdr)
+ [

## `enable_intel_hpc_platform`
](#enable-intel-hpc-platform)
+ [

## `encrypted_ephemeral`
](#encrypted-ephemeral)
+ [

## `ephemeral_dir`
](#ephemeral-dir)
+ [

## `extra_json`
](#extra-json)
+ [

## `fsx_settings`
](#fsx-settings)
+ [

## `iam_lambda_role`
](#iam-lambda-role)
+ [

## `initial_queue_size`
](#configuration-initial-queue-size)
+ [

## `key_name`
](#key-name)
+ [

## `maintain_initial_size`
](#maintain-initial-size)
+ [

## `master_instance_type`
](#master-instance-type)
+ [

## `master_root_volume_size`
](#master-root-volume-size)
+ [

## `max_queue_size`
](#configuration-max-queue-size)
+ [

## `max_vcpus`
](#max-vcpus)
+ [

## `min_vcpus`
](#min-vcpus)
+ [

## `placement`
](#placement)
+ [

## `placement_group`
](#placement-group)
+ [

## `post_install`
](#post-install)
+ [

## `post_install_args`
](#post-install-args)
+ [

## `pre_install`
](#pre-install)
+ [

## `pre_install_args`
](#pre-install-args)
+ [

## `proxy_server`
](#proxy-server)
+ [

## `queue_settings`
](#queue-settings)
+ [

## `raid_settings`
](#raid-settings)
+ [

## `s3_read_resource`
](#s3-read-resource)
+ [

## `s3_read_write_resource`
](#s3-read-write-resource)
+ [

## `scaling_settings`
](#scaling-settings)
+ [

## `scheduler`
](#scheduler)
+ [

## `shared_dir`
](#cluster-shared-dir)
+ [

## `spot_bid_percentage`
](#spot-bid-percentage)
+ [

## `spot_price`
](#spot-price)
+ [

## `tags`
](#tags)
+ [

## `template_url`
](#template-url)
+ [

## `vpc_settings`
](#vpc-settings)

## `additional_cfn_template`
<a name="additional-cfn-template"></a>

**(Opcional)** Define una AWS CloudFormation plantilla adicional para lanzarla junto con el clúster. Esta plantilla adicional se utiliza para la creación de recursos que existen fuera del clúster pero que forman parte del ciclo de vida de este.

Este valor tiene que ser una dirección URL HTTP a una plantilla pública con todos los parámetros incluidos.

No hay valor predeterminado.

```
additional_cfn_template = https://<bucket-name>.s3.amazonaws.com/my-cfn-template.yaml
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `additional_iam_policies`
<a name="additional-iam-policies"></a>

**(Opcional)** Especifica una lista de nombres de recursos de Amazon (ARN) de las políticas de IAM para Amazon EC2. Esta lista se asocia al rol raíz utilizado en el clúster, además de los permisos requeridos por AWS ParallelCluster separados por comas. El nombre de una política de IAM y su ARN son diferentes. Los nombres no se pueden utilizar como argumento para `additional_iam_policies`.

Si su intención es añadir políticas adicionales a la configuración predeterminada de los nodos del clúster, le recomendamos que apruebe las políticas de IAM personalizadas adicionales con la configuración de `additional_iam_policies` en lugar de utilizar la configuración de [`ec2_iam_role`](#ec2-iam-role) para añadir sus políticas de EC2 específicas. Esto se debe a `additional_iam_policies` que se agregan a los permisos predeterminados que se AWS ParallelCluster requieren. Un [`ec2_iam_role`](#ec2-iam-role) existente debe incluir todos los permisos necesarios. Sin embargo, dado que los permisos necesarios suelen cambiar de una versión a otra a medida que se añaden características, un [`ec2_iam_role`](#ec2-iam-role) existente puede quedar obsoleto.

No hay valor predeterminado.

```
additional_iam_policies = arn:aws:iam::123456789012:policy/CustomEC2Policy
```

**nota**  
Se ha agregado compatibilidad para [`additional_iam_policies`](#additional-iam-policies) en la versión 2.5.0 de AWS ParallelCluster .

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `base_os`
<a name="base-os"></a>

**(Obligatorio)** Especifica qué tipo de sistema operativo se utiliza en el clúster.

Las opciones disponibles son:
+ `alinux2`
+ `centos7`
+ `ubuntu1804`
+ `ubuntu2004`

**nota**  
Solo para instancias AWS basadas en Graviton `alinux2``ubuntu1804`, o `ubuntu2004` son compatibles.

**nota**  
El soporte para `centos8` se eliminó en la AWS ParallelCluster versión 2.11.4. Se ha agregado compatibilidad para `ubuntu2004` y se ha eliminado la compatibilidad con `alinux` y `ubuntu1604` en la versión 2.11.0 de AWS ParallelCluster . Se agregó soporte para y se `centos8` `centos6` eliminó el soporte para en la AWS ParallelCluster versión 2.10.0. Se ha agregado compatibilidad para `alinux2` en la versión 2.6.0 de AWS ParallelCluster . Se ha agregado compatibilidad para `ubuntu1804` y se ha eliminado la compatibilidad con `ubuntu1404` en la versión 2.5.0 de AWS ParallelCluster .

Aparte de las especificas Regiones de AWS mencionadas en la siguiente tabla que no son compatibles. `centos7` Todas las demás regiones AWS comerciales son compatibles con los siguientes sistemas operativos.


| Partición (Regiones de AWS) | `alinux2` | `centos7` | `ubuntu1804` y `ubuntu2004` | 
| --- | --- | --- | --- | 
| Comercial ( Regiones de AWS ninguno de ellos se menciona específicamente) | True | True | True | 
| AWS GovCloud (Este de EE. UU.) (us-gov-east-1) | True | False | True | 
| AWS GovCloud (EEUU-Oeste) () us-gov-west-1 | True | False | True | 
| China (Pekín) (cn-north-1) | True | False | True | 
| China (Ningxia) (cn-northwest-1) | True | False | True | 

**nota**  
Nota: El parámetro [`base_os`](#base-os) también determina el nombre de usuario que se utiliza para iniciar sesión en el clúster.
+ `centos7`: `centos` 
+ `ubuntu1804` y `ubuntu2004`: `ubuntu` 
+ `alinux2`: `ec2-user` 

**nota**  
Antes de AWS ParallelCluster la versión 2.7.0, el [`base_os`](#base-os) parámetro era opcional y el predeterminado era. `alinux` A partir de la versión 2.7.0 de AWS ParallelCluster , el parámetro [`base_os`](#base-os) es obligatorio.

**nota**  
Si el parámetro [`scheduler`](#scheduler) es `awsbatch`, solo se admite `alinux2`.

```
base_os = alinux2
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `cluster_resource_bucket`
<a name="cluster-resource-bucket-section"></a>

**(Opcional)** Especifica el nombre del bucket de Amazon S3 que se utiliza para alojar los recursos que se generan al crear el clúster. El bucket debe tener habilitado el control de versiones. Para obtener más información, consulte [Uso del control de versiones](https://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html) en la *Guía del usuario de Amazon Simple Storage Service*. Este bucket se puede utilizar para varios clústeres. El bucket debe estar en la misma región que el clúster.

Si no se especifica este parámetro, se crea un bucket nuevo al crear el clúster. El nuevo bucket tiene el nombre de `parallelcluster-random_string`. En este nombre, *random\$1string* hay una cadena aleatoria de caracteres alfanuméricos. Todos los recursos del clúster se almacenan en este depósito en una ruta con el formulario`bucket_name/resource_directory`. `resource_directory`tiene la forma`stack_name-random_string`, donde *stack\$1name* es el nombre de una de las CloudFormation pilas utilizadas por AWS ParallelCluster. El valor de *bucket\$1name* se encuentra en el `ResourcesS3Bucket` valor de la salida de la `parallelcluster-clustername` pila. El valor de *resource\$1directory* se encuentra en el valor de la `ArtifactS3RootDirectory` salida de la misma pila.

El valor predeterminado es `parallelcluster-random_string`.

```
cluster_resource_bucket = amzn-s3-demo-bucket
```

**nota**  
El soporte para [`cluster_resource_bucket`](#cluster-resource-bucket-section) se agregó en la AWS ParallelCluster versión 2.10.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización. No se puede forzar la actualización de esta configuración.](using-pcluster-update.md#update-policy-read-only-resource-bucket)

## `cluster_type`
<a name="cluster-type"></a>

**(Opcional)** Define el tipo de clúster que se va a lanzar. Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe reemplazarse por la configuración de [`compute_type`](queue-section.md#queue-compute-type) en las [secciones de `[queue]`](queue-section.md).

Las opciones válidas son: `ondemand` y `spot`.

El valor predeterminado es `ondemand`.

Para obtener más información acerca de las instancias de Spot, consulte [Uso de instancias de spot](spot.md).

**nota**  
El uso de instancias de spot requiere que el rol de `AWSServiceRoleForEC2Spot` vinculado al servicio esté en su cuenta. Para crear este rol en su cuenta mediante el AWS CLI, ejecute el siguiente comando:  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Para obtener más información, consulte [Rol vinculado al servicio para solicitudes de instancias de spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) en la *Guía del usuario de Amazon EC2*.

```
cluster_type = ondemand
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_instance_type`
<a name="compute-instance-type"></a>

**(Opcional)** Define el tipo de instancia de Amazon EC2 que se utiliza para los nodos de computación en clúster. La arquitectura del tipo de instancia debe ser la misma que la arquitectura utilizada para la configuración de [`master_instance_type`](#master-instance-type). Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe reemplazarse por la configuración de [`instance_type`](compute-resource-section.md#compute-resource-instance-type) en las [secciones de `[compute_resource]`](compute-resource-section.md).

Si utilizas el `awsbatch` programador, consulta la sección Creación de entornos de cómputo en la AWS Batch interfaz de usuario para ver una lista de los tipos de instancias compatibles.

El valor predeterminado es `t2.micro`, `optimal` cuando el programador es `awsbatch`.

```
compute_instance_type = t2.micro
```

**nota**  
En la AWS ParallelCluster versión 2.8.0 se agregó soporte para instancias AWS basadas en Graviton (incluidas `C6g` las instancias `A1` Y).

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_root_volume_size`
<a name="compute-root-volume-size"></a>

**(Opcional)** Especifica el tamaño del volumen ComputeFleet raíz en gibibytes (GiB). La AMI debe admitir `growroot`.

El valor predeterminado es `35`.

**nota**  
Para AWS ParallelCluster las versiones entre 2.5.0 y 2.10.4, el valor predeterminado era 25. Antes de AWS ParallelCluster la versión 2.5.0, el valor predeterminado era 20.

```
compute_root_volume_size = 35
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `custom_ami`
<a name="custom-ami-section"></a>

**(Opcional)** Especifica el ID de una AMI personalizada que se utilizará en los nodos principal y de cómputo en lugar de la [publicada](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/amis.txt) de forma predeterminada AMIs. Para obtener más información, consulte [Modificar una AMI de](tutorials_02_ami_customization.md#modify-an-aws-parallelcluster-ami) o [Cree una AWS ParallelCluster AMI personalizada](tutorials_02_ami_customization.md#build-a-custom-aws-parallelcluster-ami).

No hay valor predeterminado.

```
custom_ami = ami-00d4efc81188687a0
```

Si la AMI personalizada requiere permisos adicionales para su lanzamiento, estos permisos se deben agregar a las políticas de usuario y de nodo principal.

Por ejemplo, si una AMI personalizada tiene asociada una instantánea cifrada, se requieren las siguientes políticas adicionales tanto en las políticas de usuario como en las del nodo principal:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```

------

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `cw_log_settings`
<a name="cw-log-settings"></a>

**(Opcional)** Identifica la `[cw_log]` sección con la configuración de CloudWatch registros. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección de `[cw_log]`](cw-log-section.md), [CloudWatch Panel de control de Amazon](cloudwatch-dashboard.md) y [Integración con Amazon CloudWatch Logs](cloudwatch-logs.md).

Por ejemplo, la siguiente configuración especifica que la sección que se inicia `[cw_log custom-cw]` se usa para la configuración de CloudWatch registros.

```
cw_log_settings = custom-cw
```

**nota**  
El soporte para [`cw_log_settings`](#cw-log-settings) se agregó en la AWS ParallelCluster versión 2.6.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `dashboard_settings`
<a name="dashboard-settings"></a>

**(Opcional)** Identifica la `[dashboard]` sección con la configuración del CloudWatch tablero. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[dashboard]`](dashboard-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que se inicia `[dashboard custom-dashboard` se usa para la configuración del CloudWatch panel.

```
dashboard_settings = custom-dashboard
```

**nota**  
El soporte para [`dashboard_settings`](#dashboard-settings) se agregó en la AWS ParallelCluster versión 2.10.0.

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `dcv_settings`
<a name="dcv-settings"></a>

**(Opcional)** Identifica la sección `[dcv]` con la configuración de Amazon DCV. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[dcv]`](dcv-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que inicia `[dcv custom-dcv]` se utiliza para la configuración de Amazon DCV.

```
dcv_settings = custom-dcv
```

**nota**  
En las instancias AWS basadas en Graviton, Amazon DCV solo es compatible con. `alinux2`

**nota**  
El soporte para [`dcv_settings`](#dcv-settings) se agregó en la AWS ParallelCluster versión 2.5.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `desired_vcpus`
<a name="desired-vcpus"></a>

**(Opcional)** Especifica el número deseado de v CPUs en el entorno informático. Solo se utiliza si el programador es `awsbatch`.

El valor predeterminado es `4`.

```
desired_vcpus = 4
```

[Política de actualización: esta configuración no se analiza durante una actualización.](using-pcluster-update.md#update-policy-setting-ignored)

## `disable_cluster_dns`
<a name="disable-cluster-dns-settings"></a>

**(Opcional)** Especifica si no se deben crear las entradas de DNS del clúster. De forma predeterminada, AWS ParallelCluster crea una zona alojada en Route 53. Si `disable_cluster_dns` se establece en `true`, no se crea la zona alojada.

El valor predeterminado es `false`.

```
disable_cluster_dns = true
```

**aviso**  
Se requiere un sistema de resolución de nombres para que el clúster funcione correctamente. Si `disable_cluster_dns` está establecido en `true`, también se debe proporcionar un sistema de resolución de nombres adicional.

**importante**  
[`disable_cluster_dns`](#disable-cluster-dns-settings) = `true` solo se admite si se especifica la configuración de [`queue_settings`](#queue-settings).

**nota**  
El soporte para [`disable_cluster_dns`](#disable-cluster-dns-settings) se agregó en la AWS ParallelCluster versión 2.9.1.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `disable_hyperthreading`
<a name="disable-hyperthreading"></a>

Deshabilita la tecnología Hyper-Threading en los nodos principal y de computación. No todos los tipos de instancias pueden deshabilitar la tecnología Hyper-Threading. Para obtener una lista de los tipos de instancias que admiten la desactivación de la tecnología Hyper-Threading, consulte [Núcleos de CPU y subprocesos por núcleo de CPU por tipo de instancia](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) en la *Guía del usuario de Amazon EC2*. Si se define la configuración de [`queue_settings`](#queue-settings), se puede definir esta configuración o se puede definir la configuración de [`disable_hyperthreading`](queue-section.md#queue-disable-hyperthreading) en las [secciones de `[queue]`](queue-section.md).

El valor predeterminado es `false`.

```
disable_hyperthreading = true
```

**nota**  
[`disable_hyperthreading`](#disable-hyperthreading) solo afecta al nodo principal cuando `scheduler = awsbatch`.

**nota**  
Se ha agregado compatibilidad para [`disable_hyperthreading`](#disable-hyperthreading) en la versión 2.5.0 de AWS ParallelCluster .

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `ebs_settings`
<a name="ebs-settings"></a>

**(Opcional)** Identifica las secciones de `[ebs]` con los volúmenes de Amazon EBS que están montados en el nodo principal. Si utiliza varios volúmenes de Amazon EBS, introduzca estos parámetros en una lista separados por una coma. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Se admiten hasta cinco (5) volúmenes de Amazon EBS adicionales.

Para obtener más información, consulte la [sección `[ebs]`](ebs-section.md).

Por ejemplo, la siguiente configuración especifica que las secciones que inician `[ebs custom1]` y `[ebs custom2]` se utilizan para los volúmenes de Amazon EBS.

```
ebs_settings = custom1, custom2
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `ec2_iam_role`
<a name="ec2-iam-role"></a>

**(Opcional)** Define el nombre de un rol de IAM ya existente para Amazon EC2 que se asocia a todas las instancias del clúster. El nombre de una función de IAM y su nombre de recurso de Amazon (ARN) son diferentes. ARNs no se puede usar como argumento para. `ec2_iam_role`

Si se especifica esta opción, se omite el valor [`additional_iam_policies`](#additional-iam-policies). Si su intención es añadir políticas adicionales a la configuración predeterminada de los nodos del clúster, le recomendamos que apruebe las políticas de IAM personalizadas adicionales utilizando la configuración de [`additional_iam_policies`](#additional-iam-policies) en lugar de la de `ec2_iam_role`.

Si no se especifica esta opción, se utiliza la función de AWS ParallelCluster IAM predeterminada para Amazon EC2. Para obtener más información, consulte [AWS Identity and Access Management funciones en AWS ParallelCluster](iam.md).

No hay valor predeterminado.

```
ec2_iam_role = ParallelClusterInstanceRole
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `efs_settings`
<a name="efs-settings"></a>

**(Opcional)** Especifica la configuración relacionada con el sistema de archivos de Amazon EFS. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[efs]`](efs-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que inicia `[efs customfs]` se utiliza para la configuración del sistema de archivos de Amazon EFS.

```
efs_settings = customfs
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `enable_efa`
<a name="enable-efa"></a>

Si está presente, especifica que Elastic Fabric Adapter (EFA) se ha habilitado para los nodos de computación. Para ver la lista de instancias de EC2 compatibles con EFA, consulte [Tipos de instancias admitidas](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) en la *Guía del usuario para instancias de Linux de Amazon EC2*. Para obtener más información, consulte [Elastic Fabric Adapter](efa.md). Si se define la configuración de [`queue_settings`](#queue-settings), se puede definir esta configuración o se puede definir la configuración de [`enable_efa`](queue-section.md#queue-enable-efa) en la [sección de `[queue]`](queue-section.md). Se debe utilizar un grupo de ubicación del clúster para minimizar las latencias entre instancias. Para obtener más información, consulte [`placement`](#placement) y [`placement_group`](#placement-group).

```
enable_efa = compute
```

**nota**  
En la versión 2.10.1 se agregó soporte para EFA en instancias Graviton2 basadas en ARM. AWS ParallelCluster 

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `enable_efa_gdr`
<a name="enable-efa-gdr"></a>

**(Opcional)** A partir de la AWS ParallelCluster versión 2.11.3, esta configuración no tiene efecto. La compatibilidad con el Elastic Fabric Adapter (EFA) para GPUDirect RDMA (acceso remoto directo a memoria) siempre está habilitada si es compatible tanto con el tipo de instancia como con el sistema operativo.

**nota**  
AWS ParallelCluster de la versión 2.10.0 a la 2.11.2: Si`compute`, especifica que la compatibilidad con el Elastic Fabric Adapter (EFA) GPUDirect para RDMA (acceso remoto directo a la memoria) está habilitada para los nodos de procesamiento. Si se establece esta configuración en `compute`, es necesario que la configuración de [`enable_efa`](#enable-efa) esté establecida en `compute`. El soporte de EFA para GPUDirect RDMA lo admiten tipos de instancias específicos (`p4d.24xlarge`) en sistemas operativos específicos (es decir,, o). [`base_os`](#base-os) `alinux2` `centos7` `ubuntu1804` `ubuntu2004` Si se define la configuración de [`queue_settings`](#queue-settings), se puede definir esta configuración o se puede definir la configuración de [`enable_efa_gdr`](queue-section.md#queue-enable-efa-gdr) en las [secciones de `[queue]`](queue-section.md). Se debe utilizar un grupo de ubicación del clúster para minimizar las latencias entre instancias. Para obtener más información, consulte [`placement`](#placement) y [`placement_group`](#placement-group).

```
enable_efa_gdr = compute
```

**nota**  
El soporte para `enable_efa_gdr` se agregó en la AWS ParallelCluster versión 2.10.0.

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_intel_hpc_platform`
<a name="enable-intel-hpc-platform"></a>

Si existe, indica que se acepta el Acuerdo de licencia de usuario final para Intel Parallel Studio. Esto hace que Intel Parallel Studio se instale en el nodo maestro y se comparta con los nodos de computación. Esto añade varios minutos al tiempo que tarda el nodo principal en arrancar. El valor de [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) solo se admite en CentOS 7 ([`base_os`](#base-os)` = centos7`).

El valor predeterminado es `false`.

```
enable_intel_hpc_platform = true
```

**nota**  
El [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) parámetro no es compatible con las instancias basadas en AWS Graviton.

**nota**  
Se ha agregado compatibilidad para [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) en la versión 2.5.0 de AWS ParallelCluster .

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `encrypted_ephemeral`
<a name="encrypted-ephemeral"></a>

Cifra los volúmenes de almacenes de instancias efímeros con claves en memoria no recuperables, mediante LUKS (configuración de clave unificada de Linux).

Para obtener más información, consulte [https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md](https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md).

El valor predeterminado es `false`.

```
encrypted_ephemeral = true
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `ephemeral_dir`
<a name="ephemeral-dir"></a>

Define la ruta donde se montan los volúmenes de almacenes de instancias, si se usan.

El valor predeterminado es `/scratch`.

```
ephemeral_dir = /scratch
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `extra_json`
<a name="extra-json"></a>

**(Opcional)** Define el JSON adicional que se fusiona en `dna.json` de Chef. Para obtener más información, consulte [Creación de una AWS ParallelCluster AMI personalizada](tutorials_02_ami_customization.md).

El valor predeterminado es `{}`.

```
extra_json = {}
```

**nota**  
A partir de AWS ParallelCluster la versión 2.6.1, la mayoría de las recetas de instalación se omiten de forma predeterminada al lanzar nodos para mejorar los tiempos de inicio. Para ejecutar todas las recetas de instalación para una mejor compatibilidad con versiones anteriores a costa de los tiempos de inicio, añada `"skip_install_recipes" : "no"` a la clave `cluster` en la configuración [`extra_json`](#extra-json). Por ejemplo:  

```
extra_json = { "cluster" : { "skip_install_recipes" : "no" } }
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `fsx_settings`
<a name="fsx-settings"></a>

**(Opcional)** Especifica la sección que define la configuración FSx de Lustre. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[fsx]`](fsx-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que comienza `[fsx fs]` se usa FSx para la configuración de Lustre.

```
fsx_settings = fs
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `iam_lambda_role`
<a name="iam-lambda-role"></a>

**(Opcional)** Define el nombre de un rol de AWS Lambda ejecución existente. Este rol está asociado a todas las funciones de Lambda en el clúster. Para obtener más información, consulte [Rol de ejecución de AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/lambda-intro-execution-role.html) en la *Guía para desarrolladores de AWS Lambda *.

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de planificadoresSGE. Torque

El nombre de una función de IAM y su nombre de recurso de Amazon (ARN) son diferentes. ARNs no se puede usar como argumento para. `iam_lambda_role` Si ambos [`ec2_iam_role`](#ec2-iam-role) y `iam_lambda_role` están definidos, y el [`scheduler`](#scheduler) es `sge`, `slurm` o `torque`, entonces no se creará ningún rol. Si [`scheduler`](#scheduler) se establece en `awsbatch`, se crearán roles durante [`pcluster start`](pcluster.start.md). Para obtener ejemplos de políticas, consulte [`ParallelClusterLambdaPolicy`usando, o SGE Slurm Torque](iam.md#parallelcluster-lambda-policy) y [`ParallelClusterLambdaPolicy` con `awsbatch`](iam.md#parallelcluster-lambda-policy-batch).

No hay valor predeterminado.

```
iam_lambda_role = ParallelClusterLambdaRole
```

**nota**  
El soporte para `iam_lambda_role` se agregó en la AWS ParallelCluster versión 2.10.1.

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `initial_queue_size`
<a name="configuration-initial-queue-size"></a>

**(Opcional)** Establece el número inicial de instancias de Amazon EC2 que se lanzarán como nodos de computación en el clúster. Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe eliminarse y reemplazarse por la configuración de [`initial_count`](compute-resource-section.md#compute-resource-initial-count) en las [secciones de `[compute_resource]`](compute-resource-section.md).

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE planificadores o. Torque

Esta configuración solo se aplica a los programadores tradicionales (SGE, Slurm y Torque). Si la configuración de [`maintain_initial_size`](#maintain-initial-size) es `true`, entonces la configuración de [`initial_queue_size`](#configuration-initial-queue-size) debe ser al menos una (1).

Si el programador es `awsbatch`, utilice [`min_vcpus`](#min-vcpus) en su lugar.

El valor predeterminado es `2`.

```
initial_queue_size = 2
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `key_name`
<a name="key-name"></a>

**(Opcional)** Asigna un nombre a un par de claves de Amazon EC2 existente con el que se va a habilitar el acceso de SSH a las instancias.

```
key_name = mykey
```

**nota**  
Antes de AWS ParallelCluster la versión 2.11.0, era una configuración obligatoria. `key_name`

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `maintain_initial_size`
<a name="maintain-initial-size"></a>

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de planificadores. SGE Torque

**(Opcional)** Mantiene el tamaño inicial del grupo de escalado automático para programadores tradicionales (SGE, Slurm y Torque).

Si el programador es `awsbatch`, utilice [`desired_vcpus`](#desired-vcpus) en su lugar.

Esta configuración es un indicador booleano. Si se establece en `true`, el grupo de escalado automático nunca tendrá menos miembros que el valor de [`initial_queue_size`](#configuration-initial-queue-size), y el valor de [`initial_queue_size`](#configuration-initial-queue-size) debe ser uno (1) o mayor. El clúster también se puede ampliar y escalar hasta el valor de [`max_queue_size`](#configuration-max-queue-size). Si `cluster_type = spot`, el grupo de escalado automático puede tener instancias interrumpidas y el tamaño puede ser inferior a [`initial_queue_size`](#configuration-initial-queue-size).

Si se establece en `false`, el grupo de escalado automático se puede reducir a cero (0) miembros, para evitar que los recursos permanezcan inactivos cuando no sean necesarios.

Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe eliminarse y reemplazarse por la configuración de [`initial_count`](compute-resource-section.md#compute-resource-initial-count) y [`min_count`](compute-resource-section.md#compute-resource-min-count) en las [secciones de `[compute_resource]`](compute-resource-section.md).

El valor predeterminado es `false`.

```
maintain_initial_size = false
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `master_instance_type`
<a name="master-instance-type"></a>

**(Opcional)** Define el tipo de instancia de Amazon EC2 que se utiliza para el nodo principal. La arquitectura del tipo de instancia debe ser la misma que la arquitectura utilizada para la configuración de [`compute_instance_type`](#compute-instance-type).

Si Regiones de AWS tiene una capa gratuita, el valor predeterminado es el tipo de instancia de capa gratuita (o). `t2.micro` `t3.micro` Si Regiones de AWS no tiene un nivel gratuito, el valor predeterminado es. `t3.micro` Para obtener más información sobre la capa AWS gratuita, consulte la [capa AWS gratuita. FAQs](https://aws.amazon.com/free/free-tier-faqs/)

```
master_instance_type = t2.micro
```

**nota**  
Antes de AWS ParallelCluster la versión 2.10.1, el valor predeterminado era «`t2.micro`en todos». Regiones de AWS En AWS ParallelCluster versión 2.10.0, `p4d.24xlarge` no era compatible con el nodo principal. La compatibilidad con instancias AWS basadas en Graviton (como `A1` y`C6g`) se agregó en la AWS ParallelCluster versión 2.8.0.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `master_root_volume_size`
<a name="master-root-volume-size"></a>

**(Opcional)** Especifica el tamaño del volumen raíz del nodo principal en gibibytes (GiB). La AMI debe admitir `growroot`.

El valor predeterminado es `35`.

**nota**  
Para AWS ParallelCluster las versiones entre 2.5.0 y 2.10.4, el valor predeterminado era 25. Antes de AWS ParallelCluster la versión 2.5.0, el valor predeterminado era 20.

```
master_root_volume_size = 35
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `max_queue_size`
<a name="configuration-max-queue-size"></a>

Establece el número máximo de instancias que se pueden lanzar en el clúster. Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe eliminarse y reemplazarse por la configuración de [`max_count`](compute-resource-section.md#compute-resource-max-count) en las [secciones de `[compute_resource]`](compute-resource-section.md).

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE planificadores o. Torque

Esta configuración solo se aplica a los programadores tradicionales (SGE, Slurm y Torque).

Si el programador es `awsbatch`, utilice [`max_vcpus`](#max-vcpus) en su lugar.

El valor predeterminado es `10`.

```
max_queue_size = 10
```

Política de actualización: esta configuración se puede cambiar durante una actualización, pero la flota de computación debe detenerse si se reduce el valor. De lo contrario, es posible que se cierren los nodos existentes.

## `max_vcpus`
<a name="max-vcpus"></a>

**(Opcional)** Especifica el número máximo de v CPUs en el entorno informático. Solo se utiliza si el programador es `awsbatch`.

El valor predeterminado es `20`.

```
max_vcpus = 20
```

[Política de actualización: esta configuración no se puede reducir durante una actualización.](using-pcluster-update.md#update-policy-no-decrease)

## `min_vcpus`
<a name="min-vcpus"></a>

**(Opcional)** Mantiene el tamaño inicial del grupo de escalado automático para el programador de `awsbatch`.

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de planificadores SGE oTorque.

Si el programador es SGE, Slurm o Torque, utilice [`maintain_initial_size`](#maintain-initial-size) en su lugar.

El entorno informático nunca tendrá menos miembros que el valor de [`min_vcpus`](#min-vcpus).

El valor predeterminado es `0`.

```
min_vcpus = 0
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `placement`
<a name="placement"></a>

**(Opcional)** Define la lógica de los grupos con ubicación en clúster, lo que permite a todo el clúster o solo a las instancias de computación utilizar el grupo con ubicación en clúster.

Si se define la configuración de[`queue_settings`](#queue-settings), esta configuración debe eliminarse y reemplazarse por la configuración de [`placement_group`](queue-section.md#queue-placement-group) en cada una de las [secciones de `[queue]`](queue-section.md). Si se usa el mismo grupo de ubicación para distintos tipos de instancias, es más probable que la solicitud no se realice correctamente debido a un error de capacidad insuficiente. Para obtener más información, consulte [Capacidad de la instancia insuficiente](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) en la *Guía del usuario de Amazon EC2*. Las colas múltiples solo pueden compartir un grupo de ubicación si se crean con antelación y se configuran en la configuración de [`placement_group`](queue-section.md#queue-placement-group) de cada cola. Si cada [sección de `[queue]`](queue-section.md) define una configuración de [`placement_group`](queue-section.md#queue-placement-group), el nodo principal no puede estar en el grupo de ubicación de una cola.

Las opciones válidas son `cluster` o `compute`.

Este parámetro no se usa cuando el programador es `awsbatch`.

El valor predeterminado es `compute`.

```
placement = compute
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `placement_group`
<a name="placement-group"></a>

**(Opcional)** Define el grupo de ubicación en clúster. Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe eliminarse y reemplazarse por la configuración de [`placement_group`](queue-section.md#queue-placement-group) en las [secciones de `[queue]`](queue-section.md).

Las opciones válidas son las siguientes:
+ `DYNAMIC`
+ Un nombre de grupo con ubicación en clúster de Amazon EC2 existente

Cuando se establece en `DYNAMIC`, se crea y elimina un grupo de ubicación único como parte de la pila del clúster.

Este parámetro no se usa cuando el programador es `awsbatch`.

Para obtener más información sobre los grupos de colocación y cómo crearlos, consulte [Grupos de ubicación](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) en la *Guía del usuario de Amazon EC2*. Si se usa el mismo grupo de ubicación para distintos tipos de instancias, es más probable que la solicitud no se realice correctamente debido a un error de capacidad insuficiente. Para obtener más información, consulte [Capacidad de la instancia insuficiente](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) en la *Guía del usuario de Amazon EC2*.

No hay valor predeterminado.

No todos los tipos de instancias admiten grupos de ubicación en clúster. Por ejemplo, el tipo de instancia predeterminado `t3.micro` no admite grupos con ubicación en clúster. Para obtener información acerca de la lista de tipos de instancias que admiten grupos con ubicación en clúster, consulte [Reglas y limitaciones de los grupos de ubicación en clúster](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) en la *Guía del usuario de Amazon EC2*. Consulte [Problemas con los grupos de ubicación y el lanzamiento de instancias](troubleshooting.md#placement-groups-and-instance-launch-issues) para obtener sugerencias al trabajar con grupos de ubicación.

```
placement_group = DYNAMIC
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `post_install`
<a name="post-install"></a>

**(Opcional)** Especifica la URL de un script posterior a la instalación que se ejecuta una vez que se hayan completado todas las acciones de arranque del nodo. Para obtener más información, consulte [Acciones de arranque personalizadas](pre_post_install.md).

Cuando se utiliza `awsbatch` como programador, el script posterior a la instalación solo se ejecuta en el nodo principal.

El formato de los parámetros puede ser `http://hostname/path/to/script.sh` o `s3://bucket-name/path/to/script.sh`.

No hay valor predeterminado.

```
post_install = s3://<bucket-name>/my-post-install-script.sh
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `post_install_args`
<a name="post-install-args"></a>

**(Opcional)** Especifica una lista de argumentos entre comillas que se pasará al script posterior a la instalación.

No hay valor predeterminado.

```
post_install_args = "argument-1 argument-2"
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install`
<a name="pre-install"></a>

**(Opcional)** Especifica la URL de un script de preinstalación que se ejecuta antes de que se inicie cualquier acción de arranque de implementación de nodos. Para obtener más información, consulte [Acciones de arranque personalizadas](pre_post_install.md).

Cuando se utiliza `awsbatch` como programador, el script de preinstalación solo se ejecuta en el nodo principal.

El formato de los parámetros puede ser `http://hostname/path/to/script.sh` o `s3://bucket-name/path/to/script.sh`.

No hay valor predeterminado.

```
pre_install = s3://bucket-name/my-pre-install-script.sh
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install_args`
<a name="pre-install-args"></a>

Especifica una lista de argumentos entre comillas que se pasará al script de preinstalación.

No hay valor predeterminado.

```
pre_install_args = "argument-3 argument-4"
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `proxy_server`
<a name="proxy-server"></a>

Define un servidor proxy HTTP o HTTPS, normalmente .

No hay valor predeterminado.

```
proxy_server = http://10.11.12.13:8080
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `queue_settings`
<a name="queue-settings"></a>

**(Opcional)** [Especifica que el clúster usa colas en lugar de una flota de procesamiento homogénea y qué secciones se utilizan. `[queue]`](queue-section.md) La primera [sección de `[queue]`](queue-section.md) en la lista es la cola del programador predeterminada. Los nombres de la sección de `queue` deben comenzar por una letra, contener no más de 30 caracteres y solo letras, números y guiones (-).

**importante**  
Solo se admite cuando el spot se establece en . Los ajustes [`cluster_type`](#cluster-type), [`compute_instance_type`](#compute-instance-type), [`initial_queue_size`](#configuration-initial-queue-size), [`maintain_initial_size`](#maintain-initial-size), [`max_queue_size`](#configuration-max-queue-size), [`placement`](#placement), [`placement_group`](#placement-group) y [`spot_price`](#spot-price) no deben especificarse. La configuración de [`disable_hyperthreading`](#disable-hyperthreading) y [`enable_efa`](#enable-efa) se puede especificar en la [sección de `[cluster]`](#cluster-definition) o en las [secciones de `[queue]`](queue-section.md), pero no en ambas.

Se admiten hasta cinco (5) [secciones de `[queue]`](queue-section.md).

Para obtener más información, consulte la [sección `[queue]`](queue-section.md).

Por ejemplo, la siguiente configuración especifica que se utilicen las secciones que inician `[queue q1]` y `[queue q2]`.

```
queue_settings = q1, q2
```

**nota**  
El soporte para [`queue_settings`](#queue-settings) se agregó en la AWS ParallelCluster versión 2.9.0.

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update.md#update-policy-compute-fleet)

## `raid_settings`
<a name="raid-settings"></a>

**(Opcional)** Identifica la sección de `[raid]` con la configuración RAID del volumen de Amazon EBS. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[raid]`](raid-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que inicia `[raid rs]` se utiliza para la configuración del escalado automático.

```
raid_settings = rs
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `s3_read_resource`
<a name="s3-read-resource"></a>

**(Opcional)** Especifica un recurso de Amazon S3 al que se concede acceso de solo lectura a AWS ParallelCluster los nodos.

Por ejemplo, `arn:aws:s3:::my_corporate_bucket*` proporciona acceso de solo lectura al *my\$1corporate\$1bucket* bucket y a los objetos del bucket.

Consulte la sección sobre cómo [trabajar con ](s3_resources.md) para obtener información detallada sobre el formato.

No hay valor predeterminado.

```
s3_read_resource = arn:aws:s3:::my_corporate_bucket*
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `s3_read_write_resource`
<a name="s3-read-write-resource"></a>

**(Opcional)** Especifica un recurso de Amazon S3 al que se concede read/write acceso a AWS ParallelCluster los nodos.

Por ejemplo, `arn:aws:s3:::my_corporate_bucket/Development/*` proporciona read/write acceso a todos los objetos de la `Development` carpeta del *my\$1corporate\$1bucket* bucket.

Consulte la sección sobre cómo [trabajar con ](s3_resources.md) para obtener información detallada sobre el formato.

No hay valor predeterminado.

```
s3_read_write_resource = arn:aws:s3:::my_corporate_bucket/*
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `scaling_settings`
<a name="scaling-settings"></a>

Identifica la sección de `[scaling]` con la configuración del escalado automático. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[scaling]`](scaling-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que inicia `[scaling custom]` se utiliza para la configuración del escalado automático.

```
scaling_settings = custom
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `scheduler`
<a name="scheduler"></a>

**(Obligatorio)** Define el programador de clúster.

Las opciones válidas son las siguientes:

`awsbatch`  
AWS Batch  
Para obtener más información sobre el programador de `awsbatch`, consulte la [configuración de red](networking.md#awsbatch-networking) y [AWS Batch (`awsbatch`)](awsbatchcli.md).

`sge`  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de planificadoresSGE. Torque
Son of Grid Engine (SGE)

`slurm`  
Slurm Workload Manager (Slurm)

`torque`  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de planificadores o. SGE Torque
Torque Resource Manager (Torque)

**nota**  
Antes de AWS ParallelCluster la versión 2.7.0, el `scheduler` parámetro era opcional y el predeterminado era. `sge` A partir de AWS ParallelCluster la versión 2.7.0, el `scheduler` parámetro es obligatorio.

```
scheduler = slurm
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="cluster-shared-dir"></a>

Define la ruta donde se monta el volumen de compartido.

No use esta opción con varios volúmenes de . En su lugar, proporcione los valores [`shared_dir`](#cluster-shared-dir) en cada sección de .

Consulte la sección de para obtener información detallada sobre cómo trabajar con varios volúmenes de .

El valor predeterminado es `/shared`.

En el siguiente ejemplo se muestra un volumen de compartido montado en .

```
shared_dir = myshared
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

## `spot_bid_percentage`
<a name="spot-bid-percentage"></a>

**(Opcional)** Establece el porcentaje bajo demanda que se utiliza para calcular el precio máximo al ComputeFleet contado para `awsbatch` el planificador.

Si no se especifica, se selecciona el precio de mercado de spot actual con el precio bajo demanda como límite.

```
spot_bid_percentage = 85
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `spot_price`
<a name="spot-price"></a>

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE nuestros programadores. Torque

**(Opcional)** Establece el precio spot máximo para los ComputeFleet programadores tradicionales (, y). SGE Slurm Torque Solo se utiliza cuando la configuración [`cluster_type`](#cluster-type) se establece en `spot`. Si no especifica ningún valor, se le cobrará el precio de spot, con el precio bajo demanda como límite máximo. Si se define la configuración de [`queue_settings`](#queue-settings), esta configuración debe eliminarse y reemplazarse por la configuración de [`spot_price`](compute-resource-section.md#compute-resource-spot-price) en las [secciones de `[compute_resource]`](compute-resource-section.md).

Si el programador es `awsbatch`, utilice [spot\$1bid\$1percentage](#spot-bid-percentage) en su lugar.

Para obtener ayuda para encontrar una instancia de spot que se ajuste a sus necesidades, consulte el [Asistente de instancias de spot](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

**nota**  
En AWS ParallelCluster la versión 2.5.0, si `cluster_type = spot` [`spot_price`](#spot-price) no se especifica, la instancia se lanza en caso de error. ComputeFleet Esto se solucionó en la AWS ParallelCluster versión 2.5.1.

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update.md#update-policy-setting-supported)

## `tags`
<a name="tags"></a>

**(Opcional)** Define las etiquetas que utilizará. CloudFormation

Si se especifican etiquetas de línea de comandos a través de *--tags*, se combinan con etiquetas de configuración.

Las etiquetas de la línea de comandos sobrescriben las etiquetas de configuración que tienen la misma clave.

Las etiquetas están en formato JSON. No utilice comillas fuera de las llaves.

Para obtener más información, consulte [CloudFormation resource tags type](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) en la *Guía del usuario de AWS CloudFormation *.

```
tags = {"key" : "value", "key2" : "value2"}
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)

**nota**  
La política de actualización no permitía cambiar la configuración `tags` hasta que se detuvo la flota informática desde AWS ParallelCluster versión 2.0.0 hasta la versión 2.9.1.  
En el caso de las versiones 2.10.0 a 2.11.7, la política de actualización indicada que permitía cambiar la configuración de `tags` no es precisa. No se admite una actualización de clúster al modificar esta configuración.

## `template_url`
<a name="template-url"></a>

**(Opcional)** Define la ruta a la AWS CloudFormation plantilla que se utiliza para crear el clúster.

Actualiza la plantilla que se utilizó originalmente para crear la pila.

El valor predeterminado es `https://aws_region_name-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version.cfn.json`.

**aviso**  
Este es un parámetro avanzado. Cualquier cambio en esta configuración es por su cuenta y riesgo.

```
template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json
```

[Política de actualización: esta configuración no se analiza durante una actualización.](using-pcluster-update.md#update-policy-setting-ignored)

## `vpc_settings`
<a name="vpc-settings"></a>

**(Obligatorio)** Identifica la sección de `[vpc]` con la configuración de Amazon VPC donde se implementa el clúster. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (\$1).

Para obtener más información, consulte la [sección `[vpc]`](vpc-section.md).

Por ejemplo, la siguiente configuración especifica que la sección que inicia `[vpc public]` se utiliza para la configuración de Amazon VPC.

```
vpc_settings = public
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update.md#update-policy-fail)