

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Configuración del clúster
<a name="cluster-configuration-file-v3"></a>

AWS ParallelCluster la versión 3 utiliza archivos de configuración independientes para controlar la definición de infraestructura de clústeres y la definición de infraestructura personalizada AMIs. Todos los archivos de configuración utilizan archivos YAML 1.1. La información detallada de cada uno de estos archivos de configuración se encuentra en el siguiente enlace. Para ver algunos ejemplos de configuraciones, consulte [https://github.com/aws/aws- parallelcluster/tree/release-3.0/cli/tests/pcluster/example \$1configs](https://github.com/aws/aws-parallelcluster/tree/release-3.0/cli/tests/pcluster/example_configs).

Estos objetos se utilizan para la configuración del clúster de la AWS ParallelCluster versión 3.

**Topics**
+ [Propiedades del fichero de configuración del clúster](#cluster-configuration-file-v3.properties)
+ [Sección de `Imds`](Imds-cluster-v3.md)
+ [Sección de `Image`](Image-v3.md)
+ [Sección de `HeadNode`](HeadNode-v3.md)
+ [Sección de `Scheduling`](Scheduling-v3.md)
+ [Sección de `SharedStorage`](SharedStorage-v3.md)
+ [Sección de `Iam`](Iam-v3.md)
+ [Sección de `LoginNodes`](LoginNodes-v3.md)
+ [Sección de `Monitoring`](Monitoring-v3.md)
+ [Sección de `Tags`](Tags-v3.md)
+ [Sección de `AdditionalPackages`](AdditionalPackages-v3.md)
+ [Sección de `DirectoryService`](DirectoryService-v3.md)
+ [Sección de `DeploymentSettings`](DeploymentSettings-cluster-v3.md)

## Propiedades del fichero de configuración del clúster
<a name="cluster-configuration-file-v3.properties"></a>

`Region` (**Opcional**, `String`)  
Especifica el Región de AWS para el clúster. Por ejemplo, `us-east-2`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomS3Bucket` (**Opcional**, `String`)  
Especifica el nombre de un bucket de Amazon S3 que se crea en su AWS cuenta para almacenar los recursos que utilizan sus clústeres, como el archivo de configuración del clúster, y para exportar los registros. AWS ParallelCluster mantiene un bucket de Amazon S3 en cada AWS región en la que cree los clústeres. De forma predeterminada, estos buckets de Amazon S3 se llaman `parallelcluster-hash-v1-DO-NOT-DELETE`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización. Si fuerzas la actualización, se ignorará el nuevo valor y se utilizará el anterior.](using-pcluster-update-cluster-v3.md#update-policy-read-only-resource-bucket-v3)

`AdditionalResources` (**Opcional**, `String`)  
Define una AWS CloudFormation plantilla adicional para lanzarla junto con el clúster. Esta plantilla adicional se utiliza para la creación de recursos que existen fuera del clúster pero que forman parte del ciclo de vida de este.  
Este valor tiene que ser una dirección URL HTTP a una plantilla pública con todos los parámetros incluidos.  
No hay valor predeterminado.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

# Sección de `Imds`
<a name="Imds-cluster-v3"></a>

**(Opcional)** Especifica la configuración del servicio de metadatos de instancias (IMDS) global.

```
Imds:
  ImdsSupport: string
```

## Propiedades de `Imds`
<a name="Imds-cluster-v3.properties"></a>

`ImdsSupport` (**Opcional**, `String`)  
Especifica qué versiones de IMDS se admiten en los nodos del clúster. Los valores admitidos son `v1.0` y `v2.0`. El valor predeterminado es `v2.0`.  
Si `ImdsSupport` está establecida en`v1.0`, IMDSv2 se admiten ambas IMDSv1 opciones.  
Si `ImdsSupport` está establecido en`v2.0`, solo IMDSv2 es compatible.  
Para obtener más información, consulte [Uso IMDSv2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html) en la *Guía del usuario de Amazon EC2 para instancias de Linux.*  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
A partir de la AWS ParallelCluster versión 3.7.0, el valor `ImdsSupport` predeterminado es. `v2.0` Le recomendamos que configure las llamadas `ImdsSupport` a las acciones personalizadas `v2.0` y IMDSv2 las IMDSv1 sustituya por ellas.  
El soporte para [`Imds`](#Imds-cluster-v3)/[`ImdsSupport`](#yaml-cluster-Imds-ImdsSupport)se añade con la AWS ParallelCluster versión 3.3.0.

# Sección de `Image`
<a name="Image-v3"></a>

**nota**  
Las versiones no compatibles de la versión oficial AMIs distribuida por AWS ParallelCluster dejarán de estar disponibles tras 18 meses de inactividad. Estas imágenes antiguas contienen software desactualizado y no pueden recibir asistencia en caso de problemas. Te recomendamos encarecidamente que cambies a la última versión compatible.

**(Obligatorio)** Define el sistema operativo del clúster.

```
Image:
  Os: string
  CustomAmi: string
```

## Propiedades de `Image`
<a name="Image-v3.properties"></a>

`Os` (**Requerido**, `String`)  
Especifica el sistema operativo que se va a utilizar en el clúster. Los valores admitidos son `alinux2`, `alinux2023`, `ubuntu2404`, `ubuntu2204`, `rhel8`, `rocky8`, `rhel9` y `rocky9`.  
RedHat Enterprise Linux 8.7 (`rhel8`) se añade a partir de la AWS ParallelCluster versión 3.6.0.  
Si configura el clúster para usar `rhel`, el costo bajo demanda de cualquier tipo de instancia es mayor que si configura el clúster para usar otros sistemas operativos compatibles. Para obtener más información sobre los precios, consulte [Precios bajo demanda](https://aws.amazon.com/ec2/pricing/on-demand) y [¿Cómo se ofrece y se cotiza Red Hat Enterprise Linux en Amazon EC2](https://aws.amazon.com/partners/redhat/faqs/#Pricing_and_Billing)?.  
RedHat Enterprise Linux 9 (rhel9) se agrega a partir de la versión 3.9.0. AWS ParallelCluster 
Todas las regiones AWS comerciales son compatibles con los siguientes sistemas operativos.      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/parallelcluster/latest/ug/Image-v3.html)
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 AWS ParallelCluster La versión 3.8.0 es compatible con Rocky Linux 8, pero no hay Rocky Linux 8 precompilado AMIs (para arquitecturas x86 y ARM). AWS ParallelCluster La versión 3.8.0 permite crear clústeres con Rocky Linux 8 de forma personalizada. AMIs Para obtener más información, consulte. [Consideraciones de los sistemas operativos](operating-systems-v3.md#OS-Consideration-v3) AWS ParallelCluster La versión 3.9.0 es compatible con Rocky Linux 9, pero Rocky Linux 9 prediseñado AMIs (para arquitecturas x86 y ARM) no está disponible. AWS ParallelCluster La versión 3.9.0 permite crear clústeres con Rocky Linux 9 de forma personalizada. AMIs Para obtener más información, consulte [Consideraciones de los sistemas operativos](operating-systems-v3.md#OS-Consideration-v3).   
 

`CustomAmi` (**Opcional**, `String`)  
Especifica el ID de una AMI personalizada que se va a usar para los nodos principal y de computación en lugar de la AMI publicada predeterminada. Para obtener más información, consulte [AWS ParallelCluster Personalización de AMI](custom-ami-v3.md).  
Si la AMI personalizada requiere permisos adicionales para su lanzamiento, estos permisos se deben agregar a las políticas de usuario y de nodo principal.  
Por ejemplo, si una AMI personalizada tiene asociada una instantánea cifrada, se requieren las siguientes políticas adicionales tanto en las políticas de usuario como en las del nodo principal:    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Para crear una AMI personalizada de RedHat Enterprise Linux, debe configurar el sistema operativo para instalar los paquetes que proporcionan los repositorios RHUI (AWS): `rhel-<version>-baseos-rhui-rpms``rhel-<version>-appstream-rhui-rpms`, y. `codeready-builder-for-rhel-<version>-rhui-rpms` Además, los repositorios de la AMI personalizada deben contener paquetes de `kernel-devel` de la misma versión que la versión del núcleo en ejecución. kernel.  

**Limitaciones conocidas**
+ Solo RHEL 8.2 y las versiones posteriores son compatibles FSx con Lustre.
+ La versión 4.18.0-425.3.1.el8 del kernel RHEL 8.7 no es compatible con Lustre. FSx 
+ Solo RHEL 8.4 y las versiones posteriores son compatibles con EFA.
+ AL23 no es compatible con NICE DCV, ya que no incluye un entorno gráfico de escritorio, que es necesario para ejecutar NICE DCV. Para obtener más información, consulte la [documentación de NICE DCV](https://docs.aws.amazon.com//dcv/).
Para solucionar problemas de las advertencias de validación de AMI personalizadas, consulte [Solución de problemas con las AMI de](troubleshooting-v3-custom-amis.md).  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Sección de `HeadNode`
<a name="HeadNode-v3"></a>

**(Obligatorio)** Especifica la configuración del nodo principal.

```
HeadNode:
  InstanceType: string
  Networking:
    SubnetId: string
    ElasticIp: string/boolean
    SecurityGroups:
      - string
    AdditionalSecurityGroups:
      - string
    Proxy:
      HttpProxyAddress: string
  DisableSimultaneousMultithreading: boolean
  Ssh:
    KeyName: string
    AllowedIps: string
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
      DeleteOnTermination: boolean
    EphemeralVolume:
      MountDir: string
  SharedStorageType: string
  Dcv:
    Enabled: boolean
    Port: integer
    AllowedIps: string
  CustomActions:
    OnNodeStart:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeConfigured:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeUpdated:
      Sequence:
        - Script: string
          Args: 
            - string
      Script: string
      Args:
        - string
  Iam:
    InstanceRole: string
    InstanceProfile: string
    S3Access:
      - BucketName: string
        EnableWriteAccess: boolean
        KeyName: string
    AdditionalIamPolicies:
      - Policy: string
  Imds:
    Secured: boolean
  Image:
    CustomAmi: string
```

## Propiedades de `HeadNode`
<a name="HeadNode-v3.properties"></a>

`InstanceType`(**Obligatorio**,`String`)  
Especifica el tipo de instancia para el nodo principal.  
Especifica el tipo de instancia de Amazon EC2 que se utiliza para el nodo principal. La arquitectura del tipo de instancia debe ser la misma que la utilizada para la Slurm [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)configuración AWS Batch [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-AwsBatchQueues-ComputeResources-InstanceTypes)o.  
AWS ParallelCluster no admite los siguientes tipos de instancias para la `HeadNode` configuración.  
+ hpc6id
Si defines un tipo de instancia p4d u otro tipo de instancia que tenga varias interfaces de red o una tarjeta de interfaz de red, debes [`ElasticIp`](#yaml-HeadNode-Networking-ElasticIp)configurarlo `true` para proporcionar acceso público. AWS public solo se IPs puede asignar a las instancias lanzadas con una única interfaz de red. En este caso, le recomendamos que utilice una [puerta de enlace NAT](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html) para proporcionar acceso público a los nodos de cómputo del clúster. Para obtener más información, consulte [Asignar una IPv4 dirección pública durante el lanzamiento de una instancia](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) en la *Guía del usuario de Amazon EC2 para instancias de Linux.*  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DisableSimultaneousMultithreading` (**Opcional**, `Boolean`)  
Si`true`, deshabilita el hyper-threading en el nodo principal. El valor predeterminado es `false`.  
No todos los tipos de instancias pueden deshabilitar el hiperproceso. Para obtener una lista de los tipos de instancias que admiten la desactivación del hiperproceso, consulte [Núcleos y subprocesos de CPU para cada núcleo de CPU por tipo de instancia](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) en la Guía del usuario de *Amazon* EC2.   
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SharedStorageType` (**Opcional**, `String`)  
Especifique el tipo de almacenamiento que utilizan los datos compartidos internamente. Los datos compartidos internamente incluyen los datos que se AWS ParallelCluster utilizan para administrar el clúster y los que se comparten por defecto, `/home` si no se especifican, en el [Sección de `SharedStorage`](SharedStorage-v3.md) directorio de montaje para montar un volumen de sistema de archivos compartido. Para obtener más información sobre los datos compartidos internos, consulte [AWS ParallelCluster directorios internos](directories-v3.md).  
Si `Ebs` es el tipo de almacenamiento predeterminado, el nodo principal exportará partes de su volumen raíz como directorios compartidos para los nodos de computación y de inicio de sesión mediante NFS.  
Si`Efs`, ParallelCluster creará un sistema de archivos EFS para usarlo con datos internos compartidos y. `/home`  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Cuando el clúster se escala horizontalmente, el tipo de almacenamiento de EBS puede presentar cuellos de botella en el rendimiento, ya que el nodo principal comparte los datos del volumen raíz con los nodos de computación mediante exportaciones de NFS. Con EFS, puede evitar las exportaciones de NFS a medida que el clúster se escala horizontalmente y sortear los cuellos de botella de rendimiento asociados a ellas. Se recomienda elegir EBS para aprovechar al máximo el read/write potencial de archivos pequeños y el proceso de instalación. Si su prioridad es escalar, elija EFS.

## `Networking`
<a name="HeadNode-v3-Networking"></a>

**(Obligatorio)** Define la configuración de red del nodo principal.

```
Networking:
  SubnetId: string
  ElasticIp: string/boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  Proxy:
    HttpProxyAddress: string
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propiedades de `Networking`
<a name="HeadNode-v3-Networking.properties"></a>

`SubnetId` (**Requerido**, `String`)  
Especifica el ID de una subred existente en la que se va a aprovisionar el nodo maestro.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ElasticIp` (**Opcional**, `String`)  
Crea o asigna una dirección IP elástica al nodo principal. Los valores admitidos son `true`, `false` o el ID de una dirección IP elástica existente. El valor predeterminado es `false`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SecurityGroups` (**Opcional**, `[String]`)  
Lista de identificadores de grupos de seguridad de Amazon VPC que se van a utilizar en el nodo principal. Estos sustituyen a los grupos de seguridad que se AWS ParallelCluster crean si no se incluye esta propiedad.  
Compruebe que los grupos de seguridad estén configurados correctamente para sus [SharedStorage](SharedStorage-v3.md)sistemas.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AdditionalSecurityGroups` (**Opcional**, `[String]`)  
Lista de identificadores de grupos de seguridad de Amazon VPC adicionales que se van a utilizar en el nodo principal.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Proxy`(**Opcional**)  
Especifica la configuración del proxy para el nodo principal.  

```
Proxy:
                            HttpProxyAddress: 
                            string
```  
` HttpProxyAddress` (**Opcional**, `String`)  
Define un servidor proxy HTTP o HTTPS, normalmente `https://x.x.x.x:8080`.  
No hay valor predeterminado.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Ssh`
<a name="HeadNode-v3-Ssh"></a>

**(Opcional)** Define la configuración para el acceso SSH al nodo principal.

```
Ssh:
      KeyName: string
      AllowedIps: string
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### Propiedades de `Ssh`
<a name="HeadNode-v3-Ssh.properties"></a>

`KeyName`(**Opcional**,`String`)  
Nombra un par de claves de Amazon EC2 existente para habilitar el acceso a través de SSH al nodo principal.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps` (**Opcional**, `String`)  
Especifica el intervalo de direcciones IP con formato CIDR o un ID de lista de prefijos para las conexiones SSH al nodo principal. El valor predeterminado es `0.0.0.0/0`.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `LocalStorage`
<a name="HeadNode-v3-LocalStorage"></a>

**(Opcional)** Define la configuración de almacenamiento local para el nodo principal.

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
    DeleteOnTermination: boolean
  EphemeralVolume:
    MountDir: string
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propiedades de `LocalStorage`
<a name="HeadNode-v3-LocalStorage.properties"></a>

`RootVolume` (**Obligatorio**)  
Especifica el volumen de almacenamiento raíz del nodo principal.  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
  DeleteOnTermination: boolean
```
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Size` (**Opcional**, `Integer`)  
Especifica el tamaño del volumen raíz del nodo principal en gibibytes (GiB). El tamaño predeterminado proviene de la AMI. El uso de un tamaño diferente requiere que la AMI admita `growroot`.   
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Encrypted` (**Opcional**, `Boolean`)  
Especifica si el volumen de está cifrado. El valor predeterminado es `true`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
` VolumeType` (**Opcional**, `String`)  
Especifica el [tipo de volumen de Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html). Los valores admitidos son `gp2`, `gp3`, `io1`, `io2`, `sc1`, `st1` y `standard`. El valor predeterminado es `gp3`.  
Para obtener más información, consulte [Tipos de volúmenes de Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) en la *Guía del usuario de Amazon EC2*.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Iops` (**Opcional**, `Integer`)  
Define el número de IOPS para volúmenes de tipo `io1`, `io2` y `gp3`.  
El valor predeterminado, los valores admitidos y la proporción de datos `volume_iops` a `volume_size` varía entre `VolumeType` y `Size`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`VolumeType` = `io1`  
`Iops` predeterminado = 100  
Valores admitidos `Iops` = 100–64 000 †  
Relación máxima `Iops` a `Size` = 50 IOPS por GiB. 5000 IOPS requieren un `Size` de al menos 100 GiB.  
`VolumeType` = `io2`  
`Iops` predeterminado = 100  
Valores admitidos `Iops` = 100–64 000 (256 000 para los volúmenes de `io2` Block Express) †  
Relación máxima `Iops` a `Size` = 500 IOPS por GiB. 5000 IOPS requieren un `Size` de al menos 10 GiB.  
`VolumeType` = `gp3`  
`Iops` predeterminado = 3000  
Valores admitidos `Iops` = 3000–16 000  
Relación máxima `Iops` a `Size` = 500 IOPS por GiB. 5000 IOPS requieren un `Size` de al menos 10 GiB.
† Las IOPS máximas están garantizadas solo en [las instancias creadas en el sistema Nitro](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) aprovisionadas con más de 32 000 IOPS. Otras instancias garantizan hasta 32,000 IOPS. [Es posible que `io1` los volúmenes más antiguos no alcancen el máximo rendimiento a menos que modifique el volumen.](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html) `io2` Los volúmenes de Block Express admiten valores de `Iops` de hasta 256 000 en tipos de instancias `R5b`. Para obtener más información, consulte [Volúmenes `io2` Block Express](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) en la *Guía del usuario de Amazon EC2*.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Throughput` (**Opcional**, `Integer`)  
Define el rendimiento de los tipos de volumen `gp3`, en MiB/s. Esta configuración solo es válida cuando `VolumeType` se establece en `gp3`. El valor predeterminado es `125`. Valores admitidos = 125–1000 MiB/s  
La relación entre `Throughput` y `Iops` no puede ser superior a 0,25. El rendimiento máximo de 1000 MiB/s requiere que la `Iops` configuración sea de al menos 4000.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 `DeleteOnTermination` (**Opcional**, `Boolean`)  
Especifica si se debe eliminar el volumen raíz al finalizar el nodo principal. El valor predeterminado es `true`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EphemeralVolume`(**Opcional)**  
Especifica los detalles de cualquier volumen de almacén de instancias. Para obtener más información, consulte [Volúmenes de almacenes de instancias](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes) en la Guía del *usuario de Amazon EC2*.  

```
EphemeralVolume:
  MountDir: string
```
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
 `MountDir` (**Opcional**, `String`)  
Especifica el directorio de montaje del volumen del almacén de instancias. El valor predeterminado es `/scratch`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Dcv`
<a name="HeadNode-v3-Dcv"></a>

**(Opcional)** Define los ajustes de configuración del servidor Amazon DCV que se ejecuta en el nodo principal.

Para obtener más información, consulte [Conexión a los nodos principal y de inicio de sesión a través de Amazon DCV](dcv-v3.md).

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```

**importante**  
De forma predeterminada, el puerto Amazon DCV configurado por AWS ParallelCluster está abierto a todas las IPv4 direcciones. Sin embargo, los usuarios solo pueden conectarse a un puerto de Amazon DCV si tienen la dirección URL de la sesión de Amazon DCV y se conectan a la sesión de Amazon DCV en un plazo de 30 segundos a partir del momento en que se devuelve la dirección URL de `pcluster dcv-connect`. Utilice el valor `AllowedIps` para restringir aún más el acceso al puerto de Amazon DCV con un intervalo de direcciones IP con formato de CIDR y utilice la configuración de `Port` para establecer un puerto no estándar.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propiedades de `Dcv`
<a name="HeadNode-v3-Dcv.properties"></a>

`Enabled`(**Obligatorio**,`Boolean`)  
Especifica si Amazon DCV está habilitado en el nodo principal. El valor predeterminado es `false`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Amazon DCV genera automáticamente un certificado autofirmado que se utiliza para proteger el tráfico entre el cliente Amazon DCV y el servidor Amazon DCV que se ejecuta en el nodo principal. Para configurar su propio certificado, consulte [Certificado HTTPS de Amazon DCV](dcv-v3.md#dcv-v3-certificate).

`Port`**(Opcional,)** `Integer`  
Especifica el puerto de Amazon DCV. El valor predeterminado es `8443`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps` (**opcional, recomendado**, `String`)  
Especifica el intervalo de direcciones IP con formato CIDR para las conexiones a Amazon DCV. Esta configuración solo se usa cuando se AWS ParallelCluster crea el grupo de seguridad. El valor predeterminado es `0.0.0.0/0`, que permite el acceso desde cualquier dirección de Internet.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `CustomActions`
<a name="HeadNode-v3-CustomActions"></a>

**(Opcional)** Especifica los scripts personalizados que se ejecutarán en el nodo principal.

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args: 
      - string
```

### Propiedades de `CustomActions`
<a name="HeadNode-v3-CustomActions.properties"></a>

`OnNodeStart`(**Opcional**)  
Especifica un único script o una secuencia de scripts que se ejecutarán en el nodo principal antes de que se inicie cualquier acción de arranque de implementación del nodo. Para obtener más información, consulte [Acciones de arranque personalizadas](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opcional**)  
Lista de scripts que se van a ejecutar. AWS ParallelCluster ejecuta los scripts en el mismo orden en que aparecen en el archivo de configuración, empezando por el primero.    
 `Script` (**Requerido**, `String`)  
Especifica el archivo que se va a encapsular. La ruta del archivo debe comenzar con `https://` o `s3://`.  
 `Args` (**Opcional**, `[String]`)  
La lista de argumentos que se pasan al script único.  
 `Script` (**Requerido**, `String`)  
Especifica el archivo que se va a utilizar para un único script. La ruta del archivo debe comenzar con `https://` o `s3://`.  
`Args` (**Opcional**, `[String]`)  
La lista de argumentos que se pasan al script único.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeConfigured`(**Opcional**)  
Especifica un único script o una secuencia de scripts que se ejecutarán en el nodo principal una vez finalizadas las acciones de arranque del nodo. Para obtener más información, consulte [Acciones de arranque personalizadas](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opcional**)  
Especifica la lista de scripts que se van a ejecutar.    
 `Script` (**Requerido**, `String`)  
Especifica el archivo que se va a encapsular. La ruta del archivo debe comenzar con `https://` o `s3://`.  
 `Args` (**Opcional**, `[String]`)  
La lista de argumentos que se pasan al script único.  
 `Script` (**Requerido**, `String`)  
Especifica el archivo que se va a utilizar para un único script. La ruta del archivo debe comenzar con `https://` o `s3://`.  
 `Args` (**Opcional**, `[String]`)  
La lista de argumentos que se pasan al script único.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeUpdated`(**Opcional**)  
Especifica un único script o una secuencia de scripts que se ejecutarán en el nodo principal una vez finalizadas las acciones de actualización del nodo. Para obtener más información, consulte [Acciones de arranque personalizadas](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opcional**)  
Especifica la lista de scripts que se van a ejecutar.    
 `Script` (**Requerido**, `String`)  
Especifica el archivo que se va a encapsular. La ruta del archivo debe comenzar con `https://` o `s3://`.  
 `Args` (**Opcional**, `[String]`)  
La lista de argumentos que se pasan al script único.  
 `Script` (**Requerido**, `String`)  
Especifica el archivo que se va a utilizar para el único script. La ruta del archivo debe comenzar con `https://` o `s3://`.  
 `Args` (**Opcional**, `[String]`)  
La lista de argumentos que se pasan al script único.
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`OnNodeUpdated`se añade a partir de la AWS ParallelCluster versión 3.4.0.  
`Sequence`se añade a partir de la AWS ParallelCluster versión 3.6.0. Si lo especifica`Sequence`, puede enumerar varios scripts para una acción personalizada. AWS ParallelCluster sigue admitiendo la configuración de una acción personalizada con un único script, sin incluirlo`Sequence`.  
AWS ParallelCluster no admite incluir tanto un único script como `Sequence` para la misma acción personalizada.

## `Iam`
<a name="HeadNode-v3-Iam"></a>

**(Opcional)** Especifica una función de instancia o un perfil de instancia que se usará en el nodo principal para anular la función de instancia o el perfil de instancia predeterminados del clúster.

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### Propiedades de `Iam`
<a name="HeadNode-v3-Iam.properties"></a>

`InstanceProfile` (**Opcional**, `String`)  
Especifica un perfil de instancia para anular el perfil de instancia predeterminado del nodo principal. No puede especificar `InstanceProfile` ni `InstanceRole`. El formato es `arn:Partition:iam::Account:instance-profile/InstanceProfileName`.  
Si se especifica, no se puede especificar la configuración de `AdditionalIamPolicies` y `S3Access`.  
Le recomendamos que especifique una o ambas opciones de configuración de `S3Access` y `AdditionalIamPolicies`, ya que las características que se añaden a AWS ParallelCluster menudo requieren nuevos permisos.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`InstanceRole` (**Opcional**, `String`)  
Especifica un rol de instancia para anular el rol de instancia predeterminado del nodo principal. No puede especificar `InstanceProfile` ni `InstanceRole`. El formato es `arn:Partition:iam::Account:role/RoleName`.  
Si se especifica, no se puede especificar la configuración de `AdditionalIamPolicies` y `S3Access`.  
Le recomendamos que especifique una o ambas opciones de configuración de `S3Access` y `AdditionalIamPolicies`, ya que las características que se añaden a AWS ParallelCluster menudo requieren nuevos permisos.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `S3Access`
<a name="HeadNode-v3-Iam-S3Access.properties"></a>

`S3Access`(**Opcional**)  
Especifica un bucket. Se utiliza para generar políticas que concedan el acceso especificado al bucket.  
Si se especifica, no se puede especificar la configuración de `InstanceRole` y `InstanceProfile`.  
Le recomendamos que especifique una o ambas opciones de configuración de `S3Access` y `AdditionalIamPolicies`, ya que las características que se añaden a AWS ParallelCluster menudo requieren nuevos permisos.  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`BucketName` (**Requerido**, `String`)  
Nombre del bucket de .  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`KeyName` (**Opcional**, `String`)  
La clave del bucket. El valor predeterminado es "`*`".  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
` EnableWriteAccess` (**Opcional**, `Boolean`)  
Indica si se ha habitado el acceso a la escritura en el bucket. El valor predeterminado es `false`.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `AdditionalIamPolicies`
<a name="HeadNode-v3-Iam-AdditionalIamPolicies.properties"></a>

`AdditionalIamPolicies`(**Opcional**)  
Especifica una lista separada de nombres de recursos de Amazon (ARN) de políticas de IAM para Amazon EC2. Esta lista se adjunta a la función raíz utilizada para el nodo principal, además de los permisos requeridos por AWS ParallelCluster.  
El nombre de una política de IAM y su ARN son diferentes. Los nombres no se pueden usar.  
Si se especifica, no se puede especificar la configuración de `InstanceRole` y `InstanceProfile`.  
Le recomendamos que use las `AdditionalIamPolicies` porque se añaden `AdditionalIamPolicies` a los permisos que requiere AWS ParallelCluster y el `InstanceRole` debe incluir todos los permisos necesarios. Los permisos necesarios a menudo cambian de versión a versión a medida que se añaden características.  
No hay valor predeterminado.  

```
AdditionalIamPolicies:
  - Policy: string
```
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
` Policy` (**Opcional**, `[String]`)  
Lista de políticas de IAM.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Imds`
<a name="HeadNode-v3-Imds"></a>

**(Opcional)** Especifica las propiedades del servicio de metadatos de instancias (IMDS). Para obtener más información, consulte [Cómo funciona la versión 2 del servicio de metadatos de instancias](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html#instance-metadata-v2-how-it-works) en la Guía del *usuario de Amazon EC2*.

```
Imds:
    Secured: boolean
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propiedades de `Imds`
<a name="HeadNode-v3-Imds.properties"></a>

`Secured` (**Opcional**, `Boolean`)  
Si se establece en `true`, restringe el acceso al IMDS del nodo principal (y a las credenciales del perfil de la instancia) a un subconjunto de superusuarios.  
Si se establece en `false`, todos los usuarios del nodo principal tienen acceso al IMDS del nodo principal.  

Los siguientes usuarios pueden acceder al IMDS del nodo principal:
+ usuario raíz
+ usuario administrativo del clúster (`pc-cluster-admin` de forma predeterminada)
+ usuario predeterminado específico del sistema operativo (`ec2-user`en Amazon Linux 2 y RedHat `ubuntu` Ubuntu 18.04).
El valor predeterminado es `true`.  
Los `default` usuarios son responsables de garantizar que un clúster tenga los permisos que necesita para interactuar con AWS los recursos. Si inhabilitas `default` el acceso al IMDS de los usuarios, no AWS ParallelCluster podrás administrar los nodos de procesamiento y dejará de funcionar. No deshabilite el acceso al IMDS del usuario `default`.  
Cuando a un usuario se le concede acceso al IMDS del nodo principal, puede usar los permisos incluidos en el [perfil de instancia del nodo principal](iam-roles-in-parallelcluster-v3.md). Por ejemplo, pueden usar estos permisos para lanzar instancias de Amazon EC2 o leer la contraseña de un dominio de AD que el clúster está configurado para usar en la autenticación.  
Para restringir el acceso al IMDS, AWS ParallelCluster administra una cadena de. `iptables`  
Los usuarios del clúster con acceso a `sudo` pueden habilitar o deshabilitar de forma selectiva el acceso al IMDS del nodo principal para otros usuarios individuales, incluidos los usuarios `default`, ejecutando el comando:  

```
$ sudo /opt/parallelcluster/scripts/imds/imds-access.sh --allow <USERNAME>
```
Puede deshabilitar el acceso al IMDS de los usuarios con la opción `--deny` de este comando.  
Si inhabilita el acceso al IMDS del usuario `default` sin saberlo, puede restaurar el permiso mediante la opción `--allow`.  
Cualquier personalización de las reglas `iptables` o `ip6tables` puede interferir con el mecanismo utilizado para restringir el acceso al IMDS en el nodo principal.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Image`
<a name="HeadNode-v3-Image"></a>

**(Opcional)** Define una imagen personalizada para el nodo principal.

```
Image:
     CustomAmi: string
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propiedades de `Image`
<a name="HeadNode-v3-Image.properties"></a>

`CustomAmi` (**Opcional**, `String`)  
Especifica el ID de una AMI personalizada que puede utilizar para el nodo principal en lugar de la AMI publicada predeterminada. Para obtener más información, consulte [AWS ParallelCluster Personalización de AMI](custom-ami-v3.md).  
Si la AMI personalizada requiere permisos adicionales para su lanzamiento, estos permisos se deben agregar a las políticas de usuario y de nodo principal.  
Por ejemplo, si una AMI personalizada tiene asociada una instantánea cifrada, se requieren las siguientes políticas adicionales tanto en las políticas de usuario como en las del nodo principal:    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Para solucionar problemas de las advertencias de validación de AMI personalizadas, consulte [Solución de problemas con las AMI de](troubleshooting-v3-custom-amis.md).  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Sección de `Scheduling`
<a name="Scheduling-v3"></a>

**(Obligatorio)** Define el programador de trabajos que se usa en el clúster y las instancias de procesamiento que administra el programador de trabajos. Puede usar el programador Slurm o AWS Batch . Cada una admite un conjunto diferente de ajustes y propiedades.

**Topics**
+ [Propiedades de `Scheduling`](#Scheduling-v3.properties)
+ [`AwsBatchQueues`](#Scheduling-v3-AwsBatchQueues)
+ [`SlurmQueues`](#Scheduling-v3-SlurmQueues)
+ [`SlurmSettings`](#Scheduling-v3-SlurmSettings)

```
Scheduling:
  Scheduler: slurm
  ScalingStrategy: string    
  SlurmSettings:
    MungeKeySecretArn: string        
    ScaledownIdletime: integer    
    QueueUpdateStrategy: string
    EnableMemoryBasedScheduling: boolean
    CustomSlurmSettings: [dict]
    CustomSlurmSettingsIncludeFile: string
    Database:
      Uri: string
      UserName: string
      PasswordSecretArn: string
      DatabaseName: string    
    ExternalSlurmdbd: boolean
      Host: string
      Port: integer  
    Dns:
      DisableManagedDns: boolean
      HostedZoneId: string
      UseEc2Hostnames: boolean  
  SlurmQueues:
    - Name: string  
      ComputeSettings:
        LocalStorage:
          RootVolume:
            Size: integer
            Encrypted: boolean
            VolumeType: string
            Iops: integer
            Throughput: integer
          EphemeralVolume:
            MountDir: string
      CapacityReservationTarget:
        CapacityReservationId: string
        CapacityReservationResourceGroupArn: string
      CapacityType: string
      AllocationStrategy: string
      JobExclusiveAllocation: boolean
      CustomSlurmSettings: dict
      Tags:
        - Key: string
          Value: string
      HealthChecks:
        Gpu:
          Enabled: boolean
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
        PlacementGroup:
          Enabled: boolean
          Id: string
          Name: string
        Proxy:
          HttpProxyAddress: string
      ComputeResources:
        - Name: string
          InstanceType: string
          Instances:
            - InstanceType: string
          MinCount: integer
          MaxCount: integer
          DynamicNodePriority: integer
          StaticNodePriority: integer
          SpotPrice: float
          DisableSimultaneousMultithreading: boolean
          SchedulableMemory: integer
          HealthChecks:
            Gpu:
              Enabled: boolean
          Efa:
            Enabled: boolean
            GdrSupport: boolean          
          CapacityReservationTarget:
            CapacityReservationId: string
            CapacityReservationResourceGroupArn: string
          Networking:   
            PlacementGroup:
              Enabled: boolean
              Name: string
          CustomSlurmSettings: dict
          Tags:
            - Key: string
              Value: string
          LaunchTemplateOverrides:
            LaunchTemplateId: string
            Version: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceProfile: string
        InstanceRole: string
        S3Access:
          - BucketName: string
            EnableWriteAccess: boolean
            KeyName: string
        AdditionalIamPolicies:
          - Policy: string
      Image:
        CustomAmi: string
```

```
Scheduling:
  Scheduler: awsbatch
  AwsBatchQueues:
    - Name: string
      CapacityType: string
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
        - Name: string
          InstanceTypes:
            - string
          MinvCpus: integer
          DesiredvCpus: integer
          MaxvCpus: integer
          SpotBidPercentage: float
```

## Propiedades de `Scheduling`
<a name="Scheduling-v3.properties"></a>

**`Scheduler` (**Requerido**, `String`)**  
Especifica el tipo de programador que se utiliza. Los valores admitidos son `slurm` y `awsbatch`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`awsbatch` solo es compatible con el sistema operativo `alinux2` y la plataforma `x86_64`.

**`ScalingStrategy` (**Opcional**, `String`)**  
Le permite elegir cómo se escalan verticalmente los nodos de Slurm dinámicos. Los valores admitidos son `all-or-nothing`, `greedy-all-or-nothing` y `best-effort`. El valor predeterminado es `all-or-nothing`.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
La estrategia de escalado se aplica solo a los nodos que Slurm va a reanudar, no a los nodos que, finalmente, ya estén en funcionamiento.
+ `all-or-nothing`Esta estrategia sigue estrictamente una all-or-nothing-approach, destinada a evitar las instancias inactivas al final del proceso de escalado. Funciona sobre una all-or-nothing base, lo que significa que se amplía completamente o no se amplía en absoluto. Tenga en cuenta que las instancias lanzadas temporalmente pueden conllevar costos adicionales cuando los trabajos requieren más de 500 nodos o abarcan varios recursos de computación. Esta estrategia tiene el rendimiento más bajo de las tres estrategias de escalado posibles. El tiempo de escalado depende de la cantidad de trabajos enviados por cada ejecución del programa de reanudación de Slurm. Además, no se puede escalar mucho más allá del límite predeterminado de la cuenta de RunInstances recursos por ejecución, que es de 1000 instancias de forma predeterminada. Encontrará más información en la [documentación sobre limitaciones de las API de Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/throttling.html).
+ `greedy-all-or-nothing `Al igual que la all-or-nothing estrategia, su objetivo es evitar las instancias inactivas después del escalado. Esta estrategia permite sobreescalar temporalmente durante el proceso de escalado para lograr un rendimiento superior al del all-or-nothing enfoque, pero también incluye el mismo límite de escalado de 1000 instancias que el límite de la cuenta de RunInstances recursos.
+ `best-effort `: esta estrategia prioriza el alto rendimiento, incluso si eso conlleva que algunas instancias puedan quedar inactivas al final del proceso de escalado. Intenta asignar tantos nodos como soliciten los trabajos, pero existe la posibilidad de que no se satisfaga toda la solicitud. A diferencia de las demás estrategias, el enfoque más eficaz consiste en acumular más instancias que el RunInstances límite estándar, a costa de tener recursos inactivos a lo largo de las múltiples ejecuciones de los procesos de escalado.

Cada estrategia está diseñada para satisfacer diferentes necesidades de escalado, lo que le permite seleccionar la que mejor se adapte a sus requisitos y limitaciones particulares.

## `AwsBatchQueues`
<a name="Scheduling-v3-AwsBatchQueues"></a>

**(Opcional)** La configuración de la AWS Batch cola. Solo se admite una cola. Esto es obligatorio si [`Scheduler`](#yaml-Scheduling-Scheduler) se establece en `awsbatch`. Para obtener más información sobre el programador de `awsbatch`, consulte la [configuración de red](network-configuration-v3-batch.md) y [Usar el planificador AWS Batch (`awsbatch`) con AWS ParallelCluster](awsbatchcli-v3.md).

```
AwsBatchQueues:
  - Name: string
    CapacityType: string
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
      - Name: string
        InstanceTypes:
          - string
        MinvCpus: integer
        DesiredvCpus: integer
        MaxvCpus: integer
        SpotBidPercentage: float
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### Propiedades de `AwsBatchQueues`
<a name="Scheduling-v3-AwsBatchQueues.properties"></a>

**`Name` (**Requerido**, `String`)**  
El nombre de la AWS Batch cola.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityType` (**Opcional**, `String`)**  
El tipo de recursos informáticos que utiliza la AWS Batch cola. Los valores admitidos son `ONDEMAND` , `SPOT` o `CAPACITY_BLOCK`. El valor predeterminado es `ONDEMAND`.  
Si establece `CapacityType` en `SPOT`, su cuenta debe contener un rol vinculado al servicio de `AWSServiceRoleForEC2Spot`. Puede crear este rol mediante el siguiente AWS CLI comando.  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Para obtener más información, consulte [Rol vinculado al servicio para solicitudes de instancias de spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) en la *Guía del usuario de Amazon EC2 para instancias de Linux*.
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### `Networking`
<a name="Scheduling-v3-AwsBatchQueues-Networking"></a>

**(Obligatorio)** Define la configuración de red de la AWS Batch cola.

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```

##### Propiedades de `Networking`
<a name="Scheduling-v3-AwsBatchQueues-Networking.properties"></a>

**`SubnetIds` (**Requerido**, `[String]`)**  
Especifica el ID de una subred existente para aprovisionar la AWS Batch cola. En la actualidad, solo se admite una subred.  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`AssignPublicIp` (**Opcional**, `String`)**  
Crea o asigna una dirección IP pública a los nodos de la cola. AWS Batch Los valores admitidos son `true` y `false`. El valor predeterminado depende de la subred que haya especificado.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups` (**Opcional**, `[String]`)**  
Lista de grupos de seguridad que utiliza la AWS Batch cola. Si no especifica grupos de seguridad, AWS ParallelCluster crea nuevos grupos de seguridad.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups` (**Opcional**, `[String]`)**  
Lista de grupos de seguridad que utiliza la AWS Batch cola.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

#### `ComputeResources`
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources"></a>

**(Obligatorio)** Define la ComputeResources configuración de la AWS Batch cola.

```
ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
  - Name: string
    InstanceTypes:
      - string
    MinvCpus: integer
    DesiredvCpus: integer
    MaxvCpus: integer
    SpotBidPercentage: float
```

##### Propiedades de `ComputeResources`
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources.properties"></a>

**`Name` (**Requerido**, `String`)**  
El nombre del entorno de cómputo de AWS Batch colas.  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceTypes` (**Requerido**, `[String]`)**  
El conjunto de tipos de instancias del entorno de AWS Batch cómputo. : el tipo de arquitectura de los tipos de instancia debe ser .  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MinvCpus` (**Opcional**, `Integer`)**  
La cantidad mínima VCPUs que puede usar un entorno de AWS Batch cómputo.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`DesiredVcpus` (**Opcional**, `Integer`)**  
El número deseado de VCPUs en el entorno AWS Batch informático. AWS Batch ajusta este valor entre `MinvCpus` y en `MaxvCpus` función de la demanda de la cola de trabajos.  
[Política de actualización: esta configuración no se analiza durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

**`MaxvCpus` (**Opcional**, `Integer`)**  
El número máximo de VCPUs para el entorno AWS Batch informático. No se puede establecer en un valor inferior a `DesiredVcpus`.  
[Política de actualización: esta configuración no se puede reducir durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-no-decrease-v3)

**`SpotBidPercentage` (**Opcional**, `Float`)**  
El porcentaje máximo que puede tener el precio una instancia de spot de Amazon EC2 en comparación con el precio bajo demanda para ese tipo de instancia antes de que se lancen las instancias. El valor predeterminado es 100. El rango admitido es de `1` a `100`.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmQueues`
<a name="Scheduling-v3-SlurmQueues"></a>

**(Opcional)** Configuración de la cola de Slurm. Esto es obligatorio si [`Scheduler`](#yaml-Scheduling-Scheduler) se establece en `slurm`.

```
SlurmQueues:
  - Name: string
    ComputeSettings:
      LocalStorage:
        RootVolume:
          Size: integer
          Encrypted: boolean
          VolumeType: string
          Iops: integer
          Throughput: integer
        EphemeralVolume:
          MountDir: string
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    CapacityType: string
    AllocationStrategy: string
    JobExclusiveAllocation: boolean
    CustomSlurmSettings: dict
    Tags:
      - Key: string
        Value: string
    HealthChecks:
      Gpu:
        Enabled: boolean
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
      PlacementGroup:
        Enabled: boolean
        Id: string
        Name: string
      Proxy:
        HttpProxyAddress: string
    ComputeResources:
      - Name: string
        InstanceType: string
        Instances:
          - InstanceType: string        
        MinCount: integer
        MaxCount: integer
        DynamicNodePriority: integer
        StaticNodePriority: integer
        SpotPrice: float
        DisableSimultaneousMultithreading: boolean
        SchedulableMemory: integer
        HealthChecks:
          Gpu:
            Enabled: boolean
        Efa:
          Enabled: boolean
          GdrSupport: boolean    
        CapacityReservationTarget:
          CapacityReservationId: string
          CapacityReservationResourceGroupArn: string     
        Networking:   
          PlacementGroup:
            Enabled: boolean
            Name: string
        CustomSlurmSettings: dict
        Tags:
          - Key: string
            Value: string
        LaunchTemplateOverrides:
          LaunchTemplateId: string
          Version: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string        
        Script: string
        Args:
          - string
    Iam:
      InstanceProfile: string
      InstanceRole: string
      S3Access:
        - BucketName: string
          EnableWriteAccess: boolean
          KeyName: string
      AdditionalIamPolicies:
        - Policy: string
    Image:
      CustomAmi: string
```

[Política de actualización: para esta configuración de valores de lista, se puede añadir un nuevo valor durante una actualización o se debe detener la flota de computación al eliminar un valor existente.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

### Propiedades de `SlurmQueues`
<a name="Scheduling-v3-SlurmQueues.properties"></a>

**`Name` (**Requerido**, `String`)**  
El nombre de la cola Slurm.  
El tamaño del clúster puede cambiar durante una actualización. Para obtener más información, consulte [Tamaño y actualización de la capacidad del clúster](slurm-workload-manager-v3.md)
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityReservationTarget`**  
`CapacityReservationTarget`se añade con la AWS ParallelCluster versión 3.3.0.

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
Especifica la reserva de capacidad bajo demanda para los recursos informáticos de la cola.    
**`CapacityReservationId` (**Opcional**, `String`)**  
El ID de la reserva de capacidad existente a la que se destinarán los recursos informáticos de la cola. El ID puede hacer referencia a una [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) o a un [bloque de capacidad para ML](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html).  
La reserva debe usar la misma plataforma que usa la instancia. Por ejemplo, si sus instancias se ejecutan en `rhel8`, su reserva de capacidad debe ejecutarse en la plataforma Red Hat Enterprise Linux. Para obtener más información, consulte [Plataformas compatibles](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html#capacity-reservations-platforms) en la *Guía del usuario de Amazon EC2 para instancias de Linux*.  
Si incluye [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) en la configuración del clúster, debe excluir este ajuste de `CapacityReservationId` de nivel de cola de la configuración.
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`CapacityReservationResourceGroupArn` (**Opcional**, `String`)**  
El nombre de recurso de Amazon (ARN) del grupo de recursos que actúa como grupo de reservas de capacidad vinculado a un servicio de reservas de capacidad para los recursos informáticos de la cola. AWS ParallelCluster identifica y utiliza la reserva de capacidad más adecuada del grupo de recursos en función de las siguientes condiciones:  
+ Si `PlacementGroup` está habilitado en [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)o/[`SlurmQueues`[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster selecciona un grupo de recursos que se dirija al tipo de instancia y, si el recurso informático existe, `PlacementGroup` para un recurso informático.

  `PlacementGroup` debe dirigirse a uno de los tipos de instancias que se definen en [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources).
+ Si `PlacementGroup` no está habilitado en [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)o [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster selecciona un grupo de recursos que se dirija solo al tipo de instancia de un recurso informático, si el recurso informático existe.
El grupo de recursos debe tener al menos un ODCR para cada tipo de instancia reservado en una zona de disponibilidad en todos los recursos informáticos y las zonas de disponibilidad de la cola. Para obtener más información, consulte [Inicio de instancias con reservas de capacidad bajo demanda (ODCR)](launch-instances-odcr-v3.md).  
Para obtener más información sobre los requisitos de configuración de varias subredes, consulte [`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).  
En la AWS ParallelCluster versión 3.4.0 se añaden varias zonas de disponibilidad.
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityType` (**Opcional**, `String`)**  
El tipo de recursos informáticos que utiliza la cola de Slurm. Los valores admitidos son `ONDEMAND` , `SPOT` o `CAPACITY_BLOCK`. El valor predeterminado es `ONDEMAND`.  
Si establece `CapacityType` en `SPOT`, su cuenta debe tener un rol vinculado al servicio de `AWSServiceRoleForEC2Spot`. Puede usar el siguiente AWS CLI comando para crear este rol.  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Para obtener más información, consulte [Rol vinculado al servicio para solicitudes de instancias de spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) en la *Guía del usuario de Amazon EC2 para instancias de Linux*.
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AllocationStrategy` (**Opcional**, `String`)**  
Especifique la estrategia de asignación para todos los recursos informáticos definidos en [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).  
Valores válidos: `lowest-price` \$1 `capacity-optimized` \$1 `price-capacity-optimized` \$1 `prioritized` \$1 `capacity-optimized-prioritized`       
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/parallelcluster/latest/ug/Scheduling-v3.html)
Valor predeterminado: `lowest-price`    
**`lowest-price`**  
+ Si utiliza `CapacityType = ONDEMAND`, Flota de Amazon EC2 utiliza el precio para determinar el orden y lanza primero las instancias con un precio más bajo.
+ Si utiliza `CapacityType = SPOT`, Flota de Amazon EC2 lanza instancias desde el grupo de instancias de spot de menor precio que tenga capacidad disponible. Si un grupo se queda sin capacidad antes de cumplir con la capacidad requerida, Amazon EC2 Fleet tramita su solicitud lanzando instancias por usted. En concreto, Flota de Amazon EC2 lanza instancias desde el grupo de instancias de spot de menor precio que tenga capacidad disponible. Flota de Amazon EC2 puede lanzar instancias de spot desde varios grupos diferentes.
+ Si establece `CapacityType = CAPACITY_BLOCK`, no hay estrategias de asignación, por lo que el parámetro `AllocationStrategy` no se puede configurar.  
**`capacity-optimized`**  
+ Si ha configurado `CapacityType = ONDEMAND`, `capacity-optimized` no está disponible.
+ Si establece `CapacityType = SPOT`, Flota de Amazon EC2 lanza instancias desde grupos de instancias de spot con una capacidad óptima para el número de instancias que se van a lanzar.  
**`price-capacity-optimized`**  
+ Si ha configurado `CapacityType = ONDEMAND`, `capacity-optimized` no está disponible.
+ Si establece `CapacityType = SPOT`, Flota de Amazon EC2 identifica los grupos con la mayor disponibilidad de capacidad para el número de instancias que se van a lanzar. Esto significa que solicitaremos instancias de spot de los grupos que consideremos que tienen menos probabilidades de interrupción a corto plazo. A continuación, Flota de Amazon EC2 solicita instancias de spot de los grupos con el precio más bajo.  
**`prioritized`**  
+ Si lo establece`CapacityType = ONDEMAND`, Amazon EC2 Fleet respetará el orden de prioridad que AWS ParallelCluster se aplica a las LaunchTemplate anulaciones cuando se especifican varias subredes. AWS ParallelCluster obtiene la anulación a `priority` partir de la posición de la subred de destino, siendo la primera subred la que tiene la `SlurmQueues/Networking/SubnetIds` prioridad más alta. Las prioridades se basan AWS ParallelCluster en orden descendente: la primera SubnetId tiene la prioridad más alta y el último ID de `SlurmQueues/Networking/SubnetIds` subred tiene la prioridad más baja. 
+ Si ha configurado `CapacityType = SPOT`, `prioritized` no está disponible.  
**`capacity-optimized-prioritized`**  
+ Si ha configurado `CapacityType = ONDEMAND`, `capacity-optimized-prioritized` no está disponible.
+ Si lo establece`CapacityType = SPOT`, Amazon EC2 Fleet optimiza primero la capacidad y, a continuación, aplica, según el mejor esfuerzo, el orden de prioridad que AWS ParallelCluster se asigna a las anulaciones. LaunchTemplate Las prioridades se ordenan AWS ParallelCluster en orden descendente: la primera SubnetId tiene la prioridad más alta y el último SubnetID tiene la prioridad más baja. `SlurmQueues/Networking/SubnetIds` Todas las anulaciones que se dirigen a la misma subred reciben el mismo valor de prioridad.
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`AllocationStrategy` es compatible a partir de AWS ParallelCluster versión 3.3.0.  
**Nuevo en la versión 3.14.0**: `prioritized` (para On-Demand) y `capacity-optimized-prioritized` (para Spot).

**`JobExclusiveAllocation` (**Opcional**, `String`)**  
Si se establece en `true`, el indicador `OverSubscribe` de la partición de Slurm se establece en `EXCLUSIVE`. Cuando `OverSubscribe` = `EXCLUSIVE`, los trabajos de la partición tienen acceso exclusivo a todos los nodos asignados. Para obtener más información, consulte [EXCLUSIVE](https://slurm.schedmd.com/slurm.conf.html#OPT_EXCLUSIVE) en la documentación de Slurm.  
Valores válidos: `true` \$1 `false`  
Valor predeterminado: `false`  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`JobExclusiveAllocation` es compatible a partir de AWS ParallelCluster versión 3.7.0.

**`CustomSlurmSettings` (**Opcional**, `Dict`)**  
Define los ajustes de configuración de la partición de Slurm personalizada (cola).  
Especifica un diccionario de pares clave-valor de los parámetros de configuración de Slurm personalizados que se aplican a las colas (particiones).  
Cada par clave-valor independiente, por ejemplo `Param1: Value1`, se agrega por separado al final de la línea de configuración de la partición de Slurm en el formato `Param1=Value1`.  
Solo puede especificar los parámetros de configuración de Slurm que no estén incluidos en la lista de denegaciones de `CustomSlurmSettings`. Para obtener más información acerca de los parámetros de configuración de Slurm incluidos en la lista de denegaciones, consulte [Listado de denegaciones Slurm parámetros de configuración para `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3).  
AWS ParallelCluster solo comprueba si un parámetro está en una lista de denegaciones. AWS ParallelCluster no valida la sintaxis ni la semántica de los parámetros de Slurm configuración personalizados. Es su responsabilidad validar los parámetros de Slurm configuración personalizados. Los parámetros de configuración personalizados de Slurm no válidos pueden provocar errores en los daemons de Slurm y provocar errores en la creación y actualización del clúster.  
Para obtener más información sobre cómo especificar los parámetros Slurm de configuración personalizados con AWS ParallelCluster, consulte[Slurm personalización de la configuración](slurm-configuration-settings-v3.md).  
Para obtener más información sobre los parámetros de configuración de Slurm, consulte [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) en la documentación de Slurm.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings` es compatible a partir de AWS ParallelCluster versión 3.6.0.

**(Cadena) Opcional.**  
Una lista de pares clave-valor de etiqueta. Las etiquetas de  anulan las etiquetas duplicadas especificadas en [Sección de `Tags`](Tags-v3.md) o en `SlurmQueues`/`Tags`.    
**`Key` (**Opcional**, `String`)**  
La clave de la etiqueta.  
**`Value` (**Opcional**, `String`)**  
El valor de la etiqueta.
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks`(**Opcional**)**  
Especifique las comprobaciones de estado de los nodos de cómputo en todos los recursos de cómputo de la cola.    
`Gpu`(**Opcional**)  
Especifica las comprobaciones de estado de la GPU en todos los recursos informáticos de una cola.  
AWS ParallelCluster no admite`HealthChecks`/`Gpu`en los nodos que utilizan sistemas operativos `alinux2` ARM. Estas plataformas no son compatibles con el [administrador de GPU para centros de datos de NVIDIA (DCGM).](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions)  
No se recomienda activar las comprobaciones de estado de la GPU cuando se utilicen tipos de instancias cuyo tamaño total de memoria de la GPU sea superior a 327680 MiB.  
`Enabled` (**Opcional**, `Boolean`)  
Si AWS ParallelCluster realiza comprobaciones del estado de la GPU en los nodos de cómputo. El valor predeterminado es `false`.

**Comportamiento de la comprobación de estado de la `Gpu`**
+ Si `Gpu`/`Enabled` está establecido en `true`, AWS ParallelCluster realiza comprobaciones de estado de la GPU en los recursos de cómputo de la cola.
+ La comprobación de estado de la `Gpu` realiza comprobaciones del estado de la GPU en los recursos informáticos para evitar que se envíen trabajos en nodos con una GPU degradada.
+ Si un nodo de cómputo no pasa una comprobación de estado de la `Gpu`, el estado del nodo de computación cambia a `DRAIN`. Los nuevos trabajos no comienzan en este nodo. Los trabajos existentes se ejecutan hasta su finalización. Una vez finalizados todos los trabajos en ejecución, el nodo de cómputo finaliza si es un nodo dinámico y se reemplaza si es un nodo estático.
+ La duración de la `Gpu` comprobación de estado depende del tipo de instancia seleccionada, del número de instancias que haya GPUs en la instancia, de la memoria total de la GPU y del número de objetivos de la `Gpu` comprobación de estado (equivalente al número de objetivos de la GPU que estén trabajando). Por ejemplo, en un p4d.24xlarge, la duración normal es de 3 minutos.
+ Si la comprobación de estado de la `Gpu` se ejecuta en una instancia que no es compatible, se cierra y el trabajo se ejecuta en el nodo de cómputo. Por ejemplo, si una instancia no tiene una GPU o si tiene una GPU pero no es una GPU de NVIDIA, la comprobación de estado finaliza y el trabajo se ejecuta en el nodo de cómputo. Solo se admiten NVIDIA. GPUs 
+ La comprobación de estado de la `Gpu` utiliza la herramienta `dcgmi` para realizar comprobaciones de estado en un nodo y sigue los siguientes pasos: 

  Cuando la comprobación de estado de la `Gpu` comienza en un nodo:

  1. Detecta si los servicios `nvidia-dcgm` y `nvidia-fabricmanager` se están ejecutando.

  1. Si estos servicios no se están ejecutando, la comprobación de estado de la `Gpu`los inicia.

  1. Detecta si el modo de persistencia está activado.

  1. Si el modo de persistencia no está activado, la comprobación de estado de la `Gpu` lo habilita.

  Al final de la comprobación de estado, la comprobación de estado de la `Gpu` restablece estos servicios y recursos a su estado inicial.
+ Si el trabajo está asignado a un conjunto específico de nodos GPUs, la `Gpu` comprobación de estado solo se ejecuta en ese conjunto específico. De lo contrario, la `Gpu` comprobación de estado se ejecuta GPUs en todo el nodo.
+ Si un nodo de cómputo recibe 2 o más solicitudes de comprobación de estado de la `Gpu` al mismo tiempo, solo se ejecuta la primera comprobación de estado y se omiten las demás. Este también es el caso de las comprobaciones de estado del nodo de destino GPUs. Puede consultar los archivos de registro para obtener información adicional sobre esta situación.
+ El registro de comprobación de estado de un nodo informático específico está disponible en el archivo `/var/log/parallelcluster/slurm_health_check.log`. El archivo está disponible en Amazon CloudWatch, en el grupo de CloudWatch registros del clúster, donde puede encontrar:
  + Detalles sobre la acción que lleva a cabo la comprobación de estado de la `Gpu`, incluida la activación y desactivación de los servicios y el modo de persistencia.
  + El identificador de la GPU, el ID de serie y el UUID.
  + El resultado del comprobación de estado.
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`se admite a partir de la AWS ParallelCluster versión 3.6.0.

#### `Networking`
<a name="Scheduling-v3-SlurmQueues-Networking"></a>

**(Obligatorio)** Define la configuración de red de la cola de Slurm.

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  PlacementGroup:
    Enabled: boolean
    Id: string
    Name: string
  Proxy:
    HttpProxyAddress: string
```

[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### Propiedades de `Networking`
<a name="Scheduling-v3-SlurmQueues-Networking.properties"></a>

**`SubnetIds` (**Requerido**, `[String]`)**  
Las IDs subredes existentes en las que aprovisiona la Slurm cola.  
Si configura los tipos de instancias en [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType), solo puede definir una subred.  
Si configura los tipos de instancias en [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances), puede definir una o varias subredes.  
Si usa varias subredes, todas las subredes definidas para una cola deben estar en la misma VPC y cada subred en una zona de disponibilidad (AZ) independiente.  
Por ejemplo, supongamos que define la subred-1 y la subred-2 para la cola.  
`subnet-1` y no `subnet-2` pueden estar ambos en AZ-1.  
`subnet-1` puede estar en AZ-1 y `subnet-2` puede estar en AZ-2.  
Si configura solo un tipo de instancia y desea usar varias subredes, defina el tipo de instancia en `Instances` lugar de `InstanceType`.  
Por ejemplo, defina `ComputeResources`/`Instances`/`InstanceType` = `instance.type` en lugar de `ComputeResources`/`InstanceType` = `instance.type`.  
Elastic Fabric Adapter (EFA) no es compatible con diferentes zonas de disponibilidad.
El uso de varias zonas de disponibilidad puede provocar un aumento de la latencia de las redes de almacenamiento y aumentar los costes de transferencia de datos entre zonas de disponibilidad. Por ejemplo, esto podría ocurrir cuando una instancia accede al almacenamiento de archivos ubicado en una zona de disponibilidad diferente. Para obtener más información, consulte [Transferencia de datos dentro de la misma Región de AWS](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer_within_the_same_AWS_Region).  

**Actualizaciones del clúster para pasar del uso de una sola subred a varias subredes:**
+ Supongamos que la definición de subred de un clúster se define con una única subred y un sistema de archivos AWS ParallelCluster gestionado FSx para Lustre. Por lo tanto, no puede actualizar este clúster directamente con una definición de ID de subred actualizada. Para actualizar el clúster, primero debe cambiar el sistema de archivos administrado por un sistema de archivos externo. Para obtener más información, consulte [Convierte el almacenamiento gestionado en almacenamiento externo AWS ParallelCluster](shared-storage-conversion-v3.md).
+ Supongamos que la definición de subred de un clúster se define con una única subred y un sistema de archivos Amazon EFS externo si no existen destinos de montaje de EFS para todas las subredes múltiples definidas que se van a añadir. AZs Por lo tanto, no puede actualizar este clúster directamente con una definición de ID de subred actualizada. Para actualizar el clúster o crear uno, primero debe crear todos los destinos de montaje para todas las subredes AZs múltiples definidas.

**Las zonas de disponibilidad y las reservas de capacidad del clúster se definen en [CapacityReservationResourceGroupArn](#yaml-Scheduling-SlurmQueues-CapacityReservationResourceGroupArn):**
+ No puede crear un clúster si no hay superposición entre el conjunto de tipos de instancias y zonas de disponibilidad que cubre el grupo de recursos de reserva de capacidad definido y el conjunto de tipos de instancias y zonas de disponibilidad definidos para la cola.
+ Puede crear un clúster si hay una superposición parcial entre el conjunto de tipos de instancias y zonas de disponibilidad que cubre el grupo de recursos de reserva de capacidad definido y el conjunto de tipos de instancias y zonas de disponibilidad definidos para la cola. AWS ParallelCluster envía un mensaje de advertencia sobre la superposición parcial en este caso.
+ Para obtener más información, consulte [Inicio de instancias con reservas de capacidad bajo demanda (ODCR)](launch-instances-odcr-v3.md).
En la AWS ParallelCluster versión 3.4.0 se añaden varias zonas de disponibilidad.
Esta advertencia se aplica a todas las AWS ParallelCluster versiones 3.x.y anteriores a la 3.3.1. AWS ParallelCluster la versión 3.3.1 no se ve afectada si se cambia este parámetro.  
Para AWS ParallelCluster 3 versiones anteriores a la versión 3.3.1:  
Si cambia este parámetro y actualiza un clúster, se crea un nuevo sistema de archivos gestionado FSx para Lustre y se elimina el sistema de archivos gestionado FSx para Lustre existente sin conservar los datos existentes. Esto provoca la pérdida de datos. Antes de continuar, asegúrese de hacer una copia de seguridad de los datos del sistema de archivos existente FSx para Lustre si desea conservar los datos. Para obtener más información, consulte [Trabajar con copias de seguridad](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) en la Guía del *FSx usuario de Lustre*.
Si se agrega un nuevo valor de subred, [Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
Si se elimina un valor de subred, [Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AssignPublicIp` (**Opcional**, `String`)**  
Crea o asigna una dirección IP pública a los nodos de la cola de Slurm. Los valores admitidos son `true` y `false`. La subred que especifique determina el valor predeterminado. Una subred con direcciones IP públicas de IPs forma predeterminada.  
Si define un tipo de hpc6id instancia p4d OR u otro tipo de instancia que tenga varias interfaces de red o una tarjeta de interfaz de red, debe configurar [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`ElasticIp`](HeadNode-v3.md#yaml-HeadNode-Networking-ElasticIp)`true`para proporcionar acceso público. AWS public solo se IPs puede asignar a las instancias lanzadas con una única interfaz de red. En este caso, le recomendamos que utilice una [puerta de enlace NAT](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html) para proporcionar acceso público a los nodos de computación del clúster. En este caso, establezca `AssignPublicIp` en `false`. Para obtener más información sobre las direcciones IP, consulte [Asignar una IPv4 dirección pública durante el lanzamiento de una instancia](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) en la *Guía del usuario de Amazon EC2 para instancias de Linux.*  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups` (**Opcional**, `[String]`)**  
Una lista de grupos de seguridad que se utilizarán para el entorno. Si no se especifica ningún grupo de seguridad, AWS ParallelCluster crea grupos de seguridad por usted.  
Compruebe que los grupos de seguridad estén configurados correctamente para sus [SharedStorage](SharedStorage-v3.md)sistemas.  
Esta advertencia se aplica a los tres. *x*. *y* AWS ParallelCluster versiones anteriores a la versión 3.3.0. AWS ParallelCluster la versión 3.3.0 no se ve afectada si se cambia este parámetro.  
Para AWS ParallelCluster 3 versiones anteriores a la versión 3.3.0:  
Si cambia este parámetro y actualiza un clúster, se crea un nuevo sistema de archivos gestionado FSx para Lustre y se elimina el sistema de archivos gestionado FSx para Lustre existente sin conservar los datos existentes. Esto provoca la pérdida de datos. Asegúrese de hacer una copia de seguridad de los datos del sistema de archivos existente FSx para Lustre si desea conservar los datos. Para obtener más información, consulte [Trabajar con copias de seguridad](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) en la Guía del *FSx usuario de Lustre*.
Si habilita [EFA](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa) para las instancias de procesamiento, asegúrese de que las instancias habilitadas para EFA formen parte de un grupo de seguridad que permita todo el tráfico entrante y saliente hacia sí mismo.
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups` (**Opcional**, `[String]`)**  
Una lista de grupos de seguridad adicionales que se utilizarán para la cola de Slurm.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`PlacementGroup`(**Opcional)****  
Especifica la configuración del grupo de ubicación de la cola de Slurm.  

```
PlacementGroup:
  Enabled: boolean
  Id: string
  Name: string
```
[Política de actualización: todos los nodos de procesamiento deben estar detenidos para poder eliminar un grupo de ubicación administrado. Debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`Enabled` (**Opcional**, `Boolean`)**  
Indica si se utiliza un grupo de ubicaciones para la cola de Slurm. El valor predeterminado es `false`.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Id` (**Opcional**, `String`)**  
El ID del grupo de ubicación de un grupo de ubicación de clústeres existente que utiliza la Slurm cola. Asegúrese de proporcionar el *ID* del grupo de ubicación y *no el nombre*.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name` (**Opcional**, `String`)**  
El nombre del grupo de ubicación de un grupo con ubicación en clúster existente que utiliza la cola de Slurm. Asegúrese de proporcionar el *nombre* del grupo de ubicación y *no el ID*.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ Si `PlacementGroup`/`Enabled` se establece en `true`, sin un `Name` o `Id` definidos, a cada recurso informático se le asigna su propio grupo de ubicación administrado, a menos que se defina [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking-PlacementGroup) para anular esta configuración.
+ A partir de la AWS ParallelCluster versión 3.3.0, [`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)se agregó [`SlurmQueues`[`Networking`[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)](#Scheduling-v3-SlurmQueues-Networking)](#Scheduling-v3-SlurmQueues)///como alternativa preferida a [`SlurmQueues`](#Scheduling-v3-SlurmQueues)//[`Networking`[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)](#Scheduling-v3-SlurmQueues-Networking)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id).

  [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id) y [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name) son equivalentes. Puede utilizar cualquiera de los dos.

   Si incluye tanto [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/como [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name), [`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)se produce un AWS ParallelCluster error. Debe elegir una u otra.

  No necesita actualizar el clúster para usar [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name).
+ Al utilizar una reserva por bloques de capacidad, no se debe establecer una restricción de grupo de ubicación, ya que pueden producirse errores de capacidad insuficiente debido a restricciones de ubicación fuera de la reserva, incluso si la reserva de capacidad tiene capacidad restante.

**`Proxy`(**Opcional)****  
Especifica la configuración del proxy de la cola de Slurm.  

```
Proxy:
  HttpProxyAddress: string
```
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`HttpProxyAddress` (**Opcional**, `String`)**  
Define un servidor proxy HTTP o HTTPS para la cola de Slurm. Por lo general, es `https://x.x.x.x:8080`.  
No hay valor predeterminado.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `Image`
<a name="Scheduling-v3-SlurmQueues-Image"></a>

**(Opcional)** Especifica la imagen que se utilizará en la cola de Slurm. Para usar la misma AMI para todos los nodos, utilice la [CustomAmi](Image-v3.md#yaml-Image-CustomAmi)configuración de la [`Image`sección](Image-v3.md).

```
Image:
  CustomAmi: string
```

[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### Propiedades de `Image`
<a name="Scheduling-v3-SlurmQueues-Image.properties"></a>

**`CustomAmi` (**Opcional**, `String`)**  
La AMI que se utilizará para la Slurm cola en lugar de la predeterminada AMIs. Puede usar el comando pcluster CLI para ver una lista de los valores predeterminados AMIs.  
La AMI debe estar basada en el mismo sistema operativo que el nodo principal.

```
pcluster list-official-images
```
Si la AMI personalizada requiere permisos adicionales para su lanzamiento, debe agregar estos permisos a la política del nodo principal.  
Por ejemplo, si una AMI personalizada tiene asociada una instantánea cifrada, se requieren las siguientes políticas adicionales en las políticas del nodo principal.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Para solucionar problemas de las advertencias de validación de AMI personalizadas, consulte [Solución de problemas con las AMI de](troubleshooting-v3-custom-amis.md).  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeResources`
<a name="Scheduling-v3-SlurmQueues-ComputeResources"></a>

**(Obligatorio)** Define la configuración de `ComputeResources` de la cola de Slurm.

**nota**  
El tamaño del clúster puede cambiar durante una actualización. Para obtener más información, consulte [Tamaño y actualización de la capacidad del clúster](slurm-workload-manager-v3.md).
Los nuevos recursos de cómputo se pueden agregar al clúster solo si se implementan en subredes que pertenecen a los bloques CIDR que existían cuando se creó el clúster.

```
ComputeResources:
  - Name: string
    InstanceType: string
    Instances:
      - InstanceType: string    
    MinCount: integer
    MaxCount: integer
    DynamicNodePriority: integer
    StaticNodePriority: integer
    SpotPrice: float
    DisableSimultaneousMultithreading: boolean
    SchedulableMemory: integer
    HealthChecks:
      Gpu:    
        Enabled: boolean
    Efa:
      Enabled: boolean
      GdrSupport: boolean
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    Networking:   
      PlacementGroup:
        Enabled: boolean
        Name: string
    CustomSlurmSettings: dict   
    Tags:
      - Key: string
        Value: string
    LaunchTemplateOverrides:
      LaunchTemplateId: string
      Version: string
```

[Política de actualización: para esta configuración de valores de lista, se puede añadir un nuevo valor durante una actualización o se debe detener la flota de computación al eliminar un valor existente.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

##### Propiedades de `ComputeResources`
<a name="Scheduling-v3-SlurmQueues-ComputeResources.properties"></a>

**`Name` (**Requerido**, `String`)**  
El nombre del entorno informático. El nombre puede tener un máximo de 25 caracteres.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`InstanceType` (**Requerido**, `String`)**  
El tipo de instancia que se usa en este recurso informático de Slurm. Todos los tipos de instancias de un clúster deben usar la misma arquitectura de procesador. Las instancias pueden usar la arquitectura `x86_64` o `arm64`.  
[La configuración del clúster debe definir una [InstanceType](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)o varias instancias.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) Si ambas están definidas, se produce un AWS ParallelCluster error.  
Cuando se define `InstanceType`, no se pueden definir varias subredes. Si configura solo un tipo de instancia y desea usar varias subredes, defina el tipo de instancia en `Instances` lugar de en `InstanceType`. Para obtener más información, consulte [`Networking`](#Scheduling-v3-SlurmQueues-Networking) / [`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).  
Si define un tipo de hpc6id instancia p4d o, u otro tipo de instancia que tenga varias interfaces de red o una tarjeta de interfaz de red, debe lanzar las instancias de procesamiento en una subred privada, tal y como se describe en[AWS ParallelCluster utilizando dos subredes](network-configuration-v3-two-subnets.md). AWS public solo se IPs puede asignar a las instancias que se lanzan con una única interfaz de red. Para obtener más información, consulte [Asignar una IPv4 dirección pública durante el lanzamiento de una instancia](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) en la *Guía del usuario de Amazon EC2 para instancias de Linux.*  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`Instances` (**Obligatorio**)**  
Especifica la lista de tipos de instancias de un recurso informático. Para especificar la estrategia de asignación de la lista de tipos de instancias, consulte [`AllocationStrategy`](#yaml-Scheduling-SlurmQueues-AllocationStrategy).  
La configuración del clúster debe definir un [`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType) o [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances). Si ambas opciones están definidas, AWS ParallelCluster produce un error.  
Para obtener más información, consulte [Asignación de varios tipos de instancias con Slurm](slurm-multiple-instance-allocation-v3.md).  

```
`Instances`:
   - `InstanceType`: string
```
[A partir de AWS ParallelCluster la versión 3.7.0, `EnableMemoryBasedScheduling` puede habilitarse si configura varios tipos de instancias en las instancias.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)  
Para AWS ParallelCluster las versiones 3.2.0 a 3.6. *x*, no se `EnableMemoryBasedScheduling` puede habilitar si configuras varios tipos de [instancias en Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).
[Política de actualización: para esta configuración de valores de lista, se puede añadir un nuevo valor durante una actualización o se debe detener la flota de computación al eliminar un valor existente.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)    
**`InstanceType` (**Requerido**, `String`)**  
El tipo de instancia que se va a usar en este recurso informático de Slurm. Todos los tipos de instancias de un clúster deben usar la misma arquitectura de procesador, ya sea `x86_64` o `arm64`.  
Los tipos de instancias que se enumeran en [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) deben tener:  
+ La misma cantidad de v oCPUs, si [`DisableSimultaneousMultithreading`](#yaml-Scheduling-SlurmQueues-ComputeResources-DisableSimultaneousMultithreading)está establecida en`true`, la misma cantidad de núcleos.
+ El mismo número de aceleradores de los mismos fabricantes.
+ Compatible con EFA, si [`Efa`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa)/[`Enabled`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa-Enabled) se establece en `true`.
Los tipos de instancias que aparecen en la lista [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) pueden tener:  
+ Cantidad de memoria diferente.

  En este caso, la memoria mínima debe configurarse como recurso de Slurm consumible.
**nota**  
A partir de AWS ParallelCluster la versión 3.7.0, se `EnableMemoryBasedScheduling` puede habilitar si configuras varios tipos de [instancias en Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).  
Para AWS ParallelCluster las versiones 3.2.0 a 3.6. *x*, no se `EnableMemoryBasedScheduling` puede habilitar si configuras varios tipos de [instancias en Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).
+ Tarjetas de red diferentes.

  En este caso, el número de interfaces de red configuradas para el recurso informático viene definido por el tipo de instancia con el menor número de tarjetas de red.
+ Ancho de banda de la red diferente.
+ Tamaño de almacén de instancias diferente.
Si define un tipo de hpc6id instancia p4d o, u otro tipo de instancia que tenga varias interfaces de red o una tarjeta de interfaz de red, debe lanzar las instancias de procesamiento en una subred privada, tal y como se describe en[AWS ParallelCluster utilizando dos subredes](network-configuration-v3-two-subnets.md). AWS public solo se IPs puede asignar a las instancias lanzadas con una única interfaz de red. Para obtener más información, consulte [Asignar una IPv4 dirección pública durante el lanzamiento de una instancia](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) en la *Guía del usuario de Amazon EC2 para instancias de Linux.*  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)
`Instances`se admite a partir de la AWS ParallelCluster versión 3.3.0.

**`MinCount` (**Opcional**, `Integer`)**  
El número mínimo de instancias que utiliza el recurso informático de Slurm. El valor predeterminado es 0.  
El tamaño del clúster puede cambiar durante una actualización. Para obtener más información, consulte [Tamaño y actualización de la capacidad del clúster](slurm-workload-manager-v3.md)
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MaxCount` (**Opcional**, `Integer`)**  
El número máximo de instancias que utiliza el recurso informático de Slurm. El valor predeterminado es 10.  
Cuando se usa`CapacityType = CAPACITY_BLOCK`, `MaxCount` debe ser igual `MinCount` y superior a 0, ya que todas las instancias que forman parte de la reserva del bloque de capacidad se administran como nodos estáticos.  
En el momento de la creación del clúster, el nodo principal espera a que todos los nodos estáticos estén listos para indicar que la creación del clúster se ha realizado correctamente. Sin embargo, cuando los utilices`CapacityType = CAPACITY_BLOCK`, los nodos que forman parte de los recursos de cómputo asociados a los bloques de capacidad no se tendrán en cuenta para esta comprobación. El clúster se creará aunque no todos los bloques de capacidad que se han configurado estén activos.  
El tamaño del clúster puede cambiar durante una actualización. Para obtener más información, consulte [Tamaño y actualización de la capacidad del clúster](slurm-workload-manager-v3.md)
 

**`DynamicNodePriority` (**Opcional**, `Integer`)**  
La prioridad de los nodos dinámicos en un recurso informático de cola. La prioridad se asigna al parámetro de configuración [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight) del nodo de Slurm para los nodos dinámicos del recurso informático. El valor predeterminado es `1000`.  
Slurm prioriza primero los nodos con los valores de `Weight` más bajos.  
El uso de muchos valores de `Weight` diferentes en una partición (cola) de Slurm puede reducir el ritmo de programación de trabajos en la cola.  
En AWS ParallelCluster las versiones anteriores a la 3.7.0, a los nodos estáticos y dinámicos se les asignaba el mismo peso predeterminado de`1`. En este caso, Slurm podría priorizar los nodos dinámicos inactivos sobre los nodos estáticos inactivos debido al esquema de nomenclatura de los nodos estáticos y dinámicos. Cuando todo lo demás es igual, Slurm programa los nodos alfabéticamente por nombre.
`DynamicNodePriority`se agregó en la AWS ParallelCluster versión 3.7.0.
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`StaticNodePriority` (**Opcional**, `Integer`)**  
La prioridad de los nodos estáticos en un recurso de cómputo de cola. La prioridad se asigna al parámetro de configuración [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight) del nodo de Slurm para los nodos estáticos del recurso informático. El valor predeterminado es `1`.  
Slurm prioriza primero los nodos con los valores de `Weight` más bajos.  
El uso de muchos valores de `Weight` diferentes en una partición (cola) de Slurm puede reducir el ritmo de programación de trabajos en la cola.
`StaticNodePriority`se añade en la AWS ParallelCluster versión 3.7.0.
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`SpotPrice` (**Opcional**, `Float`)**  
El precio máximo que se paga por una instancia de spot de Amazon EC2 antes del lanzamiento de cualquier instancia. El valor predeterminado es precio bajo demanda.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`DisableSimultaneousMultithreading` (**Opcional**, `Boolean`)**  
Si `true`, el subprocesamiento múltiple en los nodos de la cola de Slurm está deshabilitado. El valor predeterminado es `false`.  
No todos los tipos de instancias pueden deshabilitar los subprocesos múltiples. Para obtener una lista de los tipos de instancias que admiten la desactivación de la tecnología Hyper-Threading, consulte [Núcleos de CPU y subprocesos por núcleo de CPU por tipo de instancia](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) en la *Guía del usuario de Amazon EC2*.   
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`SchedulableMemory` (**Opcional**, `Integer`)**  
La cantidad de memoria en MiB que se configura en el parámetro de Slurm `RealMemory` para los nodos de computación de un recurso informático. Este valor es el límite superior de la memoria de nodo disponible para los trabajos cuando se habilita [`SlurmSettings`](#Scheduling-v3-SlurmSettings)/[`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling). El valor predeterminado es el 95 por ciento de la memoria que aparece en los [tipos de instancias de Amazon EC2](https://aws.amazon.com/ec2/instance-types) y que devuelve la API de Amazon EC2. [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html) Asegúrese de convertir los valores expresados en GiB a MiB.  
Valores admitidos: `1-EC2Memory`  
`EC2Memory`es la memoria (en MiB) que aparece en los tipos de [instancias de Amazon EC2](https://aws.amazon.com/ec2/instance-types) y que devuelve la API de Amazon EC2. [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html) Asegúrese de convertir los valores expresados en GiB a MiB.  
Esta opción es más relevante cuando se habilita [`SlurmSettings`](#Scheduling-v3-SlurmSettings)/[`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling). Para obtener más información, consulte [Slurm programación basada en memoria](slurm-mem-based-scheduling-v3.md).  
`SchedulableMemory` es compatible a partir de AWS ParallelCluster versión 3.2.0.  
A partir de la versión 3.2.0, de forma predeterminada, se AWS ParallelCluster configura `RealMemory` para los nodos de Slurm cómputo el 95 por ciento de la memoria que devuelve la API de Amazon EC2. `DescribeInstanceTypes` Esta configuración es independiente del valor de `EnableMemoryBasedScheduling`.
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks`**(Opcional)****  
Especifique las comprobaciones de estado de un recurso informático.    
`Gpu`(**Opcional**)  
Especifique las comprobaciones de estado de la GPU en un recurso informático.    
`Enabled` (**Opcional**, `Boolean`)  
Si AWS ParallelCluster realiza comprobaciones de estado de la GPU al calcular un recurso en una cola. El valor predeterminado es `false`.  
AWS ParallelCluster no admite`HealthChecks`/`Gpu`en los nodos que utilizan sistemas operativos `alinux2` ARM. Estas plataformas no son compatibles con el [administrador de GPU para centros de datos de NVIDIA (DCGM).](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions)

**Comportamiento de la comprobación de estado de la `Gpu`**
+ Si`Gpu`/`Enabled`está establecido en`true`, AWS ParallelCluster realiza comprobaciones de estado de la GPU en un recurso informático.
+ La comprobación de estado de la `Gpu` realiza comprobaciones de estado de un recurso informático para evitar que se envíen trabajos en nodos con una GPU degradada.
+ Si un nodo de cómputo no pasa una comprobación de estado de la `Gpu`, el estado del nodo de computación cambia a `DRAIN`. Los nuevos trabajos no comienzan en este nodo. Los trabajos existentes se ejecutan hasta su finalización. Una vez finalizados todos los trabajos en ejecución, el nodo de cómputo finaliza si es un nodo dinámico y se reemplaza si es un nodo estático.
+ La duración de la `Gpu` comprobación de estado depende del tipo de instancia seleccionada, del número de instancias que haya GPUs en la instancia y del número de objetivos de la `Gpu` comprobación de estado (equivalente al número de objetivos de GPU que estén trabajando). En una instancia con 8 GPUs, la duración típica es inferior a 3 minutos.
+ Si la comprobación de estado de la `Gpu` se ejecuta en una instancia que no es compatible, se cierra y el trabajo se ejecuta en el nodo de cómputo. Por ejemplo, si una instancia no tiene una GPU o si tiene una GPU pero no es una GPU de NVIDIA, la comprobación de estado finaliza y el trabajo se ejecuta en el nodo de cómputo. Solo GPUs se admiten NVIDIA.
+ La comprobación de estado de la `Gpu` utiliza la herramienta `dcgmi` para realizar comprobaciones de estado en un nodo y sigue los siguientes pasos: 

  Cuando la comprobación de estado de la `Gpu` comienza en un nodo:

  1. Detecta si los servicios `nvidia-dcgm` y `nvidia-fabricmanager` se están ejecutando.

  1. Si estos servicios no se están ejecutando, la comprobación de estado de la `Gpu`los inicia.

  1. Detecta si el modo de persistencia está activado.

  1. Si el modo de persistencia no está activado, la comprobación de estado de la `Gpu` lo habilita.

  Al final de la comprobación de estado, la comprobación de estado de la `Gpu` restablece estos servicios y recursos a su estado inicial.
+ Si el trabajo está asignado a un conjunto específico de nodos GPUs, la `Gpu` comprobación de estado solo se ejecuta en ese conjunto específico. De lo contrario, la `Gpu` comprobación de estado se ejecuta GPUs en todo el nodo.
+ Si un nodo de cómputo recibe 2 o más solicitudes de comprobación de estado de la `Gpu` al mismo tiempo, solo se ejecuta la primera comprobación de estado y se omiten las demás. Este también es el caso de las comprobaciones de estado dirigidas al nodo GPUs. Puede consultar los archivos de registro para obtener información adicional sobre esta situación.
+ El registro de comprobación de estado de un nodo informático específico está disponible en el archivo `/var/log/parallelcluster/slurm_health_check.log`. Este archivo está disponible en Amazon CloudWatch, en el grupo de CloudWatch registros del clúster, donde puede encontrar:
  + Detalles sobre la acción que lleva a cabo la comprobación de estado de la `Gpu`, incluida la activación y desactivación de los servicios y el modo de persistencia.
  + El identificador de la GPU, el ID de serie y el UUID.
  + El resultado del comprobación de estado.
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`se admite a partir de la AWS ParallelCluster versión 3.6.0.

**`Efa`(**Opcional)****  
Especifica la configuración Elastic Fabric Adapter (EFA) para los nodos de la cola de Slurm.  

```
Efa:
  Enabled: boolean
  GdrSupport: boolean
```
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Enabled` (**Opcional**, `Boolean`)**  
Especifica que Elastic Fabric Adapter (EFA) esté habilitado. Para ver la lista de instancias de Amazon EC2 compatibles con EFA, consulte [Tipos de instancias admitidas](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) en la *Guía del usuario para instancias de Linux de Amazon EC2*. Para obtener más información, consulte [Elastic Fabric Adapter](efa-v3.md). Le recomendamos que utilice un clúster [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) para minimizar las latencias entre instancias.  
El valor predeterminado es `false`.  
Elastic Fabric Adapter (EFA) no es compatible con diferentes zonas de disponibilidad. Para obtener más información, consulte [SubnetIds](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).
Si vas a definir un grupo de seguridad personalizado en [SecurityGroups](#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups), asegúrate de que las instancias habilitadas para EFA sean miembros de un grupo de seguridad que permita que todo el tráfico entrante y saliente entre en sí mismo.
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`GdrSupport` (**Opcional**, `Boolean`)**  
**(Opcional)** A partir de AWS ParallelCluster versión 2.11.3, esta configuración no tiene efecto. La compatibilidad con el Elastic Fabric Adapter (EFA) para GPUDirect RDMA (acceso remoto directo a memoria) siempre está habilitada si es compatible con el tipo de instancia del recurso de Slurm cómputo y el sistema operativo.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityReservationTarget`**  

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
Especifica la reserva de capacidad bajo demanda que se utilizará para el recurso informático.    
**`CapacityReservationId` (**Opcional**, `String`)**  
El ID de la reserva de capacidad existente a la que se destinarán los recursos informáticos de la cola. El ID puede hacer referencia a una [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) o a un [bloque de capacidad para ML](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html).  
Si este parámetro se especifica a nivel de recurso informático y InstanceType es opcional, se recuperará automáticamente de la reserva.  
**`CapacityReservationResourceGroupArn` (**Opcional**, `String`)**  
Indica el nombre de recurso de Amazon (ARN) del grupo de recursos que actúa como grupo de reservas de capacidad vinculado a un servicio de reservas de capacidad para el recurso de cómputo. AWS ParallelCluster identifica y utiliza la reserva de capacidad más adecuada del grupo. El grupo de recursos debe tener al menos un ODCR para cada tipo de instancia que aparezca en la lista del recurso informático. Para obtener más información, consulte [Inicio de instancias con reservas de capacidad bajo demanda (ODCR)](launch-instances-odcr-v3.md).  
+ Si `PlacementGroup` está habilitado en [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)o/[`SlurmQueues`[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster selecciona un grupo de recursos que se dirija al tipo de instancia y`PlacementGroup`, si existe, a un recurso informático.

  `PlacementGroup` debe dirigirse a uno de los tipos de instancias definidos en [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources).
+ Si `PlacementGroup` no está habilitado en [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)o [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster selecciona un grupo de recursos que se dirija solo al tipo de instancia de un recurso informático, si existe.
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`CapacityReservationTarget` se añade con AWS ParallelCluster versión 3.3.0.

**`Networking`**  

```
Networking:   
  PlacementGroup:
    Enabled: boolean
    Name: string
```
[Política de actualización: todos los nodos de procesamiento deben estar detenidos para poder eliminar un grupo de ubicación administrado. Debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`PlacementGroup`(**Opcional**)**  
Especifica la configuración del grupo de ubicación para el recurso de cómputo.    
**`Enabled` (**Opcional**, `Boolean`)**  
Indica si se utiliza un grupo de ubicación para el recurso informático.  
+ Si se establece en `true`, sin un `Name` definido, a ese recurso informático se le asigna su propio grupo de ubicación administrado, independientemente de la configuración de [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup).
+ Si se establece en `true`, con un `Name` definido, a ese recurso informático se le asigna el grupo de ubicación indicado, independientemente de la configuración de `SlurmQueues`/`Networking`/`PlacementGroup`.
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name` (**Opcional**, `String`)**  
El nombre del grupo de ubicación de un grupo con ubicación en clúster existente que se usa para el recurso informático.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ Si tanto `PlacementGroup`/`Enabled` como `Name` no están configurados, sus valores respectivos son los valores predeterminados de la configuración de [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup).
+ Al utilizar una reserva por bloques de capacidad, no se debe establecer una restricción de grupo de ubicación, ya que pueden producirse errores de capacidad insuficiente debido a restricciones de ubicación fuera de la reserva, incluso si la reserva de capacidad tiene capacidad restante.
+ `ComputeResources`/`Networking`/`PlacementGroup`se añade con la AWS ParallelCluster versión 3.3.0.

**`CustomSlurmSettings` (**Opcional**, `Dict`)**  
**(Opcional)** Define los ajustes de configuración del nodo de Slurm personalizado (recurso informático).  
Especifica un diccionario de pares clave-valor de parámetros de configuración de Slurm personalizados que se aplican a los nodos de Slurm (recursos informáticos).  
Cada par clave-valor independiente, por ejemplo `Param1: Value1`, se añade por separado al final de la línea de configuración del nodo de Slurm en el formato `Param1=Value1`.  
Solo puede especificar los parámetros de configuración de Slurm que no estén incluidos en la lista de denegaciones de `CustomSlurmSettings`. Para obtener más información acerca de los parámetros de configuración de Slurm incluidos en la lista de denegaciones, consulte [Listado de denegaciones Slurm parámetros de configuración para `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3).  
AWS ParallelCluster solo comprueba si un parámetro está en una lista de denegaciones. AWS ParallelCluster no valida la sintaxis ni la semántica de los parámetros de Slurm configuración personalizados. Es su responsabilidad validar los parámetros de Slurm configuración personalizados. Los parámetros de configuración personalizados de Slurm no válidos pueden provocar errores en los daemons de Slurm y provocar errores en la creación y actualización del clúster.  
Para obtener más información sobre cómo especificar los parámetros Slurm de configuración personalizados con AWS ParallelCluster, consulte[Slurm personalización de la configuración](slurm-configuration-settings-v3.md).  
Para obtener más información sobre los parámetros de configuración de Slurm, consulte [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) en la documentación de Slurm.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings` es compatible a partir de AWS ParallelCluster versión 3.6.0.

**(Cadena) Opcional.**  
Una lista de pares clave-valor de etiqueta. Las etiquetas de `ComputeResource` anulan las etiquetas duplicadas especificadas en las [Sección de `Tags`](Tags-v3.md) o /`Tags`.    
**`Key` (**Opcional**, `String`)**  
La clave de la etiqueta.  
**`Value` (**Opcional**, `String`)**  
El valor de la etiqueta.
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LaunchTemplateOverrides`(**Opcional**)**  
`LaunchTemplateOverrides`se añade con la AWS ParallelCluster versión 3.15.0.
Especifica una plantilla de lanzamiento para anular la plantilla de lanzamiento predeterminada que se AWS ParallelCluster crea para el recurso informático. La plantilla de lanzamiento solo debe contener anulaciones de interfaces de red. AWS ParallelCluster valida la plantilla de lanzamiento e impide anular otros parámetros. Para obtener más información sobre cómo utilizar esta anulación, consulte. [Personalice las interfaces de red de nodos de cómputo con anulaciones de plantillas de lanzamiento](tutorial-network-customization-v3.md)  

```
LaunchTemplateOverrides:
  LaunchTemplateId: string
  Version: string
```  
**`LaunchTemplateId` (**Requerido**, `String`)**  
El ID de la plantilla de lanzamiento.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Version` (**Requerido**, `String`)**  
El número de versión de la plantilla de lanzamiento.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeSettings`
<a name="Scheduling-v3-SlurmQueues-ComputeSettings"></a>

**(Obligatorio)** Define la configuración de `ComputeSettings` de la cola de Slurm.

##### Propiedades de `ComputeSettings`
<a name="Scheduling-v3-SlurmQueues-ComputeSettings.properties"></a>

Especifica las propiedades de `ComputeSettings` de los nodos de la cola de Slurm.

```
ComputeSettings:
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
     EphemeralVolume:
      MountDir: string
```

[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LocalStorage`(**Opcional)****  
Especifica las propiedades de `LocalStorage` de los nodos de la cola de Slurm.  

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
  EphemeralVolume:
    MountDir: string
```
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`RootVolume`(**Opcional**)**  
Especifica los detalles del volumen raíz de los nodos de la cola de Slurm.  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
```
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Size` (**Opcional**, `Integer`)**  
Especifica el tamaño del volumen raíz en gibibytes (GiB) para los nodos de la cola de Slurm. El tamaño predeterminado proviene de la AMI. El uso de un tamaño diferente requiere que la AMI admita `growroot`.   
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Encrypted` (**Opcional**, `Boolean`)**  
Si `true`, el volumen raíz de los nodos de la cola de Slurm está cifrado. El valor predeterminado es `true`.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`VolumeType` (**Opcional**, `String`)**  
Especifica el [tipo de volumen de Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) de los nodos de la cola de Slurm. Los valores admitidos son `gp2`, `gp3`, `io1`, `io2`, `sc1`, `st1` y `standard`. El valor predeterminado es `gp3`.  
Para obtener más información, consulte [Tipos de volúmenes de Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) en la *Guía del usuario de Amazon EC2*.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Iops` (**Opcional**, `Boolean`)**  
Define el número de IOPS para volúmenes de tipo `io1`, `io2` y `gp3`.  
El valor predeterminado, los valores admitidos y la proporción de datos `volume_iops` a `volume_size` varía entre `VolumeType` y `Size`.    
**`VolumeType` = `io1`**  
`Iops` predeterminado = 100  
Valores admitidos `Iops` = 100–64 000 †  
Relación máxima `volume_iops` a `volume_size` = 50 IOPS por GiB. 5000 IOPS requieren un `volume_size` de al menos 100 GiB.  
**`VolumeType` = `io2`**  
`Iops` predeterminado = 100  
Valores admitidos `Iops` = 100–64 000 (256 000 para los volúmenes de `io2` Block Express) †  
Relación máxima `Iops` a `Size` = 500 IOPS por GiB. 5000 IOPS requieren un `Size` de al menos 10 GiB.  
**`VolumeType` = `gp3`**  
`Iops` predeterminado = 3000  
Valores admitidos `Iops` = 3000–16 000 †  
Proporción máxima de `Iops` a `Size` = 500 IOPS por GiB para volúmenes con IOPS superiores a 3000.
† Las IOPS máximas solo se garantizan en [las instancias creadas en el sistema Nitro](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) aprovisionadas con más de 32 000 IOPS. Otras instancias garantizan hasta 32,000 IOPS. Es posible que los volúmenes `io1` más antiguos no alcancen el rendimiento máximo a menos que [modifique el volumen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html). `io2` Los volúmenes de Block Express admiten valores de `volume_iops` de hasta 256 000 en tipos de instancias `R5b`. Para obtener más información, consulte [Volúmenes `io2` Block Express](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) en la *Guía del usuario de Amazon EC2*.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Throughput` (**Opcional**, `Integer`)**  
Define el rendimiento de los tipos de volumen `gp3`, en MiB/s. Esta configuración solo es válida cuando `VolumeType` se establece en `gp3`. El valor predeterminado es `125`. Valores admitidos = 125–1000 MiB/s  
La relación entre `Throughput` y `Iops` no puede ser superior a 0,25. El rendimiento máximo de 1000 MiB/s requiere que la `Iops` configuración sea de al menos 4000.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`EphemeralVolume` (**Opcional**, `Boolean`)**  
Especifica la configuración del volumen efímero. El volumen efímero se crea combinando todos los volúmenes del almacén de instancias en un único volumen lógico formateado con el sistema de archivos `ext4`. El valor predeterminado es `/scratch`. Si el tipo de instancia no tiene ningún volumen de almacén de instancias, no se crea ningún volumen efímero. Para obtener más información, consulte [Volúmenes de almacén de instancias](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes) en la *Guía del usuario de Amazon EC2*.  

```
EphemeralVolume:
  MountDir: string
```
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`MountDir` (**Opcional**, `String`)**  
El directorio de montaje del volumen efímero de cada nodo de la cola de Slurm.   
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `CustomActions`
<a name="Scheduling-v3-SlurmQueues-CustomActions"></a>

**(Opcional)** Especifica los scripts personalizados que se ejecutarán en los nodos de la cola de Slurm.

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```

[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### Propiedades de `CustomActions`
<a name="Scheduling-v3-SlurmQueues-CustomActions.properties"></a>

**`OnNodeStart` (**Opcional**, `String`)**  
Especifica una secuencia de scripts o un script único que se ejecutará en los nodos de la Slurm cola antes de que se inicie cualquier acción de arranque de implementación de nodos. AWS ParallelCluster no admite incluir un único script y `Sequence` para la misma acción personalizada. Para obtener más información, consulte [Acciones de arranque personalizadas](custom-bootstrap-actions-v3.md).    
**`Sequence`(**Opcional)****  
Lista de scripts que se van a ejecutar.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script` (**Requerido**, `String`)**  
El archivo que se va a utilizar. La ruta del archivo debe comenzar con `https://` o `s3://`.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args` (**Opcional**, `[String]`)**  
La lista de argumentos que se pasan al script único.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script` (**Requerido**, `String`)**  
El archivo que se va a utilizar para un único script. La ruta del archivo debe comenzar con `https://` o `s3://`.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args` (**Opcional**, `[String]`)**  
La lista de argumentos que se pasan al script único.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`OnNodeConfigured` (**Opcional**, `String`)**  
Especifica una secuencia de scripts o un solo script para ejecutarse en los nodos de la cola de Slurm una vez completadas todas las acciones de arranque de los nodos. AWS ParallelCluster no admite incluir un único script y `Sequence` para la misma acción personalizada. Para obtener más información, consulte [Acciones de arranque personalizadas](custom-bootstrap-actions-v3.md).    
**`Sequence`(**Opcional**)**  
Lista de scripts que se van a ejecutar.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script` (**Requerido**, `String`)**  
El archivo que se va a utilizar. La ruta del archivo debe comenzar con `https://` o `s3://`.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args` (**Opcional**, `[String]`)**  
La lista de argumentos que se pasan al script único.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script` (**Requerido**, `String`)**  
El archivo que se va a utilizar para un único script. La ruta del archivo debe comenzar con `https://` o `s3://`.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args` (**Opcional**, `[String]`)**  
La lista de argumentos que se pasan al script único.  
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[Política de actualización: debe haberse detenido la flota de computación o configurado QueueUpdateStrategy para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`Sequence`se añade a partir de la AWS ParallelCluster versión 3.6.0. Si lo especifica`Sequence`, puede enumerar varios scripts para una acción personalizada. AWS ParallelCluster sigue admitiendo la configuración de una acción personalizada con un único script, sin incluirlo`Sequence`.  
AWS ParallelCluster no admite incluir tanto un único script como `Sequence` para la misma acción personalizada.

#### `Iam`
<a name="Scheduling-v3-SlurmQueues-Iam"></a>

**(Opcional)** Define la configuración de IAM opcional para la cola de Slurm.

```
Iam:
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
  InstanceProfile: string
  InstanceRole: string
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

##### Propiedades de `Iam`
<a name="Scheduling-v3-SlurmQueues-Iam.properties"></a>

**`InstanceProfile` (**Opcional**, `String`)**  
Especifica un perfil de instancia para anular el rol de instancia o el perfil de instancia predeterminados de la cola de Slurm. No puede especificar `InstanceProfile` ni `InstanceRole`. El formato es `arn:${Partition}:iam::${Account}:instance-profile/${InstanceProfileName}`.  
Si se especifica, no se puede especificar la configuración de `AdditionalIamPolicies` y `S3Access`.  
Le recomendamos que especifique una o ambas opciones de configuración de `S3Access` y `AdditionalIamPolicies`, ya que las características que se añaden a AWS ParallelCluster menudo requieren nuevos permisos.  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceRole` (**Opcional**, `String`)**  
Especifica un rol de instancia para anular el rol de instancia o el perfil de instancia predeterminados de la cola de Slurm. No puede especificar `InstanceProfile` ni `InstanceRole`. El formato es `arn:${Partition}:iam::${Account}:role/${RoleName}`.  
Si se especifica, no se puede especificar la configuración de `AdditionalIamPolicies` y `S3Access`.  
Le recomendamos que especifique una o ambas opciones de configuración de `S3Access` y `AdditionalIamPolicies`, ya que las características que se añaden a AWS ParallelCluster menudo requieren nuevos permisos.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`S3Access`(**Opcional**)**  
Especifica un bucket para la cola de Slurm. Se utiliza para generar políticas que concedan el acceso especificado al bucket de la cola de Slurm.  
Si se especifica, no se puede especificar la configuración de `InstanceRole` y `InstanceProfile`.  
Le recomendamos que especifique una o ambas opciones de configuración de `S3Access` y `AdditionalIamPolicies`, ya que las características que se añaden a AWS ParallelCluster menudo requieren nuevos permisos.  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`BucketName` (**Requerido**, `String`)**  
Nombre del bucket de .  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`KeyName` (**Opcional**, `String`)**  
La clave del bucket. El valor predeterminado es `*`.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`EnableWriteAccess` (**Opcional**, `Boolean`)**  
Indica si se ha habitado el acceso a la escritura en el bucket.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalIamPolicies`(**Opcional**)**  
Especifica una lista separada de nombres de recursos de Amazon (ARN) de políticas de IAM para Amazon EC2. Esta lista se adjunta a la función raíz utilizada para la Slurm cola, además de los permisos que requiere. AWS ParallelCluster  
El nombre de una política de IAM y su ARN son diferentes. Los nombres no se pueden usar.  
Si se especifica, no se puede especificar la configuración de `InstanceRole` y `InstanceProfile`.  
Le recomendamos que use las `AdditionalIamPolicies` porque se añaden `AdditionalIamPolicies` a los permisos que requiere AWS ParallelCluster y el `InstanceRole` debe incluir todos los permisos necesarios. Los permisos necesarios a menudo cambian de versión a versión a medida que se añaden características.  
No hay valor predeterminado.  

```
AdditionalIamPolicies:
  - Policy: string
```
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`Policy` (**Requerido**, `[String]`)**  
Lista de políticas de IAM.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmSettings`
<a name="Scheduling-v3-SlurmSettings"></a>

**(Opcional)** Define la configuración d eSlurm que se aplica a todo el clúster.

```
SlurmSettings:
  ScaledownIdletime: integer
  QueueUpdateStrategy: string
  EnableMemoryBasedScheduling: boolean
  CustomSlurmSettings: [dict] 
  CustomSlurmSettingsIncludeFile: string
  Database:
    Uri: string
    UserName: string
    PasswordSecretArn: string
  ExternalSlurmdbd:
    Host: string
    Port: integer
  Dns:
    DisableManagedDns: boolean
    HostedZoneId: string
    UseEc2Hostnames: boolean
```

### Propiedades de `SlurmSettings`
<a name="Scheduling-v3-SlurmSettings.properties"></a>

**`ScaledownIdletime` (**Opcional**, `Integer`)**  
Define el tiempo (en minutos) durante el cual no hay trabajo y el nodo de Slurm finaliza.  
El valor predeterminado es `10`.  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MungeKeySecretArn` (**Opcional**, `String`)**  
 El nombre de recurso de Amazon (ARN) del secreto de AWS Secrets Manager en texto simple que contiene la clave munge codificada en base64 que se utilizará en el clúster. Slurm Esta clave munge se utilizará para autenticar las llamadas RPC entre los comandos del cliente de Slurm y los daemons de Slurm que actúan como servidores remotos. Si no MungeKeySecretArn se proporciona, AWS ParallelCluster generará una clave munge aleatoria para el clúster.  
`MungeKeySecretArn` es compatible a partir de la versión 3.8.0 de AWS ParallelCluster .
Si MungeKeySecretArn se acaba de añadir a un clúster existente, no ParallelCluster restaurará la clave munge anterior en caso de una reversión o cuando la elimine más tarde. MungeKeySecretArn En su lugar, se generará una nueva clave de munge aleatoria.
Si el AWS ParallelCluster usuario tiene el permiso para utilizar [ DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html)ese recurso secreto específico, MungeKeySecretArn se valida. MungeKeySecretArn es válido si:  
+ El secreto especificado existe y
+ El secreto tiene un formato de texto plano y contiene una cadena válida codificada en base64, y
+ La clave munge binaria decodificada tiene un tamaño de entre 256 y 8192 bits.
Si la política de IAM del usuario de pcluster no la incluye DescribeSecret, no MungeKeySecretArn se valida y se muestra un mensaje de advertencia. Para obtener más información, consulte [Política de usuario básica `pcluster` de AWS ParallelCluster](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Al realizar la actualización MungeKeySecretArn, se deben detener la flota informática y todos los nodos de inicio de sesión.  
Si el valor secreto del ARN secreto se modifica aunque el ARN siga siendo el mismo, el clúster no se actualizará automáticamente con la nueva clave munge. Para poder utilizar la nueva clave munge del ARN secreto, debe detener la flota de computación y los nodos de inicio de sesión y, luego, ejecutar el siguiente comando desde el nodo principal.  
`sudo /opt/parallelcluster/scripts/slurm/update_munge_key.sh`  
Después de ejecutar el comando, puede reanudar tanto la flota de procesamiento como los nodos de inicio de sesión: los nodos de procesamiento e inicio de sesión recién aprovisionados comenzarán a usar automáticamente la nueva clave de munge.  
Para generar una clave munge personalizada y codificada en base64, puede usar la [utilidad mungekey](https://github.com/dun/munge/wiki/Man-8-mungekey) que se distribuye con el software munge y, a continuación, codificarla con la utilidad base64 que suele estar disponible en el sistema operativo. De forma alternativa, puede utilizar bash (establezca el parámetro bs entre 32 y 1024)  
`dd if=/dev/random bs=128 count=1 2>/dev/null | base64 -w 0`  
o Python de la siguiente manera:  

```
import random
import os
import base64

# key length in bytes
key_length=128

base64.b64encode(os.urandom(key_length)).decode("utf-8")
```
[Política de actualización: la flota de cómputo y los nodos de inicio de sesión deben estar parados para poder cambiar esta configuración y actualizarse.](using-pcluster-update-cluster-v3.md)

**`QueueUpdateStrategy` (**Opcional**, `String`)**  
Especifica la estrategia de reemplazo de los parámetros de la sección de [`SlurmQueues`](#Scheduling-v3-SlurmQueues) que tienen la siguiente política de actualización:  
[Política de actualización: debe haberse detenido la flota de computación o configurado `QueueUpdateStrategy` para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
El valor `QueueUpdateStrategy` solo se usa cuando se inicia un proceso de actualización del clúster.  
Valores válidos: `COMPUTE_FLEET_STOP` \$1 `DRAIN` \$1 `TERMINATE`  
Valor predeterminado: `COMPUTE_FLEET_STOP`    
**`DRAIN`**  
Los nodos de las colas con valores de parámetros cambiados se establecen en `DRAINING`. Los nodos en este estado no aceptan nuevos trabajos y los trabajos en ejecución continúan completándose.  
Cuando un nodo se convierte en `idle` (`DRAINED`), se reemplaza un nodo si es estático y se termina si es dinámico. Los demás nodos de otras colas sin cambios en los valores de los parámetros no se ven afectados.  
El tiempo que necesita esta estrategia para reemplazar todos los nodos de cola por valores de parámetros modificados depende de la carga de trabajo en ejecución.  
**`COMPUTE_FLEET_STOP`**  
El valor predeterminado del parámetro es . Con esta configuración, la actualización de los parámetros de la [`SlurmQueues`](#Scheduling-v3-SlurmQueues) sección requiere que [detengas la flota de cómputo](pcluster.update-compute-fleet-v3.md) antes de realizar una actualización del clúster:  

```
$ pcluster update-compute-fleet --status STOP_REQUESTED
```  
**`TERMINATE`**  
En las colas con valores de parámetros modificados, los trabajos en ejecución finalizan y los nodos se apagan inmediatamente.  
Los nodos estáticos se sustituyen y los nodos dinámicos se terminan.  
Los demás nodos de otras colas sin cambios en los valores de los parámetros no se ven afectados.
[Política de actualización: esta configuración no se analiza durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)  
`QueueUpdateStrategy` es compatible a partir de AWS ParallelCluster versión 3.2.0.

**`EnableMemoryBasedScheduling` (**Opcional**, `Boolean`)**  
Si se establece en `true`, la programación basada en memoria está habilitada en Slurm. Para obtener más información, consulte [`SlurmQueues`](#Scheduling-v3-SlurmQueues). [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) [`SchedulableMemory`](#yaml-Scheduling-SlurmQueues-ComputeResources-SchedulableMemory).  
El valor predeterminado es `false`.  
La activación de la programación basada en memoria afecta a la forma en que el programador de Slurm gestiona las tareas y la asignación de nodos.  
Para obtener más información, consulte [Slurm programación basada en memoria](slurm-mem-based-scheduling-v3.md).
`EnableMemoryBasedScheduling` es compatible a partir de AWS ParallelCluster versión 3.2.0.
A partir de AWS ParallelCluster la versión 3.7.0, se `EnableMemoryBasedScheduling` puede habilitar si configuras varios tipos de [instancias en Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).  
Para AWS ParallelCluster las versiones 3.2.0 a 3.6. *x*, no se `EnableMemoryBasedScheduling` puede habilitar si configuras varios tipos de [instancias en Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`CustomSlurmSettings` (**Opcional**, `[Dict]`)**  
Define la configuración de Slurm personalizada que se aplica a todo el clúster.  
Especifica una lista de diccionarios de configuración de Slurm de pares clave-valor que se añadirán al final del archivo `slurm.conf` que AWS ParallelCluster genera.  
Cada diccionario de la lista aparece como una línea independiente que se agrega al archivo de configuración de Slurm. Puede especificar parámetros simples o complejos.  
Los parámetros simples se componen de un único key pair, tal y como se muestra en los siguientes ejemplos:  

```
 - Param1: 100
 - Param2: "SubParam1,SubParam2=SubValue2"
```
Ejemplo renderizado en la configuración de Slurm:  

```
Param1=100
Param2=SubParam1,SubParam2=SubValue2
```
Los parámetros de configuración de Slurm complejos constan de varios pares clave-valor separados por espacios, como se muestra en los siguientes ejemplos:  

```
 - NodeName: test-nodes[1-10]
   CPUs: 4
   RealMemory: 4196
   ... # other node settings
 - NodeSet: test-nodeset
   Nodes: test-nodes[1-10]
   ... # other nodeset settings
 - PartitionName: test-partition
   Nodes: test-nodeset
   ... # other partition settings
```
Ejemplo, renderizado en la configuración de Slurm:  

```
NodeName=test-nodes[1-10] CPUs=4 RealMemory=4196 ... # other node settings
NodeSet=test-nodeset Nodes=test-nodes[1-10] ... # other nodeset settings
PartitionName=test-partition Nodes=test-nodeset ... # other partition settings
```
Los nodos de Slurm personalizados no deben contener los patrones `-st-` ni `-dy-` en sus nombres. Estos patrones están reservados para los nodos administrados por AWS ParallelCluster.
Si especifica parámetros de configuración de Slurm personalizados en `CustomSlurmSettings`, no debe especificar parámetros de configuración de Slurm personalizados para `CustomSlurmSettingsIncludeFile`.  
Solo puede especificar los parámetros de configuración de Slurm que no estén incluidos en la lista de denegaciones de `CustomSlurmSettings`. Para obtener más información acerca de los parámetros de configuración de Slurm incluidos en la lista de denegaciones, consulte [Listado de denegaciones Slurm parámetros de configuración para `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3).  
AWS ParallelCluster solo comprueba si un parámetro está en una lista de denegaciones. AWS ParallelCluster no valida la sintaxis ni la semántica de los parámetros de Slurm configuración personalizados. Es su responsabilidad validar los parámetros de Slurm configuración personalizados. Los parámetros de configuración personalizados de Slurm no válidos pueden provocar errores en los daemons de Slurm y provocar errores en la creación y actualización del clúster.  
Para obtener más información sobre cómo especificar los parámetros Slurm de configuración personalizados con AWS ParallelCluster, consulte[Slurm personalización de la configuración](slurm-configuration-settings-v3.md).  
Para obtener más información sobre los parámetros de configuración de Slurm, consulte [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) en la documentación de Slurm.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings` es compatible a partir de AWS ParallelCluster versión 3.6.0.

**`CustomSlurmSettingsIncludeFile` (**Opcional**, `String`)**  
Define la configuración de Slurm personalizada que se aplica a todo el clúster.  
Especifica el archivo de Slurm personalizado compuesto por los parámetros de configuración de Slurm personalizados que se añadirán al final del archivo de `slurm.conf` que genera AWS ParallelCluster .  
Debe incluir la ruta al archivo. La ruta del archivo debe comenzar con `https://` o `s3://`.  
Si especifica parámetros de configuración de Slurm personalizados para `CustomSlurmSettingsIncludeFile`, no debe especificar parámetros de configuración de Slurm personalizados para `CustomSlurmSettings`.  
Los nodos de Slurm personalizados no deben contener los patrones `-st-` ni `-dy-` en sus nombres. Estos patrones están reservados para los nodos administrados por AWS ParallelCluster.
Solo puede especificar los parámetros de configuración de Slurm que no estén incluidos en la lista de denegaciones de `CustomSlurmSettingsIncludeFile`. Para obtener más información acerca de los parámetros de configuración de Slurm incluidos en la lista de denegaciones, consulte [Listado de denegaciones Slurm parámetros de configuración para `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3).  
AWS ParallelCluster comprueba únicamente si un parámetro está en una lista de denegaciones. AWS ParallelCluster no valida la sintaxis ni la semántica de los parámetros de Slurm configuración personalizados. Es su responsabilidad validar los parámetros de Slurm configuración personalizados. Los parámetros de configuración personalizados de Slurm no válidos pueden provocar errores en los daemons de Slurm y provocar errores en la creación y actualización del clúster.  
Para obtener más información sobre cómo especificar los parámetros Slurm de configuración personalizados con AWS ParallelCluster, consulte[Slurm personalización de la configuración](slurm-configuration-settings-v3.md).  
Para obtener más información sobre los parámetros de configuración de Slurm, consulte [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) en la documentación de Slurm.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings` es compatible a partir de AWS ParallelCluster versión 3.6.0.

### `Database`
<a name="Scheduling-v3-SlurmSettings-Database"></a>

**(Opcional)** Define la configuración para habilitar la contabilidad de Slurm en el clúster. Para obtener más información, consulte [Slurmcontabilidad con AWS ParallelCluster](slurm-accounting-v3.md).

```
Database:
   Uri: string
   UserName: string
   PasswordSecretArn: string
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### Propiedades de `Database`
<a name="Scheduling-v3-SlurmSettings-Database.properties"></a>

**`Uri` (**Requerido**, `String`)**  
La dirección del servidor de base de datos que se utiliza como servidor de contabilidad de Slurm. Este URI debe tener el mismo formato que `host:port` y no debe contener un esquema, como `mysql://`. El host puede ser una dirección IP o un nombre DNS que pueda resolver el nodo principal. Si no se proporciona un puerto, AWS ParallelCluster utiliza el puerto predeterminado 3306 de MySQL.  
AWS ParallelCluster inicia la base de datos de Slurm contabilidad al clúster y debe acceder a la base de datos.  
Se debe poder acceder a la base de datos antes de que ocurra lo siguiente:  
+ Se crea un clúster.
+ La contabilidad de Slurm se habilita con una actualización del clúster.
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`UserName` (**Requerido**, `String`)**  
La identidad que se Slurm utiliza para conectarse a la base de datos, escribir registros contables y realizar consultas. El usuario debe tener permisos de lectura y escritura en la base de datos.  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`PasswordSecretArn` (**Requerido**, `String`)**  
El nombre de recurso de Amazon (ARN) del AWS Secrets Manager secreto que contiene la contraseña en texto `UserName` simple. Esta contraseña se utiliza junto con la contabilidad de `UserName` y Slurm para autenticarse en el servidor de la base de datos.  
+ Cuando cree un secreto con la AWS Secrets Manager consola, asegúrese de seleccionar «Otro tipo de secreto», seleccionar texto sin formato e incluir solo el texto de la contraseña en el secreto.
+ No puede usar el carácter «\$1» en la contraseña de la base de datos, ya que Slurm no lo admite en slurmdbd.conf.
+ [Para obtener más información sobre cómo crear un secreto, consulta Crear un AWS Secrets Manager secreto. AWS Secrets Manager](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret)
Si el usuario tiene el permiso para [DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html), se valida `PasswordSecretArn`. `PasswordSecretArn` es válido si el secreto especificado existe. Si la política de IAM del usuario no la incluye `DescribeSecret`, `PasswordSecretArn` no está validada y aparece un mensaje de advertencia. Para obtener más información, consulte [Política de usuario básica `pcluster` de AWS ParallelCluster](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Al actualizar `PasswordSecretArn`, la flota de computación debe detenerse. Si el valor secreto cambia y el ARN secreto no cambia, el clúster no se actualiza automáticamente con la nueva contraseña de la base de datos. Para actualizar el clúster para el nuevo valor secreto, debe ejecutar el siguiente comando desde dentro del nodo principal después de detener la flota de computación.  

```
$ sudo /opt/parallelcluster/scripts/slurm/update_slurm_database_password.sh
```
Para evitar perder datos de contabilidad, le recomendamos que cambie únicamente la contraseña de la base de datos cuando la flota de computación esté detenida.
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`DatabaseName` (**Opcional**, `String`)**  
Nombre de la base de datos en el servidor de bases de datos (definido por el parámetro Uri) que se utilizará para la contabilidad de Slurm.  
El nombre de la base de datos puede contener letras en minúsculas, números y guiones bajos. No puede tener más de 64 caracteres.  
Este parámetro se asigna al parámetro `StorageLoc` de [slurmdbd.conf](https://slurm.schedmd.com/slurmdbd.conf.html#OPT_StorageLoc).  
Si no `DatabaseName` se proporciona, ParallelCluster utilizará el nombre del clúster para definir un valor`StorageLoc`.  
Se permite actualizar el `DatabaseName` teniendo en cuenta las siguientes consideraciones:  
+ Si aún DatabaseName no existe una base de datos con un nombre en el servidor de bases de datos, slurmdbd la creará. Será su responsabilidad volver a configurar la nueva base de datos según sea necesario (por ejemplo, añadiendo las entidades contables: clústeres, cuentas, usuarios, asociaciones QOSs, etc.).
+ Si DatabaseName ya existe una base de datos con un nombre en el servidor de bases de datos, slurmdbd la usará para la funcionalidad de contabilidad. Slurm
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**nota**  
`Database` se añade a partir de la versión 3.3.0.

### ExternalSlurmdbd
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd"></a>

**(Opcional)** Define la configuración para habilitar la contabilidad de Slurm con un servidor slurmdbd externo. [Para obtener más información, consulte Slurm contabilidad con. AWS ParallelCluster](slurm-accounting-v3.md)

```
ExternalSlurmdbd:
  Host: string
  Port: integer
```

#### Propiedades de `ExternalSlurmdbd`
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd.properties"></a>

** `Host` (**Requerido**, `String`)**  
La dirección del servidor slurmdbd externo para la contabilidad de Slurm. El host puede ser una dirección IP o un nombre DNS que pueda resolver el nodo principal.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

** `Port` (**Opcional**, `Integer`)**  
El puerto que escucha el servicio de slurmdbd. El valor predeterminado es `6819`.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Dns`
<a name="Scheduling-v3-SlurmSettings-Dns"></a>

**(Opcional)** Define la configuración d eSlurm que se aplica a todo el clúster.

```
Dns:
  DisableManagedDns: boolean
  HostedZoneId: string
  UseEc2Hostnames: boolean
```

#### Propiedades de `Dns`
<a name="Scheduling-v3-SlurmSettings-Dns.properties"></a>

**`DisableManagedDns` (**Opcional**, `Boolean`)**  
Si se establece en `true`, las entradas de DNS del clúster no se crean y los nombres de los nodos de Slurm no se pueden resolver.  
De forma predeterminada, AWS ParallelCluster crea una zona alojada de Route 53 en la que los nodos se registran cuando se lanzan. El valor predeterminado es `false`. Si `DisableManagedDns` se establece en`true`, la zona alojada no la creó AWS ParallelCluster.  
Para obtener información sobre cómo usar esta configuración para implementar clústeres en subredes sin acceso a Internet, consulte [AWS ParallelCluster en una sola subred sin acceso a Internet](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md).  
Se requiere un sistema de resolución de nombres para que el clúster funcione correctamente. Si `DisableManagedDns` está establecido en `true`, debe proporcionar un sistema de resolución de nombres. Para usar el DNS predeterminado de Amazon EC2, establezca `UseEc2Hostnames` en `true`. Como alternativa, configure su propia resolución de DNS y asegúrese de que los nombres de los nodos estén registrados cuando se lancen las instancias. Por ejemplo, puede hacerlo configurando [`CustomActions`](#Scheduling-v3-SlurmQueues-CustomActions)/[`OnNodeStart`](#yaml-Scheduling-SlurmQueues-CustomActions-OnNodeStart).
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`HostedZoneId` (**Opcional**, `String`)**  
Define un ID de zona alojada de Route 53 personalizado para usarlo en la resolución de nombres de DNS del clúster. Cuando se proporciona, AWS ParallelCluster registra los nodos del clúster en la zona alojada especificada y no crea una zona alojada administrada.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`UseEc2Hostnames` (**Opcional**, `Boolean`)**  
Si se establece en `true`, los nodos de cómputo del clúster están configurados con el nombre de host EC2 predeterminado. El `NodeHostName` de Slurm también se actualiza con esta información. El valor predeterminado es `false`.  
Para obtener información sobre cómo usar esta configuración para implementar clústeres en subredes sin acceso a Internet, consulte [AWS ParallelCluster en una sola subred sin acceso a Internet](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md).  
**Esta nota no es pertinente a partir de AWS ParallelCluster versión 3.3.0.**  
Para las versiones AWS ParallelCluster compatibles anteriores a la 3.3.0:  
Cuando `UseEc2Hostnames` se establece en`true`, el archivo de configuración de Slurm se establece con los AWS ParallelCluster `prolog` scripts y: `epilog`  
+ `prolog` se ejecuta para añadir información de los nodos a `/etc/hosts` sobre los nodos de computación cuando se asigna cada trabajo.
+ `epilog` se ejecuta para limpiar el contenido escrito por `prolog`.
Para añadir los scripts `prolog` o `epilog` personalizados, agréguelos a las carpetas `/opt/slurm/etc/pcluster/prolog.d/` o `/opt/slurm/etc/pcluster/epilog.d/`, respectivamente.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Sección de `SharedStorage`
<a name="SharedStorage-v3"></a>

**(Opcional)** La configuración de almacenamiento compartido del clúster.

AWS ParallelCluster [admite el uso de [Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AmazonEBS.html), [FSx para ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/what-is-fsx-ontap.html) y [FSx para los volúmenes de almacenamiento compartido OpenZFS](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/what-is-fsx.html), Amazon [EFS](https://docs.aws.amazon.com/efs/latest/ug/whatisefs.html) y [FSx para los sistemas de archivos de almacenamiento compartido Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html) o File Caches.](https://docs.aws.amazon.com/fsx/latest/FileCacheGuide/what-is.html)

En la sección de `SharedStorage`, puede definir el almacenamiento externo o administrado:
+ El **almacenamiento externo** se refiere a un volumen o sistema de archivos existente que usted administra. AWS ParallelCluster no lo crea ni lo elimina.
+ AWS ParallelCluster el **almacenamiento gestionado** se refiere a un volumen o sistema de archivos que AWS ParallelCluster creó y puede eliminar.

Para ver [las cuotas de almacenamiento compartido](shared-storage-quotas-v3.md) y obtener más información sobre cómo configurar el almacenamiento compartido, consulte [Almacenamiento compartido](shared-storage-quotas-integration-v3.md) *Uso AWS ParallelCluster*.

**nota**  
Si AWS Batch se usa como programador, FSx Lustre solo está disponible en el nodo principal del clúster.

```
SharedStorage:
  - MountDir: string
    Name: string
    StorageType: Ebs
    EbsSettings:
      VolumeType: string
      Iops: integer
      Size: integer
      Encrypted: boolean
      KmsKeyId: string
      SnapshotId: string
      Throughput: integer
      VolumeId: string
      DeletionPolicy: string
      Raid:
        Type: string
        NumberOfVolumes: integer
  - MountDir: string
    Name: string
    StorageType: Efs
    EfsSettings:
      Encrypted: boolean
      KmsKeyId: string
      EncryptionInTransit: boolean
      IamAuthorization: boolean
      PerformanceMode: string
      ThroughputMode: string
      ProvisionedThroughput: integer
      FileSystemId: string
      DeletionPolicy: string
      AccessPointId: string
  - MountDir: string
    Name: string
    StorageType: FsxLustre
    FsxLustreSettings:
      StorageCapacity: integer
      DeploymentType: string
      ImportedFileChunkSize: integer
      DataCompressionType: string
      ExportPath: string
      ImportPath: string
      WeeklyMaintenanceStartTime: string
      AutomaticBackupRetentionDays: integer
      CopyTagsToBackups: boolean
      DailyAutomaticBackupStartTime: string
      PerUnitStorageThroughput: integer
      BackupId: string
      KmsKeyId: string
      FileSystemId: string
      AutoImportPolicy: string
      DriveCacheType: string
      StorageType: string
      DeletionPolicy: string
      DataRepositoryAssociations:
      - Name: string
        BatchImportMetaDataOnCreate: boolean
        DataRepositoryPath: string
        FileSystemPath: string
        ImportedFileChunkSize: integer
        AutoExportPolicy: string
        AutoImportPolicy: string
  - MountDir: string
    Name: string
    StorageType: FsxOntap
    FsxOntapSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FsxOpenZfs
    FsxOpenZfsSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FileCache
    FileCacheSettings:
      FileCacheId: string
```

## Políticas de actualización de `SharedStorage`
<a name="SharedStorage-v3.update-policies"></a>
+ Para managed/external EBS, EFS gestionado y FSx Lustre gestionado, la política de actualización es [Política de actualización: para configurar esta lista de valores, debe detenerse la flota de computación o configurarse QueueUpdateStrategy para añadir un nuevo valor; la flota de computación debe detenerse al eliminar un valor existente.](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)
+ Para EFS, FSx Lustre, FSx ONTAP FSx OpenZfs y File Cache externos, la política de actualización es: [Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## Propiedades de `SharedStorage`
<a name="SharedStorage-v3.properties"></a>

`MountDir` (**Requerido**, `String`)  
La ruta en la que se monta el almacenamiento compartido.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Name` (**Requerido**, `String`)  
El nombre del almacenamiento compartido. Este nombre se utiliza al actualizar la configuración.  
Si especifica el almacenamiento compartido AWS ParallelCluster administrado y cambia el valor`Name`, el almacenamiento compartido administrado existente y los datos se eliminan y se crea un nuevo almacenamiento compartido administrado. Cambiar el valor de `Name` mediante una actualización de clúster equivale a sustituir el almacenamiento compartido administrado existente por uno nuevo. Asegúrese de hacer una copia de seguridad de los datos antes de realizar el cambio `Name` si necesita conservar los datos del almacenamiento compartido existente.
[Política de actualización: para configurar esta lista de valores, debe detenerse la flota de computación o configurarse QueueUpdateStrategy para añadir un nuevo valor; la flota de computación debe detenerse al eliminar un valor existente.](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)

`StorageType` (**Requerido**, `String`)  
El tipo de almacenamiento compartido. Los valores admitidos son `Ebs`, `Efs`, `FsxLustre`, `FsxOntap` y `FsxOpenZfs`.  
Para obtener más información, consulte [`FsxLustreSettings`](#SharedStorage-v3-FsxLustreSettings), [`FsxOntapSettings`](#SharedStorage-v3-FsxOntapSettings) y [`FsxOpenZfsSettings`](#SharedStorage-v3-FsxOpenZfsSettings).  
Si lo utilizas AWS Batch como programador, FSx for Lustre solo está disponible en el nodo principal del clúster.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EbsSettings`
<a name="SharedStorage-v3-EbsSettings"></a>

**(Opcional)** La configuración de un volumen de Amazon EBS.

```
EbsSettings:
  VolumeType: string
  Iops: integer
  Size: integer
  Encrypted: boolean
  KmsKeyId: string
  SnapshotId: string
  VolumeId: string
  Throughput: integer
  DeletionPolicy: string
  Raid:
    Type: string
    NumberOfVolumes: integer
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propiedades de `EbsSettings`
<a name="SharedStorage-v3-EbsSettings.properties"></a>

Cuando [DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy)se establece en`Delete`, un volumen gestionado, con sus datos, se elimina si se elimina el clúster o si se elimina el volumen con una actualización del clúster. 

Para obtener más información, consulte [Almacenamiento compartido](shared-storage-quotas-integration-v3.md) en *Uso de AWS ParallelCluster*.

`VolumeType` (**Opcional**, `String`)  
Especifica el tipo de [volumen de Amazon EBS.](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) Los valores admitidos son `gp2`, `gp3`, `io1`, `io2`, `sc1`, `st1` y `standard`. El valor predeterminado es `gp3`.  
Para obtener más información, consulte [Tipos de volúmenes de Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) en la *Guía del usuario de Amazon EC2*.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Iops` (**Opcional**, `Integer`)  
Define el número de IOPS para volúmenes de tipo `io1`, `io2` y `gp3`.  
El valor predeterminado, los valores admitidos y la proporción de datos `volume_iops` a `volume_size` varía entre `VolumeType` y `Size`.    
`VolumeType` = `io1`  
`Iops` predeterminado = 100  
Valores admitidos `Iops` = 100–64 000 †  
Relación máxima `volume_iops` a `volume_size` = 50 IOPS por cada GiB. 5000 IOPS requieren un `volume_size` de al menos 100 GiB.  
`VolumeType` = `io2`  
`Iops` predeterminado = 100  
Valores admitidos `Iops` = 100–64 000 (256 000 para los volúmenes de `io2` Block Express) †  
Relación máxima `Iops` a `Size` = 500 IOPS por cada GiB. 5000 IOPS requieren un `Size` de al menos 10 GiB.  
`VolumeType` = `gp3`  
`Iops` predeterminado = 3000  
Valores admitidos `Iops` = 3000–16 000  
Relación máxima `Iops` a `Size` = 500 IOPS por cada GiB. 5000 IOPS requieren un `Size` de al menos 10 GiB.
† Las IOPS máximas solo se garantizan en [las instancias creadas en el sistema Nitro](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) aprovisionadas con más de 32 000 IOPS. Otras instancias garantizan hasta 32,000 IOPS. Es posible que los volúmenes [ más antiguos no alcancen el rendimiento máximo a menos que ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html)modifique el volumen`io1`. `io2` Los volúmenes de Block Express admiten valores de `volume_iops` de hasta 256 000 en tipos de instancias `R5b`. Para obtener más información, consulte [Volúmenes `io2` Block Express](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) en la *Guía del usuario de Amazon EC2*.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Size` (**Opcional**, `Integer`)  
El tamaño de volumen, en gibibytes (GiB). El valor predeterminado es 35.   
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Encrypted` (**Opcional**, `Boolean`)  
Especifica si el volumen de está cifrado. El valor predeterminado es `true`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId` (**Opcional**, `String`)  
Especifica una AWS KMS clave personalizada que se utilizará para el cifrado. Esta configuración requiere que la configuración de `Encrypted` esté establecida en `true`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SnapshotId` (**Opcional**, `String`)  
(Opcional) Define el ID de instantánea de Amazon EBS si utiliza una instantánea como origen del volumen.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`VolumeId` (**Opcional**, `String`)  
Especifica el ID de volumen de Amazon EBS. Cuando se especifica para una instancia de `EbsSettings`, solo se puede especificar el parámetro `MountDir`.  
Debe crear el volumen en la misma zona de disponibilidad que la instancia.  
En la AWS ParallelCluster versión 3.4.0 se añaden varias zonas de disponibilidad.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Throughput` (**Opcional**, `Integer`)  
El rendimiento, MiB/s al aprovisionamiento de un volumen, con un máximo de 1000 MiB/s.  
Esta configuración solo es válida cuando `VolumeType` se establece en `gp3`. El rango admitido es de 125 a 1000, con un valor predeterminado de 125.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DeletionPolicy` (**Opcional**, `String`)  
Especifica si el volumen debe retenerse, eliminarse o tomarse una instantánea al eliminar el clúster o eliminar el volumen. Los valores admitidos son `Delete`, `Retain` y `Snapshot`. El valor predeterminado es `Delete`.  
Si se [DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy)establece en`Delete`, un volumen gestionado, con sus datos, se elimina si se elimina el clúster o si se elimina el volumen con una actualización del clúster.  
Para obtener más información, consulte [Almacenamiento compartido](shared-storage-quotas-integration-v3.md).  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`se admite a partir de la AWS ParallelCluster versión 3.2.0.

### `Raid`
<a name="SharedStorage-v3-EbsSettings-Raid"></a>

**(Opcional)** Define la configuración de un volumen RAID.

```
Raid:
  Type: string
  NumberOfVolumes: integer
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

#### Propiedades de `Raid`
<a name="SharedStorage-v3-EbsSettings-Raid.properties"></a>

`Type` (**Requerido**, `String`)  
Define el tipo de matriz RAID. Los valores admitidos son “0” (a rayas) y “1” (reflejado).  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`NumberOfVolumes` (**Opcional**, `Integer`)  
Define el número de volúmenes de Amazon EBS que se utilizarán para crear el arreglo de RAID. El rango de valores admitido es de 2 a 5. El valor predeterminado (cuando se define la configuración de `Raid`) es 2.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EfsSettings`
<a name="SharedStorage-v3-EfsSettings"></a>

**(Opcional)** La configuración de un sistema de archivos de Amazon EFS.

```
EfsSettings:
  Encrypted: boolean
  KmsKeyId: string
  EncryptionInTransit: boolean
  IamAuthorization: boolean
  PerformanceMode: string
  ThroughputMode: string
  ProvisionedThroughput: integer
  FileSystemId: string
  DeletionPolicy: string
  AccessPointId: string
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propiedades de `EfsSettings`
<a name="SharedStorage-v3-EfsSettings.properties"></a>

Si se [DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)establece en`Delete`, un sistema de archivos gestionado, con sus datos, se elimina si se elimina el clúster o si el sistema de archivos se elimina con una actualización del clúster.

Para obtener más información, consulte [Almacenamiento compartido](shared-storage-quotas-integration-v3.md) en *Uso de AWS ParallelCluster*.

`Encrypted` (**Opcional**, `Boolean`)  
Especifica si el sistema de archivos está cifrado. El valor predeterminado es `false`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId` (**Opcional**, `String`)  
Especifica una AWS KMS clave personalizada que se utilizará para el cifrado. Esta configuración requiere que la configuración de `Encrypted` esté establecida en `true`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EncryptionInTransit` (**Opcional**, `Boolean`)  
Si se establece en `true`, los sistemas de archivos de Amazon EFS se montan con seguridad de la capa de transporte (TLS). De forma predeterminada, se establece en `false`.  
Si AWS Batch se usa como programador, `EncryptionInTransit` no es compatible.
`EncryptionInTransit` se añade a partir de AWS ParallelCluster versión 3.4.0.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`IamAuthorization` (**Opcional**, `Boolean`)  
`IamAuthorization`se añade a partir de la AWS ParallelCluster versión 3.4.0.  
Si se establece en `true`, Amazon EFS se autentica mediante la identidad de IAM del sistema. De forma predeterminada, se establece en `false`.  
Si `IamAuthorization` se establece en `true`, `EncryptionInTransit` también se debe establecer en `true`.
Si AWS Batch se usa como programador, `IamAuthorization` no es compatible.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`PerformanceMode` (**Opcional**, `String`)  
El modo de rendimiento del sistema de archivos Amazon EFS de copia de seguridad Los valores admitidos son `generalPurpose` y `maxIO`. El valor predeterminado es `generalPurpose`. Para obtener más información, consulte [Performance modes](https://docs.aws.amazon.com/efs/latest/ug/performance.html#performancemodes) (Modos de rendimiento) en la *Guía del usuario de Amazon Elastic File System*.  
Recomendamos el modo de rendimiento `generalPurpose` para la mayoría de sistemas de archivos.  
Los sistemas de archivos que usan el modo de rendimiento de `maxIO` pueden escalar a mayores niveles de rendimiento de agregación y operaciones por segundo. Sin embargo, hay una compensación de latencias ligeramente más altas para la mayoría de las operaciones de archivos.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ThroughputMode` (**Opcional**, `String`)  
Especifica el modo de rendimiento del sistema de archivos de Amazon EFS. Los valores admitidos son `bursting` y `provisioned`. El valor predeterminado es `bursting`. Cuando se usa `provisioned`, se debe especificar `ProvisionedThroughput`.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ProvisionedThroughput`Obligatorio** cuando ** es .  
Define el rendimiento aprovisionado (en MiB/s) of the Amazon EFS file system, measured in MiB/s Esto corresponde al [ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps)parámetro de la *referencia de la API de Amazon EFS*.  
Si usa este parámetro, debe establecer `ThroughputMode` en `provisioned`.  
El rango admitido es de `1` a `1024`. Para solicitar un incremento del límite, póngase en contacto con Soporte.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`FileSystemId` (**Opcional**, `String`)  
(Opcional) Define el ID del sistema de archivos de Amazon EFS para un sistema de archivos ya existente.  
Si el clúster está configurado para abarcar varias zonas de disponibilidad, debe definir un objetivo de montaje del sistema de archivos en cada zona de disponibilidad que utilice el clúster.  
No se puede especificar cuando se especifica `MountDir`. No se puede especificar ninguna otra `EfsSettings`.  

**Si establece esta opción, lo siguiente debe ser verdadero para los sistemas de archivos que defina:**
+ Los sistemas de archivos cuentan con un destino de montaje ya existente en cada una de las zonas de disponibilidad del clúster, con tráfico NFS de entrada y salida permitido desde `HeadNode` y `ComputeNodes`. Se configuran varias zonas de disponibilidad en [Scheduling [SlurmQueues](Scheduling-v3.md#Scheduling-v3-SlurmQueues)](Scheduling-v3.md)//[Networking](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[SubnetIds](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).

  

**Para asegurarse de que se permite el tráfico entre el clúster y el sistema de archivos, puede hacer una de las siguientes acciones:**
  + Configure los grupos de seguridad del destino de montaje para permitir el tráfico hacia y desde el CIDR o la lista de prefijos de las subredes del clúster.
**nota**  
AWS ParallelCluster valida que los puertos estén abiertos y que el CIDR o la lista de prefijos estén configurados. AWS ParallelCluster no valida el contenido de la lista de bloques o prefijos del CIDR.
  + Configure grupos de seguridad personalizados para los nodos del clúster mediante [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) y [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Los grupos de seguridad personalizados deben configurarse para permitir el tráfico entre el clúster y el sistema de archivos.
**nota**  
Si todos los nodos del clúster utilizan grupos de seguridad personalizados, AWS ParallelCluster solo valida que los puertos estén abiertos. AWS ParallelCluster no valida que el origen y el destino estén configurados correctamente.
EFS solo OneZone se admite si todos los nodos de procesamiento y el nodo principal se encuentran en la misma zona de disponibilidad. EFS solo OneZone puede tener un objetivo de montaje.
En la AWS ParallelCluster versión 3.4.0 se añaden varias zonas de disponibilidad.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy` (**Opcional**, `String`)  
Especifica si el sistema de archivos debe retenerse o eliminarse al quitarlo del clúster o al eliminar el clúster. Los valores admitidos son `Delete` y `Retain`. El valor predeterminado es `Delete`.  
Cuando [DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)se establece en`Delete`, un sistema de archivos gestionado, con sus datos, se elimina si se elimina el clúster o si el sistema de archivos se elimina con una actualización del clúster.  
Para obtener más información, consulte [Almacenamiento compartido](shared-storage-quotas-integration-v3.md).  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`se admite a partir de la AWS ParallelCluster versión 3.3.0.

`AccessPointId` (**Opcional**, `String`)  
Si se especifica esta opción, se montará el punto de acceso al sistema de archivos definido por el `access point ID` en lugar de la raíz del sistema de archivos.  
Para obtener más información, consulte [Almacenamiento compartido](shared-storage-quotas-integration-v3.md).  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxLustreSettings`
<a name="SharedStorage-v3-FsxLustreSettings"></a>

**nota**  
Debe definir `FsxLustreSettings` si se especifica `FsxLustre` para [`StorageType`](#yaml-SharedStorage-StorageType).

**(Opcional)** La configuración de un sistema de archivos FSx compatible con Lustre.

```
FsxLustreSettings:
  StorageCapacity: integer
  DeploymentType: string
  ImportedFileChunkSize: integer
  DataCompressionType: string
  ExportPath: string
  ImportPath: string
  WeeklyMaintenanceStartTime: string
  AutomaticBackupRetentionDays: integer
  CopyTagsToBackups: boolean
  DailyAutomaticBackupStartTime: string
  PerUnitStorageThroughput: integer
  BackupId: string # BackupId cannot coexist with some of the fields
  KmsKeyId: string
  FileSystemId: string # FileSystemId cannot coexist with other fields
  AutoImportPolicy: string
  DriveCacheType: string
  StorageType: string
  DeletionPolicy: string
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**nota**  
Si AWS Batch se usa como planificador, FSx for Lustre solo está disponible en el nodo principal del clúster.

### Propiedades de `FsxLustreSettings`
<a name="SharedStorage-v3-FsxLustreSettings.properties"></a>

Si [DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)se establece en`Delete`, un sistema de archivos gestionado, con sus datos, se elimina si se elimina el clúster, o si el sistema de archivos se elimina con una actualización del clúster.

Para obtener más información, consulte [Almacenamiento compartido](shared-storage-quotas-integration-v3.md).

`StorageCapacity` (**Requerido**, `Integer`)  
Establece la capacidad de almacenamiento del sistema de archivos FSx para Lustre, en GiB. `StorageCapacity`es obligatorio si va a crear un nuevo sistema de archivos. No incluya `StorageCapacity` si se especifica `BackupId` o `FileSystemId`.  
+ Para los tipos de implementación `SCRATCH_2` y , los valores válidos son 1200 GiB, 2400 GiB e incrementos de 2400 GiB.
+ Para el tipo de implementación `SCRATCH_1`, los valores válidos son 1200 GiB, 2400 GiB e incrementos de 3600 GiB.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeploymentType` (**Opcional**, `String`)  
Especifica el tipo de implementación del sistema FSx de archivos de Lustre. Los valores admitidos son `SCRATCH_1`, `SCRATCH_2`, `PERSISTENT_1` y `PERSISTENT_2`. El valor predeterminado es `SCRATCH_2`.  
Elija tipos de implementación `SCRATCH_1` y `SCRATCH_2` cuando necesite almacenamiento temporal y procesamiento de datos a corto plazo. El tipo de implementación `SCRATCH_2` proporciona cifrado en tránsito de datos y mayor capacidad de rendimiento de ráfagas que `SCRATCH_1`.  
Elija el tipo de `PERSISTENT_1` implementación para un almacenamiento a largo plazo y para cargas de trabajo centradas en el rendimiento que no sean sensibles a la latencia. `PERSISTENT_1`admite el cifrado de los datos en tránsito. Está disponible en todos los Regiones de AWS lugares donde FSx esté disponible Lustre.  
Elija el tipo de implementación `PERSISTENT_2` para almacenamiento a largo plazo y cargas de trabajo sensibles a la latencia que requieren los niveles más altos de IOPs/rendimiento. `PERSISTENT_2` admite almacenamiento SSD y ofrece `PerUnitStorageThroughput` (hasta 1000 MB/s/Tib). `PERSISTENT_2` está disponible en un número limitado de Regiones de AWS. Para obtener más información sobre los tipos de implementación y la lista de Regiones de AWS ubicaciones `PERSISTENT_2` disponibles, consulte [Opciones de implementación del sistema de archivos FSx para Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html#lustre-deployment-types) en la Guía del *usuario de Amazon FSx for Lustre*.  
El cifrado de datos en tránsito se habilita automáticamente cuando accede a un sistema de archivos `SCRATCH_2` o `PERSISTENT_1` desde instancias de Amazon EC2 que `PERSISTENT_2`admiten esta característica.  
Se admite el cifrado de los datos en tránsito para los tipos de implementación `SCRATCH_2` y , y cuando se accede desde los tipos de instancia compatibles en las regiones de AWS compatibles. Para obtener más información, consulte [Cifrar datos en tránsito en](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html) la Guía del *usuario de Amazon FSx for Lustre*.  
La compatibilidad con este tipo de implementación de `PERSISTENT_2` se agregó con la versión 3.2.0 de AWS ParallelCluster .
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize` (**Opcional**, `Integer`)  
Para los archivos que se importan desde un repositorio de datos, este valor determina la cantidad de fragmentos y la cantidad máxima de datos por archivo (en MiB) que se almacenan en un único disco físico. El número máximo de discos en los que un único archivo se puede fraccionar está limitado por el número total de los discos que forman el sistema de archivos.  
El valor predeterminado de fragmento es 1024 MiB (1 GiB) y puede llegar hasta 512 000 MiB (500 GiB). Los objetos de Amazon S3 tienen un tamaño máximo de 5 TB.  
Este parámetro no es compatible con los sistemas de archivos que utilizan este tipo de `PERSISTENT_2` implementación. Para obtener instrucciones sobre cómo configurar las asociaciones de repositorios de datos, consulte Cómo [vincular el sistema de archivos a un bucket de S3](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) en la Guía del *usuario de Amazon FSx for Lustre*.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataCompressionType` (**Opcional**, `String`)  
Establece la configuración de compresión de datos FSx para el sistema de archivos de Lustre. El valor admitido es`LZ4`. `LZ4`indica que la compresión de datos está activada con el LZ4 algoritmo. Si no se especifica `DataCompressionType`, la compresión de datos se desactiva cuando se crea el sistema de archivos.  
Para obtener más información, consulte [Compresión de datos de Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html).  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ExportPath` (**Opcional**, `String`)  
La ruta en Amazon S3 a la que se exporta la raíz de su sistema de archivos FSx for Lustre. Este parámetro solo se admite cuando el parámetro se establece en . La ruta debe utilizar el mismo bucket de Amazon S3 tal y como se especifica en ImportPath. Puede proporcionar un prefijo opcional al que se exportarán los datos nuevos y modificados desde su sistema de archivos de FSx for Lustre. Si no se proporciona ningún `ExportPath` valor, FSx para Lustre establece una ruta de exportación predeterminada,. `s3://amzn-s3-demo-bucket/FSxLustre[creation-timestamp]` La marca temporal está en formato UTC. Por ejemplo `s3://amzn-s3-demo-bucket/FSxLustre20181105T222312Z`.  
El bucket de exportación de Amazon S3 debe ser el mismo que el bucket de importación que especifica `ImportPath`. Si solo especifica un nombre de bucket como, por ejemplo, `s3://amzn-s3-demo-bucket`, obtendrá una asignación de objetos del sistema de archivos 1:1 para los objetos del bucket de Amazon S3. Esta asignación significa que los datos de entrada en Amazon S3 se sobrescriben al exportarse. Si proporciona un prefijo personalizado en la ruta de exportación, por ejemplo`s3://amzn-s3-demo-bucket/[custom-optional-prefix]`, FSx para que Lustre exporte el contenido de su sistema de archivos a ese prefijo de exportación del bucket de Amazon S3.  
Este parámetro no es compatible con los sistemas de archivos que utilizan este tipo de `PERSISTENT_2` implementación. Configure las asociaciones de repositorios de datos como se describe en [Cómo vincular su sistema de archivos a un bucket de S3](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) en la Guía del *usuario de Amazon FSx for Lustre*.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportPath` (**Opcional**, `String`)  
La ruta al bucket de Amazon S3 (incluido el prefijo opcional) que está utilizando como repositorio de datos para su sistema de archivos FSx for Lustre. La raíz de su sistema de archivos FSx for Lustre se asignará a la raíz del bucket de Amazon S3 que seleccione. Un ejemplo es `s3://amzn-s3-demo-bucket/optional-prefix`. Si especifica un prefijo después del nombre del bucket de Amazon S3, solo se cargan en el sistema de archivos claves de objetos con ese prefijo.  
Este parámetro no es compatible con los sistemas de archivos que utilizan el tipo de `PERSISTENT_2` implementación. Configure las asociaciones de repositorios de datos como se describe en [Cómo vincular su sistema de archivos a un bucket de S3](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) en la Guía del *usuario de Amazon FSx for Lustre*.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`WeeklyMaintenanceStartTime` (**Opcional**, `String`)  
La hora de inicio preferida para realizar el mantenimiento semanal. Tiene el formato `"d:HH:MM"` en la zona horaria UTC\$10. Para este formato, `d` es el número del día de la semana del 1 al 7, empezando por el lunes y terminando con el domingo. Se requieren comillas para este campo.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutomaticBackupRetentionDays` (**Opcional**, `Integer`)  
El número de días que se conservan las copias de seguridad automáticas. Al establecer este valor en 0, se deshabilitan las copias de seguridad automáticas. El rango admitido es de 0 a 90. El valor predeterminado es 0. Solo es válido para su uso con tipos de implementación . Para obtener más información, consulte [Trabajar con copias de seguridad](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) en la *Guía del usuario de Amazon FSx for Lustre*.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`CopyTagsToBackups` (**Opcional**, `Boolean`)  
Si es `true` así, copie las etiquetas del sistema de archivos FSx de Lustre a las copias de seguridad. Este valor se establece de forma predeterminada en `false`. Si se establece en `true`, todas las etiquetas del sistema de archivos se copian a todas las copias de seguridad automáticas e iniciadas por el usuario cuando el usuario no especifica etiquetas. Si este valor es `true` y se especifican una o varias etiquetas, solo se copian las etiquetas especificadas en las copias de seguridad. Si especifica una o más etiquetas al crear una copia de seguridad iniciada por el usuario, no se copiará ninguna etiqueta del sistema de archivos, independientemente de este valor. Solo es válido para su uso con tipos de implementación .  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DailyAutomaticBackupStartTime` (**Opcional**, `String`)  
Un periodo de tiempo diario recurrente con el formato `HH:MM`. `HH` es la hora de relleno cero del día (0-23), y `MM` es el minuto de relleno cero de la hora. Por ejemplo, `05:00` especifica las 5 AM diarias. Solo es válido para su uso con tipos de implementación .  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`PerUnitStorageThroughput`(**Necesario para `PERSISTENT_1` los tipos de `PERSISTENT_2` implementación**,`Integer`)  
Describe el rendimiento de lectura y escritura por cada 1 tebibyte de almacenamiento, en MB/s/TiB. La capacidad de rendimiento del sistema de archivos se calcula multiplicando la capacidad de almacenamiento del sistema de archivos (TiB) por el rendimiento (o) del `PerUnitStorageThroughput` 120% del `PerUnitStorageThroughput` rendimiento MB/s/TiB). For a 2.4 TiB ﬁle system, provisioning 50 MB/s/TiB del sistema de archivos. MB/s Usted paga la cantidad de rendimiento aprovisionada. [PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput)Esto corresponde a la propiedad.  
Valores válidos:  
+ Almacenamiento SSD PERSISTENT\$11: 50, 100, 200 MB/TiB.
+ Almacenamiento HDD PERSISTENT\$11: 12, 40 MB/TiB.
+ Almacenamiento SSD PERSISTENT\$12: 125, 250, 1000 MB/TiB.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BackupId` (**Opcional**, `String`)  
Especifica el ID de la copia de seguridad que se utilizará para restaurar el FSx sistema de archivos de Lustre a partir de una copia de seguridad existente. Cuando se especifica el ajuste `BackupId`, no se deben especificar los ajustes `AutoImportPolicy`, `DeploymentType`, `ExportPath`, `KmsKeyId`, `ImportPath`, `ImportedFileChunkSize`, `StorageCapacity` y `PerUnitStorageThroughput`. Estos ajustes se leen de la copia de seguridad. Además, no se deben especificar los ajustes `AutoImportPolicy`, `ExportPath`, `ImportPath` ni `ImportedFileChunkSize`. Esto corresponde a la [BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid)propiedad.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId` (**Opcional**, `String`)  
El ID de la clave AWS Key Management Service (AWS KMS) que se utiliza para cifrar los datos del sistema de archivos de Lustre FSx para los sistemas de archivos persistentes FSx de Lustre en reposo. Si no se especifica, se utiliza la clave FSx gestionada de Lustre. Los sistemas de archivos `SCRATCH_1` y `SCRATCH_2` FSx para Lustre siempre se cifran en reposo mediante las claves gestionadas FSx por Lustre. Para obtener más información consulte en la Referencia de la API de .  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemId` (**Opcional**, `String`)  
Especifica el ID de un sistema de archivos existente FSx para Lustre.  
Si se especifica esta opción, solo se utilizan los ajustes `MountDir` y `FileSystemId` en la `FsxLustreSettings`. Se ignoran todos los demás ajustes de `FsxLustreSettings`.  
Si se utiliza el AWS Batch programador, FSx Lustre solo está disponible en el nodo principal.
Si se usa un sistema de archivos ya existente, debe asociarse a un grupo de seguridad que permita el tráfico TCP de entrada y salida desde a través del puerto .
Asegúrese de que se permite el tráfico entre el clúster y el sistema de archivos de la siguiente manera:  
+ Configure los grupos de seguridad del sistema de archivos para permitir el tráfico hacia y desde el CIDR o la lista de prefijos de las subredes del clúster.
**nota**  
AWS ParallelCluster valida que los puertos estén abiertos y que el CIDR o la lista de prefijos estén configurados. AWS ParallelCluster no valida el contenido de la lista de bloques o prefijos del CIDR.
+ Configure grupos de seguridad personalizados para los nodos del clúster mediante [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) y [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Los grupos de seguridad personalizados deben configurarse para permitir el tráfico entre el clúster y el sistema de archivos.
**nota**  
Si todos los nodos del clúster utilizan grupos de seguridad personalizados, AWS ParallelCluster solo valida que los puertos estén abiertos. AWS ParallelCluster no valida que el origen y el destino estén configurados correctamente.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AutoImportPolicy` (**Opcional**, `String`)  
Al crear su sistema de archivos FSx para Lustre, los objetos de Amazon S3 existentes aparecen como listados de archivos y directorios. Utilice esta propiedad FSx para elegir cómo Lustre mantiene sus listados de archivos y directorios actualizados a medida que agrega o modifica objetos en su bucket de Amazon S3 vinculado. `AutoImportPolicy`puede tener los siguientes valores:  
+  `NEW`- La importación automática está activada. FSx for Lustre importa automáticamente las listas de directorios de cualquier objeto nuevo añadido al bucket de Amazon S3 vinculado que no exista actualmente en el sistema de archivos de FSx for Lustre. 
+  `NEW_CHANGED`- La importación automática está activada. FSx for Lustre importa automáticamente las listas de archivos y directorios de cualquier objeto nuevo que se añada al bucket de Amazon S3 y de cualquier objeto existente que se modifique en el bucket de Amazon S3 tras seleccionar esta opción. 
+  `NEW_CHANGED_DELETED`- La importación automática está activada. FSx for Lustre importa automáticamente las listas de archivos y directorios de cualquier objeto nuevo que se añada al bucket de Amazon S3, cualquier objeto existente que se modifique en el bucket de Amazon S3 y cualquier objeto que se haya eliminado en el bucket de Amazon S3 tras seleccionar esta opción.
**nota**  
Se ha agregado compatibilidad para `NEW_CHANGED_DELETED` en la versión 3.1.1 de AWS ParallelCluster .
Si `AutoImportPolicy` no se especifica, la importación automática está desactivada. FSx for Lustre solo actualiza los listados de archivos y directorios del bucket de Amazon S3 vinculado cuando se crea el sistema de archivos. FSx for Lustre no actualiza las listas de archivos y directorios de ningún objeto nuevo o modificado después de seleccionar esta opción.  
Para obtener más información, consulte [Importación automática de actualizaciones desde su bucket de S3](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html) en la *Guía del usuario de Amazon FSx for Lustre*.  
Este parámetro no se admite en sistemas de archivos que utilizan el tipo de implementación `PERSISTENT_2`. Para obtener instrucciones sobre cómo configurar las asociaciones de repositorios de datos, consulte Cómo [vincular el sistema de archivos a un bucket de S3](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) en la Guía del *usuario de Amazon FSx for Lustre*.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DriveCacheType` (**Opcional**, `String`)  
Especifica que el sistema de archivos tiene una memoria caché de unidad SSD. Esto solo se puede configurar si la configuración de `StorageType` está establecida en `HDD` y la configuración de `DeploymentType` está establecida en `PERSISTENT_1`. Esto corresponde a la [DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype)propiedad. Para obtener más información, consulte FSx las [opciones de implementación de Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) en la Guía del *usuario de Amazon FSx for Lustre*.  
El único valor válido es `READ`. Para deshabilitar la memoria caché de la unidad SSD, no especifique la configuración de `DriveCacheType`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`StorageType` (**Opcional**, `String`)  
Establece el tipo de almacenamiento del sistema de archivos FSx para Lustre que está creando. Los valores válidos son `SSD` y `HDD`.  
+ Establezca en `SSD` para utilizar el almacenamiento de unidades de estado sólido.
+ Elija `HDD` para utilizar el almacenamiento de la unidad de disco duro. `HDD` es compatible con los tipos de implementación de `PERSISTENT`. 
El valor predeterminado es `SSD`. Para obtener más información, consulte [Opciones de tipo de almacenamiento](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/optimize-fsx-costs.html#storage-type-options) en la *Guía del usuario de Amazon FSx para Windows* y [Múltiples opciones de almacenamiento](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html#storage-options) en la *Guía del usuario de Amazon FSx for Lustre*.   
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy` (**Opcional**, `String`)  
Especifica si el sistema de archivos debe retenerse o eliminarse al quitarlo del clúster o al eliminar el clúster. Los valores admitidos son `Delete` y `Retain`. El valor predeterminado es `Delete`.  
Si [DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)se establece en`Delete`, un sistema de archivos gestionado, con sus datos, se elimina si se elimina el clúster o si el sistema de archivos se elimina con una actualización del clúster.  
Para obtener más información, consulte [Almacenamiento compartido](shared-storage-quotas-integration-v3.md).  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`se admite a partir de la AWS ParallelCluster versión 3.3.0.

`DataRepositoryAssociations` (**Opcional**, `String`)  
Lista de DRAs (hasta 8 por sistema de archivos)  
Cada asociación de repositorios de datos debe tener un directorio único del sistema de FSx archivos de Amazon y un bucket o prefijo S3 único asociado a ella.  
No se puede usar [ExportPath](#yaml-SharedStorage-FsxLustreSettings-ExportPath)y [ImportPath](#yaml-SharedStorage-FsxLustreSettings-ImportPath) FsxLustreSettings al mismo tiempo que se usa DRAs.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Name` (**Requerido**, `String`)  
El nombre de la DRA. Este nombre se utiliza al actualizar la configuración.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BatchImportMetaDataOnCreate` (**Opcional**, `Boolean`)  
Un indicador booleano que indica si una tarea de importación de repositorios de datos que va a importar metadatos debe ejecutarse después de crear la asociación de repositorios de datos. La tarea se ejecuta si este indicador está establecido en `true`.  
Valor predeterminado: `false`  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataRepositoryPath` (**Requerido**, `String`)  
La ruta al repositorio de datos de Amazon S3 que se vinculará al sistema de archivos. La ruta puede ser un bucket de S3 o un prefijo con el formato `s3://amzn-s3-demo-bucket/myPrefix/`. Esta ruta especifica la parte del repositorio de datos de S3 desde donde se importarán o exportarán los archivos.  
No se puede superponer con otros DRAs  
Patrón: `^[^\u0000\u0085\u2028\u2029\r\n]{3,4357}$`  
Mínimo: `3`  
Máximo: `4357`  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemPath` (**Requerido**, `String`)  
Una ruta del sistema de archivos Amazon FSx for Lustre que apunta a un directorio o subdirectorio de alto nivel (por ejemplo`/ns1/`) con el que se mapeará uno a uno. `/ns1/subdir/` `DataRepositoryPath` Se requiere la barra diagonal que aparece al principio del nombre. Dos asociaciones de repositorios de datos no pueden tener rutas de sistema de archivos superpuestas. Por ejemplo, si un repositorio de datos está asociado a la ruta del sistema de archivos `/ns1/`, no se puede vincular otro repositorio de datos con la ruta del sistema de archivos `/ns1/ns2`.  
Esta ruta especifica desde qué parte del sistema de archivos se exportarán o importarán los archivos. Este directorio del sistema de archivos solo se puede vincular a un bucket de Amazon S3; no se puede vincular ningún otro bucket de S3 al directorio.  
No se puede superponer con otros DRAs  
 Si especifica solo una barra diagonal (`/`) como ruta del sistema de archivos, a este solo se puede vincular un repositorio de datos. Solo puede especificar "`/`" como la ruta del sistema de archivos del primer repositorio de datos asociado a un sistema de archivos. 
Patrón: `^[^\u0000\u0085\u2028\u2029\r\n]{1,4096}$`  
Mínimo: `1`  
Máximo: `4096`  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize` (**Opcional**, `Integer`)  
Para los archivos que se importan desde un repositorio de datos, este valor determina la cantidad de fragmentos y la cantidad máxima de datos por archivo (en MiB) que se almacenan en un único disco físico. El número máximo de discos en los que un único archivo se puede fraccionar está limitado por el número total de los discos que forman la memoria caché o el sistema de archivos.  
El valor predeterminado de fragmento es 1024 MiB (1 GiB) y puede llegar hasta 512 000 MiB (500 GiB). Los objetos de Amazon S3 tienen un tamaño máximo de 5 TB.  
Mínimo: `1`  
Máximo: `4096`  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoExportPolicy` (**Opcional**, `Array of strings`)  
La lista puede contener uno o más de los siguientes valores:  
+ `NEW`: los nuevos archivos y directorios se exportan automáticamente al repositorio de datos a medida que se añaden al sistema de archivos.
+ `CHANGED`: los cambios en los archivos y directorios del sistema de archivos se exportan automáticamente al repositorio de datos.
+ `DELETED`: los archivos y directorios se eliminan automáticamente del repositorio de datos cuando se eliminan del sistema de archivos.
Puede definir cualquier combinación de tipos de eventos para `AutoExportPolicy`.  
Máximo: `3`  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoImportPolicy` (**Opcional**, `Array of strings`)  
La lista puede contener uno o más de los siguientes valores:  
+ `NEW`- Amazon importa FSx automáticamente los metadatos de los archivos añadidos al depósito de S3 vinculado que no existen actualmente en el sistema de FSx archivos.
+ `CHANGED`- Amazon actualiza FSx automáticamente los metadatos de los archivos e invalida el contenido de los archivos existentes en el sistema de archivos a medida que los archivos cambian en el repositorio de datos.
+ `DELETED`- Amazon elimina FSx automáticamente los archivos del sistema de archivos a medida que los archivos correspondientes se eliminan del repositorio de datos.
Puede definir cualquier combinación de tipos de eventos para `AutoImportPolicy`.  
Máximo: `3`  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `FsxOntapSettings`
<a name="SharedStorage-v3-FsxOntapSettings"></a>

**nota**  
Debe definir `FsxOntapSettings` si se especifica `FsxOntap` para [`StorageType`](#yaml-SharedStorage-StorageType).

**(Opcional)** La configuración de un sistema de archivos FSx para ONTAP.

```
FsxOntapSettings:
  VolumeId: string
```

### Propiedades de `FsxOntapSettings`
<a name="SharedStorage-v3-FsxOntapSettings.properties"></a>

`VolumeId` (**Requerido**, `String`)  
Especifica el ID de volumen del sistema ONTAP existente FSx .

**nota**  
Si se utiliza un AWS Batch programador, FSx ONTAP solo está disponible en el nodo principal.
Si el tipo FSx de despliegue de ONTAP es`Multi-AZ`, asegúrese de que la tabla de enrutamiento de la subred del nodo principal esté configurada correctamente.
El soporte FSx para ONTAP se agregó en la AWS ParallelCluster versión 3.2.0.
Si se usa un sistema de archivos ya existente, debe asociarse a un grupo de seguridad que permita el tráfico TCP de entrada y salida desde a través del puerto .

Asegúrese de que se permite el tráfico entre el clúster y el sistema de archivos mediante una de las siguientes acciones:
+ Configure los grupos de seguridad del sistema de archivos para permitir el tráfico hacia y desde el CIDR o la lista de prefijos de las subredes del clúster.
**nota**  
AWS ParallelCluster valida que los puertos estén abiertos y que el CIDR o la lista de prefijos estén configurados. AWS ParallelCluster no valida el contenido de la lista de bloques o prefijos del CIDR.
+ Configure grupos de seguridad personalizados para los nodos del clúster mediante [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) y [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Los grupos de seguridad personalizados deben configurarse para permitir el tráfico entre el clúster y el sistema de archivos.
**nota**  
Si todos los nodos del clúster utilizan grupos de seguridad personalizados, AWS ParallelCluster solo valida que los puertos estén abiertos. AWS ParallelCluster no valida que el origen y el destino estén configurados correctamente.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxOpenZfsSettings`
<a name="SharedStorage-v3-FsxOpenZfsSettings"></a>

**nota**  
Debe definir `FsxOpenZfsSettings` si se especifica `FsxOpenZfs` para [`StorageType`](#yaml-SharedStorage-StorageType).

**(Opcional)** La configuración de un sistema de archivos FSx para OpenZFS.

```
FsxOpenZfsSettings:
  VolumeId: string
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propiedades de `FsxOpenZfsSettings`
<a name="SharedStorage-v3-FsxOpenZfsSettings.properties"></a>

`VolumeId` (**Requerido**, `String`)  
Especifica el ID de volumen del sistema FSx OpenZFS existente.

**nota**  
Si se utiliza un AWS Batch programador, FSx OpenZFS solo está disponible en el nodo principal.
El soporte FSx para OpenZFS se agregó en la AWS ParallelCluster versión 3.2.0.
Si se usa un sistema de archivos ya existente, debe asociarse a un grupo de seguridad que permita el tráfico TCP de entrada y salida desde a través del puerto .

Asegúrese de que se permite el tráfico entre el clúster y el sistema de archivos de la siguiente manera:
+ Configure los grupos de seguridad del sistema de archivos para permitir el tráfico hacia y desde el CIDR o la lista de prefijos de las subredes del clúster.
**nota**  
AWS ParallelCluster valida que los puertos estén abiertos y que el CIDR o la lista de prefijos estén configurados. AWS ParallelCluster no valida el contenido de la lista de bloques o prefijos del CIDR.
+ Configure grupos de seguridad personalizados para los nodos del clúster mediante [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) y [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Los grupos de seguridad personalizados deben configurarse para permitir el tráfico entre el clúster y el sistema de archivos.
**nota**  
Si todos los nodos del clúster utilizan grupos de seguridad personalizados, AWS ParallelCluster solo valida que los puertos estén abiertos. AWS ParallelCluster no valida que el origen y el destino estén configurados correctamente.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FileCacheSettings`
<a name="SharedStorage-v3-FsxFileCacheSettings"></a>

**nota**  
Debe definir `FileCacheSettings` si se especifica `FileCache` para [`StorageType`](#yaml-SharedStorage-StorageType).

**(Opcional)** La configuración de una caché de archivos.

```
FileCacheSettings:
  FileCacheId: string
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propiedades de `FileCacheSettings`
<a name="SharedStorage-v3-FsxFileCacheSettings.properties"></a>

`FileCacheId` (**Requerido**, `String`)  
Especifica el ID de caché de archivos de una caché de archivos existente.

**nota**  
La caché de archivos no admite AWS Batch programadores.
Support for File Cache se añade en la AWS ParallelCluster versión 3.7.0.
Si se usa un sistema de archivos ya existente, debe asociarse a un grupo de seguridad que permita el tráfico TCP de entrada y salida desde a través del puerto .

Asegúrese de que se permite el tráfico entre el clúster y el sistema de archivos de la siguiente manera:
+ Configure los grupos de seguridad de la caché de archivos para permitir el tráfico hacia y desde el CIDR o la lista de prefijos de las subredes del clúster.
**nota**  
AWS ParallelCluster valida que los puertos estén abiertos y que el CIDR o la lista de prefijos estén configurados. AWS ParallelCluster no valida el contenido de la lista de bloques o prefijos del CIDR.
+ Configure grupos de seguridad personalizados para los nodos del clúster mediante [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) y [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Los grupos de seguridad personalizados deben configurarse para permitir el tráfico entre el clúster y el sistema de archivos.
**nota**  
Si todos los nodos del clúster utilizan grupos de seguridad personalizados, AWS ParallelCluster solo valida que los puertos estén abiertos. AWS ParallelCluster no valida que el origen y el destino estén configurados correctamente.

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Sección de `Iam`
<a name="Iam-v3"></a>

**(Opcional)** Especifica las propiedades de IAM del clúster.

```
Iam:
  Roles:
    LambdaFunctionsRole: string
  PermissionsBoundary: string
  ResourcePrefix: string
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## Propiedades de `Iam`
<a name="Iam-v3.properties"></a>

`PermissionsBoundary` (**Opcional**, `String`)  
El ARN de la política de IAM que se utilizará como límite de permisos que se aplica a todos los roles de IAM creados por AWS ParallelCluster. Para obtener más información, consulte [Límites de permisos para las entidades de IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_boundaries.html) en la *Guía del usuario de IAM*. El formato es `arn:${Partition}:iam::${Account}:policy/${PolicyName}`.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Roles`(**Opcional)**  
Especifica la configuración de los roles de IAM utilizados por el clúster.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`LambdaFunctionsRole` (**Opcional**, `String`)  
El ARN del rol de IAM que se va a utilizar. AWS Lambda Esto anula la función predeterminada asociada a todas las funciones de Lambda que AWS CloudFormation respaldan los recursos personalizados. Lambda debe configurarse como entidad principal a la que se le permite asumir el rol. Esto no anulará la función de las funciones Lambda utilizadas para. AWS Batch El formato es `arn:${Partition}:iam::${Account}:role/${RoleName}`.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ResourcePrefix`**(Opcional)**  
Especifica una ruta o un prefijo de nombre para los recursos de IAM creados por. AWS ParallelCluster  
El prefijo del recurso debe seguir las [reglas de nomenclatura especificadas](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html) por IAM:  
+ Cada nombre puede contener hasta 128 caracteres.
+ Un nombre solo puede ser una cadena sin caracteres de barra diagonal (`/`).
+ El nombre puede tener hasta 63 caracteres.
+ Una ruta debe empezar y terminar con una barra inclinada (`/`). Puede contener varias barras diagonales (`/`) entre la barra diagonal inicial y la barra final (`/`).
+ Puede combinar la ruta y el nombre `/path/name`.
Especifique un nombre.  

```
Iam:
  ResourcePrefix: my-prefix
```
Especifique una ruta.  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/
```
Especifique una ruta y un nombre.  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/my-prefix
```
Si especifica ambos, devuelve un error .  

```
Iam:
  ResourcePrefix: /my-prefix
```
Se devuelve un error de configuración. Una ruta debe tener dos `/`. Un prefijo por sí solo no puede tener `/`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Sección de `LoginNodes`
<a name="LoginNodes-v3"></a>

**nota**  
Support for `LoginNodes` se añade en la AWS ParallelCluster versión 3.7.0.

**(Opcional)** Especifica la configuración del grupo de nodos de inicio de sesión.

```
LoginNodes:
  Pools:
    - Name: string
      Count: integer
      InstanceType: string
      GracetimePeriod: integer
      Image:
        CustomAmi: string
      Ssh:
        KeyName: string
        AllowedIps: string
      Networking:
        SubnetIds:
          - string
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      Dcv:
        Enabled: boolean
        Port: integer
        AllowedIps: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeUpdated:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceRole: string
        InstanceProfile: string
        AdditionalIamPolicies:
          - Policy: string
```

[Política de actualización: los nodos de inicio de sesión en el clúster deben estar detenidos para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-cluster)

## Propiedades de `LoginNodes`
<a name="LoginNodes-v3.properties"></a>

### Propiedades de `Pools`
<a name="LoginNodes-v3-Pools"></a>

Define grupos de nodos de inicio de sesión que tienen la misma configuración de recursos. A partir de la AWS ParallelCluster versión 3.11.0, se pueden especificar hasta 10 grupos.

```
Pools:
  - Name: string
    Count: integer
    InstanceType: string
    GracetimePeriod: integer
    Image:
      CustomAmi: string
    Ssh:
      KeyName: string
      AllowedIps: string
    Networking:
      SubnetIds:
        - string
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    Dcv:
      Enabled: boolean
      Port: integer
      AllowedIps: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeUpdated:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
    Iam:
      InstanceRole: string
      InstanceProfile: string
      AdditionalIamPolicies:
        - Policy: string
```

[Política de actualización: se pueden agregar grupos de nodos de inicio de sesión, pero para eliminar un grupo es necesario detener todos los nodos de inicio de sesión del clúster.](using-pcluster-update-cluster-v3.md#update-policy-add-login-node-pools)

`Name` (**Requerido** `String`)  
Especifica el nombre del paso. Se usa para etiquetar los recursos de `LoginNodes`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)   
A partir de la AWS ParallelCluster versión 3.11.0, la política de actualización es la siguiente: Los nodos de inicio de sesión del grupo deben estar detenidos para poder cambiar esta configuración y poder actualizarse.

`Count` (**Requerido** `Integer`)  
Especifica el número de nodos de inicio de sesión que se deben mantener activos.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`InstanceType` (**Requerido** `String`)  
Especifica el tipo de instancia de Amazon EC2 que se utiliza para el nodo de inicio de sesión. La arquitectura del tipo de instancia debe ser la misma que la arquitectura utilizada para la configuración de `InstanceType` de Slurm.  
[Política de actualización](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3): esta configuración se puede cambiar si se detiene el grupo de nodos de inicio de sesión.  
A partir de la AWS ParallelCluster versión 3.11.0, la política de actualización es la siguiente: los nodos de inicio de sesión del grupo deben estar detenidos para poder cambiar esta configuración y actualizarla.

`GracetimePeriod`**(Opcional)** `Integer`  
Especifica el tiempo mínimo en minutos que transcurre entre la notificación al usuario que ha iniciado sesión de que se va a dar de baja un nodo de inicio de sesión y la detención real. Los valores válidos de `GracetimePeriod` oscilan entre 3 y 120 minutos. El valor predeterminado es de 10 minutos.  
El evento desencadenante implica interacciones entre varios AWS servicios. A veces, la latencia de la red y la propagación de la información pueden tardar algún tiempo, por lo que el período de gracia puede tardar más de lo esperado debido a los retrasos internos en AWS los servicios.
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Image`(**Opcional**)  
Define la configuración de imagen para los nodos de inicio de sesión.  

```
Image:
  CustomAmi: String
```  
`CustomAmi`(**Opcional**`String`)  
Especifica la AMI personalizada que se utiliza para aprovisionar los nodos de inicio de sesión. Si no se especifica, el valor predeterminado es el especificado en. [Sección de `HeadNode`](HeadNode-v3.md)  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Ssh`(**Opcional**)  
Define la `ssh` configuración de los nodos de inicio de sesión.  

```
Ssh:
  KeyName: string
  AllowedIps: string
```
A partir de la AWS ParallelCluster versión 3.11.0, la política de actualización es la siguiente: los nodos de inicio de sesión del grupo deben estar detenidos para poder cambiar esta configuración y poder actualizarse.  
`KeyName`**(Opcional)** `String`  
Especifica la `ssh` clave utilizada para iniciar sesión en los nodos de inicio de sesión. Si no se especifica, el valor predeterminado es el especificado en. [Sección de `HeadNode`](HeadNode-v3.md)  
[Política de actualización: los nodos de inicio de sesión en el grupo deben estar detenidos para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
Obsoleto: el parámetro de configuración `LoginNodes/Pools/Ssh/KeyName` ha quedado obsoleto y se eliminará en futuras versiones. La CLI ahora devuelve un mensaje de advertencia cuando se utiliza en la configuración del clúster. Consulte [ https://github.com/aws/aws-parallelcluster/issues/6811](https://github.com/aws/aws-parallelcluster/issues/6811) para obtener más información.  
`AllowedIps`**(Opcional)** `String`  
Especifica el intervalo de direcciones IP con formato CIDR o un ID de lista de prefijos para las conexiones SSH a los nodos de inicio de sesión del grupo. El valor predeterminado es el [AllowedIps](HeadNode-v3.md#yaml-HeadNode-Ssh-AllowedIps)definido en la configuración del nodo principal o `0.0.0.0/0` si no se especifica. [Sección de `HeadNode`](HeadNode-v3.md).  
[Política de actualización: los nodos de inicio de sesión en el grupo deben estar detenidos para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
El soporte AllowedIps para los nodos de inicio de sesión se añade en la AWS ParallelCluster versión 3.11.0.

`Networking`(Obligatorio)** **  
  

```
Networking:
  SubnetIds:
    - string
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```
A partir de la AWS ParallelCluster versión 3.11.0, la política de actualización es la siguiente: Los nodos de inicio de sesión del grupo deben estar detenidos para poder cambiar esta configuración y poder actualizarse.  
`SubnetIds` (**Requerido** `[String]`)  
El ID de la subred existente en la que aprovisiona el grupo de nodos de inicio de sesión. Solo puede definir una subred.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`SecurityGroups`**(Opcional)** `[String]`  
Una lista de grupos de seguridad que se utilizarán para el grupo de nodos de inicio de sesión. Si no se especifica ningún grupo de seguridad, AWS ParallelCluster crea grupos de seguridad automáticamente.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalSecurityGroups`(**Opcional**`[String]`)  
Una lista de grupos de seguridad adicionales que se utilizarán para el grupo de nodos de inicio de sesión.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dcv`(**Opcional**)  
Define los ajustes de configuración para el servidor NICE DCV que se ejecuta en los nodos de [inicio de sesión](#LoginNodes-v3). Para obtener más información, consulte [Conexión a los nodos principal y de inicio de sesión a través de Amazon DCV](dcv-v3.md)  

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```
De forma predeterminada, el puerto NICE DCV configurado por AWS ParallelCluster está abierto a todas las IPv4 direcciones. El usuario solo puede conectarse a un puerto de NICE DCV si tiene la dirección URL de la sesión de NICE DCV y se conecta a la sesión de NICE DCV en un plazo de 30 segundos a partir del momento en que se devuelve la dirección URL de pcluster dcv-connect. Utilice el valor `AllowedIps` para restringir aún más el acceso al puerto de NICE DCV con un intervalo de direcciones IP con formato de CIDR y utilice la configuración del puerto para establecer un puerto no estándar.
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
La compatibilidad con DCV en los nodos de inicio de sesión se añade en la AWS ParallelCluster versión 3.11.0.  
`Enabled` (**Requerido** `Boolean`)  
Especifica si NICE DCV está habilitado en los nodos de inicio de sesión del grupo. El valor predeterminado es `false`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
NICE DCV genera automáticamente un certificado autofirmado que se utiliza para proteger el tráfico entre el cliente NICE DCV y el servidor NICE DCV que se ejecuta en el nodo de inicio de sesión. Para configurar su propio certificado, consulte [Certificado HTTPS de Amazon DCV](dcv-v3.md#dcv-v3-certificate).  
`Port`**(Opcional)** `Integer`  
(Opcional) Especifica el puerto de NICE DCV. El valor predeterminado es `8443`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AllowedIps`(**Opcional**`String`)  
(Opcional) Especifica el intervalo de direcciones IP con formato CIDR para las conexiones a NICE DCV. Esta configuración solo se usa cuando se AWS ParallelCluster crea el grupo de seguridad. El valor predeterminado es `0.0.0.0/0`, que permite el acceso desde cualquier dirección de Internet.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomActions`(**Opcional**)  
Especifica los scripts personalizados que se ejecutarán en los nodos de inicio de sesión.  

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```
El soporte para acciones personalizadas en los nodos de inicio de sesión se añade en la AWS ParallelCluster versión 3.11.0.  
`OnNodeStart`**(Opcional)**  
Especifica un único script o una secuencia de scripts que se ejecutarán en los [nodos de inicio de sesión](#LoginNodes-v3) antes de que se inicie cualquier acción de arranque de implementación del nodo. Para obtener más información, consulte [Acciones de arranque personalizadas](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opcional**)  
Lista de scripts que se van a ejecutar. AWS ParallelCluster ejecuta los scripts en el mismo orden en que aparecen en el archivo de configuración, empezando por el primero.    
`Script` (**Requerido** `String`)  
Especifica el archivo que se va a encapsular. La ruta del archivo debe comenzar con `https://` o `s3://`.  
`Args`(**Opcional**`[String]`)  
La lista de argumentos que se pasan al script único.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script` (**Requerido** `String`)  
Especifica el archivo que se va a utilizar para un único script. La ruta del archivo debe comenzar con `https://` o `s3://`.  
`Args`(**Opcional**`[String]`)  
La lista de argumentos que se pasan al script único.  
`OnNodeConfigured`(**Opcional**)  
Especifica un único script o una secuencia de scripts que se ejecutarán en los [nodos de inicio de sesión](#LoginNodes-v3) una vez finalizados los procesos de arranque de los nodos. Para obtener más información, consulte [Acciones de arranque personalizadas](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opcional)**  
Lista de scripts que se van a ejecutar. AWS ParallelCluster ejecuta los scripts en el mismo orden en que aparecen en el archivo de configuración, empezando por el primero.    
`Script` (**Requerido** `String`)  
Especifica el archivo que se va a encapsular. La ruta del archivo debe comenzar con `https://` o `s3://`.  
`Args`(**Opcional**`[String]`)  
La lista de argumentos que se pasan al script único.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script` (**Requerido** `String`)  
Especifica el archivo que se va a utilizar para un único script. La ruta del archivo debe comenzar con `https://` o `s3://`.  
`Args`(**Opcional**`[String]`)  
La lista de argumentos que se pasan al script único.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`OnNodeUpdated`(**Opcional**)  
Especifica un único script o una secuencia de scripts que se ejecutarán una vez que se complete la actualización del nodo principal y el planificador y el almacenamiento compartido estén alineados con los cambios más recientes en la configuración del clúster. Para obtener más información, consulte [Acciones de arranque personalizadas](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opcional)**  
Lista de scripts que se van a ejecutar. AWS ParallelCluster ejecuta los scripts en el mismo orden en que aparecen en el archivo de configuración, empezando por el primero.    
`Script` (**Requerido** `String`)  
Especifica el archivo que se va a encapsular. La ruta del archivo debe comenzar con `https://` o `s3://`.  
`Args`(**Opcional**`[String]`)  
La lista de argumentos que se pasan al script único.  
`Script` (**Requerido** `String`)  
Especifica el archivo que se va a utilizar para un único script. La ruta del archivo debe comenzar con `https://` o `s3://`.  
`Args`(**Opcional**`[String]`)  
La lista de argumentos que se pasan al script único.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
AWS ParallelCluster no admite incluir tanto un único guion como `Sequence` para la misma acción personalizada.

`Iam`(**Opcional**)  
Especifica un rol de instancia o un perfil de instancia que se usará en los nodos de inicio de sesión para anular el rol de instancia o el perfil de instancia predeterminados del clúster.  

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  AdditionalIamPolicies:
    - Policy: string
```
A partir de la AWS ParallelCluster versión 3.11.0, la política de actualización es la siguiente: los nodos de inicio de sesión del grupo deben estar detenidos para poder cambiar esta configuración y poder actualizarse.  
`InstanceProfile`**(Opcional)** `String`  
Especifica un perfil de instancia para anular el perfil de instancia del nodo de inicio de sesión predeterminado. No puede especificar `InstanceProfile` ni `InstanceRole`. El formato es `arn:Partition:iam::Account:instance-profile/InstanceProfileName`. Si se especifica, no se puede especificar la configuración de `AdditionalIamPolicies` y `InstanceRole`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`InstanceRole`(**Opcional**`String`)  
Especifica un rol de instancia para anular el rol de instancia predeterminado del nodo de inicio de sesión. No puede especificar `InstanceProfile` ni `InstanceRole`. El formato es `arn:Partition:iam::Account:role/RoleName`. Si se especifica, no se puede especificar la configuración de `AdditionalIamPolicies` y `InstanceProfile`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalIamPolicies`(**Opcional**)  

```
AdditionalIamPolicies:
  - Policy: string
```
Nombre de recurso de Amazon (ARN) de la política de IAM que se va a consultar.  
Especifica una lista separada de nombres de recursos de Amazon (ARN) de políticas de IAM para Amazon EC2. Esta lista se adjunta a la función raíz utilizada para el nodo de inicio de sesión, además de los permisos que requiere AWS ParallelCluster.  
El nombre de una política de IAM y su ARN son diferentes. Los nombres no se pueden usar.  
Si se especifica, no se puede especificar la configuración de `InstanceRole` y `InstanceProfile`. Se recomienda utilizarlos `AdditionalIamPolicies` porque `AdditionalIamPolicies` se añaden a los AWS ParallelCluster permisos necesarios y `InstanceRole` deben incluir todos los permisos necesarios. Los permisos necesarios a menudo cambian de versión a versión a medida que se añaden características.  
No hay valor predeterminado.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Policy` (**Requerido** `[String]`)  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Sección de `Monitoring`
<a name="Monitoring-v3"></a>

**(Opcional)** Especifica la configuración de supervisión del clúster.

```
Monitoring:
  Logs:
    CloudWatch:
      Enabled: boolean
      RetentionInDays: integer
      DeletionPolicy: string
    Rotation:
      Enabled: boolean
  Dashboards:
    CloudWatch:
      Enabled: boolean
  DetailedMonitoring: boolean
  Alarms:
   Enabled: boolean
```

[Política de actualización: esta configuración no se analiza durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

## Propiedades de `Monitoring`
<a name="Monitoring-v3.properties"></a>

`Logs`(**Opcional**)  
La configuración de registro del clúster.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`CloudWatch`(**Opcional**)  
La configuración de CloudWatch registros del clúster.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled` (**Requerido**, `Boolean`)  
Si`true`, los registros del clúster se transmiten a CloudWatch Logs. El valor predeterminado es `true`.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`RetentionInDays` (**Opcional**, `Integer`)  
El número de días que se conservarán los eventos del registro en los CloudWatch registros. El valor predeterminado es 180. Los valores admitidos son 0, 1, 3, 5, 7, 14, 30, 60, 90, 120, 150, 180, 365, 400, 545, 731, 1827 y 3653. Un valor de 0 utilizará la configuración de retención de CloudWatch registros predeterminada, es decir, no caducará nunca.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy` (**Opcional**, `String`)  
Indica si se deben eliminar los eventos de registro en CloudWatch los registros cuando se elimina el clúster. Los valores posibles son `Delete` y `Retain`. El valor predeterminado es `Retain`.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Rotation`(**Opcional**)  
La configuración de rotación de registros del clúster.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled` (**Requerido**, `Boolean`)  
La rotación de los registros está habilitada. El valor predeterminado es `true`. Cuando un archivo de registro AWS ParallelCluster configurado alcanza un tamaño determinado, se rota y se mantiene una única copia de seguridad. Para obtener más información, consulte [AWS ParallelCluster rotación de registros configurada](log-rotation-v3.md).  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dashboards`(**Opcional)**  
La configuración del panel de control del clúster.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`CloudWatch`(**Opcional**)  
La configuración del CloudWatch panel de control del clúster.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled` (**Requerido**, `Boolean`)  
Si`true`, el CloudWatch panel está activado. El valor predeterminado es `true`.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DetailedMonitoring` (**Opcional**, `Boolean`)  
Si se establece en `true`, se habilita la supervisión detallada para las instancias de Amazon EC2 de la flota de computación. Cuando está habilitada, la consola Amazon EC2 muestra gráficos para monitorear las instancias en intervalos de 1 minuto. Cuando se habilita esta característica, hay costos adicionales. El valor predeterminado es `false`.  
Para obtener más información, consulte [Habilitar o desactivar el monitoreo detallado para las instancias](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-cloudwatch-new.html) en la *Guía del usuario de Amazon EC2 para instancias de Linux*.  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)  
`DetailedMonitoring`se añade a partir de la AWS ParallelCluster versión 3.6.0.

`Alarms`(**Opcional)**  
CloudWatch Alarmas para el clúster.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled`(**Opcional**)  
Si`true`, se crearán las CloudWatch alarmas para el clúster. El valor predeterminado es `true`.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
A partir de la AWS ParallelCluster versión 3.8.0, se crean las siguientes alarmas para el nodo principal: Amazon EC2 Health CPU/Memory/Disk Check, uso y una alarma compuesta que incluye todas las demás.

# Sección de `Tags`
<a name="Tags-v3"></a>

**(Opcional), Array** define las etiquetas que utilizan CloudFormation y se propagan a todos los recursos del clúster. Para obtener más información, consulte [CloudFormation Etiqueta de recurso](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) en la *Guía del usuario de AWS CloudFormation *.

```
Tags:
  - Key: string
    Value: string
```

[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## Propiedades de `Tags`
<a name="Tags-v3.properties"></a>

`Key` (**Requerido**, `String`)  
Define el nombre del clúster.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Value` (**Requerido**, `String`)  
Define el valor de etiqueta.  
[Política de actualización: esta configuración se puede cambiar durante una actualización.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**nota**  
A partir de la AWS ParallelCluster versión 3.15.0, se admiten las actualizaciones de etiquetas con las siguientes limitaciones:  
Volumen de EBS activado HeadNode : solo conservará las etiquetas de cuando se creó el clúster; no se admite la actualización de etiquetas en este volumen de EBS.
Nodos en ejecución: las actualizaciones de etiquetas no se aplicarán a los nodos de procesamiento o de inicio de sesión en ejecución.

# Sección de `AdditionalPackages`
<a name="AdditionalPackages-v3"></a>

**(Opcional)** Se utiliza para identificar los paquetes adicionales que se van a instalar.

```
AdditionalPackages:
  IntelSoftware:
    IntelHpcPlatform: boolean
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `IntelSoftware`
<a name="AdditionalPackages-v3-IntelSoftware"></a>

**(Opcional)** Define la configuración de las soluciones seleccionadas de Intel.

```
IntelSoftware:
  IntelHpcPlatform: boolean
```

[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propiedades de `IntelSoftware`
<a name="AdditionalPackages-v3-IntelSoftware.properties"></a>

` IntelHpcPlatform` (**Opcional**, `Boolean`)  
Si`true`, indica que se acepta el [contrato de licencia de usuario final](https://software.intel.com/en-us/articles/end-user-license-agreement) de Intel Parallel Studio. Esto hace que Intel Parallel Studio se instale en el nodo maestro y se comparta con los nodos de computación. Esto añade varios minutos al tiempo que tarda el nodo principal en arrancar.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
A partir de AWS ParallelCluster la versión 3.10.0, el `IntelHpcPlatform` parámetro ya no es compatible.

# Sección de `DirectoryService`
<a name="DirectoryService-v3"></a>

**nota**  
El soporte para `DirectoryService` se agregó en la AWS ParallelCluster versión 3.1.1.

**(Opcional)** La configuración del servicio de directorio para un clúster que admite el acceso de varios usuarios.

AWS ParallelCluster administra los permisos que permiten el acceso de varios usuarios a los clústeres con un Active Directory (AD) mediante el Protocolo ligero de acceso a directorios (LDAP) compatible con el [Demonio de Servicios de Seguridad del Sistema (SSSD](https://sssd.io/docs/introduction.html)). [Para obtener más información, consulte ¿Qué es? AWS Directory Service](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/what_is.html) en la *Guía AWS Directory Service de administración*.

Le recomendamos que utilice LDAP en lugar de LDAP TLS/SSL (abreviado LDAPS, por sus siglas en inglés) para garantizar que cualquier información potencialmente confidencial se transmita a través de canales cifrados.

```
DirectoryService:
  DomainName: string
  DomainAddr: string
  PasswordSecretArn: string
  DomainReadOnlyUser: string
  LdapTlsCaCert: string
  LdapTlsReqCert: string
  LdapAccessFilter: string
  GenerateSshKeysForUsers: boolean
  AdditionalSssdConfigs: dict
```

[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

## Propiedades de `DirectoryService`
<a name="DirectoryService-v3.properties"></a>

**nota**  
Si planea utilizarla AWS ParallelCluster en una sola subred sin acceso a Internet, consulte los requisitos adicionales. [AWS ParallelCluster en una sola subred sin acceso a Internet](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md)

`DomainName` (**Requerido**, `String`)  
El dominio de Active Directory (AD) que utiliza para la información de identidad.  
`DomainName`acepta los formatos de nombre de dominio completo (FQDN) y nombre de dominio completo (DN).  
+ Ejemplo de FQDN: `corp.example.com`
+ Ejemplo de DN de LDAP: `DC=corp,DC=example,DC=com`
Esta propiedad corresponde al parámetro sssd-ldap que se llama. `ldap_search_base`  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainAddr` (**Requerido**, `String`)  
El URI o los URIs que apuntan al controlador de dominio de AD que se utiliza como servidor LDAP. El URI corresponde al parámetro SSSD-LDAP al que se llama. `ldap_uri` El valor puede ser una cadena separada por comas de. URIs Para usar LDAP, debe agregarlo `ldap://` al principio de cada URI.  
Valores de ejemplo:  

```
ldap://192.0.2.0,ldap://203.0.113.0          # LDAP
ldaps://192.0.2.0,ldaps://203.0.113.0        # LDAPS without support for certificate verification
ldaps://abcdef01234567890.corp.example.com  # LDAPS with support for certificate verification
192.0.2.0,203.0.113.0                        # AWS ParallelCluster uses LDAPS by default
```
Si usa LDAPS con verificación de certificados, URIs deben ser nombres de host.  
Si utiliza LDAPS sin verificación de certificado o LDAP, URIs pueden ser nombres de host o direcciones IP.  
Utilice LDAP over TLS/SSL (LDAPS) para evitar la transmisión de contraseñas y otra información confidencial a través de canales no cifrados. Si AWS ParallelCluster no encuentra un protocolo, lo añade `ldaps://` al principio de cada URI o nombre de host.  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`PasswordSecretArn` (**Requerido**, `String`)  
El nombre de recurso de Amazon (ARN) del AWS Secrets Manager secreto que contiene la contraseña en texto `DomainReadOnlyUser` simple. El contenido del secreto corresponde al parámetro SSSD-LDAP al que se llama. `ldap_default_authtok`  
Cuando utilice la AWS Secrets Manager consola para crear un secreto, asegúrese de seleccionar «Otro tipo de secreto», seleccionar texto sin formato e incluir solo el texto de la contraseña en el secreto.  
Para obtener más información sobre cómo AWS Secrets Manager crear un secreto, consulta [Crear un AWS Secrets Manager](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret) secreto
El cliente LDAP usa la contraseña para autenticarse en el dominio AD, por ejemplo, `DomainReadOnlyUser` cuando solicita información de identidad.  
Si el usuario tiene el permiso para [https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html), se valida `PasswordSecretArn`. `PasswordSecretArn` es válido si el secreto especificado existe. Si la política de IAM del usuario no la incluye `DescribeSecret`, `PasswordSecretArn` no está validada y aparece un mensaje de advertencia. Para obtener más información, consulte [Política de usuario básica `pcluster` de AWS ParallelCluster](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Cuando el valor del secreto cambia, el clúster *no* se actualiza automáticamente. Para actualizar el clúster para el nuevo valor secreto, debe detener la flota de computación con el comando [`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md) y, luego, ejecutar el siguiente comando desde dentro del nodo principal.  

```
$ sudo /opt/parallelcluster/scripts/directory_service/update_directory_service_password.sh
```
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainReadOnlyUser` (**Requerido**, `String`)  
La identidad que se usa para consultar la información de identidad en el dominio de AD al autenticar los inicios de sesión de los usuarios del clúster. Corresponde al parámetro SSSD-LDAP al que se llama. `ldap_default_bind_dn` Use su información de identidad de AD para este valor.  
Especifique la identidad en el formulario requerido por el cliente LDAP específico que se encuentra en el nodo:  
+ Microsoft AD:

  ```
  cn=ReadOnlyUser,ou=Users,ou=CORP,dc=corp,dc=example,dc=com
  ```
+ SimpleAD:

  ```
  cn=ReadOnlyUser,cn=Users,dc=corp,dc=example,dc=com
  ```
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsCaCert` (**Opcional**, `String`)  
La ruta absoluta a un paquete de certificados que contiene los certificados de cada entidad emisora de certificados de la cadena de certificación que emitió un certificado para los controladores de dominio. Corresponde al parámetro SSSD-LDAP que se llama. `ldap_tls_cacert`  
Un paquete de certificados es un archivo compuesto por la concatenación de distintos certificados en formato PEM, también conocido como formato DER Base64 en Windows. Se utiliza para comprobar la identidad del controlador de dominio de AD que actúa como servidor LDAP.  
AWS ParallelCluster no es responsable de la colocación inicial de los certificados en los nodos. Como administrador del clúster, puede configurar el certificado en el nodo principal manualmente después de crear el clúster o puede utilizar un [script de arranque.](custom-bootstrap-actions-v3.md) También puede utilizar una Imagen de máquina de Amazon (AMI) que incluya el certificado configurado en el nodo principal.  
[Simple AD](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/directory_simple_ad.html) no admite LDAPS. Para obtener información sobre cómo integrar un directorio AD simple con AWS ParallelCluster, consulte [Cómo configurar un punto final LDAPS para AD simple](https://aws.amazon.com/blogs/security/how-to-configure-ldaps-endpoint-for-simple-ad/) en el *blog de AWS seguridad*.  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsReqCert` (**Opcional**, `String`)  
Especifica qué comprobaciones se deben realizar en los certificados de servidor en una sesión de TLS. Corresponde al parámetro SSSD-LDAP que se llama. `ldap_tls_reqcert`  
Valores válidos: `never`, `allow`, `try`, `demand` y `hard`.  
`never``allow`, y `try` permiten que las conexiones continúen aunque se detecten problemas con los certificados.  
`demand`y `hard` permita que la comunicación continúe si no se detecta ningún problema con los certificados.  
Si el administrador del clúster utiliza un valor que no requiere que la validación del certificado se realice correctamente, se le devuelve un mensaje de advertencia. Por motivos de seguridad, recomendamos que no inhabilite la verificación de certificados.  
El valor predeterminado es `hard`.  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapAccessFilter` (**Opcional**, `String`)  
Especifica un filtro para limitar el acceso al directorio a un subconjunto de usuarios. Esta propiedad corresponde al parámetro SSSD-LDAP que se llama. `ldap_access_filter` Puede usarla para limitar las consultas a un AD que admita un gran número de usuarios.  
Este filtro puede bloquear el acceso de los usuarios al clúster. Sin embargo, no afecta a la capacidad de detección de los usuarios bloqueados.  
Si se establece esta propiedad, el parámetro SSSD `access_provider` se establece `ldap` internamente mediante la configuración [`DirectoryService`](#DirectoryService-v3)/ AWS ParallelCluster [`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs)y no se debe modificar mediante ella.  
Si se omite esta propiedad y el acceso personalizado de los usuarios no se especifica en [`DirectoryService`](#DirectoryService-v3)/[`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs), todos los usuarios del directorio pueden acceder al clúster.  
Ejemplos:  

```
"!(cn=SomeUser*)"  # denies access to every user with an alias that starts with "SomeUser"
"(cn=SomeUser*)"   # allows access to every user with alias that starts with "SomeUser"
"memberOf=cn=TeamOne,ou=Users,ou=CORP,dc=corp,dc=example,dc=com" # allows access only to users in group "TeamOne".
```
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`GenerateSshKeysForUsers` (**Opcional**, `Boolean`)  
Define si se AWS ParallelCluster genera una clave SSH para los usuarios del clúster inmediatamente después de su autenticación inicial en el nodo principal.  
Si se establece en`true`, se genera una clave SSH y se guarda`USER_HOME_DIRECTORY/.ssh/id_rsa`, si no existe, para cada usuario tras su primera autenticación en el nodo principal.  

En el caso de un usuario que aún no se ha autenticado en el nodo principal, la primera autenticación se puede realizar en los siguientes casos:
+ El usuario inicia sesión en el nodo principal por primera vez con su propia contraseña.
+ En el nodo principal, un sudoer cambia al usuario por primera vez: `su USERNAME`
+ En el nodo principal, un sudoer ejecuta un comando como usuario por primera vez: `su -u USERNAME COMMAND`
Los usuarios pueden usar la clave SSH para iniciar sesión posteriormente en el nodo principal del clúster y en los nodos de cómputo. Con AWS ParallelCluster, los inicios de sesión con contraseña en los nodos de cómputo del clúster están deshabilitados por diseño. Si un usuario no ha iniciado sesión en el nodo principal, las claves SSH no se generan y el usuario no podrá iniciar sesión en los nodos de cálculo.  
El valor predeterminado es `true`.  
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`AdditionalSssdConfigs` (**Opcional**, `Dict`)  
Un diccionario de pares clave-valor que contiene parámetros y valores de SSSD para escribirlos en el archivo de configuración de SSSD de las instancias de clúster. Para obtener una descripción completa del archivo de configuración de SSSD, consulte las páginas del manual de la instancia para `SSSD` y los archivos de configuración relacionados.  
Los parámetros y valores del SSSD deben ser compatibles con la configuración AWS ParallelCluster del SSSD, tal y como se describe en la siguiente lista.  
+ `id_provider`está configurado `ldap` internamente por AWS ParallelCluster y no debe modificarse.
+ `access_provider`se establece `ldap` internamente AWS ParallelCluster cuando [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)se especifica [`DirectoryService`](#DirectoryService-v3)/, y esta configuración no debe modificarse.

  Si [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)se omite [`DirectoryService`](#DirectoryService-v3)/, también se omite su `access_provider` especificación. Por ejemplo, si se establece `access_provider` `simple` en [`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs), no se [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)debe especificar [`DirectoryService`](#DirectoryService-v3)/.
Los siguientes fragmentos de configuración son ejemplos de configuraciones válidas para. `AdditionalSssdConfigs`  
En este ejemplo, se habilita el nivel de depuración de los registros SSSD, se restringe la base de búsqueda a una unidad organizativa específica y se deshabilita el almacenamiento en caché de las credenciales.  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    debug_level: "0xFFF0"
    ldap_search_base: OU=Users,OU=CORP,DC=corp,DC=example,DC=com
    cache_credentials: False
```
En este ejemplo se especifica la configuración de un `access_provider` [https://www.mankier.com/5/sssd-simple](https://www.mankier.com/5/sssd-simple) SSSD. Los usuarios del `EngineeringTeam` tienen acceso al directorio. [`DirectoryService`](#DirectoryService-v3)/no [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)debe configurarse en este caso.  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    access_provider: simple
    simple_allow_groups: EngineeringTeam
```
[Política de actualización: la flota de computación debe estar detenida para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

# Sección de `DeploymentSettings`
<a name="DeploymentSettings-cluster-v3"></a>

**nota**  
`DeploymentSettings`se añade a partir de la AWS ParallelCluster versión 3.4.0.

**(Opcional)** Especifica la configuración de los ajustes de implementación.

```
DeploymentSettings:
  LambdaFunctionsVpcConfig:
    SecurityGroupIds:
      - string
    SubnetIds:
      - string
  DisableSudoAccessForDefaultUser: Boolean
  DefaultUserHome: string # 'Shared' or 'Local'
```

## Propiedades de `DeploymentSettings`
<a name="DeploymentSettings-cluster-v3.properties"></a>

### `LambdaFunctionsVpcConfig`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig"></a>

**(Opcional)** Especifica las configuraciones de VPC de AWS Lambda las funciones. Para obtener más información, consulte [AWS Lambda Configuración de VPC en AWS ParallelCluster](lambda-vpc-v3.md).

```
LambdaFunctionsVpcConfig:
  SecurityGroupIds:
    - string
  SubnetIds:
    - string
```

#### `LambdaFunctionsVpcConfig properties`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig.properties"></a>

 `SecurityGroupIds` (**Requerido**, `[String]`)  
La lista de grupos de seguridad de Amazon VPC adjuntos a IDs las funciones de Lambda.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

 `SubnetIds` (**Requerido**, `[String]`)  
La lista de subredes IDs que se adjuntan a las funciones de Lambda.  
[Política de actualización: si se cambia esta configuración, no se permite la actualización.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**nota**  
Las subredes y los grupos de seguridad deben estar en la misma VPC.

### DisableSudoAccessForDefaultUser propiedad
<a name="DeploymentSettings-cluster-v3-DisableSudoAccessForDefaultUser.property"></a>

**nota**  
Esta opción de configuración solo es compatible con los clústeres de Slurm.

(Opcional) Si se define en `True`, se deshabilitarán los privilegios de sudo del usuario predeterminado. Esto se aplica a todos los nodos de un clúster.

```
# Main DeploymentSettings section in config yaml(applies to HN, CF and LN)
DeploymentSettings:
  DisableSudoAccessForDefaultUser: True
```

Para actualizar el valor de `DisableSudoAccessForDefaultUser`, debe detener la flota de computación y todos los nodos de inicio de sesión.

[Política de actualización: la flota de computación y los nodos de inicio de sesión deben estar detenidos para poder cambiar esta configuración y proceder a la actualización.](using-pcluster-update-cluster-v3.md#update-policy-compute-login-v3)

### DefaultUserHome propiedad
<a name="DeploymentSettings-cluster-v3-DefaultUserHome.property"></a>

Cuando se establece en `Shared`, el clúster utilizará la configuración predeterminada y compartirá el directorio predeterminado del usuario en todo el clúster con `/home/<default user>`.

Si se establece en `Local`, el nodo principal, los nodos de inicio de sesión y los nodos de computación tendrán cada uno un directorio de usuario local predeterminado independiente almacenado en `local/home/<default user>`.