

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Fichier de configuration du cluster
<a name="cluster-configuration-file-v3"></a>

AWS ParallelCluster la version 3 utilise des fichiers de configuration distincts pour contrôler la définition de l'infrastructure du cluster et la définition de l'infrastructure personnalisée AMIs. Tous les fichiers de configuration utilisent des fichiers YAML 1.1. Des informations détaillées pour chacun de ces fichiers de configuration sont disponibles ci-dessous. Pour des exemples de configurations, consultez [https://github.com/aws/aws- parallelcluster/tree/release-3.0/cli/tests/pcluster/example \$1configs](https://github.com/aws/aws-parallelcluster/tree/release-3.0/cli/tests/pcluster/example_configs).

Ces objets sont utilisés pour la configuration du cluster AWS ParallelCluster version 3.

**Topics**
+ [Propriétés du fichier de configuration du cluster](#cluster-configuration-file-v3.properties)
+ [`Imds` Section](Imds-cluster-v3.md)
+ [`Image` Section](Image-v3.md)
+ [`HeadNode` Section](HeadNode-v3.md)
+ [`Scheduling` Section](Scheduling-v3.md)
+ [`SharedStorage` Section](SharedStorage-v3.md)
+ [`Iam` Section](Iam-v3.md)
+ [`LoginNodes` Section](LoginNodes-v3.md)
+ [`Monitoring` Section](Monitoring-v3.md)
+ [`Tags` Section](Tags-v3.md)
+ [`AdditionalPackages` Section](AdditionalPackages-v3.md)
+ [`DirectoryService` Section](DirectoryService-v3.md)
+ [`DeploymentSettings` Section](DeploymentSettings-cluster-v3.md)

## Propriétés du fichier de configuration du cluster
<a name="cluster-configuration-file-v3.properties"></a>

`Region`(**Facultatif**,`String`)  
Spécifie le Région AWS pour le cluster. Par exemple, `us-east-2`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomS3Bucket`(**Facultatif**,`String`)  
Spécifie le nom d'un compartiment Amazon S3 créé dans votre AWS compte pour stocker les ressources utilisées par vos clusters, telles que le fichier de configuration du cluster, et pour exporter les journaux. AWS ParallelCluster gère un compartiment Amazon S3 dans chaque AWS région dans laquelle vous créez des clusters. Par défaut, ces compartiments Amazon S3 sont nommés`parallelcluster-hash-v1-DO-NOT-DELETE`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée. Si vous forcez la mise à jour, la nouvelle valeur sera ignorée et l'ancienne valeur sera utilisée.](using-pcluster-update-cluster-v3.md#update-policy-read-only-resource-bucket-v3)

`AdditionalResources`(**Facultatif**,`String`)  
Définit un AWS CloudFormation modèle supplémentaire à lancer en même temps que le cluster. Ce modèle supplémentaire est utilisé pour créer des ressources extérieures au cluster mais qui font partie du cycle de vie du cluster.  
La valeur doit être une URL HTTPS vers un modèle public, avec tous les paramètres fournis.  
Il n'existe aucune valeur par défaut.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

# `Imds` Section
<a name="Imds-cluster-v3"></a>

**(Facultatif)** Spécifie la configuration du service global de métadonnées d'instance (IMDS).

```
Imds:
  ImdsSupport: string
```

## Propriétés de `Imds`
<a name="Imds-cluster-v3.properties"></a>

`ImdsSupport`(**Facultatif**,`String`)  
Spécifie les versions IMDS prises en charge dans les nœuds du cluster. Les valeurs prises en charge sont `v1.0` et `v2.0`. La valeur par défaut est `v2.0`.  
S'il `ImdsSupport` est défini sur`v1.0`, IMDSv1 les deux IMDSv2 sont pris en charge.  
S'il `ImdsSupport` est défini sur`v2.0`, seul IMDSv2 est pris en charge.  
Pour plus d'informations, consultez la section [Utilisation IMDSv2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html) dans le *guide de l'utilisateur Amazon EC2 pour les instances Linux.*  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
À partir de la AWS ParallelCluster version 3.7.0, la valeur `ImdsSupport` par défaut est`v2.0`. Nous vous recommandons de `ImdsSupport` définir `v2.0` et de remplacer IMDSv1 par IMDSv2 dans vos appels d'actions personnalisés.  
Support pour [`Imds`](#Imds-cluster-v3)/[`ImdsSupport`](#yaml-cluster-Imds-ImdsSupport)est ajouté avec AWS ParallelCluster la version 3.3.0.

# `Image` Section
<a name="Image-v3"></a>

**Note**  
Les versions non prises en charge de la version officielle AMIs distribuée par AWS ParallelCluster seront rendues indisponibles après 18 mois d'inactivité. Ces anciennes images contiennent des logiciels obsolètes et ne peuvent pas bénéficier d'une assistance en cas de problème. Nous vous conseillons vivement de passer à la dernière version prise en charge.

**(Obligatoire)** Définit le système d'exploitation du cluster.

```
Image:
  Os: string
  CustomAmi: string
```

## Propriétés de `Image`
<a name="Image-v3.properties"></a>

`Os`(**Obligatoire**,`String`)  
Spécifie le système d'exploitation à utiliser pour le cluster. Les valeurs prises en charge sont `alinux2``alinux2023`,`ubuntu2404`,`ubuntu2204`,`rhel8`,`rocky8`,`rhel9`,`rocky9`.  
RedHat Enterprise Linux 8.7 (`rhel8`) est ajouté à partir de la AWS ParallelCluster version 3.6.0.  
Si vous configurez votre cluster pour l'utiliser`rhel`, le coût à la demande pour tout type d'instance est plus élevé que lorsque vous configurez votre cluster pour utiliser d'autres systèmes d'exploitation pris en charge. Pour plus d'informations sur la tarification, consultez les [sections Tarification à la demande](https://aws.amazon.com/ec2/pricing/on-demand) et [Quels sont les prix et offres de Red Hat Enterprise Linux sur Amazon EC2 ?](https://aws.amazon.com/partners/redhat/faqs/#Pricing_and_Billing) .  
RedHat Enterprise Linux 9 (rhel9) est ajouté à partir de la AWS ParallelCluster version 3.9.0.
Toutes les régions AWS commerciales prennent en charge tous les systèmes d'exploitation suivants.      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/parallelcluster/latest/ug/Image-v3.html)
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 AWS ParallelCluster La version 3.8.0 prend en charge Rocky Linux 8, mais la version précompilée de Rocky Linux 8 AMIs (pour les architectures x86 et ARM) n'est pas disponible. AWS ParallelCluster La version 3.8.0 prend en charge la création de clusters avec Rocky Linux 8 à l'aide de la personnalisation AMIs. Pour plus d'informations, reportez-vous à[Considérations relatives au système d'exploitation](operating-systems-v3.md#OS-Consideration-v3). AWS ParallelCluster La version 3.9.0 prend en charge Rocky Linux 9, mais la version précompilée de Rocky Linux 9 AMIs (pour les architectures x86 et ARM) n'est pas disponible. AWS ParallelCluster La version 3.9.0 prend en charge la création de clusters avec Rocky Linux 9 à l'aide de la personnalisation AMIs. Pour plus d'informations, reportez-vous à la section [Considérations relatives au système d'exploitation](operating-systems-v3.md#OS-Consideration-v3).   
 

`CustomAmi`(**Facultatif**,`String`)  
Spécifie l'ID d'une AMI personnalisée à utiliser pour les nœuds de tête et de calcul au lieu de l'AMI par défaut. Pour de plus amples informations, veuillez consulter [AWS ParallelCluster Personnalisation de l'AMI](custom-ami-v3.md).  
Si l'AMI personnalisée nécessite des autorisations supplémentaires pour son lancement, ces autorisations doivent être ajoutées aux politiques de l'utilisateur et du nœud principal.  
Par exemple, si un instantané chiffré est associé à une AMI personnalisée, les politiques supplémentaires suivantes sont requises à la fois dans les politiques de l'utilisateur et du nœud principal :    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Pour créer une AMI personnalisée RedHat Enterprise Linux, vous devez configurer le système d'exploitation pour installer les packages fournis par les référentiels RHUI (AWS) : `rhel-<version>-baseos-rhui-rpms``rhel-<version>-appstream-rhui-rpms`, et. `codeready-builder-for-rhel-<version>-rhui-rpms` De plus, les référentiels de l'AMI personnalisée doivent contenir des `kernel-devel` packages de la même version que la version du noyau en cours d'exécution. kernel.  

**Limitations connues :**
+ Seule RHEL 8.2 et les versions ultérieures sont compatibles FSx avec Lustre.
+ La version 4.18.0-425.3.1.el8 du noyau RHEL 8.7 n'est pas compatible avec Lustre. FSx 
+ Seule RHEL 8.4 et les versions ultérieures prennent en charge l'EFA.
+ AL23 ne prend pas en charge NICE DCV, car il n'inclut pas d'environnement de bureau graphique, nécessaire pour exécuter NICE DCV. Pour plus d'informations, consultez la documentation officielle de [NICE DCV](https://docs.aws.amazon.com//dcv/).
Pour résoudre les problèmes liés aux avertissements de validation d'AMI personnalisés, consultez[Résolution des problèmes liés aux AMI personnalisées](troubleshooting-v3-custom-amis.md).  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `HeadNode` Section
<a name="HeadNode-v3"></a>

**(Obligatoire)** Spécifie la configuration du nœud principal.

```
HeadNode:
  InstanceType: string
  Networking:
    SubnetId: string
    ElasticIp: string/boolean
    SecurityGroups:
      - string
    AdditionalSecurityGroups:
      - string
    Proxy:
      HttpProxyAddress: string
  DisableSimultaneousMultithreading: boolean
  Ssh:
    KeyName: string
    AllowedIps: string
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
      DeleteOnTermination: boolean
    EphemeralVolume:
      MountDir: string
  SharedStorageType: string
  Dcv:
    Enabled: boolean
    Port: integer
    AllowedIps: string
  CustomActions:
    OnNodeStart:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeConfigured:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeUpdated:
      Sequence:
        - Script: string
          Args: 
            - string
      Script: string
      Args:
        - string
  Iam:
    InstanceRole: string
    InstanceProfile: string
    S3Access:
      - BucketName: string
        EnableWriteAccess: boolean
        KeyName: string
    AdditionalIamPolicies:
      - Policy: string
  Imds:
    Secured: boolean
  Image:
    CustomAmi: string
```

## Propriétés de `HeadNode`
<a name="HeadNode-v3.properties"></a>

`InstanceType`(**Obligatoire**,`String`)  
Spécifie le type d'instance pour le nœud principal.  
Spécifie le type d'instance Amazon EC2 utilisé pour le nœud principal. L'architecture du type d'instance doit être identique à celle utilisée pour le Slurm [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)paramètre AWS Batch [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-AwsBatchQueues-ComputeResources-InstanceTypes)or.  
AWS ParallelCluster ne prend pas en charge les types d'instances suivants pour le `HeadNode` paramètre.  
+ hpc6id
Si vous définissez un type d'instance p4d ou un autre type d'instance doté de plusieurs interfaces réseau ou d'une carte d'interface réseau, vous devez configurer [`ElasticIp`](#yaml-HeadNode-Networking-ElasticIp)`true`pour fournir un accès public. AWS public ne IPs peut être attribué qu'aux instances lancées avec une seule interface réseau. Dans ce cas, nous vous recommandons d'utiliser une [passerelle NAT](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html) pour fournir un accès public aux nœuds de calcul du cluster. Pour plus d'informations, consultez la section [Attribuer une IPv4 adresse publique lors du lancement de l'instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) dans le *Guide de l'utilisateur Amazon EC2 pour les instances Linux.*  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DisableSimultaneousMultithreading`(**Facultatif**,`Boolean`)  
Si`true`, désactive l'hyperthreading sur le nœud principal. La valeur par défaut est `false`.  
Tous les types d'instances ne peuvent pas désactiver l'hyperthreading. Pour obtenir la liste des types d'instances qui prennent en charge la désactivation de l'hyperthreading, consultez la section [Cœurs et threads de processeur pour chaque cœur de processeur par type d'instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) dans le guide de l'utilisateur *Amazon* EC2.   
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SharedStorageType`(**Facultatif**,`String`)  
Spécifie le type de stockage utilisé pour les données partagées en interne. Les données partagées en interne incluent les données AWS ParallelCluster utilisées pour gérer le cluster et les données partagées par défaut `/home` si elles ne sont pas spécifiées dans [`SharedStorage` Section](SharedStorage-v3.md) le répertoire Mount pour monter un volume de système de fichiers partagé. Pour plus de détails sur les données partagées internes, reportez-vous à[AWS ParallelCluster annuaires internes](directories-v3.md).  
S'il s'`Ebs`agit du type de stockage par défaut, le nœud principal exportera des parties de son volume racine sous forme de répertoires partagés pour les nœuds de calcul et les nœuds de connexion utilisant NFS.  
Si`Efs`, ParallelCluster créera un système de fichiers EFS à utiliser pour les données internes partagées et`/home`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Lorsque le cluster prend de l'ampleur, le type de stockage EBS peut présenter des problèmes de performances car le nœud principal partage les données du volume racine avec les nœuds de calcul à l'aide d'exportations NFS. Grâce à EFS, vous pouvez éviter les exportations NFS à mesure que votre cluster s'agrandit et éviter les blocages de performances qui y sont associés. Il est recommandé de choisir EBS pour un read/write potentiel maximal pour les petits fichiers et le processus d'installation. Choisissez EFS pour l'échelle.

## `Networking`
<a name="HeadNode-v3-Networking"></a>

**(Obligatoire)** Définit la configuration réseau du nœud principal.

```
Networking:
  SubnetId: string
  ElasticIp: string/boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  Proxy:
    HttpProxyAddress: string
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriétés de `Networking`
<a name="HeadNode-v3-Networking.properties"></a>

`SubnetId`(**Obligatoire**,`String`)  
Spécifie l'ID d'un sous-réseau existant dans lequel le nœud principal doit être provisionné.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ElasticIp`(**Facultatif**,`String`)  
Crée ou attribue une adresse IP élastique au nœud principal. Les valeurs prises en charge sont `true``false`, ou l'ID d'une adresse IP élastique existante. La valeur par défaut est `false`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SecurityGroups`(**Facultatif**,`[String]`)  
Liste des identifiants de groupe de sécurité Amazon VPC à utiliser pour le nœud principal. Ils remplacent les groupes de sécurité AWS ParallelCluster créés si cette propriété n'est pas incluse.  
Vérifiez que les groupes de sécurité sont correctement configurés pour vos [SharedStorage](SharedStorage-v3.md)systèmes.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AdditionalSecurityGroups`(**Facultatif**,`[String]`)  
Liste des identifiants de groupe de sécurité Amazon VPC supplémentaires à utiliser pour le nœud principal.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Proxy`(**Facultatif**)  
Spécifie les paramètres du proxy pour le nœud principal.  

```
Proxy:
                            HttpProxyAddress: 
                            string
```  
` HttpProxyAddress`(**Facultatif**,`String`)  
Définit un serveur proxy HTTP ou HTTPS, généralement `https://x.x.x.x:8080`.  
Il n'existe aucune valeur par défaut.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Ssh`
<a name="HeadNode-v3-Ssh"></a>

**(Facultatif)** Définit la configuration de l'accès SSH au nœud principal.

```
Ssh:
      KeyName: string
      AllowedIps: string
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### Propriétés de `Ssh`
<a name="HeadNode-v3-Ssh.properties"></a>

`KeyName`(**Facultatif**,`String`)  
Nomme une paire de clés Amazon EC2 existante pour permettre l'accès SSH au nœud principal.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps`(**Facultatif**,`String`)  
Spécifie la plage d'adresses IP au format CIDR ou un identifiant de liste de préfixes pour les connexions SSH au nœud principal. La valeur par défaut est `0.0.0.0/0`.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `LocalStorage`
<a name="HeadNode-v3-LocalStorage"></a>

**(Facultatif)** Définit la configuration de stockage local pour le nœud principal.

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
    DeleteOnTermination: boolean
  EphemeralVolume:
    MountDir: string
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriétés de `LocalStorage`
<a name="HeadNode-v3-LocalStorage.properties"></a>

`RootVolume`(**Obligatoire**)  
Spécifie le volume de stockage racine pour le nœud principal.  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
  DeleteOnTermination: boolean
```
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Size`(**Facultatif**,`Integer`)  
Spécifie la taille du volume racine du nœud principal en gibioctets (GiB). La taille par défaut provient de l'AMI. L'utilisation d'une taille différente nécessite que l'AMI soit compatible`growroot`.   
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Encrypted`(**Facultatif**,`Boolean`)  
Spécifie si le volume racine est chiffré. La valeur par défaut est `true`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
` VolumeType`(**Facultatif**,`String`)  
Spécifie le [type de volume Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html). Les valeurs prises en charge sont `gp2` `gp3``io1`,`io2`,`sc1`,`st1`, et`standard`. La valeur par défaut est `gp3`.  
Pour plus d’informations, consultez [Types de volumes Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) dans le *Guide de l’utilisateur Amazon EC2*.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Iops`(**Facultatif**,`Integer`)  
Définit le nombre d'IOPS pour `io1``io2`, et le `gp3` type de volumes.  
La valeur par défaut, les valeurs prises en charge et `volume_iops` le `volume_size` ratio de production varient selon `VolumeType` et`Size`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`VolumeType` = `io1`  
Valeur par défaut `Iops` = 100  
Valeurs prises en charge `Iops` = 100—64 000 †  
`Size`Rapport `Iops` maximum = 50 IOPS par GiB. 5000 IOPS nécessitent au `Size` moins 100 GiB.  
`VolumeType` = `io2`  
Valeur par défaut `Iops` = 100  
Valeurs prises en charge `Iops` = 100 à 64 000 (256 000 pour les volumes `io2` Block Express) †  
`Size`Rapport `Iops` maximum = 500 IOPS par GiB. 5000 IOPS nécessitent au `Size` moins 10 GiB.  
`VolumeType` = `gp3`  
Valeur par défaut `Iops` = 3000  
Valeurs prises en charge `Iops` = 3000 à 16 000  
`Size`Rapport `Iops` maximum = 500 IOPS par GiB. 5000 IOPS nécessitent au `Size` moins 10 GiB.
† Le maximum d'IOPS est garanti uniquement sur les [instances basées sur le système Nitro](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) et approvisionnées avec plus de 32 000 IOPS. Les autres instances garantissent jusqu'à 32 000 IOPS. Les anciens `io1` volumes risquent de ne pas atteindre leurs performances optimales à moins que vous ne [modifiiez le volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html). `io2` Les volumes Block Express prennent en charge `Iops` des valeurs allant jusqu'à 256 000 pour les types d'`R5b`instances. Pour plus d'informations, consultez la section sur les [volumes `io2` Block Express](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) dans le *guide de l'utilisateur Amazon EC2*.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Throughput`(**Facultatif**,`Integer`)  
Définit le débit pour les types de `gp3` volumes, en Mbits/s. Ce paramètre n'est valide que lorsqu'il l'`VolumeType`est`gp3`. La valeur par défaut est `125`. Valeurs prises en charge : 125-1000 MiB/s  
Le rapport de `Throughput` à ne `Iops` peut pas être supérieur à 0,25. Le débit maximal de 1 000 MiB/s nécessite que le `Iops` paramètre soit d'au moins 4 000.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`DeleteOnTermination`(**Facultatif**,`Boolean`)  
Spécifie si le volume racine doit être supprimé lorsque le nœud principal est arrêté. La valeur par défaut est `true`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EphemeralVolume`(**Facultatif**)  
Spécifie les détails de tout volume de stockage d'instance. Pour plus d'informations, consultez la section Volume de [stockage des instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes) dans le guide de l'*utilisateur Amazon EC2*.  

```
EphemeralVolume:
  MountDir: string
```
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`MountDir`(**Facultatif**,`String`)  
Spécifie le répertoire de montage pour le volume de stockage de l'instance. La valeur par défaut est `/scratch`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Dcv`
<a name="HeadNode-v3-Dcv"></a>

**(Facultatif)** Définit les paramètres de configuration pour le serveur Amazon DCV qui s'exécute sur le nœud principal.

Pour de plus amples informations, veuillez consulter [Connectez-vous à la tête et aux nœuds de connexion via Amazon DCV](dcv-v3.md).

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```

**Important**  
Par défaut, le port Amazon DCV configuré par AWS ParallelCluster est ouvert à toutes les IPv4 adresses. Toutefois, vous ne pouvez vous connecter à un port Amazon DCV que si vous disposez de l'URL de la session Amazon DCV et si vous vous connectez à la session Amazon DCV dans les 30 secondes suivant le renvoi de l'URL. `pcluster dcv-connect` Utilisez le `AllowedIps` paramètre pour restreindre davantage l'accès au port Amazon DCV avec une plage d'adresses IP au format CIDR, et utilisez-le pour `Port` définir un port non standard.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriétés de `Dcv`
<a name="HeadNode-v3-Dcv.properties"></a>

`Enabled`(**Obligatoire**,`Boolean`)  
Spécifie si Amazon DCV est activé sur le nœud principal. La valeur par défaut est `false`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Amazon DCV génère automatiquement un certificat auto-signé qui est utilisé pour sécuriser le trafic entre le client Amazon DCV et le serveur Amazon DCV qui s'exécute sur le nœud principal. Pour configurer votre propre certificat, veuillez consulter [Certificat HTTPS Amazon DCV](dcv-v3.md#dcv-v3-certificate).

`Port`(**Facultatif**,`Integer`)  
Spécifie le port pour Amazon DCV. La valeur par défaut est `8443`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps`(**Facultatif, recommandé**,`String`)  
Spécifie la plage d'adresses IP au format CIDR pour les connexions à Amazon DCV. Ce paramètre est utilisé uniquement lors de la AWS ParallelCluster création du groupe de sécurité. La valeur par défaut est `0.0.0.0/0`, ce qui permet l'accès à partir de n'importe quelle adresse Internet.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `CustomActions`
<a name="HeadNode-v3-CustomActions"></a>

**(Facultatif)** Spécifie les scripts personnalisés à exécuter sur le nœud principal.

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args: 
      - string
```

### Propriétés de `CustomActions`
<a name="HeadNode-v3-CustomActions.properties"></a>

`OnNodeStart`(**Facultatif**)  
Spécifie un script unique ou une séquence de scripts à exécuter sur le nœud principal avant le lancement de toute action d'amorçage du déploiement du nœud. Pour de plus amples informations, veuillez consulter [Actions de bootstrap personnalisées](custom-bootstrap-actions-v3.md).    
`Sequence`(**Facultatif**)  
Liste des scripts à exécuter. AWS ParallelCluster exécute les scripts dans l'ordre indiqué dans le fichier de configuration, en commençant par le premier.    
`Script`(**Obligatoire**,`String`)  
Spécifie le fichier à utiliser. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
`Args`(**Facultatif**,`[String]`)  
Liste des arguments à transmettre au script.  
`Script`(**Obligatoire**,`String`)  
Spécifie le fichier à utiliser pour un seul script. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
`Args`(**Facultatif**,`[String]`)  
Liste des arguments à transmettre au script unique.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeConfigured`(**Facultatif**)  
Spécifie un script unique ou une séquence de scripts à exécuter sur le nœud principal une fois les actions d'amorçage du nœud terminées. Pour de plus amples informations, veuillez consulter [Actions de bootstrap personnalisées](custom-bootstrap-actions-v3.md).    
`Sequence`(**Facultatif**)  
Spécifie la liste des scripts à exécuter.    
`Script`(**Obligatoire**,`String`)  
Spécifie le fichier à utiliser. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
`Args`(**Facultatif**,`[String]`)  
Liste des arguments à transmettre au script.  
`Script`(**Obligatoire**,`String`)  
Spécifie le fichier à utiliser pour un seul script. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
`Args`(**Facultatif**,`[String]`)  
Liste des arguments à transmettre au script unique.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeUpdated`(**Facultatif**)  
Spécifie un script unique ou une séquence de scripts à exécuter sur le nœud principal une fois les actions de mise à jour du nœud terminées. Pour de plus amples informations, veuillez consulter [Actions de bootstrap personnalisées](custom-bootstrap-actions-v3.md).    
`Sequence`(**Facultatif**)  
Spécifie la liste des scripts à exécuter.    
`Script`(**Obligatoire**,`String`)  
Spécifie le fichier à utiliser. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
`Args`(**Facultatif**,`[String]`)  
Liste des arguments à transmettre au script.  
`Script`(**Obligatoire**,`String`)  
Spécifie le fichier à utiliser pour le script unique. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
`Args`(**Facultatif**,`[String]`)  
Liste des arguments à transmettre au script unique.
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`OnNodeUpdated`est ajouté à partir de la AWS ParallelCluster version 3.4.0.  
`Sequence`est ajouté à partir de AWS ParallelCluster la version 3.6.0. Lorsque vous le spécifiez`Sequence`, vous pouvez répertorier plusieurs scripts pour une action personnalisée. AWS ParallelCluster continue de prendre en charge la configuration d'une action personnalisée avec un seul script, sans inclure`Sequence`.  
AWS ParallelCluster ne permet pas d'inclure à la fois un seul script et `Sequence` pour la même action personnalisée.

## `Iam`
<a name="HeadNode-v3-Iam"></a>

**(Facultatif)** Spécifie un rôle d'instance ou un profil d'instance à utiliser sur le nœud principal pour remplacer le rôle d'instance ou le profil d'instance par défaut du cluster.

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### Propriétés de `Iam`
<a name="HeadNode-v3-Iam.properties"></a>

`InstanceProfile`(**Facultatif**,`String`)  
Spécifie un profil d'instance pour remplacer le profil d'instance du nœud principal par défaut. Vous ne pouvez pas spécifier à la fois `InstanceProfile` et `InstanceRole`. Le format est `arn:Partition:iam::Account:instance-profile/InstanceProfileName`.  
Si cela est spécifié, les `AdditionalIamPolicies` paramètres `S3Access` et ne peuvent pas être spécifiés.  
Nous vous recommandons de spécifier l'un des `AdditionalIamPolicies` paramètres `S3Access` et, ou les deux, car les fonctionnalités ajoutées nécessitent AWS ParallelCluster souvent de nouvelles autorisations.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`InstanceRole`(**Facultatif**,`String`)  
Spécifie un rôle d'instance pour remplacer le rôle d'instance de nœud principal par défaut. Vous ne pouvez pas spécifier à la fois `InstanceProfile` et `InstanceRole`. Le format est `arn:Partition:iam::Account:role/RoleName`.  
Si cela est spécifié, les `AdditionalIamPolicies` paramètres `S3Access` et ne peuvent pas être spécifiés.  
Nous vous recommandons de spécifier l'un des `AdditionalIamPolicies` paramètres `S3Access` et, ou les deux, car les fonctionnalités ajoutées nécessitent AWS ParallelCluster souvent de nouvelles autorisations.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `S3Access`
<a name="HeadNode-v3-Iam-S3Access.properties"></a>

`S3Access`(**Facultatif**)  
Spécifie un compartiment. Ceci est utilisé pour générer des politiques visant à accorder l'accès spécifié au compartiment.  
Si cela est spécifié, les `InstanceRole` paramètres `InstanceProfile` et ne peuvent pas être spécifiés.  
Nous vous recommandons de spécifier l'un des `AdditionalIamPolicies` paramètres `S3Access` et, ou les deux, car les fonctionnalités ajoutées nécessitent AWS ParallelCluster souvent de nouvelles autorisations.  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`BucketName`(**Obligatoire**,`String`)  
Le nom du compartiment .  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`KeyName`(**Facultatif**,`String`)  
La clé du seau. La valeur par défaut est « `*` ».  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
` EnableWriteAccess`(**Facultatif**,`Boolean`)  
Indique si l'accès en écriture est activé pour le compartiment. La valeur par défaut est `false`.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `AdditionalIamPolicies`
<a name="HeadNode-v3-Iam-AdditionalIamPolicies.properties"></a>

`AdditionalIamPolicies`(**Facultatif**)  
Spécifie une liste des Amazon Resource Names (ARN) des politiques IAM pour Amazon EC2. Cette liste est attachée au rôle root utilisé pour le nœud principal en plus des autorisations requises par AWS ParallelCluster.  
Le nom d'une politique IAM et son ARN sont différents. Les noms ne peuvent pas être utilisés.  
Si cela est spécifié, les `InstanceRole` paramètres `InstanceProfile` et ne peuvent pas être spécifiés.  
Nous vous recommandons d'utiliser `AdditionalIamPolicies` car `AdditionalIamPolicies` ils sont ajoutés aux autorisations AWS ParallelCluster requises et `InstanceRole` doivent inclure toutes les autorisations requises. Les autorisations requises changent souvent d'une version à l'autre au fur et à mesure que des fonctions sont ajoutées.  
Il n'existe aucune valeur par défaut.  

```
AdditionalIamPolicies:
  - Policy: string
```
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
` Policy`(**Facultatif**,`[String]`)  
Liste des politiques IAM.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Imds`
<a name="HeadNode-v3-Imds"></a>

**(Facultatif)** Spécifie les propriétés du service de métadonnées d'instance (IMDS). Pour plus d'informations, consultez [Comment fonctionne le service de métadonnées d'instance version 2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html#instance-metadata-v2-how-it-works) dans le guide de l'*utilisateur Amazon EC2*.

```
Imds:
    Secured: boolean
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriétés de `Imds`
<a name="HeadNode-v3-Imds.properties"></a>

`Secured`(**Facultatif**,`Boolean`)  
Si`true`, restreint l'accès à l'IMDS du nœud principal (et aux informations d'identification du profil d'instance) à un sous-ensemble de superutilisateurs.  
Si`false`, chaque utilisateur du nœud principal a accès à l'IMDS du nœud principal.  

Les utilisateurs suivants sont autorisés à accéder à l'IMDS du nœud principal :
+ utilisateur root
+ utilisateur administratif du cluster (`pc-cluster-admin`par défaut)
+ utilisateur par défaut spécifique au système d'exploitation (`ec2-user`sur Amazon Linux 2 et RedHat, et `ubuntu` sur Ubuntu 18.04).
La valeur par défaut est `true`.  
Les `default` utilisateurs sont chargés de s'assurer qu'un cluster dispose des autorisations nécessaires pour interagir avec les AWS ressources. Si vous désactivez `default` l'accès IMDS de l'utilisateur, vous ne AWS ParallelCluster pouvez pas gérer les nœuds de calcul et cessez de fonctionner. Ne désactivez pas l'accès IMDS de `default` l'utilisateur.  
Lorsqu'un utilisateur obtient l'accès à l'IMDS du nœud principal, il peut utiliser les autorisations incluses dans le [profil d'instance du nœud principal](iam-roles-in-parallelcluster-v3.md). Par exemple, ils peuvent utiliser ces autorisations pour lancer des instances Amazon EC2 ou pour lire le mot de passe d'un domaine AD que le cluster est configuré pour utiliser à des fins d'authentification.  
Pour restreindre l'accès à l'IMDS, AWS ParallelCluster gère une chaîne de`iptables`.  
Les utilisateurs du cluster disposant `sudo` d'un accès peuvent activer ou désactiver de manière sélective l'accès à l'IMDS du nœud principal pour d'autres utilisateurs individuels, y compris `default` les utilisateurs, en exécutant la commande suivante :  

```
$ sudo /opt/parallelcluster/scripts/imds/imds-access.sh --allow <USERNAME>
```
Vous pouvez désactiver l'accès IMDS de l'utilisateur à l'`--deny`aide de cette commande.  
Si vous désactivez sans le savoir l'accès IMDS de `default` l'utilisateur, vous pouvez rétablir l'autorisation en utilisant cette option. `--allow`  
Toute personnalisation `iptables` ou `ip6tables` règle peut interférer avec le mécanisme utilisé pour restreindre l'accès à l'IMDS sur le nœud principal.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Image`
<a name="HeadNode-v3-Image"></a>

**(Facultatif)** Définit une image personnalisée pour le nœud principal.

```
Image:
     CustomAmi: string
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriétés de `Image`
<a name="HeadNode-v3-Image.properties"></a>

`CustomAmi`(**Facultatif**,`String`)  
Spécifie l'ID d'une AMI personnalisée à utiliser pour le nœud principal au lieu de l'AMI par défaut. Pour de plus amples informations, veuillez consulter [AWS ParallelCluster Personnalisation de l'AMI](custom-ami-v3.md).  
Si l'AMI personnalisée nécessite des autorisations supplémentaires pour son lancement, ces autorisations doivent être ajoutées aux politiques de l'utilisateur et du nœud principal.  
Par exemple, si un instantané chiffré est associé à une AMI personnalisée, les politiques supplémentaires suivantes sont requises à la fois dans les politiques de l'utilisateur et du nœud principal :    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Pour résoudre les problèmes liés aux avertissements de validation d'AMI personnalisés, consultez[Résolution des problèmes liés aux AMI personnalisées](troubleshooting-v3-custom-amis.md).  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Scheduling` Section
<a name="Scheduling-v3"></a>

**(Obligatoire)** Définit le planificateur de tâches utilisé dans le cluster et les instances de calcul qu'il gère. Vous pouvez utiliser le planificateur Slurm ou le AWS Batch planificateur. Chacun prend en charge un ensemble différent de paramètres et de propriétés.

**Topics**
+ [Propriétés de `Scheduling`](#Scheduling-v3.properties)
+ [`AwsBatchQueues`](#Scheduling-v3-AwsBatchQueues)
+ [`SlurmQueues`](#Scheduling-v3-SlurmQueues)
+ [`SlurmSettings`](#Scheduling-v3-SlurmSettings)

```
Scheduling:
  Scheduler: slurm
  ScalingStrategy: string    
  SlurmSettings:
    MungeKeySecretArn: string        
    ScaledownIdletime: integer    
    QueueUpdateStrategy: string
    EnableMemoryBasedScheduling: boolean
    CustomSlurmSettings: [dict]
    CustomSlurmSettingsIncludeFile: string
    Database:
      Uri: string
      UserName: string
      PasswordSecretArn: string
      DatabaseName: string    
    ExternalSlurmdbd: boolean
      Host: string
      Port: integer  
    Dns:
      DisableManagedDns: boolean
      HostedZoneId: string
      UseEc2Hostnames: boolean  
  SlurmQueues:
    - Name: string  
      ComputeSettings:
        LocalStorage:
          RootVolume:
            Size: integer
            Encrypted: boolean
            VolumeType: string
            Iops: integer
            Throughput: integer
          EphemeralVolume:
            MountDir: string
      CapacityReservationTarget:
        CapacityReservationId: string
        CapacityReservationResourceGroupArn: string
      CapacityType: string
      AllocationStrategy: string
      JobExclusiveAllocation: boolean
      CustomSlurmSettings: dict
      Tags:
        - Key: string
          Value: string
      HealthChecks:
        Gpu:
          Enabled: boolean
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
        PlacementGroup:
          Enabled: boolean
          Id: string
          Name: string
        Proxy:
          HttpProxyAddress: string
      ComputeResources:
        - Name: string
          InstanceType: string
          Instances:
            - InstanceType: string
          MinCount: integer
          MaxCount: integer
          DynamicNodePriority: integer
          StaticNodePriority: integer
          SpotPrice: float
          DisableSimultaneousMultithreading: boolean
          SchedulableMemory: integer
          HealthChecks:
            Gpu:
              Enabled: boolean
          Efa:
            Enabled: boolean
            GdrSupport: boolean          
          CapacityReservationTarget:
            CapacityReservationId: string
            CapacityReservationResourceGroupArn: string
          Networking:   
            PlacementGroup:
              Enabled: boolean
              Name: string
          CustomSlurmSettings: dict
          Tags:
            - Key: string
              Value: string
          LaunchTemplateOverrides:
            LaunchTemplateId: string
            Version: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceProfile: string
        InstanceRole: string
        S3Access:
          - BucketName: string
            EnableWriteAccess: boolean
            KeyName: string
        AdditionalIamPolicies:
          - Policy: string
      Image:
        CustomAmi: string
```

```
Scheduling:
  Scheduler: awsbatch
  AwsBatchQueues:
    - Name: string
      CapacityType: string
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
        - Name: string
          InstanceTypes:
            - string
          MinvCpus: integer
          DesiredvCpus: integer
          MaxvCpus: integer
          SpotBidPercentage: float
```

## Propriétés de `Scheduling`
<a name="Scheduling-v3.properties"></a>

**`Scheduler`(**Obligatoire**,`String`)**  
Spécifie le type de planificateur utilisé. Les valeurs prises en charge sont `slurm` et `awsbatch`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`awsbatch`ne prend en charge que le système `alinux2` d'exploitation et `x86_64` la plate-forme.

**`ScalingStrategy`(**Facultatif**,`String`)**  
Vous permet de choisir le mode d'Slurmévolution des nœuds dynamiques. Les valeurs prises en charge sont`all-or-nothing`, `greedy-all-or-nothing` et `best-effort` La valeur par défaut est`all-or-nothing`.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
La stratégie de dimensionnement s'applique uniquement aux nœuds devant être repris par Slurm, et non aux nœuds qui sont déjà en cours d'exécution.
+ `all-or-nothing`Cette stratégie suit strictement un all-or-nothing-approach, visant à éviter les instances inactives à la fin du processus de dimensionnement. Il fonctionne sur une all-or-nothing base, ce qui signifie qu'il évolue complètement ou pas du tout. Sachez que le lancement temporaire d'instances peut entraîner des coûts supplémentaires lorsque les tâches nécessitent plus de 500 nœuds ou couvrent plusieurs ressources de calcul. Cette stratégie présente le débit le plus faible parmi les trois stratégies de mise à l'échelle possibles. Le délai de mise à l'échelle dépend du nombre de tâches soumises par exécution du programme de Slurm reprise. En outre, vous ne pouvez pas dépasser de loin la limite de compte de RunInstances ressources par défaut par exécution, qui est de 1 000 instances par défaut. Vous trouverez plus de détails dans la documentation relative à la [régulation des API Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/throttling.html)
+ `greedy-all-or-nothing `À l'instar de la all-or-nothing stratégie, elle vise à éviter les instances inactives après le dimensionnement. Cette stratégie permet de surdimensionner temporairement pendant le processus de dimensionnement afin d'atteindre un débit supérieur à celui de l' all-or-nothingapproche, mais elle est également assortie de la même limite de mise à l'échelle de 1 000 instances conformément à la limite du compte de RunInstances ressources.
+ `best-effort `Cette stratégie donne la priorité au débit élevé, même si cela signifie que certaines instances peuvent être inactives à la fin du processus de dimensionnement. Il essaie d'allouer autant de nœuds que demandé par les tâches, mais il est possible que la demande ne soit pas traitée dans son intégralité. Contrairement aux autres stratégies, l'approche basée sur le meilleur effort permet d'accumuler un plus grand nombre d'instances que la RunInstances limite standard, au prix de l'inactivité des ressources lors des multiples exécutions des processus de dimensionnement.

Chaque stratégie est conçue pour répondre à différents besoins de mise à l'échelle, ce qui vous permet de sélectionner celle qui répond à vos exigences et contraintes spécifiques.

## `AwsBatchQueues`
<a name="Scheduling-v3-AwsBatchQueues"></a>

**(Facultatif)** Les paramètres de la AWS Batch file d'attente. Une seule file d'attente est prise en charge. S'[`Scheduler`](#yaml-Scheduling-Scheduler)il est défini sur`awsbatch`, cette section est obligatoire. Pour plus d'informations sur le `awsbatch` planificateur, consultez les sections [Configuration réseau](network-configuration-v3-batch.md) et. [Utilisation du AWS Batch `awsbatch` planificateur () avec AWS ParallelCluster](awsbatchcli-v3.md)

```
AwsBatchQueues:
  - Name: string
    CapacityType: string
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
      - Name: string
        InstanceTypes:
          - string
        MinvCpus: integer
        DesiredvCpus: integer
        MaxvCpus: integer
        SpotBidPercentage: float
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### Propriétés de `AwsBatchQueues`
<a name="Scheduling-v3-AwsBatchQueues.properties"></a>

**`Name`(**Obligatoire**,`String`)**  
Nom de la AWS Batch file d'attente.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityType`(**Facultatif**,`String`)**  
Type de ressources de calcul utilisées par la AWS Batch file d'attente. Les valeurs prises en charge sont`ONDEMAND`, `SPOT` ou`CAPACITY_BLOCK`. La valeur par défaut est `ONDEMAND`.  
Si vous le définissez `CapacityType``SPOT`, votre compte doit contenir un rôle `AWSServiceRoleForEC2Spot` lié à un service. Vous pouvez créer ce rôle à l'aide de la AWS CLI commande suivante.  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Pour plus d'informations, consultez la section [Rôle lié au service pour les demandes d'instance Spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) dans le *guide de l'utilisateur Amazon EC2* pour les instances Linux.
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### `Networking`
<a name="Scheduling-v3-AwsBatchQueues-Networking"></a>

**(Obligatoire)** Définit la configuration réseau de la AWS Batch file d'attente.

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```

##### Propriétés de `Networking`
<a name="Scheduling-v3-AwsBatchQueues-Networking.properties"></a>

**`SubnetIds`(**Obligatoire**,`[String]`)**  
Spécifie l'ID d'un sous-réseau existant dans lequel approvisionner la AWS Batch file d'attente. Actuellement, un seul sous-réseau est pris en charge.  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`AssignPublicIp`(**Facultatif**,`String`)**  
Crée ou attribue une adresse IP publique aux nœuds de la AWS Batch file d'attente. Les valeurs prises en charge sont `true` et `false`. La valeur par défaut dépend du sous-réseau que vous avez spécifié.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups`(**Facultatif**,`[String]`)**  
Liste des groupes de sécurité utilisés par la AWS Batch file d'attente. Si vous ne spécifiez aucun groupe de sécurité, AWS ParallelCluster crée de nouveaux groupes de sécurité.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups`(**Facultatif**,`[String]`)**  
Liste des groupes de sécurité utilisés par la AWS Batch file d'attente.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

#### `ComputeResources`
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources"></a>

**(Obligatoire)** Définit la ComputeResources configuration de la AWS Batch file d'attente.

```
ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
  - Name: string
    InstanceTypes:
      - string
    MinvCpus: integer
    DesiredvCpus: integer
    MaxvCpus: integer
    SpotBidPercentage: float
```

##### Propriétés de `ComputeResources`
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources.properties"></a>

**`Name`(**Obligatoire**,`String`)**  
Nom de l'environnement de calcul de la AWS Batch file d'attente.  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceTypes`(**Obligatoire**,`[String]`)**  
Le tableau des types d'instances de l'environnement de AWS Batch calcul. Tous les types d'instances doivent utiliser l'`x86_64`architecture.  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MinvCpus`(**Facultatif**,`Integer`)**  
La quantité minimale VCPUs qu'un environnement AWS Batch informatique peut utiliser.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`DesiredVcpus`(**Facultatif**,`Integer`)**  
Le nombre souhaité de VCPUs dans l'environnement AWS Batch informatique. AWS Batch ajuste cette valeur entre `MinvCpus` et en `MaxvCpus` fonction de la demande dans la file d'attente des tâches.  
[Politique de mise à jour : ce paramètre n'est pas analysé lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

**`MaxvCpus`(**Facultatif**,`Integer`)**  
Le nombre maximum de VCPUs pour l'environnement AWS Batch de calcul. Vous ne pouvez pas définir une valeur inférieure à`DesiredVcpus`.  
[Politique de mise à jour : ce paramètre ne peut pas être réduit lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-no-decrease-v3)

**`SpotBidPercentage`(**Facultatif**,`Float`)**  
Pourcentage maximum du prix à la demande pour le type d'instance que le prix d'une instance Amazon EC2 Spot peut atteindre avant le lancement des instances. La valeur par défaut est `100` (100 %). La plage prise en charge est de `1` -`100`.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmQueues`
<a name="Scheduling-v3-SlurmQueues"></a>

**(Facultatif)** Paramètres de la Slurm file d'attente. S'[`Scheduler`](#yaml-Scheduling-Scheduler)il est défini sur`slurm`, cette section est obligatoire.

```
SlurmQueues:
  - Name: string
    ComputeSettings:
      LocalStorage:
        RootVolume:
          Size: integer
          Encrypted: boolean
          VolumeType: string
          Iops: integer
          Throughput: integer
        EphemeralVolume:
          MountDir: string
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    CapacityType: string
    AllocationStrategy: string
    JobExclusiveAllocation: boolean
    CustomSlurmSettings: dict
    Tags:
      - Key: string
        Value: string
    HealthChecks:
      Gpu:
        Enabled: boolean
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
      PlacementGroup:
        Enabled: boolean
        Id: string
        Name: string
      Proxy:
        HttpProxyAddress: string
    ComputeResources:
      - Name: string
        InstanceType: string
        Instances:
          - InstanceType: string        
        MinCount: integer
        MaxCount: integer
        DynamicNodePriority: integer
        StaticNodePriority: integer
        SpotPrice: float
        DisableSimultaneousMultithreading: boolean
        SchedulableMemory: integer
        HealthChecks:
          Gpu:
            Enabled: boolean
        Efa:
          Enabled: boolean
          GdrSupport: boolean    
        CapacityReservationTarget:
          CapacityReservationId: string
          CapacityReservationResourceGroupArn: string     
        Networking:   
          PlacementGroup:
            Enabled: boolean
            Name: string
        CustomSlurmSettings: dict
        Tags:
          - Key: string
            Value: string
        LaunchTemplateOverrides:
          LaunchTemplateId: string
          Version: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string        
        Script: string
        Args:
          - string
    Iam:
      InstanceProfile: string
      InstanceRole: string
      S3Access:
        - BucketName: string
          EnableWriteAccess: boolean
          KeyName: string
      AdditionalIamPolicies:
        - Policy: string
    Image:
      CustomAmi: string
```

[Politique de mise à jour : pour ce paramètre de valeurs de liste, une nouvelle valeur peut être ajoutée lors d'une mise à jour ou le parc informatique doit être arrêté lors de la suppression d'une valeur existante.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

### Propriétés de `SlurmQueues`
<a name="Scheduling-v3-SlurmQueues.properties"></a>

**`Name`(**Obligatoire**,`String`)**  
Nom de la Slurm file d'attente.  
La taille du cluster peut changer lors d'une mise à jour. Pour plus d'informations, voir [Taille et mise à jour de la capacité du cluster](slurm-workload-manager-v3.md)
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityReservationTarget`**  
`CapacityReservationTarget`est ajouté avec la AWS ParallelCluster version 3.3.0.

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
Spécifie la réservation de capacité à la demande pour les ressources de calcul de la file d'attente.    
**`CapacityReservationId`(**Facultatif**,`String`)**  
L'ID de la réservation de capacité existante à cibler pour les ressources de calcul de la file d'attente. L'ID peut faire référence à un [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) ou à un [bloc de capacité pour ML](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html).  
La réservation doit utiliser la même plateforme que celle utilisée par l'instance. Par exemple, si vos instances s'exécutent sur`rhel8`, votre réservation de capacité doit s'exécuter sur la plate-forme Red Hat Enterprise Linux. Pour de plus amples informations, veuillez consulter [Plateformes prises en charge](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html#capacity-reservations-platforms) dans le *Guide de l'utilisateur Amazon EC2 pour les instances Linux*.  
Si vous incluez [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)dans la configuration du cluster, vous devez exclure ce `CapacityReservationId` paramètre de niveau de file d'attente de la configuration.
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`CapacityReservationResourceGroupArn`(**Facultatif**,`String`)**  
Le nom de ressource Amazon (ARN) du groupe de ressources qui sert de groupe lié au service pour les réservations de capacité pour les ressources de calcul de la file d'attente. AWS ParallelCluster identifie et utilise la réservation de capacité la plus appropriée auprès du groupe de ressources en fonction des conditions suivantes :  
+ Si cette option `PlacementGroup` est activée dans [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)ou [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster sélectionne un groupe de ressources qui cible le type d'instance et `PlacementGroup` pour une ressource de calcul, si la ressource de calcul existe.

  Ils `PlacementGroup` doivent cibler l'un des types d'instance définis dans [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources).
+ Si `PlacementGroup` ce n'est pas activé dans [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)ou [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster sélectionne un groupe de ressources qui cible uniquement le type d'instance d'une ressource de calcul, si la ressource de calcul existe.
Le groupe de ressources doit disposer d'au moins un ODCR pour chaque type d'instance réservé dans une zone de disponibilité pour toutes les ressources de calcul et zones de disponibilité de la file d'attente. Pour de plus amples informations, veuillez consulter [Lancez des instances avec des réservations de capacité à la demande (ODCR)](launch-instances-odcr-v3.md).  
Pour plus d'informations sur les exigences de configuration de plusieurs sous-réseaux, consultez [`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).  
Plusieurs zones de disponibilité ont été ajoutées dans la AWS ParallelCluster version 3.4.0.
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityType`(**Facultatif**,`String`)**  
Type de ressources informatiques utilisées par la Slurm file d'attente. Les valeurs prises en charge sont`ONDEMAND`, `SPOT` ou`CAPACITY_BLOCK`. La valeur par défaut est `ONDEMAND`.  
Si vous définissez le paramètre `CapacityType` sur`SPOT`, votre compte doit avoir un rôle `AWSServiceRoleForEC2Spot` lié au service. Vous pouvez utiliser la AWS CLI commande suivante pour créer ce rôle.  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Pour plus d'informations, consultez la section [Rôle lié au service pour les demandes d'instance Spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) dans le *guide de l'utilisateur Amazon EC2* pour les instances Linux.
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AllocationStrategy`(**Facultatif**,`String`)**  
Spécifiez la stratégie d'allocation pour toutes les ressources de calcul définies dans [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).  
Valeurs valides : `lowest-price` \$1 `capacity-optimized` \$1 `price-capacity-optimized` \$1 `prioritized` \$1 `capacity-optimized-prioritized`       
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/parallelcluster/latest/ug/Scheduling-v3.html)
Valeur par défaut : `lowest-price`    
**`lowest-price`**  
+ Si vous l'utilisez`CapacityType = ONDEMAND`, Amazon EC2 Fleet utilise le prix pour déterminer la commande et lance d'abord les instances les moins chères.
+ Si vous en utilisez`CapacityType = SPOT`, Amazon EC2 Fleet lance des instances à partir du pool d'instances Spot le moins cher disposant de la capacité disponible. Si un pool est à court de capacité avant d'atteindre la capacité requise, Amazon EC2 Fleet répond à votre demande en lançant des instances pour vous. Amazon EC2 Fleet lance notamment des instances à partir du pool d'instances Spot le moins cher disposant de la capacité disponible. Amazon EC2 Fleet peut lancer des instances Spot à partir de plusieurs pools différents.
+ Si vous définissez`CapacityType = CAPACITY_BLOCK`, il n'existe aucune stratégie d'allocation, le `AllocationStrategy` paramètre ne peut donc pas être configuré.  
**`capacity-optimized`**  
+ Si vous avez défini`CapacityType = ONDEMAND`, `capacity-optimized` n'est pas disponible.
+ Si vous le définissez`CapacityType = SPOT`, Amazon EC2 Fleet lance des instances à partir de pools d'instances Spot avec une capacité optimale compte tenu du nombre d'instances à lancer.  
**`price-capacity-optimized`**  
+ Si vous avez défini`CapacityType = ONDEMAND`, `capacity-optimized` n'est pas disponible.
+ Si vous le définissez`CapacityType = SPOT`, Amazon EC2 Fleet identifie les pools présentant la disponibilité de capacité la plus élevée par rapport au nombre d'instances lancées. Cela signifie que nous demanderons des instances Spot auprès des groupes qui, selon nous, présentent le moins de risques d’interruption à court terme. Amazon EC2 Fleet demande ensuite des instances Spot auprès du pool le moins cher.  
**`prioritized`**  
+ Si vous le définissez`CapacityType = ONDEMAND`, Amazon EC2 Fleet respecte l'ordre de priorité qui AWS ParallelCluster s'applique aux LaunchTemplate dérogations lorsque plusieurs sous-réseaux sont spécifiés. AWS ParallelCluster calcule le remplacement `priority` à partir de la position du sous-réseau cible, le premier sous-réseau `SlurmQueues/Networking/SubnetIds` ayant la priorité la plus élevée. Les priorités sont déterminées par ordre décroissant AWS ParallelCluster à partir de`SlurmQueues/Networking/SubnetIds`, la première SubnetId ayant la priorité la plus élevée et le dernier SubnetID ayant la priorité la plus basse. 
+ Si vous avez défini`CapacityType = SPOT`, `prioritized` n'est pas disponible.  
**`capacity-optimized-prioritized`**  
+ Si vous avez défini`CapacityType = ONDEMAND`, `capacity-optimized-prioritized` n'est pas disponible.
+ Si vous le définissez`CapacityType = SPOT`, Amazon EC2 Fleet optimise d'abord la capacité, puis applique, dans la mesure du possible, l'ordre de priorité attribué aux dérogations. AWS ParallelCluster LaunchTemplate Les priorités sont déterminées par ordre décroissant AWS ParallelCluster à partir de`SlurmQueues/Networking/SubnetIds`, la première SubnetId ayant la priorité la plus élevée et le dernier SubnetID ayant la priorité la plus basse. Toutes les remplacements qui ciblent le même sous-réseau reçoivent la même valeur de priorité.
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`AllocationStrategy`est pris en charge à partir de AWS ParallelCluster la version 3.3.0.  
**Nouveau dans la version 3.14.0** : `prioritized` (pour On-Demand) et `capacity-optimized-prioritized` (pour Spot).

**`JobExclusiveAllocation`(**Facultatif**,`String`)**  
S'il est défini sur`true`, l'`OverSubscribe`indicateur de Slurm partition est défini sur`EXCLUSIVE`. Lorsque `OverSubscribe` =`EXCLUSIVE`, les tâches de la partition ont un accès exclusif à tous les nœuds alloués. Pour plus d'informations, consultez [EXCLUSIVE](https://slurm.schedmd.com/slurm.conf.html#OPT_EXCLUSIVE) dans la Slurm documentation.  
Valeurs valides : `true` \$1 `false`  
Par défaut: `false`  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`JobExclusiveAllocation`est pris en charge à partir de AWS ParallelCluster la version 3.7.0.

**`CustomSlurmSettings`(**Facultatif**,`Dict`)**  
Définit les paramètres de configuration de Slurm partition (file d'attente) personnalisés.  
Spécifie un dictionnaire de paires clé-valeur de paramètres de Slurm configuration personnalisés qui s'appliquent aux files d'attente (partitions).  
Chaque paire clé-valeur distincte, telle que`Param1: Value1`, est ajoutée séparément à la fin de la ligne de configuration de Slurm partition dans le format. `Param1=Value1`  
Vous ne pouvez spécifier que des paramètres Slurm de configuration qui ne figurent pas dans la liste refusée. `CustomSlurmSettings` Pour plus d'informations sur les paramètres de Slurm configuration refusés, consultez. [Inscrit sur la liste Deny Slurm paramètres de configuration pour `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)  
AWS ParallelCluster vérifie uniquement si un paramètre figure dans une liste de refus. AWS ParallelCluster ne valide pas la syntaxe ou la sémantique de vos paramètres de Slurm configuration personnalisés. Il est de votre responsabilité de valider vos paramètres Slurm de configuration personnalisés. Des paramètres Slurm de configuration personnalisés non valides peuvent provoquer des défaillances de Slurm daemon susceptibles d'entraîner des échecs de création et de mise à jour de clusters.  
Pour plus d'informations sur la façon de spécifier des paramètres Slurm de configuration personnalisés avec AWS ParallelCluster, consultez[Slurm personnalisation de la configuration](slurm-configuration-settings-v3.md).  
Pour plus d'informations sur les paramètres Slurm de configuration, consultez [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) dans la documentation. Slurm  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`est pris en charge à partir de AWS ParallelCluster la version 3.6.0.

**`Tags`(**Facultatif**, [Chaîne])**  
Une liste de paires clé-valeur de balises. [`ComputeResource`](#yaml-Scheduling-SlurmQueues-ComputeResources-Tags)les balises remplacent les balises dupliquées spécifiées dans le [`Tags` Section](Tags-v3.md) ou dans`SlurmQueues`/`Tags`.    
**`Key`(**Facultatif**,`String`)**  
Identification de balise.  
**`Value`(**Facultatif**,`String`)**  
Valeur de balise.
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks`(**Facultatif**)**  
Spécifiez les contrôles de santé des nœuds de calcul sur toutes les ressources informatiques de la file d'attente.    
`Gpu`(**Facultatif**)  
Spécifiez les contrôles de santé du GPU sur toutes les ressources de calcul d'une file d'attente.  
AWS ParallelCluster ne prend pas en charge`HealthChecks`/`Gpu`dans les nœuds utilisant les systèmes d'exploitation `alinux2` ARM. Ces plateformes ne sont pas compatibles avec le [NVIDIA Data Center GPU Manager (DCGM).](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions)  
Il est déconseillé d'activer les contrôles de santé du GPU lors de l'utilisation de types d'instances dont la taille totale de la mémoire du GPU est supérieure à 327 680 MiB.  
`Enabled`(**Facultatif**,`Boolean`)  
 AWS ParallelCluster Effectue ou non des vérifications de l'état du GPU sur les nœuds de calcul. La valeur par défaut est `false`.

**`Gpu`comportement en matière de bilan de santé**
+ Si`Gpu`/`Enabled`est défini sur`true`, AWS ParallelCluster effectue des contrôles de santé du GPU sur les ressources de calcul de la file d'attente.
+ Le bilan `Gpu` de santé effectue des contrôles de santé du GPU sur les ressources de calcul afin d'empêcher la soumission de tâches sur les nœuds dont le GPU est dégradé.
+ Si un nœud de calcul échoue à un contrôle de `Gpu` santé, l'état du nœud de calcul passe à`DRAIN`. Les nouvelles tâches ne démarrent pas sur ce nœud. Les tâches existantes s'exécutent jusqu'à leur fin. Une fois toutes les tâches en cours d'exécution terminées, le nœud de calcul se termine s'il s'agit d'un nœud dynamique, et il est remplacé s'il s'agit d'un nœud statique.
+ La durée du bilan de `Gpu` santé dépend du type d'instance sélectionné, du nombre d'instances présentes GPUs dans l'instance, de la mémoire GPU totale et du nombre de cibles de contrôle de `Gpu` santé (équivalent au nombre de cibles GPU de la tâche). Par exemple, sur un p4d.24xlarge, la durée typique est de 3 minutes.
+ Si le bilan `Gpu` de santé s'exécute sur une instance qui n'est pas prise en charge, elle s'arrête et la tâche s'exécute sur le nœud de calcul. Par exemple, si une instance ne possède pas de GPU, ou si une instance possède un GPU, mais qu'il ne s'agit pas d'un GPU NVIDIA, le bilan de santé s'arrête et la tâche s'exécute sur le nœud de calcul. Seule NVIDIA est prise GPUs en charge.
+ Le `Gpu` bilan de santé utilise l'`dcgmi`outil pour effectuer des contrôles de santé sur un nœud et suit les étapes suivantes : 

  Lorsque le `Gpu` bilan de santé commence dans un nœud :

  1. Il détecte si les `nvidia-fabricmanager` services `nvidia-dcgm` et sont en cours d'exécution.

  1. Si ces services ne fonctionnent pas, le bilan `Gpu` de santé les démarre.

  1. Il détecte si le mode de persistance est activé.

  1. Si le mode de persistance n'est pas activé, le `Gpu` bilan de santé l'active.

  À la fin du bilan de santé, le bilan de `Gpu` santé rétablit ces services et ressources dans leur état initial.
+ Si le travail est attribué à un ensemble de nœuds spécifique GPUs, le contrôle de `Gpu` santé s'exécute uniquement sur cet ensemble spécifique. Dans le cas contraire, le bilan de `Gpu` santé s'exécute sur GPUs l'ensemble du nœud.
+ Si un nœud de calcul reçoit au moins deux demandes de vérification de `Gpu` santé en même temps, seule la première vérification est exécutée et les autres sont ignorées. C'est également le cas pour les contrôles de santé du nœud cible GPUs. Vous pouvez consulter les fichiers journaux pour obtenir des informations supplémentaires concernant cette situation.
+ Le journal de vérification de l'état d'un nœud de calcul spécifique est disponible dans le `/var/log/parallelcluster/slurm_health_check.log` fichier. Le fichier est disponible sur Amazon CloudWatch, dans le groupe de CloudWatch journaux du cluster, où vous pouvez trouver :
  + Détails sur l'action exécutée par le bilan de `Gpu` santé, y compris l'activation et la désactivation des services et le mode de persistance.
  + L'identifiant du GPU, l'ID de série et l'UUID.
  + Le résultat du bilan de santé.
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`est pris en charge à partir de AWS ParallelCluster la version 3.6.0.

#### `Networking`
<a name="Scheduling-v3-SlurmQueues-Networking"></a>

**(Obligatoire)** Définit la configuration réseau de la Slurm file d'attente.

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  PlacementGroup:
    Enabled: boolean
    Id: string
    Name: string
  Proxy:
    HttpProxyAddress: string
```

[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### Propriétés de `Networking`
<a name="Scheduling-v3-SlurmQueues-Networking.properties"></a>

**`SubnetIds`(**Obligatoire**,`[String]`)**  
Les IDs sous-réseaux existants dans lesquels vous approvisionnez la Slurm file d'attente.  
Si vous configurez les types d'instances dans [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType), vous ne pouvez définir qu'un seul sous-réseau.  
Si vous configurez les types d'instances dans [`SlurmQueues`[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)](#Scheduling-v3-SlurmQueues)//[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances), vous pouvez définir un ou plusieurs sous-réseaux.  
Si vous utilisez plusieurs sous-réseaux, tous les sous-réseaux définis pour une file d'attente doivent se trouver dans le même VPC, chaque sous-réseau se trouvant dans une zone de disponibilité (AZ) distincte.  
Supposons, par exemple, que vous définissiez le sous-réseau 1 et le sous-réseau 2 pour votre file d'attente.  
`subnet-1`et je ne `subnet-2` peux pas être les deux dans l'AZ-1.  
`subnet-1`peut être dans AZ-1 et `subnet-2` peut être dans AZ-2.  
Si vous configurez un seul type d'instance et que vous souhaitez utiliser plusieurs sous-réseaux, définissez votre type d'instance dans `Instances` plutôt que `InstanceType` dans.  
Par exemple, définissez`ComputeResources`/`Instances`/`InstanceType`= `instance.type` au lieu de`ComputeResources`/`InstanceType`=`instance.type`.  
Elastic Fabric Adapter (EFA) n'est pas pris en charge dans différentes zones de disponibilité.
L'utilisation de plusieurs zones de disponibilité peut entraîner une augmentation de la latence du réseau de stockage et des coûts supplémentaires de transfert de données inter-AZ. Cela peut se produire, par exemple, lorsqu'une instance accède à un stockage de fichiers situé dans une autre zone de disponibilité. Pour plus d'informations, consultez la section [Transfert de données au sein d'un même appareil Région AWS](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer_within_the_same_AWS_Region).  

**Mises à jour du cluster pour passer de l'utilisation d'un seul sous-réseau à plusieurs sous-réseaux :**
+ Supposons que la définition de sous-réseau d'un cluster soit définie avec un seul sous-réseau et un système de fichiers AWS ParallelCluster géré FSx pour Lustre. Dans ce cas, vous ne pouvez pas mettre à jour directement ce cluster avec une définition d'ID de sous-réseau mise à jour. Pour effectuer la mise à jour du cluster, vous devez d'abord remplacer le système de fichiers géré par un système de fichiers externe. Pour de plus amples informations, veuillez consulter [Convertir le stockage AWS ParallelCluster géré en stockage externe](shared-storage-conversion-v3.md).
+ Supposons que la définition de sous-réseau d'un cluster soit définie avec un seul sous-réseau et un système de fichiers Amazon EFS externe si les cibles de montage EFS n'existent pas AZs pour tous les sous-réseaux définis pour être ajoutés. Dans ce cas, vous ne pouvez pas mettre à jour directement ce cluster avec une définition d'ID de sous-réseau mise à jour. Pour mettre à jour le cluster ou pour créer un cluster, vous devez d'abord créer toutes les cibles de montage AZs pour tous les sous-réseaux définis.

**Les zones de disponibilité et les réservations de capacité du cluster sont définies dans [CapacityReservationResourceGroupArn](#yaml-Scheduling-SlurmQueues-CapacityReservationResourceGroupArn):**
+ Vous ne pouvez pas créer de cluster s'il n'y a aucun chevauchement entre l'ensemble de types d'instances et de zones de disponibilité couverts par le groupe de ressources de réservation de capacité défini et l'ensemble de types d'instances et de zones de disponibilité définis pour la file d'attente.
+ Vous pouvez créer un cluster s'il existe un chevauchement partiel entre l'ensemble de types d'instances et de zones de disponibilité couverts par le groupe de ressources de réservation de capacité défini et l'ensemble de types d'instances et de zones de disponibilité définis pour la file d'attente. AWS ParallelCluster envoie un message d'avertissement concernant le chevauchement partiel dans ce cas.
+ Pour de plus amples informations, veuillez consulter [Lancez des instances avec des réservations de capacité à la demande (ODCR)](launch-instances-odcr-v3.md).
Plusieurs zones de disponibilité ont été ajoutées dans la AWS ParallelCluster version 3.4.0.
Cet avertissement s'applique à toutes les AWS ParallelCluster versions 3.x.y antérieures à la version 3.3.1. AWS ParallelCluster la version 3.3.1 n'est pas affectée si ce paramètre est modifié.  
Pour les AWS ParallelCluster 3 versions antérieures à la version 3.3.1 :  
Si vous modifiez ce paramètre et mettez à jour un cluster, cela crée un nouveau système de fichiers géré FSx pour Lustre et supprime le système de fichiers géré FSx pour Lustre existant sans conserver les données existantes. Cela entraîne une perte de données. Avant de continuer, assurez-vous de sauvegarder les données du système de fichiers existant FSx pour Lustre si vous souhaitez conserver les données. Pour plus d'informations, consultez la section [Utilisation des sauvegardes](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) dans le *guide de l'utilisateur de FSx for Lustre*.
Si une nouvelle valeur de sous-réseau est ajoutée, [Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
Si une valeur de sous-réseau est supprimée, [Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AssignPublicIp`(**Facultatif**,`String`)**  
Crée ou attribue une adresse IP publique aux nœuds de la Slurm file d'attente. Les valeurs prises en charge sont `true` et `false`. Le sous-réseau que vous spécifiez détermine la valeur par défaut. Sous-réseau public par IPs défaut pour attribuer des adresses IP publiques.  
Si vous définissez un type d'hpc6idinstance p4d ou un autre type d'instance doté de plusieurs interfaces réseau ou d'une carte d'interface réseau, vous devez définir [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/sur [`ElasticIp`](HeadNode-v3.md#yaml-HeadNode-Networking-ElasticIp)`true`pour fournir un accès public. AWS public ne IPs peut être attribué qu'aux instances lancées avec une seule interface réseau. Dans ce cas, nous vous recommandons d'utiliser une [passerelle NAT](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html) pour fournir un accès public aux nœuds de calcul du cluster. Dans ce cas, réglez `AssignPublicIp` sur`false`. Pour plus d'informations sur les adresses IP, consultez la section [Attribuer une IPv4 adresse publique lors du lancement de l'instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) dans le *Guide de l'utilisateur Amazon EC2 pour les instances Linux.*  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups`(**Facultatif**,`[String]`)**  
Liste des groupes de sécurité à utiliser pour la Slurm file d'attente. Si aucun groupe de sécurité n'est spécifié, AWS ParallelCluster crée des groupes de sécurité pour vous.  
Vérifiez que les groupes de sécurité sont correctement configurés pour vos [SharedStorage](SharedStorage-v3.md)systèmes.  
Cet avertissement s'applique aux 3. *x*. *y* AWS ParallelCluster versions antérieures à la version 3.3.0. AWS ParallelCluster la version 3.3.0 n'est pas affectée si ce paramètre est modifié.  
Pour les AWS ParallelCluster 3 versions antérieures à la version 3.3.0 :  
Si vous modifiez ce paramètre et mettez à jour un cluster, cela crée un nouveau système de fichiers géré FSx pour Lustre et supprime le système de fichiers géré FSx pour Lustre existant sans conserver les données existantes. Cela entraîne une perte de données. Assurez-vous de sauvegarder les données du système de fichiers existant FSx pour Lustre si vous souhaitez conserver les données. Pour plus d'informations, consultez la section [Utilisation des sauvegardes](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) dans le *guide de l'utilisateur de FSx for Lustre*.
Si vous activez [Efa](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa) pour vos instances de calcul, assurez-vous que celles-ci sont membres d'un groupe de sécurité qui autorise tout le trafic entrant et sortant à se diriger vers lui-même.
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups`(**Facultatif**,`[String]`)**  
Liste des groupes de sécurité supplémentaires à utiliser pour la Slurm file d'attente.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`PlacementGroup`(**Facultatif**)**  
Spécifie les paramètres du groupe de placement pour la Slurm file d'attente.  

```
PlacementGroup:
  Enabled: boolean
  Id: string
  Name: string
```
[Politique de mise à jour : tous les nœuds de calcul doivent être arrêtés pour la suppression d'un groupe de placement géré. Le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`Enabled`(**Facultatif**,`Boolean`)**  
Indique si un groupe de placement est utilisé pour la Slurm file d'attente. La valeur par défaut est `false`.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Id`(**Facultatif**,`String`)**  
ID du groupe de placement d'un groupe de placement de clusters existant utilisé par la Slurm file d'attente. Assurez-vous de fournir l'*ID* du groupe de placement et *non le nom*.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name`(**Facultatif**,`String`)**  
Nom du groupe de placement d'un groupe de placement de clusters existant utilisé par la Slurm file d'attente. Assurez-vous de fournir le *nom* du groupe de placement et *non l'ID*.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ Si`PlacementGroup`/`Enabled`est défini sur`true`, sans `Name` ou `Id` défini, chaque ressource de calcul se voit attribuer son propre groupe de placement géré, sauf si [`ComputeResources`[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)](#Scheduling-v3-SlurmQueues-ComputeResources)//[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking-PlacementGroup)est défini pour remplacer ce paramètre.
+ À partir de AWS ParallelCluster la version 3.3.0, [`SlurmQueues`[`Networking`](#Scheduling-v3-SlurmQueues-Networking)](#Scheduling-v3-SlurmQueues)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)//[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)a été ajouté comme alternative préférée à [`SlurmQueues`](#Scheduling-v3-SlurmQueues)//[`Networking`[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)](#Scheduling-v3-SlurmQueues-Networking)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id).

  [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)et [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)sont équivalents. Vous pouvez utiliser l'un ou l'autre.

   Si vous incluez à la fois [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)et [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name), cela AWS ParallelCluster échoue. Vous ne pouvez choisir que l'un ou l'autre.

  Vous n'avez pas besoin de mettre à jour votre cluster pour utiliser [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name).
+ Lorsque vous utilisez une réservation par bloc de capacité, aucune contrainte de groupe de placement ne doit être définie car des erreurs de capacité insuffisante peuvent survenir en raison de contraintes de placement extérieures à la réservation, même si la réservation de capacité a une capacité restante.

**`Proxy`(**Facultatif**)**  
Spécifie les paramètres du proxy pour la Slurm file d'attente.  

```
Proxy:
  HttpProxyAddress: string
```
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`HttpProxyAddress`(**Facultatif**,`String`)**  
Définit un serveur proxy HTTP ou HTTPS pour la Slurm file d'attente. Généralement, c'est le cas`https://x.x.x.x:8080`.  
Il n'existe aucune valeur par défaut.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `Image`
<a name="Scheduling-v3-SlurmQueues-Image"></a>

**(Facultatif)** Spécifie l'image à utiliser pour la Slurm file d'attente. Pour utiliser la même AMI pour tous les nœuds, utilisez le [CustomAmi](Image-v3.md#yaml-Image-CustomAmi)paramètre de la [`Image`section](Image-v3.md).

```
Image:
  CustomAmi: string
```

[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `Image`Propriétés
<a name="Scheduling-v3-SlurmQueues-Image.properties"></a>

**`CustomAmi`(**Facultatif**,`String`)**  
L'AMI à utiliser pour la Slurm file d'attente au lieu de l'AMI par défaut AMIs. Vous pouvez utiliser la commande pcluster CLI pour afficher la liste des valeurs par défaut AMIs.  
L'AMI doit être basée sur le même système d'exploitation que celui utilisé par le nœud principal.

```
pcluster list-official-images
```
Si l'AMI personnalisée nécessite des autorisations supplémentaires pour son lancement, vous devez ajouter ces autorisations à la politique du nœud principal.  
Par exemple, si un instantané chiffré est associé à une AMI personnalisée, les politiques supplémentaires suivantes sont requises dans les politiques du nœud principal.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Pour résoudre les problèmes liés aux avertissements de validation d'AMI personnalisés, consultez[Résolution des problèmes liés aux AMI personnalisées](troubleshooting-v3-custom-amis.md).  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeResources`
<a name="Scheduling-v3-SlurmQueues-ComputeResources"></a>

**(Obligatoire)** Définit la `ComputeResources` configuration de la Slurm file d'attente.

**Note**  
La taille du cluster peut changer lors d'une mise à jour. Pour plus d'informations, voir [Taille et mise à jour de la capacité du cluster](slurm-workload-manager-v3.md).
De nouvelles ressources de calcul ne peuvent être ajoutées au cluster que si elles sont déployées dans des sous-réseaux appartenant à des blocs CIDR existants lors de la création du cluster.

```
ComputeResources:
  - Name: string
    InstanceType: string
    Instances:
      - InstanceType: string    
    MinCount: integer
    MaxCount: integer
    DynamicNodePriority: integer
    StaticNodePriority: integer
    SpotPrice: float
    DisableSimultaneousMultithreading: boolean
    SchedulableMemory: integer
    HealthChecks:
      Gpu:    
        Enabled: boolean
    Efa:
      Enabled: boolean
      GdrSupport: boolean
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    Networking:   
      PlacementGroup:
        Enabled: boolean
        Name: string
    CustomSlurmSettings: dict   
    Tags:
      - Key: string
        Value: string
    LaunchTemplateOverrides:
      LaunchTemplateId: string
      Version: string
```

[Politique de mise à jour : pour ce paramètre de valeurs de liste, une nouvelle valeur peut être ajoutée lors d'une mise à jour ou le parc informatique doit être arrêté lors de la suppression d'une valeur existante.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

##### Propriétés de `ComputeResources`
<a name="Scheduling-v3-SlurmQueues-ComputeResources.properties"></a>

**`Name`(**Obligatoire**,`String`)**  
Nom de l'environnement de calcul de la Slurm file d'attente. Le nom peut comporter jusqu'à 25 caractères.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`InstanceType`(**Obligatoire**,`String`)**  
Type d'instance utilisé dans cette ressource Slurm de calcul. Tous les types d'instances d'un cluster doivent utiliser la même architecture de processeur. Les instances peuvent utiliser l'`arm64`architecture `x86_64` ou.  
La configuration du cluster doit définir soit les instances, [InstanceType](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)soit [les instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances). Si les deux sont définis, AWS ParallelCluster échoue.  
Lorsque vous définissez`InstanceType`, vous ne pouvez pas définir plusieurs sous-réseaux. Si vous configurez un seul type d'instance et que vous souhaitez utiliser plusieurs sous-réseaux, définissez votre type d'instance dans `Instances` plutôt que dans`InstanceType`. Pour plus d'informations, consultez [`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).  
Si vous définissez un type d'hpc6idinstance p4d ou un autre type d'instance doté de plusieurs interfaces réseau ou d'une carte d'interface réseau, vous devez lancer les instances de calcul dans un sous-réseau privé comme décrit dans[AWS ParallelCluster en utilisant deux sous-réseaux](network-configuration-v3-two-subnets.md). AWS public ne IPs peut être attribué qu'aux instances lancées avec une seule interface réseau. Pour plus d'informations, consultez la section [Attribuer une IPv4 adresse publique lors du lancement de l'instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) dans le *Guide de l'utilisateur Amazon EC2 pour les instances Linux.*  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`Instances`(**Obligatoire**)**  
Spécifie la liste des types d'instances pour une ressource de calcul. Pour spécifier la stratégie d'allocation pour la liste des types d'instances, consultez [`AllocationStrategy`](#yaml-Scheduling-SlurmQueues-AllocationStrategy).  
La configuration du cluster doit définir l'un [`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)ou l'autre [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances). Si les deux sont définis, AWS ParallelCluster échoue.  
Pour de plus amples informations, veuillez consulter [Allocation de plusieurs types d'instances avec Slurm](slurm-multiple-instance-allocation-v3.md).  

```
`Instances`:
   - `InstanceType`: string
```
À partir de AWS ParallelCluster la version 3.7.0, elle `EnableMemoryBasedScheduling` peut être activée si vous configurez plusieurs types d'[instances dans Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).  
Pour AWS ParallelCluster les versions 3.2.0 à 3.6. *x*, ne `EnableMemoryBasedScheduling` peut pas être activé si vous configurez plusieurs types d'[instances dans Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).
[Politique de mise à jour : pour ce paramètre de valeurs de liste, une nouvelle valeur peut être ajoutée lors d'une mise à jour ou le parc informatique doit être arrêté lors de la suppression d'une valeur existante.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)    
**`InstanceType`(**Obligatoire**,`String`)**  
Type d'instance à utiliser dans cette ressource Slurm de calcul. Tous les types d'instances d'un cluster doivent utiliser la même architecture de processeur, `x86_64` soit`arm64`.  
Les types d'instances répertoriés dans [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)doivent avoir :  
+ Le même nombre de v ouCPUs, s'il [`DisableSimultaneousMultithreading`](#yaml-Scheduling-SlurmQueues-ComputeResources-DisableSimultaneousMultithreading)est défini sur`true`, le même nombre de cœurs.
+ Le même nombre d'accélérateurs des mêmes fabricants.
+ EFA est pris en charge, si [`Efa`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa)/[`Enabled`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa-Enabled)est défini sur`true`.
Les types d'instances répertoriés dans [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)peuvent être les suivants :  
+ Quantité de mémoire différente.

  Dans ce cas, la mémoire minimale doit être définie comme Slurm ressource consommable.
**Note**  
À partir de AWS ParallelCluster la version 3.7.0, elle `EnableMemoryBasedScheduling` peut être activée si vous configurez plusieurs types d'[instances dans Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).  
Pour AWS ParallelCluster les versions 3.2.0 à 3.6. *x*, ne `EnableMemoryBasedScheduling` peut pas être activé si vous configurez plusieurs types d'[instances dans Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).
+ Différentes cartes réseau.

  Dans ce cas, le nombre d'interfaces réseau configurées pour la ressource de calcul est défini par le type d'instance possédant le plus petit nombre de cartes réseau.
+ Bande passante réseau différente.
+ Taille de magasin d'instance différente.
Si vous définissez un type d'hpc6idinstance p4d ou un autre type d'instance doté de plusieurs interfaces réseau ou d'une carte d'interface réseau, vous devez lancer les instances de calcul dans un sous-réseau privé comme décrit dans[AWS ParallelCluster en utilisant deux sous-réseaux](network-configuration-v3-two-subnets.md). AWS public ne IPs peut être attribué qu'aux instances lancées avec une seule interface réseau. Pour plus d'informations, consultez la section [Attribuer une IPv4 adresse publique lors du lancement de l'instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) dans le *Guide de l'utilisateur Amazon EC2 pour les instances Linux.*  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)
`Instances`est pris en charge à partir de AWS ParallelCluster la version 3.3.0.

**`MinCount`(**Facultatif**,`Integer`)**  
Le nombre minimal d'instances utilisées par la ressource de Slurm calcul. La valeur par défaut est 0.  
La taille du cluster peut changer lors d'une mise à jour. Pour plus d'informations, voir [Taille et mise à jour de la capacité du cluster](slurm-workload-manager-v3.md)
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MaxCount`(**Facultatif**,`Integer`)**  
Nombre maximal d'instances utilisées par la ressource de Slurm calcul. La valeur par défaut est 10.  
Lorsque vous l'utilisez`CapacityType = CAPACITY_BLOCK`, `MaxCount` il doit être égal ou supérieur à `MinCount` 0, car toutes les instances faisant partie de la réservation du bloc de capacité sont gérées en tant que nœuds statiques.  
Au moment de la création du cluster, le nœud principal attend que tous les nœuds statiques soient prêts avant de signaler le succès de la création du cluster. Toutefois, lors de l'utilisation`CapacityType = CAPACITY_BLOCK`, les nœuds faisant partie des ressources de calcul associées aux blocs de capacité ne seront pas pris en compte pour cette vérification. Le cluster sera créé même si tous les blocs de capacité configurés ne sont pas actifs.  
La taille du cluster peut changer lors d'une mise à jour. Pour plus d'informations, voir [Taille et mise à jour de la capacité du cluster](slurm-workload-manager-v3.md)
 

**`DynamicNodePriority`(**Facultatif**,`Integer`)**  
Priorité des nœuds dynamiques dans une ressource de calcul de file d'attente. La priorité correspond au paramètre de [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight)configuration des Slurm nœuds pour les nœuds dynamiques des ressources informatiques. La valeur par défaut est `1000`.  
Slurmdonne la priorité aux nœuds ayant les `Weight` valeurs les plus faibles en premier.  
L'utilisation de nombreuses `Weight` valeurs différentes dans une Slurm partition (file d'attente) peut ralentir le rythme de planification des tâches dans la file d'attente.  
Dans AWS ParallelCluster les versions antérieures à la version 3.7.0, la même pondération par défaut était attribuée aux nœuds statiques et dynamiques. `1` Dans ce cas, Slurm peut donner la priorité aux nœuds dynamiques inactifs par rapport aux nœuds statiques inactifs en raison du schéma de dénomination des nœuds statiques et dynamiques. Lorsque toutes les choses sont égales par ailleurs, Slurm planifie les nœuds par ordre alphabétique de leur nom.
`DynamicNodePriority`est ajouté dans la AWS ParallelCluster version 3.7.0.
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`StaticNodePriority`(**Facultatif**,`Integer`)**  
Priorité des nœuds statiques dans une ressource de calcul de file d'attente. La priorité correspond au paramètre de [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight)configuration des Slurm nœuds pour les nœuds statiques des ressources de calcul. La valeur par défaut est `1`.  
Slurmdonne la priorité aux nœuds ayant les `Weight` valeurs les plus faibles en premier.  
L'utilisation de nombreuses `Weight` valeurs différentes dans une Slurm partition (file d'attente) peut ralentir le rythme de planification des tâches dans la file d'attente.
`StaticNodePriority`est ajouté dans la AWS ParallelCluster version 3.7.0.
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`SpotPrice`(**Facultatif**,`Float`)**  
Le prix maximum payé pour une instance Amazon EC2 Spot avant le lancement de toute instance. La valeur par défaut est le prix à la demande.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`DisableSimultaneousMultithreading`(**Facultatif**,`Boolean`)**  
Si `true` le multithreading sur les nœuds de la Slurm file d'attente est désactivé. La valeur par défaut est `false`.  
Tous les types d'instances ne peuvent pas désactiver le multithreading. Pour obtenir la liste des types d'instances qui prennent en charge la désactivation du multithreading, consultez la section relative aux [cœurs de processeur et aux threads de chaque cœur de processeur par type d'instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) dans le guide de l'utilisateur *Amazon* EC2.   
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`SchedulableMemory`(**Facultatif**,`Integer`)**  
Quantité de mémoire en MiB configurée dans le Slurm paramètre `RealMemory` pour les nœuds de calcul d'une ressource de calcul. Cette valeur est la limite supérieure de la mémoire de nœuds disponible pour les tâches lorsque [`SlurmSettings`](#Scheduling-v3-SlurmSettings)/[`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling)est activé. La valeur par défaut est de 95 % de la mémoire répertoriée dans les [types d'instances Amazon EC2](https://aws.amazon.com/ec2/instance-types) et renvoyée par l'API Amazon EC2. [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html) Assurez-vous de convertir les valeurs données en GiB en MiB.  
Valeurs prises en charge : `1-EC2Memory`  
`EC2Memory`est la mémoire (en MiB) répertoriée dans les types d'[instances Amazon EC2](https://aws.amazon.com/ec2/instance-types) et renvoyée par l'API Amazon EC2. [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html) Assurez-vous de convertir les valeurs données en GiB en MiB.  
Cette option est particulièrement pertinente lorsque [`SlurmSettings`](#Scheduling-v3-SlurmSettings)/[`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling)est activé. Pour de plus amples informations, veuillez consulter [Slurm planification basée sur la mémoire](slurm-mem-based-scheduling-v3.md).  
`SchedulableMemory`est pris en charge à partir de AWS ParallelCluster la version 3.2.0.  
À partir de la version 3.2.0, 95 % AWS ParallelCluster de la `RealMemory` mémoire renvoyée par l'API Amazon EC2 est configurée par défaut pour les nœuds de Slurm calcul. `DescribeInstanceTypes` Cette configuration est indépendante de la valeur de`EnableMemoryBasedScheduling`.
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks`(**Facultatif**)**  
Spécifiez les contrôles de santé d'une ressource de calcul.    
`Gpu`(**Facultatif**)  
Spécifiez les contrôles de santé du GPU sur une ressource de calcul.    
`Enabled`(**Facultatif**,`Boolean`)  
 AWS ParallelCluster Effectue des contrôles de santé du GPU lors du calcul d'une ressource dans une file d'attente. La valeur par défaut est `false`.  
AWS ParallelCluster ne prend pas en charge`HealthChecks`/`Gpu`dans les nœuds utilisant les systèmes d'exploitation `alinux2` ARM. Ces plateformes ne sont pas compatibles avec le [NVIDIA Data Center GPU Manager (DCGM).](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions)

**`Gpu`comportement en matière de bilan de santé**
+ Si`Gpu`/`Enabled`est défini sur`true`, AWS ParallelCluster effectue des contrôles de santé du GPU sur une ressource de calcul.
+ Le `Gpu` bilan de santé effectue des contrôles de santé sur une ressource de calcul afin d'empêcher la soumission de tâches sur des nœuds dont le GPU est dégradé.
+ Si un nœud de calcul échoue à un contrôle de `Gpu` santé, l'état du nœud de calcul passe à`DRAIN`. Les nouvelles tâches ne démarrent pas sur ce nœud. Les tâches existantes s'exécutent jusqu'à leur fin. Une fois toutes les tâches en cours d'exécution terminées, le nœud de calcul se termine s'il s'agit d'un nœud dynamique, et il est remplacé s'il s'agit d'un nœud statique.
+ La durée du bilan de `Gpu` santé dépend du type d'instance sélectionné, du nombre d'instances présentes GPUs dans l'instance et du nombre de cibles de contrôle de `Gpu` santé (équivalent au nombre de cibles GPU de la tâche). Pour une instance comportant 8 GPUs, la durée typique est inférieure à 3 minutes.
+ Si le bilan `Gpu` de santé s'exécute sur une instance qui n'est pas prise en charge, elle s'arrête et la tâche s'exécute sur le nœud de calcul. Par exemple, si une instance ne possède pas de GPU, ou si une instance possède un GPU, mais qu'il ne s'agit pas d'un GPU NVIDIA, le bilan de santé s'arrête et la tâche s'exécute sur le nœud de calcul. Seule NVIDIA est prise GPUs en charge.
+ Le `Gpu` bilan de santé utilise l'`dcgmi`outil pour effectuer des contrôles de santé sur un nœud et suit les étapes suivantes : 

  Lorsque le `Gpu` bilan de santé commence dans un nœud :

  1. Il détecte si les `nvidia-fabricmanager` services `nvidia-dcgm` et sont en cours d'exécution.

  1. Si ces services ne fonctionnent pas, le bilan `Gpu` de santé les démarre.

  1. Il détecte si le mode de persistance est activé.

  1. Si le mode de persistance n'est pas activé, le `Gpu` bilan de santé l'active.

  À la fin du bilan de santé, le bilan de `Gpu` santé rétablit ces services et ressources dans leur état initial.
+ Si le travail est attribué à un ensemble de nœuds spécifique GPUs, le contrôle de `Gpu` santé s'exécute uniquement sur cet ensemble spécifique. Dans le cas contraire, le bilan de `Gpu` santé s'exécute sur GPUs l'ensemble du nœud.
+ Si un nœud de calcul reçoit au moins deux demandes de vérification de `Gpu` santé en même temps, seule la première vérification est exécutée et les autres sont ignorées. C'est également le cas pour les bilans de santé ciblant le nœud GPUs. Vous pouvez consulter les fichiers journaux pour obtenir des informations supplémentaires concernant cette situation.
+ Le journal de vérification de l'état d'un nœud de calcul spécifique est disponible dans le `/var/log/parallelcluster/slurm_health_check.log` fichier. Ce fichier est disponible sur Amazon CloudWatch, dans le groupe de CloudWatch journaux du cluster, où vous pouvez trouver :
  + Détails sur l'action exécutée par le bilan de `Gpu` santé, y compris l'activation et la désactivation des services et le mode de persistance.
  + L'identifiant du GPU, l'ID de série et l'UUID.
  + Le résultat du bilan de santé.
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`est pris en charge à partir de AWS ParallelCluster la version 3.6.0.

**`Efa`(**Facultatif**)**  
Spécifie les paramètres Elastic Fabric Adapter (EFA) pour les nœuds de la file d'attente. Slurm  

```
Efa:
  Enabled: boolean
  GdrSupport: boolean
```
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Enabled`(**Facultatif**,`Boolean`)**  
Spécifie qu'Elastic Fabric Adapter (EFA) est activé. Pour consulter la liste des instances Amazon EC2 qui prennent en charge l'EFA, consultez la section [Types d'instances pris en charge](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) dans le *Guide de l'utilisateur Amazon EC2* pour les instances Linux. Pour de plus amples informations, veuillez consulter [Elastic Fabric Adapter](efa-v3.md). Nous vous recommandons d'utiliser un cluster [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)pour minimiser les latences entre les instances.  
La valeur par défaut est `false`.  
Elastic Fabric Adapter (EFA) n'est pas pris en charge dans différentes zones de disponibilité. Pour de plus amples informations, veuillez consulter [SubnetIds](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).
Si vous définissez un groupe de sécurité personnalisé dans [SecurityGroups](#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups), assurez-vous que vos instances compatibles avec EFA sont membres d'un groupe de sécurité qui autorise l'intégralité du trafic entrant et sortant à destination de lui-même.
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`GdrSupport`(**Facultatif**,`Boolean`)**  
**(Facultatif)** À partir de AWS ParallelCluster la version 3.0.2, ce paramètre n'a aucun effet. La prise en charge GPUDirect du RDMA (Remote Direct Memory Access) par Elastic Fabric Adapter (EFA) est toujours activée si elle est prise en charge par le type d'instance de la ressource de calcul et Slurm du système d'exploitation.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityReservationTarget`**  

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
Spécifie la réservation de capacité à la demande à utiliser pour la ressource de calcul.    
**`CapacityReservationId`(**Facultatif**,`String`)**  
L'ID de la réservation de capacité existante à cibler pour les ressources de calcul de la file d'attente. L'identifiant peut faire référence à un [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) ou à un [bloc de capacité pour ML](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html).  
Lorsque ce paramètre est spécifié au niveau de la ressource de calcul, s'il InstanceType est facultatif, il sera automatiquement extrait de la réservation.  
**`CapacityReservationResourceGroupArn`(**Facultatif**,`String`)**  
Indique le nom de ressource Amazon (ARN) du groupe de ressources qui sert de groupe de réservations de capacité lié au service pour la ressource de calcul. AWS ParallelCluster identifie et utilise la réservation de capacité la plus appropriée auprès du groupe. Le groupe de ressources doit disposer d'au moins un ODCR pour chaque type d'instance répertorié pour la ressource de calcul. Pour de plus amples informations, veuillez consulter [Lancez des instances avec des réservations de capacité à la demande (ODCR)](launch-instances-odcr-v3.md).  
+ Si cette option `PlacementGroup` est activée dans [`SlurmQueues`[`SlurmQueues`](#Scheduling-v3-SlurmQueues)](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)ou [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)//[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster sélectionne un groupe de ressources qui cible le type `PlacementGroup` d'instance et une ressource de calcul si elle existe.

  Ils `PlacementGroup` doivent cibler l'un des types d'instances définis dans [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources).
+ S'il `PlacementGroup` n'est pas activé dans [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)ou [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster sélectionne un groupe de ressources qui cible uniquement le type d'instance d'une ressource de calcul, s'il existe.
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`CapacityReservationTarget`est ajouté avec la AWS ParallelCluster version 3.3.0.

**`Networking`**  

```
Networking:   
  PlacementGroup:
    Enabled: boolean
    Name: string
```
[Politique de mise à jour : tous les nœuds de calcul doivent être arrêtés pour la suppression d'un groupe de placement géré. Le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`PlacementGroup`(**Facultatif**)**  
Spécifie les paramètres du groupe de placement pour la ressource de calcul.    
**`Enabled`(**Facultatif**,`Boolean`)**  
Indique si un groupe de placement est utilisé pour la ressource de calcul.  
+ Si elle est `Name` définie sur`true`, sans définition, cette ressource de calcul se voit attribuer son propre groupe de placement géré, quel que soit le [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)paramètre [`SlurmQueues`[`Networking`](#Scheduling-v3-SlurmQueues-Networking)](#Scheduling-v3-SlurmQueues)//.
+ Si elle est définie sur`true`, avec une valeur `Name` définie, cette ressource de calcul se voit attribuer le groupe de placement nommé, quels que soient `PlacementGroup` les paramètres `SlurmQueues``Networking`//.
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name`(**Facultatif**,`String`)**  
Le nom du groupe de placement d'un groupe de placement de clusters existant utilisé pour la ressource de calcul.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ Si les paramètres`PlacementGroup`/`Enabled`et `Name` non sont définis, leurs valeurs respectives sont par défaut les [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)paramètres [`SlurmQueues`[`Networking`](#Scheduling-v3-SlurmQueues-Networking)](#Scheduling-v3-SlurmQueues)//.
+ Lorsque vous utilisez une réservation par bloc de capacité, aucune contrainte de groupe de placement ne doit être définie car des erreurs de capacité insuffisante peuvent survenir en raison de contraintes de placement extérieures à la réservation, même si la réservation de capacité a une capacité restante.
+ `ComputeResources`/`Networking`/`PlacementGroup`est ajouté avec AWS ParallelCluster la version 3.3.0.

**`CustomSlurmSettings`(**Facultatif**,`Dict`)**  
**(Facultatif)** Définit les paramètres de configuration personnalisés du Slurm nœud (ressource de calcul).  
Spécifie un dictionnaire de paires clé-valeur de paramètres de Slurm configuration personnalisés qui s'appliquent aux Slurm nœuds (ressources de calcul).  
Chaque paire clé-valeur distincte, telle que`Param1: Value1`, est ajoutée séparément à la fin de la ligne de configuration du Slurm nœud dans le format. `Param1=Value1`  
Vous ne pouvez spécifier que des paramètres Slurm de configuration qui ne figurent pas dans la liste refusée. `CustomSlurmSettings` Pour plus d'informations sur les paramètres de Slurm configuration refusés, consultez. [Inscrit sur la liste Deny Slurm paramètres de configuration pour `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)  
AWS ParallelCluster vérifie uniquement si un paramètre figure dans une liste de refus. AWS ParallelCluster ne valide pas la syntaxe ou la sémantique de vos paramètres de Slurm configuration personnalisés. Il est de votre responsabilité de valider vos paramètres Slurm de configuration personnalisés. Des paramètres Slurm de configuration personnalisés non valides peuvent provoquer des défaillances de Slurm daemon susceptibles d'entraîner des échecs de création et de mise à jour de clusters.  
Pour plus d'informations sur la façon de spécifier des paramètres Slurm de configuration personnalisés avec AWS ParallelCluster, consultez[Slurm personnalisation de la configuration](slurm-configuration-settings-v3.md).  
Pour plus d'informations sur les paramètres Slurm de configuration, consultez [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) dans la documentation. Slurm  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`est pris en charge à partir de AWS ParallelCluster la version 3.6.0.

**`Tags`(**Facultatif**, [Chaîne])**  
Une liste de paires clé-valeur de balises. `ComputeResource`les balises remplacent les balises dupliquées spécifiées dans le [`Tags` Section](Tags-v3.md) ou [`SlurmQueues`](#yaml-Scheduling-SlurmQueues-Tags)/`Tags`.    
**`Key`(**Facultatif**,`String`)**  
Identification de balise.  
**`Value`(**Facultatif**,`String`)**  
Valeur de balise.
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LaunchTemplateOverrides`(**Facultatif**)**  
`LaunchTemplateOverrides`est ajouté avec la AWS ParallelCluster version 3.15.0.
Spécifie un modèle de lancement destiné à remplacer le modèle de lancement par défaut AWS ParallelCluster créé pour la ressource de calcul. Le modèle de lancement ne doit contenir que des remplacements d'interfaces réseau. AWS ParallelCluster valide le modèle de lancement et empêche le remplacement d'autres paramètres. Pour plus d'informations sur l'utilisation de cette dérogation, consultez[Personnalisez les interfaces réseau des nœuds de calcul avec des remplacements de modèles de lancement](tutorial-network-customization-v3.md).  

```
LaunchTemplateOverrides:
  LaunchTemplateId: string
  Version: string
```  
**`LaunchTemplateId`(**Obligatoire**,`String`)**  
ID du modèle de lancement.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Version`(**Obligatoire**,`String`)**  
Numéro de version du modèle de lancement.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeSettings`
<a name="Scheduling-v3-SlurmQueues-ComputeSettings"></a>

**(Obligatoire)** Définit la `ComputeSettings` configuration de la Slurm file d'attente.

##### Propriétés de `ComputeSettings`
<a name="Scheduling-v3-SlurmQueues-ComputeSettings.properties"></a>

Spécifie les propriétés `ComputeSettings` des nœuds de la Slurm file d'attente.

```
ComputeSettings:
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
     EphemeralVolume:
      MountDir: string
```

[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LocalStorage`(**Facultatif**)**  
Spécifie les propriétés `LocalStorage` des nœuds de la Slurm file d'attente.  

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
  EphemeralVolume:
    MountDir: string
```
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`RootVolume`(**Facultatif**)**  
Spécifie les détails du volume racine des nœuds de la Slurm file d'attente.  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
```
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Size`(**Facultatif**,`Integer`)**  
Spécifie la taille du volume racine en gibioctets (GiB) pour les nœuds de la file d'attente. Slurm La taille par défaut provient de l'AMI. L'utilisation d'une taille différente nécessite que l'AMI soit compatible`growroot`.   
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Encrypted`(**Facultatif**,`Boolean`)**  
Si`true`, le volume racine des nœuds de la Slurm file d'attente est chiffré. La valeur par défaut est `true`.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`VolumeType`(**Facultatif**,`String`)**  
Spécifie le [type de volume Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) des nœuds de la Slurm file d'attente. Les valeurs prises en charge sont `gp2` `gp3``io1`,`io2`,`sc1`,`st1`, et`standard`. La valeur par défaut est `gp3`.  
Pour plus d’informations, consultez [Types de volumes Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) dans le *Guide de l’utilisateur Amazon EC2*.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Iops`(**Facultatif**,`Boolean`)**  
Définit le nombre d'IOPS pour `io1``io2`, et le `gp3` type de volumes.  
La valeur par défaut, les valeurs prises en charge et `volume_iops` le `volume_size` ratio de production varient selon `VolumeType` et`Size`.    
**`VolumeType` = `io1`**  
Valeur par défaut `Iops` = 100  
Valeurs prises en charge `Iops` = 100—64 000 †  
`volume_size`Rapport `volume_iops` maximum = 50 IOPS par GiB. 5000 IOPS nécessitent au `volume_size` moins 100 GiB.  
**`VolumeType` = `io2`**  
Valeur par défaut `Iops` = 100  
Valeurs prises en charge `Iops` = 100 à 64 000 (256 000 pour les volumes `io2` Block Express) †  
`Size`Rapport `Iops` maximum = 500 IOPS par GiB. 5000 IOPS nécessitent au `Size` moins 10 GiB.  
**`VolumeType` = `gp3`**  
Valeur par défaut `Iops` = 3000  
Valeurs prises en charge `Iops` = 3000 à 16 000 †  
`Size`Rapport maximum `Iops` = 500 IOPS par GiB pour les volumes dont le nombre d'IOPS est supérieur à 3 000.
† Le maximum d'IOPS est garanti uniquement sur les [instances créées sur le système Nitro](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) qui sont également provisionnées avec plus de 32 000 IOPS. Les autres instances peuvent avoir jusqu'à 32 000 IOPS. `io1`Les volumes antérieurs risquent de ne pas atteindre leurs performances optimales à moins que vous ne [modifiiez le volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html). `io2` Les volumes Block Express prennent en charge `volume_iops` des valeurs allant jusqu'à 256 000 pour les types d'`R5b`instances. Pour plus d'informations, consultez la section sur les [volumes `io2` Block Express](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) dans le *guide de l'utilisateur Amazon EC2*.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Throughput`(**Facultatif**,`Integer`)**  
Définit le débit pour les types de `gp3` volumes, en Mbits/s. Ce paramètre n'est valide que lorsqu'il l'`VolumeType`est`gp3`. La valeur par défaut est `125`. Valeurs prises en charge : 125-1000 MiB/s  
Le rapport de `Throughput` à ne `Iops` peut pas être supérieur à 0,25. Le débit maximal de 1 000 MiB/s nécessite que le `Iops` paramètre soit d'au moins 4 000.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`EphemeralVolume`(**Facultatif**,`Boolean`)**  
Spécifie les paramètres du volume éphémère. Le volume éphémère est créé en combinant tous les volumes de stockage d'instance en un seul volume logique formaté avec le `ext4` système de fichiers. La valeur par défaut est `/scratch`. Si le type d'instance ne possède aucun volume de stockage d'instance, aucun volume éphémère n'est créé. Pour plus d’informations, consultez [Volumes de stockage d’instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes) dans le *Guide de l’utilisateur Amazon EC2*.  

```
EphemeralVolume:
  MountDir: string
```
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`MountDir`(**Facultatif**,`String`)**  
Le répertoire de montage du volume éphémère pour chaque nœud de la Slurm file d'attente.   
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `CustomActions`
<a name="Scheduling-v3-SlurmQueues-CustomActions"></a>

**(Facultatif)** Spécifie les scripts personnalisés à exécuter sur les nœuds de la Slurm file d'attente.

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```

[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `CustomActions`Propriétés
<a name="Scheduling-v3-SlurmQueues-CustomActions.properties"></a>

**`OnNodeStart`(**Facultatif**,`String`)**  
Spécifie une séquence de scripts ou un script unique à exécuter sur les nœuds de la Slurm file d'attente avant le lancement de toute action d'amorçage du déploiement des nœuds. AWS ParallelCluster ne permet pas d'inclure à la fois un seul script et `Sequence` pour la même action personnalisée. Pour de plus amples informations, veuillez consulter [Actions de bootstrap personnalisées](custom-bootstrap-actions-v3.md).    
**`Sequence`(**Facultatif**)**  
Liste des scripts à exécuter.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script`(**Obligatoire**,`String`)**  
Le fichier à utiliser. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(**Facultatif**,`[String]`)**  
La liste des arguments à transmettre au script.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script`(**Obligatoire**,`String`)**  
Le fichier à utiliser pour un seul script. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(**Facultatif**,`[String]`)**  
La liste des arguments à transmettre au script unique.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`OnNodeConfigured`(**Facultatif**,`String`)**  
Spécifie une séquence de scripts ou un script unique à exécuter sur les nœuds de la Slurm file d'attente une fois toutes les actions d'amorçage des nœuds terminées. AWS ParallelCluster ne permet pas d'inclure à la fois un seul script et `Sequence` pour la même action personnalisée. Pour de plus amples informations, veuillez consulter [Actions de bootstrap personnalisées](custom-bootstrap-actions-v3.md).    
**`Sequence`(**Facultatif**)**  
Liste des scripts à exécuter.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script`(**Obligatoire**,`String`)**  
Le fichier à utiliser. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(**Facultatif**,`[String]`)**  
La liste des arguments à transmettre au script.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script`(**Obligatoire**,`String`)**  
Le fichier à utiliser pour un seul script. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(**Facultatif**,`[String]`)**  
Liste d'arguments à transmettre au script unique.  
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[Politique de mise à jour : le parc informatique doit être arrêté ou QueueUpdateStrategydéfini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`Sequence`est ajouté à partir de AWS ParallelCluster la version 3.6.0. Lorsque vous le spécifiez`Sequence`, vous pouvez répertorier plusieurs scripts pour une action personnalisée. AWS ParallelCluster continue de prendre en charge la configuration d'une action personnalisée avec un seul script, sans inclure`Sequence`.  
AWS ParallelCluster ne permet pas d'inclure à la fois un seul script et `Sequence` pour la même action personnalisée.

#### `Iam`
<a name="Scheduling-v3-SlurmQueues-Iam"></a>

**(Facultatif)** Définit les paramètres IAM facultatifs pour la Slurm file d'attente.

```
Iam:
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
  InstanceProfile: string
  InstanceRole: string
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

##### `Iam`Propriétés
<a name="Scheduling-v3-SlurmQueues-Iam.properties"></a>

**`InstanceProfile`(**Facultatif**,`String`)**  
Spécifie un profil d'instance pour remplacer le rôle d'instance ou le profil d'instance par défaut pour la Slurm file d'attente. Vous ne pouvez pas spécifier à la fois `InstanceProfile` et`InstanceRole`. Le format est `arn:${Partition}:iam::${Account}:instance-profile/${InstanceProfileName}`.  
Si cela est spécifié, les `AdditionalIamPolicies` paramètres `S3Access` et ne peuvent pas être spécifiés.  
Nous vous recommandons de spécifier l'un des `AdditionalIamPolicies` paramètres `S3Access` et, ou les deux, car les fonctionnalités ajoutées nécessitent AWS ParallelCluster souvent de nouvelles autorisations.  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceRole`(**Facultatif**,`String`)**  
Spécifie un rôle d'instance pour remplacer le rôle d'instance ou le profil d'instance par défaut pour la Slurm file d'attente. Vous ne pouvez pas spécifier à la fois `InstanceProfile` et`InstanceRole`. Le format est `arn:${Partition}:iam::${Account}:role/${RoleName}`.  
Si cela est spécifié, les `AdditionalIamPolicies` paramètres `S3Access` et ne peuvent pas être spécifiés.  
Nous vous recommandons de spécifier l'un des `AdditionalIamPolicies` paramètres `S3Access` et, ou les deux, car les fonctionnalités ajoutées nécessitent AWS ParallelCluster souvent de nouvelles autorisations.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`S3Access`(**Facultatif**)**  
Spécifie un compartiment pour la Slurm file d'attente. Ceci est utilisé pour générer des politiques visant à accorder l'accès spécifié au compartiment dans la Slurm file d'attente.  
Si cela est spécifié, les `InstanceRole` paramètres `InstanceProfile` et ne peuvent pas être spécifiés.  
Nous vous recommandons de spécifier l'un des `AdditionalIamPolicies` paramètres `S3Access` et, ou les deux, car les fonctionnalités ajoutées nécessitent AWS ParallelCluster souvent de nouvelles autorisations.  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`BucketName`(**Obligatoire**,`String`)**  
Le nom du compartiment .  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`KeyName`(**Facultatif**,`String`)**  
La clé du seau. La valeur par défaut est `*`.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`EnableWriteAccess`(**Facultatif**,`Boolean`)**  
Indique si l'accès en écriture est activé pour le compartiment.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalIamPolicies`(**Facultatif**)**  
Spécifie une liste des Amazon Resource Names (ARN) des politiques IAM pour Amazon EC2. Cette liste est attachée au rôle root utilisé pour la Slurm file d'attente en plus des autorisations requises par AWS ParallelCluster.  
Le nom d'une politique IAM et son ARN sont différents. Les noms ne peuvent pas être utilisés.  
Si cela est spécifié, les `InstanceRole` paramètres `InstanceProfile` et ne peuvent pas être spécifiés.  
Nous vous recommandons d'utiliser `AdditionalIamPolicies` car `AdditionalIamPolicies` ils sont ajoutés aux autorisations AWS ParallelCluster requises et `InstanceRole` doivent inclure toutes les autorisations requises. Les autorisations requises changent souvent d'une version à l'autre au fur et à mesure que des fonctions sont ajoutées.  
Il n'existe aucune valeur par défaut.  

```
AdditionalIamPolicies:
  - Policy: string
```
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`Policy`(**Obligatoire**,`[String]`)**  
Liste des politiques IAM.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmSettings`
<a name="Scheduling-v3-SlurmSettings"></a>

**(Facultatif)** Définit les paramètres Slurm qui s'appliquent à l'ensemble du cluster.

```
SlurmSettings:
  ScaledownIdletime: integer
  QueueUpdateStrategy: string
  EnableMemoryBasedScheduling: boolean
  CustomSlurmSettings: [dict] 
  CustomSlurmSettingsIncludeFile: string
  Database:
    Uri: string
    UserName: string
    PasswordSecretArn: string
  ExternalSlurmdbd:
    Host: string
    Port: integer
  Dns:
    DisableManagedDns: boolean
    HostedZoneId: string
    UseEc2Hostnames: boolean
```

### `SlurmSettings`Propriétés
<a name="Scheduling-v3-SlurmSettings.properties"></a>

**`ScaledownIdletime`(**Facultatif**,`Integer`)**  
Définit la durée (en minutes) pendant laquelle il n'y a aucune tâche et pendant laquelle le Slurm nœud se termine.  
La valeur par défaut est `10`.  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MungeKeySecretArn`(**Facultatif**,`String`)**  
 Nom de ressource Amazon (ARN) du secret AWS Secrets Manager en texte clair qui contient la clé munge codée en base64 à utiliser dans le cluster. Slurm Cette clé munge sera utilisée pour authentifier les appels RPC entre les commandes du Slurm client et les Slurm démons agissant en tant que serveurs distants. S'il n' MungeKeySecretArn est pas fourni, AWS ParallelCluster il générera une clé munge aléatoire pour le cluster.  
`MungeKeySecretArn`est pris en charge à partir de AWS ParallelCluster la version 3.8.0.
Si la clé munge MungeKeySecretArn vient d'être ajoutée à un cluster existant, elle ne ParallelCluster restaurera pas l'ancienne clé munge en cas de restauration ou lors de la suppression ultérieure de la. MungeKeySecretArn Au lieu de cela, une nouvelle clé de munge aléatoire sera générée.
Si l' AWS ParallelCluster utilisateur est autorisé à accéder [ DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html)à cette ressource secrète spécifique, elle MungeKeySecretArn est validée. MungeKeySecretArn est valide si :  
+ Le secret spécifié existe, et
+ Le secret est en texte brut et contient une chaîne codée en base64 valide, et
+ La clé de munge binaire décodée a une taille comprise entre 256 et 8192 bits.
Si la politique IAM de l'utilisateur pcluster n'inclut pas DescribeSecret, n' MungeKeySecretArnest pas validée et un message d'avertissement s'affiche. Pour de plus amples informations, veuillez consulter [Politique AWS ParallelCluster `pcluster` utilisateur de base](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Lorsque vous effectuez une mise à jour MungeKeySecretArn, le parc informatique et tous les nœuds de connexion doivent être arrêtés.  
Si la valeur secrète de l'ARN secret est modifiée alors que l'ARN reste le même, le cluster ne sera pas automatiquement mis à jour avec la nouvelle clé munge. Pour utiliser la nouvelle clé munge de l'ARN secret, vous devez arrêter le parc informatique et connecter les nœuds, puis exécuter la commande suivante depuis le nœud principal.  
`sudo /opt/parallelcluster/scripts/slurm/update_munge_key.sh`  
Après avoir exécuté la commande, vous pouvez reprendre à la fois le parc de calcul et les nœuds de connexion : les nœuds de calcul et de connexion nouvellement provisionnés commenceront automatiquement à utiliser la nouvelle clé munge.  
Pour générer une clé munge personnalisée codée en base64, vous pouvez utiliser l'[utilitaire mungekey distribué avec le logiciel munge](https://github.com/dun/munge/wiki/Man-8-mungekey), puis l'encoder à l'aide de l'utilitaire base64 généralement disponible sur votre système d'exploitation. Vous pouvez également utiliser bash (veuillez définir le paramètre bs entre 32 et 1024)  
`dd if=/dev/random bs=128 count=1 2>/dev/null | base64 -w 0`  
ou Python comme suit :  

```
import random
import os
import base64

# key length in bytes
key_length=128

base64.b64encode(os.urandom(key_length)).decode("utf-8")
```
[Politique de mise à jour : le parc informatique et les nœuds de connexion doivent être arrêtés pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md)

**`QueueUpdateStrategy`(**Facultatif**,`String`)**  
Spécifie la stratégie de remplacement pour les paramètres de [`SlurmQueues`](#Scheduling-v3-SlurmQueues) section soumis à la politique de mise à jour suivante :  
[Politique de mise à jour : le parc informatique doit être arrêté ou `QueueUpdateStrategy` défini pour que ce paramètre soit modifié en vue d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
La `QueueUpdateStrategy` valeur est utilisée uniquement lorsqu'un processus de mise à jour du cluster démarre.  
Valeurs valides : `COMPUTE_FLEET_STOP` \$1 `DRAIN` \$1 `TERMINATE`  
Valeur par défaut : `COMPUTE_FLEET_STOP`    
**`DRAIN`**  
Les nœuds des files d'attente dont les valeurs de paramètres ont été modifiées sont définis sur. `DRAINING` Les nœuds dans cet état n'acceptent pas de nouvelles tâches et les tâches en cours d'exécution se poursuivent jusqu'à leur fin.  
Une fois qu'un nœud devient `idle` (`DRAINED`), un nœud est remplacé s'il est statique et le nœud est terminé s'il est dynamique. Les autres nœuds d'autres files d'attente dont les valeurs de paramètres n'ont pas été modifiées ne sont pas affectés.  
Le temps nécessaire à cette stratégie pour remplacer tous les nœuds de file d'attente par des valeurs de paramètres modifiées dépend de la charge de travail en cours.  
**`COMPUTE_FLEET_STOP`**  
La valeur par défaut du `QueueUpdateStrategy` paramètre. Avec ce paramètre, la mise à jour des paramètres dans la [`SlurmQueues`](#Scheduling-v3-SlurmQueues) section vous oblige à [arrêter le parc de calcul](pcluster.update-compute-fleet-v3.md) avant d'effectuer une mise à jour du cluster :  

```
$ pcluster update-compute-fleet --status STOP_REQUESTED
```  
**`TERMINATE`**  
Dans les files d'attente dont les valeurs de paramètres ont été modifiées, les tâches en cours sont interrompues et les nœuds sont immédiatement mis hors tension.  
Les nœuds statiques sont remplacés et les nœuds dynamiques sont interrompus.  
Les autres nœuds d'autres files d'attente dont les valeurs de paramètres n'ont pas été modifiées ne sont pas affectés.
[Politique de mise à jour : ce paramètre n'est pas analysé lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)  
`QueueUpdateStrategy`est pris en charge à partir de AWS ParallelCluster la version 3.2.0.

**`EnableMemoryBasedScheduling`(**Facultatif**,`Boolean`)**  
Si`true`, la planification basée sur la mémoire est activée dans. Slurm Pour plus d'informations, consultez [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`SchedulableMemory`](#yaml-Scheduling-SlurmQueues-ComputeResources-SchedulableMemory).  
La valeur par défaut est `false`.  
L'activation de la planification basée sur la mémoire a un impact sur la façon dont le Slurm planificateur gère les tâches et l'allocation des nœuds.  
Pour de plus amples informations, veuillez consulter [Slurm planification basée sur la mémoire](slurm-mem-based-scheduling-v3.md).
`EnableMemoryBasedScheduling`est pris en charge à partir de AWS ParallelCluster la version 3.2.0.
À partir de AWS ParallelCluster la version 3.7.0, elle `EnableMemoryBasedScheduling` peut être activée si vous configurez plusieurs types d'[instances dans Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).  
Pour AWS ParallelCluster les versions 3.2.0 à 3.6. *x*, ne `EnableMemoryBasedScheduling` peut pas être activé si vous configurez plusieurs types d'[instances dans Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`CustomSlurmSettings`(**Facultatif**,`[Dict]`)**  
Définit les Slurm paramètres personnalisés qui s'appliquent à l'ensemble du cluster.  
Spécifie une liste de dictionnaires de Slurm configuration de paires clé-valeur à ajouter à la fin du `slurm.conf` fichier généré. AWS ParallelCluster   
Chaque dictionnaire de la liste apparaît sous la forme d'une ligne distincte ajoutée au fichier Slurm de configuration. Vous pouvez définir des paramètres simples ou complexes.  
Les paramètres simples se composent d'une seule paire de clés, comme le montrent les exemples suivants :  

```
 - Param1: 100
 - Param2: "SubParam1,SubParam2=SubValue2"
```
Exemple rendu dans la Slurm configuration :  

```
Param1=100
Param2=SubParam1,SubParam2=SubValue2
```
Les paramètres Slurm de configuration complexes se composent de plusieurs paires clé-valeur séparées par des espaces, comme indiqué dans les exemples suivants :  

```
 - NodeName: test-nodes[1-10]
   CPUs: 4
   RealMemory: 4196
   ... # other node settings
 - NodeSet: test-nodeset
   Nodes: test-nodes[1-10]
   ... # other nodeset settings
 - PartitionName: test-partition
   Nodes: test-nodeset
   ... # other partition settings
```
Exemple, rendu dans la Slurm configuration :  

```
NodeName=test-nodes[1-10] CPUs=4 RealMemory=4196 ... # other node settings
NodeSet=test-nodeset Nodes=test-nodes[1-10] ... # other nodeset settings
PartitionName=test-partition Nodes=test-nodeset ... # other partition settings
```
SlurmLes nœuds personnalisés ne doivent pas contenir les `-dy-` modèles `-st-` or dans leurs noms. Ces modèles sont réservés aux nœuds gérés par AWS ParallelCluster.
Si vous spécifiez des paramètres Slurm de configuration personnalisés dans`CustomSlurmSettings`, vous ne devez pas spécifier de paramètres Slurm de configuration personnalisés pour`CustomSlurmSettingsIncludeFile`.  
Vous ne pouvez spécifier que des paramètres Slurm de configuration qui ne figurent pas dans la liste refusée. `CustomSlurmSettings` Pour plus d'informations sur les paramètres de Slurm configuration refusés, consultez. [Inscrit sur la liste Deny Slurm paramètres de configuration pour `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)  
AWS ParallelCluster vérifie uniquement si un paramètre figure dans une liste de refus. AWS ParallelCluster ne valide pas la syntaxe ou la sémantique de vos paramètres de Slurm configuration personnalisés. Il est de votre responsabilité de valider vos paramètres Slurm de configuration personnalisés. Des paramètres Slurm de configuration personnalisés non valides peuvent provoquer des défaillances de Slurm daemon susceptibles d'entraîner des échecs de création et de mise à jour de clusters.  
Pour plus d'informations sur la façon de spécifier des paramètres Slurm de configuration personnalisés avec AWS ParallelCluster, consultez[Slurm personnalisation de la configuration](slurm-configuration-settings-v3.md).  
Pour plus d'informations sur les paramètres Slurm de configuration, consultez [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) dans la documentation. Slurm  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`est pris en charge à partir de AWS ParallelCluster la version 3.6.0.

**`CustomSlurmSettingsIncludeFile`(**Facultatif**,`String`)**  
Définit les Slurm paramètres personnalisés qui s'appliquent à l'ensemble du cluster.  
Spécifie le Slurm fichier personnalisé composé de paramètres de Slurm configuration personnalisés à ajouter à la fin du `slurm.conf` fichier AWS ParallelCluster généré.  
Vous devez inclure le chemin d'accès au fichier. Le chemin peut commencer par `https://` ou`s3://`.  
Si vous spécifiez des paramètres Slurm de configuration personnalisés pour`CustomSlurmSettingsIncludeFile`, vous ne devez pas spécifier de paramètres Slurm de configuration personnalisés pour`CustomSlurmSettings`.  
SlurmLes nœuds personnalisés ne doivent pas contenir les `-dy-` modèles `-st-` or dans leurs noms. Ces modèles sont réservés aux nœuds gérés par AWS ParallelCluster.
Vous ne pouvez spécifier que des paramètres Slurm de configuration qui ne figurent pas dans la liste refusée. `CustomSlurmSettingsIncludeFile` Pour plus d'informations sur les paramètres de Slurm configuration refusés, consultez. [Inscrit sur la liste Deny Slurm paramètres de configuration pour `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)  
AWS ParallelCluster vérifie uniquement si un paramètre figure dans une liste de refus. AWS ParallelCluster ne valide pas la syntaxe ou la sémantique de vos paramètres de Slurm configuration personnalisés. Il est de votre responsabilité de valider vos paramètres Slurm de configuration personnalisés. Des paramètres Slurm de configuration personnalisés non valides peuvent provoquer des défaillances de Slurm daemon susceptibles d'entraîner des échecs de création et de mise à jour de clusters.  
Pour plus d'informations sur la façon de spécifier des paramètres Slurm de configuration personnalisés avec AWS ParallelCluster, consultez[Slurm personnalisation de la configuration](slurm-configuration-settings-v3.md).  
Pour plus d'informations sur les paramètres Slurm de configuration, consultez [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) dans la documentation. Slurm  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`est pris en charge à partir de AWS ParallelCluster la version 3.6.0.

### `Database`
<a name="Scheduling-v3-SlurmSettings-Database"></a>

**(Facultatif)** Définit les paramètres permettant d'activer la Slurm comptabilité sur le cluster. Pour de plus amples informations, veuillez consulter [Slurmcomptabilité avec AWS ParallelCluster](slurm-accounting-v3.md).

```
Database:
   Uri: string
   UserName: string
   PasswordSecretArn: string
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### Propriétés de `Database`
<a name="Scheduling-v3-SlurmSettings-Database.properties"></a>

**`Uri`(**Obligatoire**,`String`)**  
Adresse du serveur de base de données utilisé comme serveur principal pour la Slurm comptabilité. Cet URI doit être formaté comme suit `host:port` et ne doit pas contenir de schéma, tel que`mysql://`. L'hôte peut être une adresse IP ou un nom DNS pouvant être résolu par le nœud principal. Si aucun port n'est fourni, AWS ParallelCluster utilise le port MySQL par défaut 3306.  
AWS ParallelCluster connecte la base de données de Slurm comptabilité au cluster et doit accéder à la base de données.  
La base de données doit être accessible avant que les événements suivants ne se produisent :  
+ Un cluster est créé.
+ Slurmla comptabilité est activée avec une mise à jour du cluster.
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`UserName`(**Obligatoire**,`String`)**  
Identité Slurm utilisée pour se connecter à la base de données, écrire des journaux de comptabilité et exécuter des requêtes. L'utilisateur doit disposer d'autorisations de lecture et d'écriture sur la base de données.  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`PasswordSecretArn`(**Obligatoire**,`String`)**  
L'Amazon Resource Name (ARN) du AWS Secrets Manager secret qui contient le mot de passe en `UserName` texte clair. Ce mot de passe est utilisé conjointement avec la Slurm gestion `UserName` des comptes pour s'authentifier sur le serveur de base de données.  
+ Lorsque vous créez un secret à l'aide de la AWS Secrets Manager console, assurez-vous de sélectionner « Autre type de secret », de sélectionner du texte brut et d'inclure uniquement le texte du mot de passe dans le secret.
+ Vous ne pouvez pas utiliser le caractère « \$1 » dans le mot de passe de la base de données car Slurm ne le prend pas en charge dans slurmdbd.conf.
+ Pour plus d'informations sur la façon de AWS Secrets Manager créer un secret, reportez-vous à la section [Créer un AWS Secrets Manager secret](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret).
Si l'utilisateur est autorisé à le faire [DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html), `PasswordSecretArn` est validé. `PasswordSecretArn`est valide si le secret spécifié existe. Si la politique IAM de l'utilisateur n'inclut pas`DescribeSecret`, `PasswordSecretArn` n'est pas validée et un message d'avertissement s'affiche. Pour de plus amples informations, veuillez consulter [Politique AWS ParallelCluster `pcluster` utilisateur de base](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Lorsque vous effectuez une mise à jour`PasswordSecretArn`, le parc informatique doit être arrêté. Si la valeur du secret change et que l'ARN secret ne change pas, le cluster n'est pas automatiquement mis à jour avec le nouveau mot de passe de base de données. Pour mettre à jour le cluster en fonction de la nouvelle valeur secrète, vous devez exécuter la commande suivante depuis le nœud principal une fois le parc informatique arrêté.  

```
$ sudo /opt/parallelcluster/scripts/slurm/update_slurm_database_password.sh
```
Nous vous recommandons de ne modifier le mot de passe de la base de données que lorsque le parc informatique est arrêté afin d'éviter toute perte de données comptables.
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`DatabaseName`(**Facultatif**,`String`)**  
Nom de la base de données sur le serveur de base de données (défini par le paramètre Uri) à utiliser pour la Slurm comptabilité.  
Le nom de la base de données peut contenir des lettres minuscules, des chiffres et des traits de soulignement. Le nom ne doit pas comporter plus de 64 caractères.  
Ce paramètre correspond au `StorageLoc` paramètre de [slurmdbd.conf](https://slurm.schedmd.com/slurmdbd.conf.html#OPT_StorageLoc).  
Si `DatabaseName` ce n'est pas le cas, il ParallelCluster utilisera le nom du cluster pour définir une valeur pour`StorageLoc`.  
La mise à jour du `DatabaseName` est autorisée, sous réserve des considérations suivantes :  
+ Si une base de données portant un nom DatabaseName n'existe pas encore sur le serveur de base de données, slurmdbd la créera. Il vous incombera de reconfigurer la nouvelle base de données selon les besoins (par exemple en ajoutant les entités comptables : clusters, comptes, utilisateurs, associations QOSs, etc.).
+ Si une base de données portant un nom existe DatabaseName déjà sur le serveur de base de données, slurmdbd l'utilisera pour la Slurm fonctionnalité de comptabilité.
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**Note**  
`Database`est ajouté à partir de la version 3.3.0.

### ExternalSlurmdbd
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd"></a>

**(Facultatif)** Définit les paramètres permettant d'activer la Slurm comptabilité avec un serveur slurmdbd externe. Pour plus d'informations, consultez la section [SlurmComptabilité avec AWS ParallelCluster](slurm-accounting-v3.md).

```
ExternalSlurmdbd:
  Host: string
  Port: integer
```

#### Propriétés de `ExternalSlurmdbd`
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd.properties"></a>

**`Host`(**Obligatoire**,`String`)**  
Adresse du serveur slurmdbd externe pour la comptabilité. Slurm L'hôte peut être une adresse IP ou un nom DNS pouvant être résolu par le nœud principal.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`Port`(**Facultatif**,`Integer`)**  
Port écouté par le service slurmdbd. La valeur par défaut est `6819`.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Dns`
<a name="Scheduling-v3-SlurmSettings-Dns"></a>

**(Facultatif)** Définit les paramètres Slurm qui s'appliquent à l'ensemble du cluster.

```
Dns:
  DisableManagedDns: boolean
  HostedZoneId: string
  UseEc2Hostnames: boolean
```

#### Propriétés de `Dns`
<a name="Scheduling-v3-SlurmSettings-Dns.properties"></a>

**`DisableManagedDns`(**Facultatif**,`Boolean`)**  
Dans `true` ce cas, les entrées DNS du cluster ne sont pas créées et les noms de Slurm nœuds ne peuvent pas être résolus.  
Par défaut, AWS ParallelCluster crée une zone hébergée Route 53 dans laquelle les nœuds sont enregistrés lors du lancement. La valeur par défaut est `false`. Si `DisableManagedDns` ce paramètre est défini sur`true`, la zone hébergée n'est pas créée par AWS ParallelCluster.  
Pour savoir comment utiliser ce paramètre pour déployer des clusters dans des sous-réseaux sans accès à Internet, consultez[AWS ParallelCluster dans un seul sous-réseau sans accès à Internet](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md).  
Un système de résolution de noms est nécessaire au bon fonctionnement du cluster. Si `DisableManagedDns` ce paramètre est défini sur`true`, vous devez fournir un système de résolution de noms. Pour utiliser le DNS par défaut d'Amazon EC2, définissez sur`UseEc2Hostnames`. `true` Vous pouvez également configurer votre propre résolveur DNS et vous assurer que les noms de nœuds sont enregistrés lors du lancement des instances. Par exemple, vous pouvez le faire en configurant [`CustomActions`](#Scheduling-v3-SlurmQueues-CustomActions)/[`OnNodeStart`](#yaml-Scheduling-SlurmQueues-CustomActions-OnNodeStart).
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`HostedZoneId`(**Facultatif**,`String`)**  
Définit un ID de zone hébergée Route 53 personnalisé à utiliser pour la résolution des noms DNS du cluster. Lorsqu'il est fourni, il AWS ParallelCluster enregistre les nœuds du cluster dans la zone hébergée spécifiée et ne crée pas de zone hébergée gérée.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`UseEc2Hostnames`(**Facultatif**,`Boolean`)**  
Si`true`, les nœuds de calcul du cluster sont configurés avec le nom d'hôte EC2 par défaut. Slurm`NodeHostName`Il est également mis à jour avec ces informations. La valeur par défaut est `false`.  
Pour savoir comment utiliser ce paramètre pour déployer des clusters dans des sous-réseaux sans accès à Internet, consultez[AWS ParallelCluster dans un seul sous-réseau sans accès à Internet](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md).  
**Cette note n'est pas pertinente à partir de AWS ParallelCluster la version 3.3.0.**  
Pour les versions AWS ParallelCluster prises en charge avant la version 3.3.0 :  
Lorsqu'il `UseEc2Hostnames` est défini sur`true`, le fichier de configuration de Slurm est défini avec les scripts AWS ParallelCluster `prolog` et `epilog` :  
+ `prolog`s'exécute pour ajouter des informations `/etc/hosts` sur les nœuds aux nœuds de calcul lorsque chaque tâche est allouée.
+ `epilog`s'exécute pour nettoyer le contenu écrit par`prolog`.
Pour ajouter des `epilog` scripts personnalisés `prolog` ou personnalisés, ajoutez-les respectivement aux `/opt/slurm/etc/pcluster/epilog.d/` dossiers `/opt/slurm/etc/pcluster/prolog.d/` or.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `SharedStorage` Section
<a name="SharedStorage-v3"></a>

**(Facultatif)** Les paramètres de stockage partagé pour le cluster.

AWS ParallelCluster [prend en charge l'utilisation d'[Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AmazonEBS.html), [FSx pour ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/what-is-fsx-ontap.html) et [FSx pour les volumes de stockage partagés OpenZFS](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/what-is-fsx.html), les systèmes de fichiers de stockage partagé Amazon [EFS](https://docs.aws.amazon.com/efs/latest/ug/whatisefs.html) et [Lustre, ou FSx les](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html) caches de fichiers.](https://docs.aws.amazon.com/fsx/latest/FileCacheGuide/what-is.html)

Dans `SharedStorage` cette section, vous pouvez définir le stockage externe ou géré :
+ Le **stockage externe** fait référence à un volume ou à un système de fichiers existant que vous gérez. AWS ParallelCluster ne le crée ni ne le supprime.
+ AWS ParallelCluster le **stockage géré** fait référence à un volume ou à un système de fichiers AWS ParallelCluster créé et pouvant être supprimé.

Pour les [quotas de stockage partagé](shared-storage-quotas-v3.md) et plus d'informations sur la façon de configurer votre stockage partagé, consultez [Stockage partagé](shared-storage-quotas-integration-v3.md) la section *Utilisation AWS ParallelCluster*.

**Note**  
S'il AWS Batch est utilisé comme planificateur, FSx car Lustre n'est disponible que sur le nœud principal du cluster.

```
SharedStorage:
  - MountDir: string
    Name: string
    StorageType: Ebs
    EbsSettings:
      VolumeType: string
      Iops: integer
      Size: integer
      Encrypted: boolean
      KmsKeyId: string
      SnapshotId: string
      Throughput: integer
      VolumeId: string
      DeletionPolicy: string
      Raid:
        Type: string
        NumberOfVolumes: integer
  - MountDir: string
    Name: string
    StorageType: Efs
    EfsSettings:
      Encrypted: boolean
      KmsKeyId: string
      EncryptionInTransit: boolean
      IamAuthorization: boolean
      PerformanceMode: string
      ThroughputMode: string
      ProvisionedThroughput: integer
      FileSystemId: string
      DeletionPolicy: string
      AccessPointId: string
  - MountDir: string
    Name: string
    StorageType: FsxLustre
    FsxLustreSettings:
      StorageCapacity: integer
      DeploymentType: string
      ImportedFileChunkSize: integer
      DataCompressionType: string
      ExportPath: string
      ImportPath: string
      WeeklyMaintenanceStartTime: string
      AutomaticBackupRetentionDays: integer
      CopyTagsToBackups: boolean
      DailyAutomaticBackupStartTime: string
      PerUnitStorageThroughput: integer
      BackupId: string
      KmsKeyId: string
      FileSystemId: string
      AutoImportPolicy: string
      DriveCacheType: string
      StorageType: string
      DeletionPolicy: string
      DataRepositoryAssociations:
      - Name: string
        BatchImportMetaDataOnCreate: boolean
        DataRepositoryPath: string
        FileSystemPath: string
        ImportedFileChunkSize: integer
        AutoExportPolicy: string
        AutoImportPolicy: string
  - MountDir: string
    Name: string
    StorageType: FsxOntap
    FsxOntapSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FsxOpenZfs
    FsxOpenZfsSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FileCache
    FileCacheSettings:
      FileCacheId: string
```

## `SharedStorage`politiques de mise à jour
<a name="SharedStorage-v3.update-policies"></a>
+ Pour managed/external EBS, Managed EFS et Managed FSx Lustre, la politique de mise à jour est [Politique de mise à jour : pour ce paramètre de valeurs de liste, le parc de calcul QueueUpdateStrategydoit être arrêté ou configuré pour ajouter une nouvelle valeur ; le parc de calcul doit être arrêté lors de la suppression d'une valeur existante.](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)
+ Pour les EFS, FSx Lustre, FSx ONTAP FSx OpenZfs et File Cache externes, la politique de mise à jour est la suivante : [Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## Propriétés de `SharedStorage`
<a name="SharedStorage-v3.properties"></a>

`MountDir`(**Obligatoire**,`String`)  
Le chemin sur lequel le stockage partagé est monté.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Name`(**Obligatoire**,`String`)  
Le nom du stockage partagé. Vous utilisez ce nom lorsque vous mettez à jour les paramètres.  
Si vous spécifiez le stockage partagé AWS ParallelCluster géré et que vous modifiez la valeur pour`Name`, le stockage partagé géré et les données existants sont supprimés et un nouveau stockage partagé géré est créé. La modification de la valeur pour lors `Name` d'une mise à jour du cluster revient à remplacer le stockage partagé géré existant par un nouveau. Assurez-vous de sauvegarder vos données avant de les modifier `Name` si vous devez conserver les données du stockage partagé existant.
[Politique de mise à jour : pour ce paramètre de valeurs de liste, le parc de calcul QueueUpdateStrategydoit être arrêté ou configuré pour ajouter une nouvelle valeur ; le parc de calcul doit être arrêté lors de la suppression d'une valeur existante.](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)

`StorageType`(**Obligatoire**,`String`)  
Type de stockage partagé. Les valeurs prises en charge sont `Ebs` `Efs``FsxLustre`,`FsxOntap`, et`FsxOpenZfs`.  
Pour plus d’informations, consultez [`FsxLustreSettings`](#SharedStorage-v3-FsxLustreSettings), [`FsxOntapSettings`](#SharedStorage-v3-FsxOntapSettings) et [`FsxOpenZfsSettings`](#SharedStorage-v3-FsxOpenZfsSettings).  
Si vous l'utilisez AWS Batch comme planificateur, FSx car Lustre n'est disponible que sur le nœud principal du cluster.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EbsSettings`
<a name="SharedStorage-v3-EbsSettings"></a>

**(Facultatif)** Les paramètres d'un volume Amazon EBS.

```
EbsSettings:
  VolumeType: string
  Iops: integer
  Size: integer
  Encrypted: boolean
  KmsKeyId: string
  SnapshotId: string
  VolumeId: string
  Throughput: integer
  DeletionPolicy: string
  Raid:
    Type: string
    NumberOfVolumes: integer
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriétés de `EbsSettings`
<a name="SharedStorage-v3-EbsSettings.properties"></a>

Lorsque le [DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy)paramètre est défini sur`Delete`, un volume géré, avec ses données, est supprimé si le cluster est supprimé ou si le volume est supprimé lors d'une mise à jour du cluster. 

Pour plus d'informations, voir [Stockage partagé](shared-storage-quotas-integration-v3.md) la section *Utilisation AWS ParallelCluster*.

`VolumeType`(**Facultatif**,`String`)  
Spécifie le [type de volume Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html). Les valeurs prises en charge sont `gp2` `gp3``io1`,`io2`,`sc1`,`st1`, et`standard`. La valeur par défaut est `gp3`.  
Pour plus d’informations, consultez [Types de volumes Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) dans le *Guide de l’utilisateur Amazon EC2*.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Iops`(**Facultatif**,`Integer`)  
Définit le nombre d'IOPS pour `io1``io2`, et le `gp3` type de volumes.  
La valeur par défaut, les valeurs prises en charge et `volume_iops` le `volume_size` ratio de production varient selon `VolumeType` et`Size`.    
`VolumeType` = `io1`  
Valeur par défaut `Iops` = 100  
Valeurs prises en charge `Iops` = 100—64 000 †  
`volume_size`Rapport `volume_iops` maximum = 50 IOPS pour chaque GiB. 5000 IOPS nécessitent au `volume_size` moins 100 GiB.  
`VolumeType` = `io2`  
Valeur par défaut `Iops` = 100  
Valeurs prises en charge `Iops` = 100 à 64 000 (256 000 pour les volumes `io2` Block Express) †  
`Size`Rapport `Iops` maximum = 500 IOPS pour chaque GiB. 5000 IOPS nécessitent au `Size` moins 10 GiB.  
`VolumeType` = `gp3`  
Valeur par défaut `Iops` = 3000  
Valeurs prises en charge `Iops` = 3000 à 16 000  
`Size`Rapport `Iops` maximum = 500 IOPS pour chaque GiB. 5000 IOPS nécessitent au `Size` moins 10 GiB.
† Le maximum d'IOPS est garanti uniquement sur les [instances basées sur le système Nitro](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) et approvisionnées avec plus de 32 000 IOPS. Les autres instances garantissent jusqu'à 32 000 IOPS. À moins que vous ne [modifiiez le volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html), `io1` les volumes antérieurs risquent de ne pas atteindre leurs performances optimales. `io2` Les volumes Block Express prennent en charge `volume_iops` des valeurs allant jusqu'à 256 000 pour les types d'`R5b`instances. Pour plus d'informations, consultez la section sur les [volumes `io2` Block Express](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) dans le *guide de l'utilisateur Amazon EC2*.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Size`(**Facultatif**,`Integer`)  
Spécifie la taille du volume en gibioctets (GiB). La valeur par défaut est 35.   
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Encrypted`(**Facultatif**,`Boolean`)  
Spécifie si le volume est chiffré. La valeur par défaut est `true`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`(**Facultatif**,`String`)  
Spécifie une AWS KMS clé personnalisée à utiliser pour le chiffrement. Ce paramètre nécessite qu'il soit défini sur`true`. `Encrypted`  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SnapshotId`(**Facultatif**,`String`)  
Spécifie l'ID du snapshot Amazon EBS si vous utilisez un instantané comme source pour le volume.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`VolumeId`(**Facultatif**,`String`)  
Spécifie l'ID du volume Amazon EBS. Lorsque cela est spécifié pour une `EbsSettings` instance, seul le `MountDir` paramètre peut également être spécifié.  
Le volume doit être créé dans la même zone de disponibilité que le`HeadNode`.  
Plusieurs zones de disponibilité ont été ajoutées dans la AWS ParallelCluster version 3.4.0.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Throughput`(**Facultatif**,`Integer`)  
Le débit, destiné MiB/s à approvisionner un volume, avec un maximum de 1 000 Mbits/s.  
Ce paramètre n'est valide que lorsqu'il l'`VolumeType`est`gp3`. La plage prise en charge est comprise entre 125 et 1 000, avec une valeur par défaut de 125.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DeletionPolicy`(**Facultatif**,`String`)  
Spécifie si le volume doit être conservé, supprimé ou capturé en instantané lorsque le cluster est supprimé ou que le volume est supprimé. Les valeurs prises en charge sont `Delete``Retain`, et`Snapshot`. La valeur par défaut est `Delete`.  
Lorsque ce paramètre est [DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy)défini sur`Delete`, un volume géré, avec ses données, est supprimé si le cluster est supprimé ou si le volume est supprimé lors d'une mise à jour du cluster.  
Pour de plus amples informations, veuillez consulter [Stockage partagé](shared-storage-quotas-integration-v3.md).  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`est pris en charge à partir de AWS ParallelCluster la version 3.2.0.

### `Raid`
<a name="SharedStorage-v3-EbsSettings-Raid"></a>

**(Facultatif)** Définit la configuration d'un volume RAID.

```
Raid:
  Type: string
  NumberOfVolumes: integer
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

#### Propriétés de `Raid`
<a name="SharedStorage-v3-EbsSettings-Raid.properties"></a>

`Type`(**Obligatoire**,`String`)  
Définit le type de matrice RAID. Les valeurs prises en charge sont « 0 » (rayé) et « 1 » (en miroir).  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`NumberOfVolumes`(**Facultatif**,`Integer`)  
Définit le nombre de volumes Amazon EBS à utiliser pour créer la matrice RAID. La plage de valeurs prise en charge est comprise entre 2 et 5. La valeur par défaut (lorsque le `Raid` paramètre est défini) est 2.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EfsSettings`
<a name="SharedStorage-v3-EfsSettings"></a>

**(Facultatif)** Les paramètres d'un système de fichiers Amazon EFS.

```
EfsSettings:
  Encrypted: boolean
  KmsKeyId: string
  EncryptionInTransit: boolean
  IamAuthorization: boolean
  PerformanceMode: string
  ThroughputMode: string
  ProvisionedThroughput: integer
  FileSystemId: string
  DeletionPolicy: string
  AccessPointId: string
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriétés de `EfsSettings`
<a name="SharedStorage-v3-EfsSettings.properties"></a>

Lorsque ce paramètre est [DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)défini sur`Delete`, un système de fichiers géré, avec ses données, est supprimé si le cluster est supprimé ou si le système de fichiers est supprimé lors d'une mise à jour du cluster.

Pour plus d'informations, voir [Stockage partagé](shared-storage-quotas-integration-v3.md) la section *Utilisation AWS ParallelCluster*.

`Encrypted`(**Facultatif**,`Boolean`)  
Spécifie si le système de fichiers Amazon EFS est chiffré. La valeur par défaut est `false`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`(**Facultatif**,`String`)  
Spécifie une AWS KMS clé personnalisée à utiliser pour le chiffrement. Ce paramètre nécessite qu'il soit défini sur`true`. `Encrypted`  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EncryptionInTransit`(**Facultatif**,`Boolean`)  
S'il est défini sur`true`, les systèmes de fichiers Amazon EFS sont montés à l'aide du protocole TLS (Transport Layer Security). Par défaut, ce paramètre est défini sur`false`.  
S'il AWS Batch est utilisé comme planificateur, il `EncryptionInTransit` n'est pas pris en charge.
`EncryptionInTransit`est ajouté à partir de AWS ParallelCluster la version 3.4.0.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`IamAuthorization`(**Facultatif**,`Boolean`)  
`IamAuthorization`est ajouté à partir de AWS ParallelCluster la version 3.4.0.  
Si ce paramètre est défini sur`true`, Amazon EFS est authentifié à l'aide de l'identité IAM du système. Par défaut, ce paramètre est défini sur`false`.  
Si `IamAuthorization` est défini sur `true`, `EncryptionInTransit` doit également être défini sur `true`.
S'il AWS Batch est utilisé comme planificateur, il `IamAuthorization` n'est pas pris en charge.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`PerformanceMode`(**Facultatif**,`String`)  
Spécifie le mode de performance du système de fichiers Amazon EFS. Les valeurs prises en charge sont `generalPurpose` et `maxIO`. La valeur par défaut est `generalPurpose`. Pour plus d’informations, consultez [Modes de performances](https://docs.aws.amazon.com/efs/latest/ug/performance.html#performancemodes) dans le *guide de l’utilisateur Amazon Elastic File System*.  
Nous recommandons le mode de performance `generalPurpose` pour la plupart des systèmes de fichiers.  
Les systèmes de fichiers qui utilisent le mode de performance `maxIO` peuvent évoluer vers des niveaux plus élevés de débit cumulé et d'opérations par seconde. Cependant, il existe un compromis entre des latences légèrement plus élevées pour la plupart des opérations sur les fichiers.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ThroughputMode`(**Facultatif**,`String`)  
Spécifie le mode de débit du système de fichiers Amazon EFS. Les valeurs prises en charge sont `bursting` et `provisioned`. La valeur par défaut est `bursting`. Quand il `provisioned` est utilisé, `ProvisionedThroughput` doit être spécifié.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ProvisionedThroughput`(**Obligatoire** quand `ThroughputMode` c'est le cas`provisioned`,`Integer`)  
Définit le débit provisionné (en. MiB/s) of the Amazon EFS file system, measured in MiB/s Cela correspond au [ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps)paramètre indiqué dans le manuel *Amazon EFS API Reference*.  
Si vous utilisez ce paramètre, vous devez définir `ThroughputMode` sur `provisioned`.  
La plage prise en charge est de `1` -`1024`. Pour demander une augmentation de limite, contactez Support.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`FileSystemId`(**Facultatif**,`String`)  
Définit l'ID du système de fichiers Amazon EFS pour un système de fichiers existant.  
Si le cluster est configuré pour couvrir plusieurs zones de disponibilité, vous devez définir une cible de montage du système de fichiers dans chaque zone de disponibilité utilisée par le cluster.  
Lorsque cela est spécifié, seul `MountDir` peut être spécifié. Aucune autre option `EfsSettings` ne peut être spécifiée.  

**Si vous définissez cette option, les conditions suivantes doivent être vraies pour les systèmes de fichiers que vous définissez :**
+ Les systèmes de fichiers ont une cible de montage existante dans chacune des zones de disponibilité du cluster, le trafic NFS entrant et sortant étant autorisé depuis et. `HeadNode` `ComputeNodes` Plusieurs zones de disponibilité sont configurées dans [Scheduling](Scheduling-v3.md)/[SlurmQueues](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[Networking](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[SubnetIds](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).

  

**Pour vous assurer que le trafic est autorisé entre le cluster et le système de fichiers, vous pouvez effectuer l'une des opérations suivantes :**
  + Configurez les groupes de sécurité de la cible de montage pour autoriser le trafic à destination et en provenance du CIDR ou de la liste de préfixes des sous-réseaux du cluster.
**Note**  
AWS ParallelCluster valide que les ports sont ouverts et que le CIDR ou la liste de préfixes est configuré. AWS ParallelCluster ne valide pas le contenu du bloc ou de la liste de préfixes CIDR.
  + Définissez des groupes de sécurité personnalisés pour les nœuds de cluster en utilisant [`SlurmQueues`[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)](Scheduling-v3.md#Scheduling-v3-SlurmQueues)//[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)et [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Les groupes de sécurité personnalisés doivent être configurés pour autoriser le trafic entre le cluster et le système de fichiers.
**Note**  
Si tous les nœuds du cluster utilisent des groupes de sécurité personnalisés, cela confirme AWS ParallelCluster uniquement que les ports sont ouverts. AWS ParallelCluster ne confirme pas que la source et la destination sont correctement configurées.
 OneZone L'EFS n'est pris en charge que si tous les nœuds de calcul et le nœud principal se trouvent dans la même zone de disponibilité. L'EFS ne OneZone peut avoir qu'une seule cible de montage.
Plusieurs zones de disponibilité ont été ajoutées dans la AWS ParallelCluster version 3.4.0.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy`(**Facultatif**,`String`)  
Spécifie si le système de fichiers doit être conservé ou supprimé lorsque le système de fichiers est supprimé du cluster ou lorsque le cluster est supprimé. Les valeurs prises en charge sont `Delete` et `Retain`. La valeur par défaut est `Delete`.  
Lorsque le [DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)paramètre est défini sur`Delete`, un système de fichiers géré, avec ses données, est supprimé si le cluster est supprimé ou si le système de fichiers est supprimé lors d'une mise à jour du cluster.  
Pour de plus amples informations, veuillez consulter [Stockage partagé](shared-storage-quotas-integration-v3.md).  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`est pris en charge à partir de AWS ParallelCluster la version 3.3.0.

`AccessPointId`(**Facultatif**,`String`)  
Si cette option est spécifiée, le point d'entrée du système de fichiers défini par le `access point ID` sera monté plutôt que la racine du système de fichiers.  
Pour de plus amples informations, veuillez consulter [Stockage partagé](shared-storage-quotas-integration-v3.md).  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxLustreSettings`
<a name="SharedStorage-v3-FsxLustreSettings"></a>

**Note**  
Vous devez définir `FsxLustreSettings` s'il `FsxLustre` est spécifié pour [`StorageType`](#yaml-SharedStorage-StorageType).

**(Facultatif)** Les paramètres d'un système de fichiers FSx pour Lustre.

```
FsxLustreSettings:
  StorageCapacity: integer
  DeploymentType: string
  ImportedFileChunkSize: integer
  DataCompressionType: string
  ExportPath: string
  ImportPath: string
  WeeklyMaintenanceStartTime: string
  AutomaticBackupRetentionDays: integer
  CopyTagsToBackups: boolean
  DailyAutomaticBackupStartTime: string
  PerUnitStorageThroughput: integer
  BackupId: string # BackupId cannot coexist with some of the fields
  KmsKeyId: string
  FileSystemId: string # FileSystemId cannot coexist with other fields
  AutoImportPolicy: string
  DriveCacheType: string
  StorageType: string
  DeletionPolicy: string
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**Note**  
S'il AWS Batch est utilisé comme planificateur, FSx car Lustre n'est disponible que sur le nœud principal du cluster.

### Propriétés de `FsxLustreSettings`
<a name="SharedStorage-v3-FsxLustreSettings.properties"></a>

Lorsque le [DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)paramètre est défini sur`Delete`, un système de fichiers géré, avec ses données, est supprimé si le cluster est supprimé ou si le système de fichiers est supprimé lors d'une mise à jour du cluster.

Pour de plus amples informations, veuillez consulter [Stockage partagé](shared-storage-quotas-integration-v3.md).

`StorageCapacity`(**Obligatoire**,`Integer`)  
Définit la capacité de stockage du système de fichiers FSx for Lustre, en GiB. `StorageCapacity`est obligatoire si vous créez un nouveau système de fichiers. N'incluez pas `StorageCapacity` si `BackupId` ou `FileSystemId` est spécifié.  
+ Pour `SCRATCH_2` les `PERSISTENT_1` types de `PERSISTENT_2` déploiement et les types de déploiement, les valeurs valides sont 1200 GiB, 2400 GiB et des incréments de 2400 GiB.
+ Pour le type de déploiement `SCRATCH_1`, les valeurs valides sont 1 200 Gio, 2 400 Gio et des incréments de 3 600 Gio.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeploymentType`(**Facultatif**,`String`)  
Spécifie le type de déploiement du système de fichiers FSx for Lustre. Les valeurs prises en charge sont `SCRATCH_1`, `SCRATCH_2`, `PERSISTENT_1` et `PERSISTENT_2`. La valeur par défaut est `SCRATCH_2`.  
Choisissez `SCRATCH_1` les types de `SCRATCH_2` déploiement lorsque vous avez besoin d'un stockage temporaire et d'un traitement des données à court terme. Le type de `SCRATCH_2` déploiement fournit un chiffrement des données en transit et une capacité de débit en rafale supérieure à celle de`SCRATCH_1`.  
Choisissez `PERSISTENT_1` le type de déploiement pour le stockage à long terme et pour les charges de travail axées sur le débit qui ne sont pas sensibles à la latence. `PERSISTENT_1`prend en charge le chiffrement des données en transit. Il est disponible partout Régions AWS où FSx for Lustre est disponible.  
Choisissez `PERSISTENT_2` le type de déploiement pour le stockage à long terme et pour les charges de travail sensibles à la latence qui nécessitent les plus hauts niveaux d'IOPS et de débit. `PERSISTENT_2`prend en charge le stockage SSD et offre une valeur supérieure `PerUnitStorageThroughput` (jusqu'à 1000 Mo/s/TiB). `PERSISTENT_2`est disponible en nombre limité de Régions AWS. Pour plus d'informations sur les types de déploiement et la liste des Régions AWS emplacements `PERSISTENT_2` disponibles, consultez les [options de déploiement du système de fichiers FSx pour Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html#lustre-deployment-types) dans le *guide de l'utilisateur d'Amazon FSx pour Lustre*.  
Le chiffrement des données en transit est automatiquement activé lorsque vous accédez à `SCRATCH_2` des systèmes de fichiers ou que vous `PERSISTENT_2` déployez à partir d'instances Amazon EC2 compatibles avec [cette](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/data-protection.html) fonctionnalité. `PERSISTENT_1`  
Le chiffrement des données en transit pour `SCRATCH_2` et les types de `PERSISTENT_2` déploiement est pris en charge lorsque l'accès à partir des types d'instances pris en charge est pris en charge Régions AWS. `PERSISTENT_1` Pour plus d'informations, consultez la section [Chiffrement des données en transit](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html) dans le *guide de l'utilisateur d'Amazon FSx for Lustre*.  
Support pour le type de `PERSISTENT_2` déploiement a été ajouté avec AWS ParallelCluster la version 3.2.0.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize`(**Facultatif**,`Integer`)  
Pour les fichiers importés depuis un référentiel de données, cette valeur détermine le nombre de bandes et la quantité maximale de données pour chaque fichier (en MiB) stocké sur un seul disque physique. Le nombre maximal de disques sur lesquels un fichier unique peut être agrégé par bandes est limité au nombre total de disques qui composent le système de fichiers.  
La taille de bloc par défaut est 1 024 Mio (1 Gio) et peut atteindre 512 000 Mio (500 Gio). Les objets Amazon S3 ont une taille maximale de 5 To.  
Ce paramètre n'est pas pris en charge pour les systèmes de fichiers qui utilisent le type de `PERSISTENT_2` déploiement. Pour savoir comment configurer les associations de référentiels de données, consultez la section [Lier votre système de fichiers à un compartiment S3](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) dans le *guide de l'utilisateur d'Amazon FSx for Lustre*.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataCompressionType`(**Facultatif**,`String`)  
Définit la configuration de compression des données pour le système de fichiers FSx for Lustre. La valeur prise en charge est`LZ4`. `LZ4`indique que la compression des données est activée avec l' LZ4 algorithme. Lorsque `DataCompressionType` ce n'est pas spécifié, la compression des données est désactivée lors de la création du système de fichiers.  
Pour plus d'informations, consultez la section [Compression de données Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html).  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ExportPath`(**Facultatif**,`String`)  
Le chemin dans Amazon S3 où la racine de votre système de fichiers FSx for Lustre est exportée. Ce paramètre n'est pris en charge que `ImportPath` lorsqu'il est spécifié. Le chemin doit utiliser le même compartiment Amazon S3 que celui spécifié dans`ImportPath`. Vous pouvez fournir un préfixe facultatif vers lequel les données nouvelles et modifiées doivent être exportées depuis votre système de fichiers FSx for Lustre. Si aucune `ExportPath` valeur n'est fournie, car FSx Lustre définit un chemin d'exportation par défaut,`s3://amzn-s3-demo-bucket/FSxLustre[creation-timestamp]`. L'horodatage est au format UTC, par exemple `s3://amzn-s3-demo-bucket/FSxLustre20181105T222312Z`.  
Le compartiment d'exportation Amazon S3 doit être le même que le compartiment d'importation spécifié par `ImportPath`. Si vous spécifiez uniquement un nom de compartiment, par exemple`s3://amzn-s3-demo-bucket`, vous obtenez un mappage 1:1 des objets du système de fichiers vers les objets du compartiment Amazon S3. Ce mappage signifie que les données d'entrée dans Amazon S3 sont remplacées lors de l'exportation. Si vous fournissez un préfixe personnalisé dans le chemin d'exportation, par exemple, FSx pour Lustre`s3://amzn-s3-demo-bucket/[custom-optional-prefix]`, exporte le contenu de votre système de fichiers vers ce préfixe d'exportation dans le compartiment Amazon S3.  
Ce paramètre n'est pas pris en charge pour les systèmes de fichiers qui utilisent le type de `PERSISTENT_2` déploiement. Configurez les associations de référentiels de données comme décrit dans la section [Liaison de votre système de fichiers à un compartiment S3](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) du *guide de l'utilisateur Amazon FSx for Lustre*.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportPath`(**Facultatif**,`String`)  
Le chemin d'accès au compartiment Amazon S3 (y compris le préfixe facultatif) que vous utilisez comme référentiel de données pour votre système de fichiers FSx for Lustre. La racine de votre système de fichiers FSx for Lustre sera mappée à la racine du compartiment Amazon S3 que vous sélectionnez. Par exemple : `s3://amzn-s3-demo-bucket/optional-prefix`. Si vous spécifiez un préfixe après le nom du compartiment Amazon S3, seules les clés d'objet comportant ce préfixe sont chargées dans le système de fichiers.  
Ce paramètre n'est pas pris en charge pour les systèmes de fichiers qui utilisent le type de `PERSISTENT_2` déploiement. Configurez les associations de référentiels de données comme décrit dans la section [Liaison de votre système de fichiers à un compartiment S3](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) du *guide de l'utilisateur Amazon FSx for Lustre*.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`WeeklyMaintenanceStartTime`(**Facultatif**,`String`)  
Heure de début préférée pour effectuer la maintenance hebdomadaire. Il est au `"d:HH:MM"` format du fuseau horaire UTC\$10. Pour ce format, `d` il s'agit du numéro du jour de la semaine compris entre 1 et 7, commençant par le lundi et se terminant par le dimanche. Les guillemets sont obligatoires pour ce champ.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutomaticBackupRetentionDays`(**Facultatif**,`Integer`)  
Nombre de jours de conservation des sauvegardes automatiques. La définition de cette valeur sur 0 désactive les sauvegardes automatiques. La plage prise en charge est comprise entre 0 et 90. La valeur par défaut est 0. Ce paramètre n'est valide que pour une utilisation avec `PERSISTENT_1` et pour les types de `PERSISTENT_2` déploiement. Pour plus d'informations, consultez la section [Utilisation des sauvegardes](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) dans le *guide de l'utilisateur d'Amazon FSx for Lustre*.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`CopyTagsToBackups`(**Facultatif**,`Boolean`)  
Si`true`, copiez les balises du système de fichiers FSx for Lustre dans les sauvegardes. La valeur par défaut est `false`. Si elle est définie sur `true`, toutes les balises du système de fichiers sont copiées dans toutes les sauvegardes automatiques et initiées par l'utilisateur lorsque l'utilisateur ne spécifie pas de balises. Si cette valeur est `true` et que vous spécifiez une ou plusieurs balises, seules les balises spécifiées sont copiées vers les sauvegardes. Si vous spécifiez une ou plusieurs balises lorsque vous créez une sauvegarde initiée par l'utilisateur, aucune balise n'est copiée depuis le système de fichiers, quelle que soit cette valeur. Ce paramètre n'est valide que pour une utilisation avec `PERSISTENT_1` et pour les types de `PERSISTENT_2` déploiement.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DailyAutomaticBackupStartTime`(**Facultatif**,`String`)  
Une heure quotidienne récurrente, au `HH:MM` format. `HH`est l'heure de la journée remplie de zéro (00-23). `MM`est la minute de l'heure remplie de zéro (00-59). Par exemple, `05:00` indique 5 h du matin tous les jours. Ce paramètre n'est valide que pour une utilisation avec `PERSISTENT_1` et pour les types de `PERSISTENT_2` déploiement.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`PerUnitStorageThroughput`(**Obligatoire pour les types `PERSISTENT_1` de `PERSISTENT_2` déploiement et les types de déploiement**,`Integer`)  
Décrit le débit de lecture et d'écriture pour chaque tebioctet de stockage, en Mo/s/TiB. La capacité de débit du système de fichiers est calculée en multipliant la capacité de stockage du système de fichiers (TiB) par le `PerUnitStorageThroughput` (de) pour `PerUnitStorageThroughput` obtenir 120 MB/s  % du débit du système MB/s/TiB). For a 2.4 TiB ﬁle system, provisioning 50 MB/s/TiB de fichiers. Vous payez le débit que vous allouez. Cela correspond à la [PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput)propriété.  
Valeurs valides :  
+ Stockage SSD PERSISTENT\$11 : 50, 100, 200 Mo/s/TiB.
+ PERSISTENT\$11 Stockage sur disque dur : 12, 40 Mo/s/TiB.
+ Stockage SSD PERSISTENT\$12 : 125, 250, 500, 1 000 Mo/s/TiB.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BackupId`(**Facultatif**,`String`)  
Spécifie l'ID de la sauvegarde à utiliser pour restaurer le système de fichiers FSx for Lustre à partir d'une sauvegarde existante. Lorsque le `BackupId` paramètre est spécifié, les `PerUnitStorageThroughput` paramètres `AutoImportPolicy``DeploymentType`,`ExportPath`,`KmsKeyId`,`ImportPath`,`ImportedFileChunkSize`,`StorageCapacity`, et ne doivent pas être spécifiés. Ces paramètres sont lus à partir de la sauvegarde. En outre`AutoImportPolicy`, les `ImportedFileChunkSize` paramètres `ExportPath``ImportPath`,, et ne doivent pas être spécifiés. Cela correspond à la [BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid)propriété.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`(**Facultatif**,`String`)  
L'ID de la clé AWS Key Management Service (AWS KMS) utilisée FSx pour chiffrer les données du système de fichiers Lustre afin de les rendre persistantes FSx pour les systèmes de fichiers Lustre au repos. Si elle n'est pas spécifiée, la clé gérée FSx for Lustre est utilisée. Les systèmes de fichiers `SCRATCH_1` et `SCRATCH_2` FSx pour Lustre sont toujours chiffrés au repos à l'aide FSx de clés gérées par Lustre. Pour plus d'informations, consultez la section [Chiffrer](https://docs.aws.amazon.com//kms/latest/APIReference/API_Encrypt.html) dans le guide de *référence de l'AWS Key Management Service API*.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemId`(**Facultatif**,`String`)  
Spécifie l'ID d'un système de fichiers existant FSx pour Lustre.  
Si cette option est spécifiée, seuls les `FileSystemId` paramètres `MountDir` et du `FsxLustreSettings` sont utilisés. Tous les autres paramètres du `FsxLustreSettings` sont ignorés.  
Si le AWS Batch planificateur est utilisé, FSx car Lustre n'est disponible que sur le nœud principal.
Le système de fichiers doit être associé à un groupe de sécurité qui autorise le trafic TCP entrant et sortant via les ports 988, 1021, 1022 et 1023.
Assurez-vous que le trafic est autorisé entre le cluster et le système de fichiers en effectuant l'une des opérations suivantes :  
+ Configurez les groupes de sécurité du système de fichiers pour autoriser le trafic à destination et en provenance du CIDR ou de la liste de préfixes des sous-réseaux du cluster.
**Note**  
AWS ParallelCluster valide que les ports sont ouverts et que le CIDR ou la liste de préfixes est configuré. AWS ParallelCluster ne valide pas le contenu du bloc ou de la liste de préfixes CIDR.
+ Définissez des groupes de sécurité personnalisés pour les nœuds de cluster en utilisant [`SlurmQueues`[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)](Scheduling-v3.md#Scheduling-v3-SlurmQueues)//[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)et [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Les groupes de sécurité personnalisés doivent être configurés pour autoriser le trafic entre le cluster et le système de fichiers.
**Note**  
Si tous les nœuds du cluster utilisent des groupes de sécurité personnalisés, cela confirme AWS ParallelCluster uniquement que les ports sont ouverts. AWS ParallelCluster ne confirme pas que la source et la destination sont correctement configurées.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AutoImportPolicy`(**Facultatif**,`String`)  
Lorsque vous créez votre système de fichiers FSx for Lustre, vos objets Amazon S3 existants apparaissent sous forme de listes de fichiers et de répertoires. Utilisez cette propriété FSx pour choisir comment Lustre met à jour vos listes de fichiers et de répertoires lorsque vous ajoutez ou modifiez des objets dans votre compartiment Amazon S3 associé. `AutoImportPolicy`peut avoir les valeurs suivantes :  
+  `NEW`- L'importation automatique est activée. FSx for Lustre importe automatiquement les listes de répertoires de tous les nouveaux objets ajoutés au compartiment Amazon S3 lié qui n'existent pas actuellement dans le système de fichiers FSx for Lustre. 
+  `NEW_CHANGED`- L'importation automatique est activée. FSx for Lustre importe automatiquement les listes de fichiers et de répertoires de tous les nouveaux objets ajoutés au compartiment Amazon S3 et de tous les objets existants modifiés dans le compartiment Amazon S3 une fois que vous avez choisi cette option. 
+  `NEW_CHANGED_DELETED`- L'importation automatique est activée. FSx for Lustre importe automatiquement les listes de fichiers et de répertoires de tous les nouveaux objets ajoutés au compartiment Amazon S3, de tous les objets existants modifiés dans le compartiment Amazon S3 et de tous les objets supprimés du compartiment Amazon S3 une fois que vous avez choisi cette option.
**Note**  
Support pour `NEW_CHANGED_DELETED` a été ajouté dans la AWS ParallelCluster version 3.1.1.
Si `AutoImportPolicy` ce n'est pas spécifié, l'importation automatique est désactivée. FSx for Lustre met uniquement à jour les listes de fichiers et de répertoires à partir du compartiment Amazon S3 lié lorsque le système de fichiers est créé. FSx for Lustre ne met pas à jour les listes de fichiers et de répertoires pour les objets nouveaux ou modifiés après avoir sélectionné cette option.  
Pour plus d'informations, consultez [Importer automatiquement les mises à jour depuis votre compartiment S3](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html) dans le *guide de l'utilisateur d'Amazon FSx for Lustre*.  
Ce paramètre n'est pas pris en charge pour les systèmes de fichiers utilisant le type de `PERSISTENT_2` déploiement. Pour savoir comment configurer les associations de référentiels de données, consultez la section [Lier votre système de fichiers à un compartiment S3](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) dans le *guide de l'utilisateur d'Amazon FSx for Lustre*.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DriveCacheType`(**Facultatif**,`String`)  
Spécifie que le système de fichiers possède un cache de disque SSD. Cela ne peut être défini que si le `StorageType` paramètre est défini sur`HDD`, et le `DeploymentType` paramètre est défini sur`PERSISTENT_1`. Cela correspond à la [DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype)propriété. Pour plus d'informations, consultez [FSx les options de déploiement de Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) dans le *guide de l'utilisateur d'Amazon FSx pour Lustre*.  
La seule valeur valide est `READ`. Pour désactiver le cache du disque SSD, ne spécifiez pas le `DriveCacheType` paramètre.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`StorageType`(**Facultatif**,`String`)  
Définit le type de stockage FSx pour le système de fichiers for Lustre que vous créez. Les valeurs valides sont `SSD` et `HDD`.  
+ Définissez ce paramètre sur `SSD` pour utiliser un stockage SSD.
+ Configurez `HDD` pour utiliser le stockage sur disque dur. `HDD`est pris en charge sur les types de `PERSISTENT` déploiement. 
La valeur par défaut est `SSD`. Pour plus d'informations, consultez les [options de type de stockage](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/optimize-fsx-costs.html#storage-type-options) dans le *guide de l'utilisateur d'Amazon FSx pour Windows* et les [options de stockage multiples](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html#storage-options) dans le *guide de l'utilisateur d'Amazon FSx pour Lustre*.   
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy`(**Facultatif**,`String`)  
Spécifie si le système de fichiers doit être conservé ou supprimé lorsque le système de fichiers est supprimé du cluster ou lorsque le cluster est supprimé. Les valeurs prises en charge sont `Delete` et `Retain`. La valeur par défaut est `Delete`.  
Lorsque le [DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)paramètre est défini sur`Delete`, un système de fichiers géré, avec ses données, est supprimé si le cluster est supprimé ou si le système de fichiers est supprimé lors d'une mise à jour du cluster.  
Pour de plus amples informations, veuillez consulter [Stockage partagé](shared-storage-quotas-integration-v3.md).  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`est pris en charge à partir de AWS ParallelCluster la version 3.3.0.

`DataRepositoryAssociations`(**Facultatif**,`String`)  
Liste des DRAs (jusqu'à 8 par système de fichiers)  
Chaque association de référentiel de données doit disposer d'un répertoire de système de FSx fichiers Amazon unique et d'un compartiment ou d'un préfixe S3 unique qui lui est associé.  
Vous ne pouvez pas utiliser [ExportPath](#yaml-SharedStorage-FsxLustreSettings-ExportPath)et [ImportPath](#yaml-SharedStorage-FsxLustreSettings-ImportPath)en FsxLustreSettings même temps que vous utilisez DRAs.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Name`(**Obligatoire**,`String`)  
Le nom du DRA. Vous utilisez ce nom lorsque vous mettez à jour les paramètres.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BatchImportMetaDataOnCreate`(**Facultatif**,`Boolean`)  
Un indicateur booléen déterminant si une tâche de référentiel de données d'importation permettant d'importer des métadonnées doit être exécutée après la création de l'association de référentiels de données. La tâche s'exécute si cet indicateur est défini sur `true`.  
Valeur par défaut : `false`  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataRepositoryPath`(**Obligatoire**,`String`)  
Chemin d'accès au référentiel de données Amazon S3 qui sera lié au système de fichiers. Le chemin d'accès peut être un compartiment S3 ou un préfixe au format `s3://amzn-s3-demo-bucket/myPrefix/`. Ce chemin d'accès indique l'emplacement d'importation ou d'exportation des fichiers dans le référentiel de données S3.  
Ne peut pas se chevaucher avec d'autres DRAs  
Modèle : `^[^\u0000\u0085\u2028\u2029\r\n]{3,4357}$`  
Minimum : `3`  
Maximum : `4357`  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemPath`(**Obligatoire**,`String`)  
Un chemin sur le système de fichiers Amazon FSx for Lustre qui pointe vers un répertoire de haut niveau (tel que`/ns1/`) ou un sous-répertoire (tel que`/ns1/subdir/`) qui sera mappé 1-1 avec. `DataRepositoryPath` Une barre oblique est requise au début du nom. Deux associations de référentiels de données ne peuvent pas avoir des chemins d'accès de système de fichiers qui se chevauchent. Par exemple, si un référentiel de données est associé au chemin d'accès du système de fichiers `/ns1/`, vous ne pouvez pas lier un autre référentiel de données au chemin d'accès du système de fichiers `/ns1/ns2`.  
Ce chemin d'accès indique où, dans votre système de fichiers, les fichiers seront exportés ou importés. Ce répertoire de système de fichiers ne peut être lié qu'à un seul compartiment Amazon S3, et aucun autre compartiment S3 ne peut être lié à ce répertoire.  
Ne peut pas se chevaucher avec d'autres DRAs  
 Si vous spécifiez uniquement une barre oblique (`/`) comme chemin d'accès du système de fichiers, vous ne pouvez lier qu'un seul référentiel de données au système de fichiers. Vous ne pouvez spécifier « `/` » que comme chemin du système de fichiers pour le premier référentiel de données associé à un système de fichiers. 
Modèle : `^[^\u0000\u0085\u2028\u2029\r\n]{1,4096}$`  
Minimum : `1`  
Maximum : `4096`  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize`(**Facultatif**,`Integer`)  
Pour les fichiers importés à partir d'un référentiel de données, cette valeur détermine le nombre de bandes et la quantité maximale de données par fichier (en Mio) stockées sur un seul disque physique. Le nombre maximal de disques sur lesquels un fichier unique peut être agrégé par bandes est limité au nombre total de disques qui composent le système de fichiers ou le cache.  
La taille de bloc par défaut est 1 024 Mio (1 Gio) et peut atteindre 512 000 Mio (500 Gio). Les objets Amazon S3 ont une taille maximale de 5 To.  
Minimum : `1`  
Maximum : `4096`  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoExportPolicy`(**Facultatif**,`Array of strings`)  
La liste peut contenir une ou plusieurs des valeurs suivantes :  
+ `NEW` : les nouveaux fichiers et répertoires sont automatiquement exportés vers le référentiel de données à mesure qu'ils sont ajoutés au système de fichiers.
+ `CHANGED` : les modifications apportées aux fichiers et aux répertoires du système de fichiers sont automatiquement exportées vers le référentiel de données.
+ `DELETED` : les fichiers et les répertoires sont automatiquement supprimés du référentiel de données lorsqu'ils sont supprimés du système de fichiers.
Vous pouvez définir n'importe quelle combinaison de types d'événements pour votre `AutoExportPolicy`.  
Maximum : `3`  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoImportPolicy`(**Facultatif**,`Array of strings`)  
La liste peut contenir une ou plusieurs des valeurs suivantes :  
+ `NEW`- Amazon importe FSx automatiquement les métadonnées des fichiers ajoutés au compartiment S3 lié qui n'existent pas actuellement dans le système de FSx fichiers.
+ `CHANGED`- Amazon met FSx automatiquement à jour les métadonnées des fichiers et invalide le contenu des fichiers existants sur le système de fichiers lorsque les fichiers changent dans le référentiel de données.
+ `DELETED`- Amazon supprime FSx automatiquement les fichiers du système de fichiers au fur et à mesure que les fichiers correspondants sont supprimés dans le référentiel de données.
Vous pouvez définir n'importe quelle combinaison de types d'événements pour votre `AutoImportPolicy`.  
Maximum : `3`  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `FsxOntapSettings`
<a name="SharedStorage-v3-FsxOntapSettings"></a>

**Note**  
Vous devez définir `FsxOntapSettings` s'il `FsxOntap` est spécifié pour [`StorageType`](#yaml-SharedStorage-StorageType).

**(Facultatif)** Les paramètres d'un système de fichiers FSx pour ONTAP.

```
FsxOntapSettings:
  VolumeId: string
```

### Propriétés de `FsxOntapSettings`
<a name="SharedStorage-v3-FsxOntapSettings.properties"></a>

`VolumeId`(**Obligatoire**,`String`)  
Spécifie l'ID de volume du système existant FSx pour ONTAP.

**Note**  
Si un AWS Batch planificateur est utilisé, FSx car ONTAP n'est disponible que sur le nœud principal.
Si le type de déploiement FSx for ONTAP est`Multi-AZ`, assurez-vous que la table de routage du sous-réseau du nœud principal est correctement configurée.
Support FSx pour ONTAP a été ajouté dans la AWS ParallelCluster version 3.2.0.
Le système de fichiers doit être associé à un groupe de sécurité qui autorise le trafic TCP et UDP entrant et sortant via les ports 111, 635, 2049 et 4046.

Assurez-vous que le trafic est autorisé entre le cluster et le système de fichiers en effectuant l'une des actions suivantes :
+ Configurez les groupes de sécurité du système de fichiers pour autoriser le trafic à destination et en provenance du CIDR ou de la liste de préfixes des sous-réseaux du cluster.
**Note**  
AWS ParallelCluster valide que les ports sont ouverts et que le CIDR ou la liste de préfixes est configuré. AWS ParallelCluster ne valide pas le contenu du bloc ou de la liste de préfixes CIDR.
+ Définissez des groupes de sécurité personnalisés pour les nœuds de cluster en utilisant [`SlurmQueues`[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)](Scheduling-v3.md#Scheduling-v3-SlurmQueues)//[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)et [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Les groupes de sécurité personnalisés doivent être configurés pour autoriser le trafic entre le cluster et le système de fichiers.
**Note**  
Si tous les nœuds du cluster utilisent des groupes de sécurité personnalisés, cela confirme AWS ParallelCluster uniquement que les ports sont ouverts. AWS ParallelCluster ne confirme pas que la source et la destination sont correctement configurées.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxOpenZfsSettings`
<a name="SharedStorage-v3-FsxOpenZfsSettings"></a>

**Note**  
Vous devez définir `FsxOpenZfsSettings` s'il `FsxOpenZfs` est spécifié pour [`StorageType`](#yaml-SharedStorage-StorageType).

**(Facultatif)** Les paramètres d'un système FSx de fichiers pour OpenZFS.

```
FsxOpenZfsSettings:
  VolumeId: string
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriétés de `FsxOpenZfsSettings`
<a name="SharedStorage-v3-FsxOpenZfsSettings.properties"></a>

`VolumeId`(**Obligatoire**,`String`)  
Spécifie l'ID de volume du système existant FSx pour OpenZFS.

**Note**  
Si un AWS Batch planificateur est utilisé, FSx car OpenZFS n'est disponible que sur le nœud principal.
Support FSx pour OpenZFS a été ajouté dans la AWS ParallelCluster version 3.2.0.
Le système de fichiers doit être associé à un groupe de sécurité qui autorise le trafic TCP et UDP entrant et sortant via les ports 111, 2049, 20001, 20002 et 20003.

Assurez-vous que le trafic est autorisé entre le cluster et le système de fichiers en effectuant l'une des opérations suivantes :
+ Configurez les groupes de sécurité du système de fichiers pour autoriser le trafic à destination et en provenance du CIDR ou de la liste de préfixes des sous-réseaux du cluster.
**Note**  
AWS ParallelCluster valide que les ports sont ouverts et que le CIDR ou la liste de préfixes est configuré. AWS ParallelCluster ne valide pas le contenu du bloc ou de la liste de préfixes CIDR.
+ Définissez des groupes de sécurité personnalisés pour les nœuds de cluster en utilisant [`SlurmQueues`[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)](Scheduling-v3.md#Scheduling-v3-SlurmQueues)//[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)et [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Les groupes de sécurité personnalisés doivent être configurés pour autoriser le trafic entre le cluster et le système de fichiers.
**Note**  
Si tous les nœuds du cluster utilisent des groupes de sécurité personnalisés, cela confirme AWS ParallelCluster uniquement que les ports sont ouverts. AWS ParallelCluster ne confirme pas que la source et la destination sont correctement configurées.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FileCacheSettings`
<a name="SharedStorage-v3-FsxFileCacheSettings"></a>

**Note**  
Vous devez définir `FileCacheSettings` s'il `FileCache` est spécifié pour [`StorageType`](#yaml-SharedStorage-StorageType).

**(Facultatif)** Les paramètres d'un cache de fichiers.

```
FileCacheSettings:
  FileCacheId: string
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriétés de `FileCacheSettings`
<a name="SharedStorage-v3-FsxFileCacheSettings.properties"></a>

`FileCacheId`(**Obligatoire**,`String`)  
Spécifie l'ID de cache de fichiers d'un cache de fichiers existant.

**Note**  
Le cache de fichiers ne prend pas en charge AWS Batch les planificateurs.
Support pour le cache de fichiers a été ajouté dans AWS ParallelCluster la version 3.7.0.
Le système de fichiers doit être associé à un groupe de sécurité qui autorise le trafic TCP entrant et sortant via le port 988.

Assurez-vous que le trafic est autorisé entre le cluster et le système de fichiers en effectuant l'une des opérations suivantes :
+ Configurez les groupes de sécurité du cache de fichiers pour autoriser le trafic à destination et en provenance du CIDR ou de la liste de préfixes des sous-réseaux du cluster.
**Note**  
AWS ParallelCluster valide que les ports sont ouverts et que le CIDR ou la liste de préfixes est configuré. AWS ParallelCluster ne valide pas le contenu du bloc ou de la liste de préfixes CIDR.
+ Définissez des groupes de sécurité personnalisés pour les nœuds de cluster en utilisant [`SlurmQueues`[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)](Scheduling-v3.md#Scheduling-v3-SlurmQueues)//[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)et [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Les groupes de sécurité personnalisés doivent être configurés pour autoriser le trafic entre le cluster et le système de fichiers.
**Note**  
Si tous les nœuds du cluster utilisent des groupes de sécurité personnalisés, cela confirme AWS ParallelCluster uniquement que les ports sont ouverts. AWS ParallelCluster ne confirme pas que la source et la destination sont correctement configurées.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Iam` Section
<a name="Iam-v3"></a>

**(Facultatif)** Spécifie les propriétés IAM du cluster.

```
Iam:
  Roles:
    LambdaFunctionsRole: string
  PermissionsBoundary: string
  ResourcePrefix: string
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## Propriétés de `Iam`
<a name="Iam-v3.properties"></a>

`PermissionsBoundary`(**Facultatif**,`String`)  
L'ARN de la politique IAM à utiliser comme limite d'autorisations pour tous les rôles créés par AWS ParallelCluster. Pour plus d’informations, consultez [Limites d’autorisations pour des entités IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_boundaries.html) dans le *Guide de l’utilisateur IAM*. Le format est `arn:${Partition}:iam::${Account}:policy/${PolicyName}`.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Roles`(**Facultatif**)  
Spécifie les paramètres des rôles IAM utilisés par le cluster.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`LambdaFunctionsRole`(**Facultatif**,`String`)  
L'ARN du rôle IAM à utiliser pour AWS Lambda. Cela remplace le rôle par défaut attaché à toutes les fonctions Lambda AWS CloudFormation soutenant des ressources personnalisées. Lambda doit être configuré en tant que principal autorisé à assumer le rôle. Cela ne remplacera pas le rôle des fonctions Lambda utilisées pour. AWS Batch Le format est `arn:${Partition}:iam::${Account}:role/${RoleName}`.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ResourcePrefix`(**Facultatif**)  
Spécifie un chemin ou un préfixe de nom pour les ressources IAM créées par. AWS ParallelCluster  
Le préfixe de ressource doit suivre les [règles de dénomination spécifiées par IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html) :  
+ Un nom peut contenir jusqu'à 30 caractères.
+ Un nom ne peut être qu'une chaîne sans barre oblique (`/`).
+ Un chemin peut comporter jusqu'à 512 caractères.
+ Un chemin doit commencer et se terminer par une barre oblique (`/`). Il peut contenir plusieurs barres obliques (`/`) entre les barres obliques de début et de fin (). `/`
+ Vous pouvez combiner le chemin et le nom`/path/name`.
Spécifiez un nom.  

```
Iam:
  ResourcePrefix: my-prefix
```
Spécifiez un chemin.  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/
```
Spécifiez un chemin et un nom.  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/my-prefix
```
Si vous le spécifiez`/my-prefix`, une erreur est renvoyée.  

```
Iam:
  ResourcePrefix: /my-prefix
```
Une erreur de configuration est renvoyée. Un chemin doit comporter deux `/` s. Un préfixe en lui-même ne peut pas avoir de `/` s.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `LoginNodes` Section
<a name="LoginNodes-v3"></a>

**Note**  
Support pour `LoginNodes` est ajouté dans la AWS ParallelCluster version 3.7.0.

**(Facultatif)** Spécifie la configuration du pool de nœuds de connexion.

```
LoginNodes:
  Pools:
    - Name: string
      Count: integer
      InstanceType: string
      GracetimePeriod: integer
      Image:
        CustomAmi: string
      Ssh:
        KeyName: string
        AllowedIps: string
      Networking:
        SubnetIds:
          - string
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      Dcv:
        Enabled: boolean
        Port: integer
        AllowedIps: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeUpdated:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceRole: string
        InstanceProfile: string
        AdditionalIamPolicies:
          - Policy: string
```

[Politique de mise à jour : les nœuds de connexion du cluster doivent être arrêtés pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-cluster)

## Propriétés de `LoginNodes`
<a name="LoginNodes-v3.properties"></a>

### Propriétés de `Pools`
<a name="LoginNodes-v3-Pools"></a>

Définit des groupes de nœuds de connexion ayant la même configuration de ressources. À partir de la AWS ParallelCluster version 3.11.0, jusqu'à 10 pools peuvent être spécifiés.

```
Pools:
  - Name: string
    Count: integer
    InstanceType: string
    GracetimePeriod: integer
    Image:
      CustomAmi: string
    Ssh:
      KeyName: string
      AllowedIps: string
    Networking:
      SubnetIds:
        - string
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    Dcv:
      Enabled: boolean
      Port: integer
      AllowedIps: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeUpdated:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
    Iam:
      InstanceRole: string
      InstanceProfile: string
      AdditionalIamPolicies:
        - Policy: string
```

[Politique de mise à jour : des pools de nœuds de connexion peuvent être ajoutés, mais la suppression d'un pool nécessite l'arrêt de tous les nœuds de connexion du cluster.](using-pcluster-update-cluster-v3.md#update-policy-add-login-node-pools)

`Name`(**Obligatoire**`String`)  
Spécifie le nom du `LoginNodes` pool. Ceci est utilisé pour étiqueter les `LoginNodes` ressources.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)   
À partir de AWS ParallelCluster la version 3.11.0, la politique de mise à jour est la suivante : les nœuds de connexion du pool doivent être arrêtés pour que ce paramètre soit modifié pour une mise à jour.

`Count`(**Obligatoire**`Integer`)  
Spécifie le nombre de nœuds de connexion à maintenir actifs.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`InstanceType`(**Obligatoire**`String`)  
Spécifie le type d'instance Amazon EC2 utilisé pour le nœud de connexion. L'architecture du type d'instance doit être identique à celle utilisée pour le Slurm `InstanceType` réglage.  
[Politique de mise à jour](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3) : ce paramètre peut être modifié si le pool de nœuds de connexion est arrêté.  
À partir de AWS ParallelCluster la version 3.11.0, la politique de mise à jour est la suivante : les nœuds de connexion du pool doivent être arrêtés pour que ce paramètre soit modifié pour une mise à jour.

`GracetimePeriod`(**Facultatif**`Integer`)  
Spécifie le délai minimal en minutes qui s'écoule entre la notification à l'utilisateur connecté indiquant qu'un nœud de connexion doit être mis hors service et l'événement d'arrêt réel. Les valeurs valides pour `GracetimePeriod` sont comprises entre 3 et 120 minutes. La valeur par défaut est de 10 minutes.  
L'événement déclencheur implique des interactions entre plusieurs AWS services. Parfois, la latence du réseau et la propagation des informations peuvent prendre un certain temps, de sorte que le délai de grâce peut être plus long que prévu en raison de retards internes dans les AWS services.
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Image`(**Facultatif**)  
Définit la configuration de l'image pour les nœuds de connexion.  

```
Image:
  CustomAmi: String
```  
`CustomAmi`(**Facultatif**`String`)  
Spécifie l'AMI personnalisée utilisée pour approvisionner les nœuds de connexion. Si elle n'est pas spécifiée, la valeur par défaut est celle spécifiée dans le[`HeadNode` Section](HeadNode-v3.md).  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Ssh`(**Facultatif**)  
Définit la `ssh` configuration des nœuds de connexion.  

```
Ssh:
  KeyName: string
  AllowedIps: string
```
À partir de AWS ParallelCluster la version 3.11.0, la politique de mise à jour est la suivante : les nœuds de connexion du pool doivent être arrêtés pour que ce paramètre soit modifié pour une mise à jour.  
`KeyName`(**Facultatif**`String`)  
Spécifie la `ssh` clé utilisée pour se connecter aux nœuds de connexion. Si elle n'est pas spécifiée, la valeur par défaut est celle spécifiée dans le[`HeadNode` Section](HeadNode-v3.md).  
[Politique de mise à jour : les nœuds de connexion du pool doivent être arrêtés pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
Obsolète — Le paramètre de configuration `LoginNodes/Pools/Ssh/KeyName` est devenu obsolète et sera supprimé dans les futures versions. La CLI renvoie désormais un message d'avertissement lorsqu'elle est utilisée dans la configuration du cluster. Consultez [ https://github.com/aws/aws-parallelcluster/issues/6811](https://github.com/aws/aws-parallelcluster/issues/6811) pour plus de détails.  
`AllowedIps`(**Facultatif**`String`)  
Spécifie la plage d'adresses IP au format CIDR ou un identifiant de liste de préfixes pour les connexions SSH aux nœuds de connexion du pool. La valeur par défaut est celle [AllowedIps](HeadNode-v3.md#yaml-HeadNode-Ssh-AllowedIps)définie dans la configuration du nœud principal, ou `0.0.0.0/0` si elle n'est pas spécifiée. [`HeadNode` Section](HeadNode-v3.md).  
[Politique de mise à jour : les nœuds de connexion du pool doivent être arrêtés pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
Support AllowedIps pour les nœuds de connexion a été ajouté dans la AWS ParallelCluster version 3.11.0.

`Networking`(**Obligatoire**)  
  

```
Networking:
  SubnetIds:
    - string
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```
À partir de AWS ParallelCluster la version 3.11.0, la politique de mise à jour est la suivante : les nœuds de connexion du pool doivent être arrêtés pour que ce paramètre soit modifié pour une mise à jour.  
`SubnetIds`(**Obligatoire**`[String]`)  
ID du sous-réseau existant dans lequel vous approvisionnez le pool de nœuds de connexion. Vous ne pouvez définir qu'un seul sous-réseau.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`SecurityGroups`(**Facultatif**`[String]`)  
Liste des groupes de sécurité à utiliser pour le pool de nœuds de connexion. Si aucun groupe de sécurité n'est spécifié, AWS ParallelCluster crée des groupes de sécurité pour vous.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalSecurityGroups`(**Facultatif**`[String]`)  
Liste des groupes de sécurité supplémentaires à utiliser pour le pool de nœuds de connexion.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dcv`(**Facultatif**)  
Définit les paramètres de configuration pour le serveur DCV NICE qui s'exécute sur les nœuds de [connexion](#LoginNodes-v3). Pour de plus amples informations, consultez [Connectez-vous à la tête et aux nœuds de connexion via Amazon DCV](dcv-v3.md).  

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```
Par défaut, le port DCV NICE configuré par AWS ParallelCluster est ouvert à toutes les IPv4 adresses. Vous ne pouvez vous connecter à un port NICE DCV que si vous disposez de l'URL de la session DCV NICE et si vous vous connectez à la session NICE DCV dans les 30 secondes suivant le renvoi de l'URL par pcluster dcv-connect. Utilisez le `AllowedIps` paramètre pour restreindre davantage l'accès au port DCV NICE avec une plage d'adresses IP au format CIDR et utilisez le paramètre Port pour définir un port non standard.
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Support du DCV sur les nœuds de connexion a été ajouté dans la AWS ParallelCluster version 3.11.0.  
`Enabled`(**Obligatoire**`Boolean`)  
Spécifie si NICE DCV est activé sur les nœuds de connexion du pool. La valeur par défaut est `false`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
NICE DCV génère automatiquement un certificat auto-signé qui est utilisé pour sécuriser le trafic entre le client NICE DCV et le serveur NICE DCV qui s'exécute sur le nœud de connexion. Pour configurer votre propre certificat, veuillez consulter [Certificat HTTPS Amazon DCV](dcv-v3.md#dcv-v3-certificate).  
`Port`(**Facultatif**`Integer`)  
Spécifie le port pour NICE DCV. La valeur par défaut est `8443`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AllowedIps`(**Facultatif**`String`)  
Spécifie la plage d'adresses IP au format CIDR pour les connexions à NICE DCV. Ce paramètre est utilisé uniquement lors de la AWS ParallelCluster création du groupe de sécurité. La valeur par défaut est`0.0.0.0/0`, ce qui permet l'accès depuis n'importe quelle adresse Internet.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomActions`(**Facultatif**)  
Spécifie les scripts personnalisés à exécuter sur les nœuds de connexion.  

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```
Support pour les actions personnalisées sur les nœuds de connexion a été ajouté dans la AWS ParallelCluster version 3.11.0.  
`OnNodeStart`(**Facultatif**)  
Spécifie un script unique ou une séquence de scripts à exécuter sur les [nœuds de connexion](#LoginNodes-v3) avant le lancement de toute action d'amorçage du déploiement des nœuds. Pour de plus amples informations, veuillez consulter [Actions de bootstrap personnalisées](custom-bootstrap-actions-v3.md).    
`Sequence`(**Facultatif**)  
Liste des scripts à exécuter. AWS ParallelCluster exécute les scripts dans l'ordre indiqué dans le fichier de configuration, en commençant par le premier.    
`Script`(**Obligatoire**`String`)  
Spécifie le fichier à utiliser. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
`Args`(**Facultatif**`[String]`)  
Liste des arguments à transmettre au script.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script`(**Obligatoire**`String`)  
Spécifie le fichier à utiliser pour un seul script. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
`Args`(**Facultatif**`[String]`)  
Liste des arguments à transmettre au script unique.  
`OnNodeConfigured`(**Facultatif**)  
Spécifie un script unique ou une séquence de scripts à exécuter sur les [nœuds de connexion](#LoginNodes-v3) une fois les processus d'amorçage des nœuds terminés. Pour de plus amples informations, veuillez consulter [Actions de bootstrap personnalisées](custom-bootstrap-actions-v3.md).    
`Sequence`(**Facultatif**)  
Liste des scripts à exécuter. AWS ParallelCluster exécute les scripts dans l'ordre indiqué dans le fichier de configuration, en commençant par le premier.    
`Script`(**Obligatoire**`String`)  
Spécifie le fichier à utiliser. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
`Args`(**Facultatif**`[String]`)  
Liste des arguments à transmettre au script.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script`(**Obligatoire**`String`)  
Spécifie le fichier à utiliser pour un seul script. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
`Args`(**Facultatif**`[String]`)  
Liste des arguments à transmettre au script unique.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`OnNodeUpdated`(**Facultatif**)  
Spécifie un script unique ou une séquence de scripts à exécuter une fois que la mise à jour du nœud principal est terminée et que le planificateur et le stockage partagé sont alignés sur les dernières modifications de configuration du cluster. Pour de plus amples informations, veuillez consulter [Actions de bootstrap personnalisées](custom-bootstrap-actions-v3.md).    
`Sequence`(**Facultatif**)  
Liste des scripts à exécuter. AWS ParallelCluster exécute les scripts dans l'ordre indiqué dans le fichier de configuration, en commençant par le premier.    
`Script`(**Obligatoire**`String`)  
Spécifie le fichier à utiliser. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
`Args`(**Facultatif**`[String]`)  
Liste des arguments à transmettre au script.  
`Script`(**Obligatoire**`String`)  
Spécifie le fichier à utiliser pour un seul script. Le chemin du fichier peut commencer par `https://` ou`s3://`.  
`Args`(**Facultatif**`[String]`)  
Liste des arguments à transmettre au script unique.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
AWS ParallelCluster ne permet pas d'inclure à la fois un seul script et `Sequence` pour la même action personnalisée.

`Iam`(**Facultatif**)  
Spécifie un rôle d'instance ou un profil d'instance à utiliser sur les nœuds de connexion pour remplacer le rôle d'instance ou le profil d'instance par défaut du cluster.  

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  AdditionalIamPolicies:
    - Policy: string
```
À partir de AWS ParallelCluster la version 3.11.0, la politique de mise à jour est la suivante : les nœuds de connexion du pool doivent être arrêtés pour que ce paramètre soit modifié pour une mise à jour.  
`InstanceProfile`(**Facultatif**`String`)  
Spécifie un profil d'instance pour remplacer le profil d'instance du nœud de connexion par défaut. Vous ne pouvez pas spécifier à la fois `InstanceProfile` et `InstanceRole`. Le format est `arn:Partition:iam::Account:instance-profile/InstanceProfileName`. Si cela est spécifié, les `AdditionalIamPolicies` paramètres `InstanceRole` et ne peuvent pas être spécifiés.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`InstanceRole`(**Facultatif**`String`)  
Spécifie un rôle d'instance pour remplacer le rôle d'instance du nœud de connexion par défaut. Vous ne pouvez pas spécifier à la fois `InstanceProfile` et `InstanceRole`. Le format est `arn:Partition:iam::Account:role/RoleName`. Si cela est spécifié, les `AdditionalIamPolicies` paramètres `InstanceProfile` et ne peuvent pas être spécifiés.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalIamPolicies`(**Facultatif**)  

```
AdditionalIamPolicies:
  - Policy: string
```
Une politique IAM Amazon Resource Name (ARN).  
Spécifie une liste des Amazon Resource Names (ARN) des politiques IAM pour Amazon EC2. Cette liste est attachée au rôle root utilisé pour le nœud de connexion, en plus des autorisations requises par AWS ParallelCluster.  
Le nom d'une politique IAM et son ARN sont différents. Les noms ne peuvent pas être utilisés.  
Si cela est spécifié, les `InstanceRole` paramètres `InstanceProfile` et ne peuvent pas être spécifiés. Nous vous recommandons d'utiliser `AdditionalIamPolicies` car `AdditionalIamPolicies` ils sont ajoutés aux autorisations AWS ParallelCluster requises et `InstanceRole` doivent inclure toutes les autorisations requises. Les autorisations requises changent souvent d'une version à l'autre au fur et à mesure que des fonctionnalités sont ajoutées.  
Il n'y a pas de valeur par défaut.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Policy`(**Obligatoire**`[String]`)  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Monitoring` Section
<a name="Monitoring-v3"></a>

**(Facultatif)** Spécifie les paramètres de surveillance du cluster.

```
Monitoring:
  Logs:
    CloudWatch:
      Enabled: boolean
      RetentionInDays: integer
      DeletionPolicy: string
    Rotation:
      Enabled: boolean
  Dashboards:
    CloudWatch:
      Enabled: boolean
  DetailedMonitoring: boolean
  Alarms:
   Enabled: boolean
```

[Politique de mise à jour : ce paramètre n'est pas analysé lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

## Propriétés de `Monitoring`
<a name="Monitoring-v3.properties"></a>

`Logs`(**Facultatif**)  
Les paramètres du journal pour le cluster.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`CloudWatch`(**Facultatif**)  
Les paramètres CloudWatch des journaux pour le cluster.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled`(**Obligatoire**,`Boolean`)  
Si`true`, les journaux du cluster sont diffusés vers CloudWatch Logs. La valeur par défaut est `true`.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`RetentionInDays`(**Facultatif**,`Integer`)  
Le nombre de jours pendant lesquels les événements du journal sont conservés dans CloudWatch les journaux. La valeur par défaut est 180. Les valeurs prises en charge sont 0, 1, 3, 5, 7, 14, 30, 60, 90, 120, 150, 180, 365, 400, 545, 731, 1827 et 3653. Une valeur de 0 utilisera le paramètre de conservation du CloudWatch journal par défaut, c'est-à-dire qu'il n'expirera jamais.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`(**Facultatif**,`String`)  
Indique s'il faut supprimer les événements du journal dans les CloudWatch journaux lorsque le cluster est supprimé. Les valeurs possibles sont `Delete` et `Retain`. La valeur par défaut est `Retain`.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Rotation`(**Facultatif**)  
Les paramètres de rotation des journaux pour le cluster.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled`(**Obligatoire**,`Boolean`)  
Si`true`, la rotation des journaux est activée. La valeur par défaut est `true`. Lorsqu'un fichier journal AWS ParallelCluster configuré atteint une certaine taille, il fait l'objet d'une rotation et une seule sauvegarde est conservée. Pour de plus amples informations, veuillez consulter [AWS ParallelCluster rotation des journaux configurée](log-rotation-v3.md).  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dashboards`(**Facultatif**)  
Les paramètres du tableau de bord pour le cluster.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`CloudWatch`(**Facultatif**)  
Les paramètres du CloudWatch tableau de bord pour le cluster.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled`(**Obligatoire**,`Boolean`)  
Si`true`, le CloudWatch tableau de bord est activé. La valeur par défaut est `true`.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DetailedMonitoring`(**Facultatif**,`Boolean`)  
Si ce paramètre est défini sur`true`, la surveillance détaillée est activée pour le parc informatique des instances Amazon EC2. Lorsqu'elle est activée, la console Amazon EC2 affiche des graphiques permettant de surveiller les instances à intervalles d'une minute. L'activation de cette fonctionnalité entraîne des coûts supplémentaires. La valeur par défaut est `false`.  
Pour plus d'informations, consultez [Activer ou désactiver la surveillance détaillée pour vos instances](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-cloudwatch-new.html) dans le *Guide de l'utilisateur Amazon EC2 pour les instances Linux*.  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)  
`DetailedMonitoring`est ajouté à partir de AWS ParallelCluster la version 3.6.0.

`Alarms`(**Facultatif**)  
CloudWatch Alarmes pour le cluster.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled`(**Facultatif**)  
Dans `true` ce cas, les CloudWatch alarmes du cluster seront créées. La valeur par défaut est `true`.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
À partir de la AWS ParallelCluster version 3.8.0, les alarmes suivantes sont créées pour le nœud principal : Amazon EC2 Health CPU/Memory/Disk Check, utilisation et alarme composite qui inclut toutes les autres.

# `Tags` Section
<a name="Tags-v3"></a>

**(Facultatif), Array** définit les balises utilisées CloudFormation et propagées à toutes les ressources du cluster. Pour plus d'informations, voir le [tag de CloudFormation ressource](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) dans le *guide de AWS CloudFormation l'utilisateur*.

```
Tags:
  - Key: string
    Value: string
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## Propriétés de `Tags`
<a name="Tags-v3.properties"></a>

`Key`(**Obligatoire**,`String`)  
Définit le nom de la balise.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Value`(**Obligatoire**,`String`)  
Définit la valeur de la balise.  
[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**Note**  
À partir de la AWS ParallelCluster version 3.15.0, les mises à jour des balises sont prises en charge avec les limitations suivantes :  
Volume EBS activé HeadNode  : ne conserve que les balises datant de la création du cluster ; la mise à jour des balises sur ce volume EBS n'est pas prise en charge.
Nœuds en cours d'exécution : les mises à jour des balises ne seront pas appliquées aux nœuds de calcul ou de connexion en cours d'exécution.

# `AdditionalPackages` Section
<a name="AdditionalPackages-v3"></a>

**(Facultatif)** Utilisé pour identifier les packages supplémentaires à installer.

```
AdditionalPackages:
  IntelSoftware:
    IntelHpcPlatform: boolean
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `IntelSoftware`
<a name="AdditionalPackages-v3-IntelSoftware"></a>

**(Facultatif)** Définit la configuration des solutions Intel Select.

```
IntelSoftware:
  IntelHpcPlatform: boolean
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriétés de `IntelSoftware`
<a name="AdditionalPackages-v3-IntelSoftware.properties"></a>

` IntelHpcPlatform`(**Facultatif**,`Boolean`)  
Si`true`, indique que le [contrat de licence utilisateur final](https://software.intel.com/en-us/articles/end-user-license-agreement) pour Intel Parallel Studio est accepté. Cela entraîne l'installation d'Intel Parallel Studio sur le nœud principal et le partage avec les nœuds de calcul. Cela ajoute plusieurs minutes au temps nécessaire au démarrage du nœud principal.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
À partir de AWS ParallelCluster la version 3.10.0, le `IntelHpcPlatform` paramètre n'est plus pris en charge.

# `DirectoryService` Section
<a name="DirectoryService-v3"></a>

**Note**  
Support pour `DirectoryService` a été ajouté dans la AWS ParallelCluster version 3.1.1.

**(Facultatif)** Les paramètres du service d'annuaire pour un cluster qui prend en charge l'accès de plusieurs utilisateurs.

AWS ParallelCluster gère les autorisations qui prennent en charge l'accès de plusieurs utilisateurs aux clusters avec un Active Directory (AD) via le protocole LDAP (Lightweight Directory Access Protocol) pris en charge par le [démon des services de sécurité du système (SSSD](https://sssd.io/docs/introduction.html)). Pour plus d'informations, voir [Qu'est-ce que c'est AWS Directory Service ?](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/what_is.html) dans le *Guide AWS Directory Service d'administration*.

Nous vous recommandons d'utiliser le protocole LDAP over TLS/SSL (en abrégé LDAPS) pour garantir que toutes les informations potentiellement sensibles sont transmises via des canaux cryptés.

```
DirectoryService:
  DomainName: string
  DomainAddr: string
  PasswordSecretArn: string
  DomainReadOnlyUser: string
  LdapTlsCaCert: string
  LdapTlsReqCert: string
  LdapAccessFilter: string
  GenerateSshKeysForUsers: boolean
  AdditionalSssdConfigs: dict
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

## Propriétés de `DirectoryService`
<a name="DirectoryService-v3.properties"></a>

**Note**  
Si vous prévoyez de l'utiliser AWS ParallelCluster dans un seul sous-réseau sans accès à Internet, consultez [AWS ParallelCluster dans un seul sous-réseau sans accès à Internet](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md) les exigences supplémentaires.

`DomainName`(**Obligatoire**,`String`)  
Le domaine Active Directory (AD) que vous utilisez pour les informations d'identité.  
`DomainName`accepte à la fois les formats de nom de domaine complet (FQDN) et de nom distinctif LDAP (DN).  
+ Exemple de FQDN : `corp.example.com`
+ Exemple de DN LDAP : `DC=corp,DC=example,DC=com`
Cette propriété correspond au paramètre sssd-ldap appelé. `ldap_search_base`  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainAddr`(**Obligatoire**,`String`)  
L'URI ou URIs qui pointe vers le contrôleur de domaine AD utilisé comme serveur LDAP. L'URI correspond au paramètre SSSD-LDAP appelé. `ldap_uri` La valeur peut être une chaîne séparée par des virgules de URIs. Pour utiliser LDAP, vous devez ajouter des `ldap://` éléments au début de chaque URI.  
Exemples de valeur :  

```
ldap://192.0.2.0,ldap://203.0.113.0          # LDAP
ldaps://192.0.2.0,ldaps://203.0.113.0        # LDAPS without support for certificate verification
ldaps://abcdef01234567890.corp.example.com  # LDAPS with support for certificate verification
192.0.2.0,203.0.113.0                        # AWS ParallelCluster uses LDAPS by default
```
Si vous utilisez LDAPS avec vérification des certificats, URIs il doit s'agir de noms d'hôtes.  
Si vous utilisez LDAPS sans vérification de certificat ni LDAP, il URIs peut s'agir de noms d'hôtes ou d'adresses IP.  
Utilisez LDAP over TLS/SSL (LDAPS) pour éviter la transmission de mots de passe et d'autres informations sensibles sur des canaux non chiffrés. S'il AWS ParallelCluster ne trouve aucun protocole, il s'ajoute `ldaps://` au début de chaque URI ou nom d'hôte.  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`PasswordSecretArn`(**Obligatoire**,`String`)  
L'Amazon Resource Name (ARN) du AWS Secrets Manager secret qui contient le mot de passe en `DomainReadOnlyUser` texte clair. Le contenu du secret correspond au paramètre SSSD-LDAP appelé. `ldap_default_authtok`  
Lorsque vous utilisez la AWS Secrets Manager console pour créer un secret, assurez-vous de sélectionner « Autre type de secret », de sélectionner du texte brut et d'inclure uniquement le texte du mot de passe dans le secret.  
Pour plus d'informations sur la façon de AWS Secrets Manager créer un secret, reportez-vous à la section [Créer un AWS Secrets Manager secret](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret)
Le client LDAP utilise le mot de passe pour s'authentifier auprès du domaine AD `DomainReadOnlyUser` lorsqu'il demande des informations d'identité.  
Si l'utilisateur est autorisé à le faire [https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html), `PasswordSecretArn` est validé. `PasswordSecretArn`est valide si le secret spécifié existe. Si la politique IAM de l'utilisateur n'inclut pas`DescribeSecret`, `PasswordSecretArn` n'est pas validée et un message d'avertissement s'affiche. Pour de plus amples informations, veuillez consulter [Politique AWS ParallelCluster `pcluster` utilisateur de base](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Lorsque la valeur du secret change, le cluster *n'est pas* automatiquement mis à jour. Pour mettre à jour le cluster en fonction de la nouvelle valeur secrète, vous devez arrêter le parc de calcul à l'aide de la [`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md) commande, puis exécuter la commande suivante depuis le nœud principal.  

```
$ sudo /opt/parallelcluster/scripts/directory_service/update_directory_service_password.sh
```
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainReadOnlyUser`(**Obligatoire**,`String`)  
Identité utilisée pour interroger le domaine AD pour obtenir des informations d'identité lors de l'authentification des connexions des utilisateurs du cluster. Il correspond au paramètre SSSD-LDAP appelé. `ldap_default_bind_dn` Utilisez vos informations d'identité AD pour cette valeur.  
Spécifiez l'identité sous la forme requise par le client LDAP spécifique qui se trouve sur le nœud :  
+ Microsoft AD :

  ```
  cn=ReadOnlyUser,ou=Users,ou=CORP,dc=corp,dc=example,dc=com
  ```
+ Propulsateur simple :

  ```
  cn=ReadOnlyUser,cn=Users,dc=corp,dc=example,dc=com
  ```
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsCaCert`(**Facultatif**,`String`)  
Le chemin absolu vers un ensemble de certificats contenant les certificats de chaque autorité de certification de la chaîne de certification qui a émis un certificat pour les contrôleurs de domaine. Il correspond au paramètre SSSD-LDAP appelé. `ldap_tls_cacert`  
Un bundle de certificats est un fichier composé de la concaténation de certificats distincts au format PEM, également appelé format DER Base64 sous Windows. Il est utilisé pour vérifier l'identité du contrôleur de domaine AD qui agit en tant que serveur LDAP.  
AWS ParallelCluster n'est pas responsable du placement initial des certificats sur les nœuds. En tant qu'administrateur du cluster, vous pouvez configurer le certificat dans le nœud principal manuellement une fois le cluster créé ou vous pouvez utiliser un [script bootstrap](custom-bootstrap-actions-v3.md). Vous pouvez également utiliser une Amazon Machine Image (AMI) qui inclut le certificat configuré sur le nœud principal.  
[Simple AD](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/directory_simple_ad.html) ne fournit pas de support LDAPS. Pour savoir comment intégrer un annuaire Simple AD à AWS ParallelCluster, consultez [Comment configurer un point de terminaison LDAPS pour Simple AD](https://aws.amazon.com/blogs/security/how-to-configure-ldaps-endpoint-for-simple-ad/) dans le *blog sur la AWS sécurité*.  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsReqCert`(**Facultatif**,`String`)  
Spécifie les contrôles à effectuer sur les certificats de serveur dans une session TLS. Il correspond au paramètre SSSD-LDAP appelé. `ldap_tls_reqcert`  
Valeurs valides : `never`, `allow`, `try`, `demand` et `hard`.  
`never``allow`, et `try` autorisez les connexions à poursuivre même si des problèmes liés aux certificats sont détectés.  
`demand`et `hard` autorisez la poursuite de la communication si aucun problème lié aux certificats n'est détecté.  
Si l'administrateur du cluster utilise une valeur qui ne nécessite pas la validation du certificat pour réussir, un message d'avertissement lui est renvoyé. Pour des raisons de sécurité, nous vous recommandons de ne pas désactiver la vérification des certificats.  
La valeur par défaut est `hard`.  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapAccessFilter`(**Facultatif**,`String`)  
Spécifie un filtre pour limiter l'accès au répertoire à un sous-ensemble d'utilisateurs. Cette propriété correspond au paramètre SSSD-LDAP appelé. `ldap_access_filter` Vous pouvez l'utiliser pour limiter les requêtes à un AD qui prend en charge un grand nombre d'utilisateurs.  
Ce filtre peut bloquer l'accès des utilisateurs au cluster. Cependant, cela n'a aucune incidence sur la détectabilité des utilisateurs bloqués.  
Si cette propriété est définie, le paramètre SSSD `access_provider` est défini en `ldap` interne par AWS ParallelCluster et ne doit pas être modifié par [`DirectoryService`](#DirectoryService-v3)/[`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs)settings.  
Si cette propriété est omise et que l'accès utilisateur personnalisé n'est pas spécifié dans [`DirectoryService`](#DirectoryService-v3)/[`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs), tous les utilisateurs de l'annuaire peuvent accéder au cluster.  
Exemples :  

```
"!(cn=SomeUser*)"  # denies access to every user with an alias that starts with "SomeUser"
"(cn=SomeUser*)"   # allows access to every user with alias that starts with "SomeUser"
"memberOf=cn=TeamOne,ou=Users,ou=CORP,dc=corp,dc=example,dc=com" # allows access only to users in group "TeamOne".
```
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`GenerateSshKeysForUsers`(**Facultatif**,`Boolean`)  
Définit si AWS ParallelCluster une clé SSH est générée pour les utilisateurs du cluster immédiatement après leur authentification initiale sur le nœud principal.  
Si ce paramètre est défini sur`true`, une clé SSH est générée et enregistrée`USER_HOME_DIRECTORY/.ssh/id_rsa`, si elle n'existe pas, pour chaque utilisateur après sa première authentification sur le nœud principal.  

Pour un utilisateur qui n'a pas encore été authentifié sur le nœud principal, la première authentification peut avoir lieu dans les cas suivants :
+ L'utilisateur se connecte au nœud principal pour la première fois avec son propre mot de passe.
+ Dans le nœud principal, un sudoer passe pour la première fois à l'utilisateur : `su USERNAME`
+ Dans le nœud principal, un sudoer exécute une commande en tant qu'utilisateur pour la première fois : `su -u USERNAME COMMAND`
Les utilisateurs peuvent utiliser la clé SSH pour les connexions suivantes au nœud principal du cluster et aux nœuds de calcul. Avec AWS ParallelCluster, les connexions par mot de passe aux nœuds de calcul du cluster sont désactivées par conception. Si un utilisateur ne s'est pas connecté au nœud principal, les clés SSH ne sont pas générées et l'utilisateur ne pourra pas se connecter aux nœuds de calcul.  
La valeur par défaut est `true`.  
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`AdditionalSssdConfigs`(**Facultatif**,`Dict`)  
Un dictionnaire de paires clé-valeur contenant des paramètres SSSD et des valeurs à écrire dans le fichier de configuration SSSD sur les instances de cluster. Pour une description complète du fichier de configuration SSSD, consultez les pages de manuel sur instance `SSSD` et les fichiers de configuration associés.  
Les paramètres et valeurs SSSD doivent être compatibles avec AWS ParallelCluster la configuration SSSD décrite dans la liste suivante.  
+ `id_provider`est défini sur `ldap` interne par AWS ParallelCluster et ne doit pas être modifié.
+ `access_provider`est défini en `ldap` interne AWS ParallelCluster lorsque [`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)est spécifié, et ce paramètre ne doit pas être modifié.

  Si [`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)est omis, sa `access_provider` spécification est également omise. Par exemple, si vous définissez sur `access_provider` `simple` in [`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs), alors [`DirectoryService`](#DirectoryService-v3)/ne [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)doit pas être spécifié.
Les extraits de configuration suivants sont des exemples de configurations valides pour. `AdditionalSssdConfigs`  
Cet exemple active le niveau de débogage pour les journaux SSSD, restreint la base de recherche à une unité organisationnelle spécifique et désactive la mise en cache des informations d'identification.  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    debug_level: "0xFFF0"
    ldap_search_base: OU=Users,OU=CORP,DC=corp,DC=example,DC=com
    cache_credentials: False
```
Cet exemple indique la configuration d'un SSSD. [https://www.mankier.com/5/sssd-simple](https://www.mankier.com/5/sssd-simple)`access_provider` Les utilisateurs du `EngineeringTeam` ont accès à l'annuaire. [`DirectoryService`](#DirectoryService-v3)/ne [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)doit pas être défini dans ce cas.  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    access_provider: simple
    simple_allow_groups: EngineeringTeam
```
[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

# `DeploymentSettings` Section
<a name="DeploymentSettings-cluster-v3"></a>

**Note**  
`DeploymentSettings`est ajouté à partir de AWS ParallelCluster la version 3.4.0.

**(Facultatif)** Spécifie la configuration des paramètres de déploiement.

```
DeploymentSettings:
  LambdaFunctionsVpcConfig:
    SecurityGroupIds:
      - string
    SubnetIds:
      - string
  DisableSudoAccessForDefaultUser: Boolean
  DefaultUserHome: string # 'Shared' or 'Local'
```

## Propriétés de `DeploymentSettings`
<a name="DeploymentSettings-cluster-v3.properties"></a>

### `LambdaFunctionsVpcConfig`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig"></a>

**(Facultatif)** Spécifie les AWS Lambda configurations VPC des fonctions. Pour de plus amples informations, veuillez consulter [AWS Lambda Configuration VPC dans AWS ParallelCluster](lambda-vpc-v3.md).

```
LambdaFunctionsVpcConfig:
  SecurityGroupIds:
    - string
  SubnetIds:
    - string
```

#### `LambdaFunctionsVpcConfig properties`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig.properties"></a>

`SecurityGroupIds`(**Obligatoire**,`[String]`)  
Liste des groupes IDs de sécurité Amazon VPC associés aux fonctions Lambda.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SubnetIds`(**Obligatoire**,`[String]`)  
Liste des sous-réseaux attachés IDs aux fonctions Lambda.  
[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**Note**  
Les sous-réseaux et les groupes de sécurité doivent se trouver dans le même VPC.

### DisableSudoAccessForDefaultUser propriété
<a name="DeploymentSettings-cluster-v3-DisableSudoAccessForDefaultUser.property"></a>

**Note**  
Cette option de configuration n'est prise en charge qu'avec Slurm les clusters.

(Facultatif) Dans ce cas`True`, les privilèges sudo de l'utilisateur par défaut seront désactivés. Cela s'applique à tous les nœuds du cluster.

```
# Main DeploymentSettings section in config yaml(applies to HN, CF and LN)
DeploymentSettings:
  DisableSudoAccessForDefaultUser: True
```

Pour mettre à jour la valeur de`DisableSudoAccessForDefaultUser`, vous devez arrêter le parc informatique et tous les nœuds de connexion.

[Politique de mise à jour : le parc informatique et les nœuds de connexion doivent être arrêtés pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update-cluster-v3.md#update-policy-compute-login-v3)

### DefaultUserHome propriété
<a name="DeploymentSettings-cluster-v3-DefaultUserHome.property"></a>

Lorsqu'il est défini sur`Shared`, le cluster utilisera la configuration par défaut et partagera le répertoire des utilisateurs par défaut sur le cluster en`/home/<default user>`.

Lorsqu'il est défini sur`Local`, le nœud principal, les nœuds de connexion et les nœuds de calcul disposeront chacun d'un répertoire utilisateur local par défaut distinct stocké dans`local/home/<default user>`.