

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# `[cluster]` Section
<a name="cluster-definition"></a>

Définit un modèle de cluster qui peut être utilisé pour créer un cluster. Un fichier de configuration peut contenir plusieurs `[cluster]` sections.

Le même modèle de cluster peut être utilisé pour créer plusieurs clusters.

Le format est `[cluster cluster-template-name]`. La [`[cluster]`section](#cluster-definition) nommée par le [`cluster_template`](global.md#cluster-template) paramètre de la [`[global]`section](global.md) est utilisée par défaut, mais elle peut être remplacée sur la [`pcluster`](pcluster.md) ligne de commande.

*cluster-template-name*doit commencer par une lettre, ne pas contenir plus de 30 caractères et contenir uniquement des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

```
[cluster default]
```

**Topics**
+ [`additional_cfn_template`](#additional-cfn-template)
+ [`additional_iam_policies`](#additional-iam-policies)
+ [`base_os`](#base-os)
+ [`cluster_resource_bucket`](#cluster-resource-bucket-section)
+ [`cluster_type`](#cluster-type)
+ [`compute_instance_type`](#compute-instance-type)
+ [`compute_root_volume_size`](#compute-root-volume-size)
+ [`custom_ami`](#custom-ami-section)
+ [`cw_log_settings`](#cw-log-settings)
+ [`dashboard_settings`](#dashboard-settings)
+ [`dcv_settings`](#dcv-settings)
+ [`desired_vcpus`](#desired-vcpus)
+ [`disable_cluster_dns`](#disable-cluster-dns-settings)
+ [`disable_hyperthreading`](#disable-hyperthreading)
+ [`ebs_settings`](#ebs-settings)
+ [`ec2_iam_role`](#ec2-iam-role)
+ [`efs_settings`](#efs-settings)
+ [`enable_efa`](#enable-efa)
+ [`enable_efa_gdr`](#enable-efa-gdr)
+ [`enable_intel_hpc_platform`](#enable-intel-hpc-platform)
+ [`encrypted_ephemeral`](#encrypted-ephemeral)
+ [`ephemeral_dir`](#ephemeral-dir)
+ [`extra_json`](#extra-json)
+ [`fsx_settings`](#fsx-settings)
+ [`iam_lambda_role`](#iam-lambda-role)
+ [`initial_queue_size`](#configuration-initial-queue-size)
+ [`key_name`](#key-name)
+ [`maintain_initial_size`](#maintain-initial-size)
+ [`master_instance_type`](#master-instance-type)
+ [`master_root_volume_size`](#master-root-volume-size)
+ [`max_queue_size`](#configuration-max-queue-size)
+ [`max_vcpus`](#max-vcpus)
+ [`min_vcpus`](#min-vcpus)
+ [`placement`](#placement)
+ [`placement_group`](#placement-group)
+ [`post_install`](#post-install)
+ [`post_install_args`](#post-install-args)
+ [`pre_install`](#pre-install)
+ [`pre_install_args`](#pre-install-args)
+ [`proxy_server`](#proxy-server)
+ [`queue_settings`](#queue-settings)
+ [`raid_settings`](#raid-settings)
+ [`s3_read_resource`](#s3-read-resource)
+ [`s3_read_write_resource`](#s3-read-write-resource)
+ [`scaling_settings`](#scaling-settings)
+ [`scheduler`](#scheduler)
+ [`shared_dir`](#cluster-shared-dir)
+ [`spot_bid_percentage`](#spot-bid-percentage)
+ [`spot_price`](#spot-price)
+ [`tags`](#tags)
+ [`template_url`](#template-url)
+ [`vpc_settings`](#vpc-settings)

## `additional_cfn_template`
<a name="additional-cfn-template"></a>

**(Facultatif)** Définit un AWS CloudFormation modèle supplémentaire à lancer avec le cluster. Ce modèle supplémentaire est utilisé pour créer des ressources extérieures au cluster mais qui font partie du cycle de vie du cluster.

La valeur doit être une URL HTTP vers un modèle public, avec tous les paramètres fournis.

Il n'existe aucune valeur par défaut.

```
additional_cfn_template = https://<bucket-name>.s3.amazonaws.com/my-cfn-template.yaml
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `additional_iam_policies`
<a name="additional-iam-policies"></a>

**(Facultatif)** Spécifie une liste des Amazon Resource Names (ARN) des politiques IAM pour Amazon EC2. Cette liste est attachée au rôle root utilisé dans le cluster, en plus des autorisations requises, AWS ParallelCluster séparées par des virgules. Le nom d'une politique IAM et son ARN sont différents. Les noms ne peuvent pas être utilisés comme argument pour`additional_iam_policies`.

Si votre intention est d'ajouter des politiques supplémentaires aux paramètres par défaut des nœuds de cluster, nous vous recommandons de transmettre les politiques IAM personnalisées supplémentaires avec le `additional_iam_policies` paramètre au lieu de [`ec2_iam_role`](#ec2-iam-role)les utiliser pour ajouter vos politiques EC2 spécifiques. Cela est dû au fait que `additional_iam_policies` sont ajoutés aux autorisations par défaut AWS ParallelCluster requises. Un document existant [`ec2_iam_role`](#ec2-iam-role)doit inclure toutes les autorisations requises. Cependant, étant donné que les autorisations requises changent souvent d'une version à l'autre au fur et à mesure que des fonctionnalités sont ajoutées, une version existante [`ec2_iam_role`](#ec2-iam-role)peut devenir obsolète.

Il n'existe aucune valeur par défaut.

```
additional_iam_policies = arn:aws:iam::123456789012:policy/CustomEC2Policy
```

**Note**  
Support pour [`additional_iam_policies`](#additional-iam-policies)a été ajouté dans la AWS ParallelCluster version 2.5.0.

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `base_os`
<a name="base-os"></a>

**(Obligatoire)**Spécifie le type de système d'exploitation utilisé dans le cluster.

Les options disponibles sont :
+ `alinux2`
+ `centos7`
+ `ubuntu1804`
+ `ubuntu2004`

**Note**  
Pour les instances AWS basées sur Graviton, uniquement `alinux2``ubuntu1804`, ou `ubuntu2004` sont prises en charge.

**Note**  
Support pour `centos8` a été supprimé dans la AWS ParallelCluster version 2.11.4. Le support pour `ubuntu2004` a été ajouté et le support pour `alinux` et `ubuntu1604` a été supprimé dans la AWS ParallelCluster version 2.11.0. Support pour `centos8` a été ajouté et le support pour `centos6` a été supprimé dans la AWS ParallelCluster version 2.10.0. Support pour `alinux2` a été ajouté dans la AWS ParallelCluster version 2.6.0. Support pour `ubuntu1804` a été ajouté, et le support pour `ubuntu1404` a été supprimé dans la AWS ParallelCluster version 2.5.0.

À l'exception des informations spécifiques Régions AWS mentionnées dans le tableau suivant qui ne sont pas prises en charge`centos7`. Toutes les autres régions AWS commerciales prennent en charge tous les systèmes d'exploitation suivants.


| Cloison (Régions AWS) | `alinux2` | `centos7` | `ubuntu1804` et `ubuntu2004` | 
| --- | --- | --- | --- | 
| Commercial (tout cela Régions AWS n'est pas spécifiquement mentionné) | True | True | True | 
| AWS GovCloud (USA Est) (us-gov-east-1) | True | False | True | 
| AWS GovCloud (US-Ouest) (us-gov-west-1) | True | False | True | 
| Chine (Beijing) (cn-north-1) | True | False | True | 
| Chine (Ningxia) (cn-northwest-1) | True | False | True | 

**Note**  
Le [`base_os`](#base-os) paramètre détermine également le nom d'utilisateur utilisé pour se connecter au cluster.
+ `centos7`: `centos` 
+ `ubuntu1804` et `ubuntu2004` : `ubuntu` 
+ `alinux2`: `ec2-user` 

**Note**  
Avant AWS ParallelCluster la version 2.7.0, le [`base_os`](#base-os) paramètre était facultatif et le paramètre par défaut était`alinux`. À partir de AWS ParallelCluster la version 2.7.0, le [`base_os`](#base-os) paramètre est obligatoire.

**Note**  
Si le paramètre [`scheduler`](#scheduler) est `awsbatch`, seul `alinux2` est pris en charge.

```
base_os = alinux2
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `cluster_resource_bucket`
<a name="cluster-resource-bucket-section"></a>

**(Facultatif)** Spécifie le nom du compartiment Amazon S3 utilisé pour héberger les ressources générées lors de la création du cluster. Le contrôle de version du bucket doit être activé. Pour plus d'informations, consultez la section [Utilisation du versionnement](https://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html) dans le *guide de l'utilisateur d'Amazon Simple Storage Service*. Ce bucket peut être utilisé pour plusieurs clusters. Le compartiment doit se trouver dans la même région que le cluster.

Si ce paramètre n'est pas spécifié, un nouveau compartiment est créé lors de la création du cluster. Le nouveau compartiment porte le nom de`parallelcluster-random_string`. Dans ce nom, *random\$1string* il y a une chaîne aléatoire de caractères alphanumériques. Toutes les ressources du cluster sont stockées dans ce compartiment dans un chemin associé au formulaire`bucket_name/resource_directory`. `resource_directory`a la forme`stack_name-random_string`, où *stack\$1name* est le nom de l'une des CloudFormation piles utilisées par AWS ParallelCluster. La valeur de *bucket\$1name* se trouve dans la `ResourcesS3Bucket` valeur de la sortie de la `parallelcluster-clustername` pile. La valeur de *resource\$1directory* se trouve dans la valeur de la `ArtifactS3RootDirectory` sortie de la même pile.

La valeur par défaut est `parallelcluster-random_string`.

```
cluster_resource_bucket = amzn-s3-demo-bucket
```

**Note**  
Support pour [`cluster_resource_bucket`](#cluster-resource-bucket-section) a été ajouté dans la AWS ParallelCluster version 2.10.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée. La mise à jour de ce paramètre ne peut pas être forcée.](using-pcluster-update.md#update-policy-read-only-resource-bucket)

## `cluster_type`
<a name="cluster-type"></a>

**(Facultatif)** Définit le type de cluster à lancer. Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être remplacé par les [`compute_type`](queue-section.md#queue-compute-type) paramètres des [`[queue]`sections](queue-section.md).

Les options valides sont `ondemand` et `spot`.

La valeur par défaut est `ondemand`.

Pour plus d'informations sur les instances Spot, consultez [Utilisation de instances Spot](spot.md).

**Note**  
L'utilisation d'instances Spot nécessite que le rôle `AWSServiceRoleForEC2Spot` lié au service existe dans votre compte. Pour créer ce rôle dans votre compte à l'aide de AWS CLI, exécutez la commande suivante :  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Pour plus d'informations, consultez la section [Rôle lié au service pour les demandes d'instance Spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) dans le guide de l'*utilisateur Amazon EC2*.

```
cluster_type = ondemand
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_instance_type`
<a name="compute-instance-type"></a>

**(Facultatif)** Définit le type d'instance Amazon EC2 utilisé pour les nœuds de calcul du cluster. L'architecture du type d'instance doit être identique à celle utilisée pour le [`master_instance_type`](#master-instance-type) paramètre. Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être remplacé par les [`instance_type`](compute-resource-section.md#compute-resource-instance-type) paramètres des [`[compute_resource]`sections](compute-resource-section.md).

Si vous utilisez le `awsbatch` planificateur, consultez la section Création d'environnements de calcul dans l' AWS Batch interface utilisateur pour obtenir la liste des types d'instances pris en charge.

Valeur par défaut `t2.micro`, `optimal` lorsque le planificateur est `awsbatch`.

```
compute_instance_type = t2.micro
```

**Note**  
Support pour les instances AWS basées sur Graviton (y compris les `C6g` instances `A1` et) a été ajouté dans la AWS ParallelCluster version 2.8.0.

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_root_volume_size`
<a name="compute-root-volume-size"></a>

**(Facultatif)** Spécifie la taille du volume ComputeFleet racine en gibioctets (GiB). L'AMI doit prendre en charge `growroot`.

La valeur par défaut est `35`.

**Note**  
Pour AWS ParallelCluster les versions entre 2.5.0 et 2.10.4, la valeur par défaut était 25. Avant AWS ParallelCluster la version 2.5.0, la valeur par défaut était 20.

```
compute_root_volume_size = 35
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `custom_ami`
<a name="custom-ami-section"></a>

**(Facultatif)** Spécifie l'ID d'une AMI personnalisée à utiliser pour les nœuds de tête et de calcul au lieu de l'ID [publié](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/amis.txt) par défaut AMIs. Pour plus d’informations, consultez [Modification d’une AMI](tutorials_02_ami_customization.md#modify-an-aws-parallelcluster-ami) ou [Création d'une AWS ParallelCluster AMI personnalisée](tutorials_02_ami_customization.md#build-a-custom-aws-parallelcluster-ami).

Il n'existe aucune valeur par défaut.

```
custom_ami = ami-00d4efc81188687a0
```

Si l'AMI personnalisée nécessite des autorisations supplémentaires pour son lancement, ces autorisations doivent être ajoutées aux politiques de l'utilisateur et du nœud principal.

Par exemple, si un instantané chiffré est associé à une AMI personnalisée, les politiques supplémentaires suivantes sont requises à la fois dans les politiques de l'utilisateur et du nœud principal :

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```

------

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `cw_log_settings`
<a name="cw-log-settings"></a>

**(Facultatif)** Identifie la `[cw_log]` section avec la configuration CloudWatch des journaux. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez les [`[cw_log]`sections](cw-log-section.md)[Tableau de CloudWatch bord Amazon](cloudwatch-dashboard.md), et[Intégration à Amazon CloudWatch Logs](cloudwatch-logs.md).

Par exemple, le paramètre suivant indique que la section qui démarre `[cw_log custom-cw]` est utilisée pour la configuration CloudWatch des journaux.

```
cw_log_settings = custom-cw
```

**Note**  
Support pour [`cw_log_settings`](#cw-log-settings) a été ajouté dans la AWS ParallelCluster version 2.6.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `dashboard_settings`
<a name="dashboard-settings"></a>

**(Facultatif)** Identifie la `[dashboard]` section avec la configuration du CloudWatch tableau de bord. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[dashboard]`section](dashboard-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[dashboard custom-dashboard` est utilisée pour la configuration du CloudWatch tableau de bord.

```
dashboard_settings = custom-dashboard
```

**Note**  
Support pour [`dashboard_settings`](#dashboard-settings) a été ajouté dans la AWS ParallelCluster version 2.10.0.

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `dcv_settings`
<a name="dcv-settings"></a>

**(Facultatif)** Identifie la `[dcv]` section avec la configuration Amazon DCV. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[dcv]`section](dcv-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[dcv custom-dcv]` est utilisée pour la configuration Amazon DCV.

```
dcv_settings = custom-dcv
```

**Note**  
Sur les instances AWS basées sur Graviton, Amazon DCV n'est pris en charge que sur. `alinux2`

**Note**  
Support pour [`dcv_settings`](#dcv-settings) a été ajouté dans la AWS ParallelCluster version 2.5.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `desired_vcpus`
<a name="desired-vcpus"></a>

**(Facultatif)** Spécifie le nombre de v souhaité CPUs dans l'environnement de calcul. Utilisé uniquement si le planificateur est `awsbatch`.

La valeur par défaut est `4`.

```
desired_vcpus = 4
```

[Politique de mise à jour : ce paramètre n'est pas analysé lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-ignored)

## `disable_cluster_dns`
<a name="disable-cluster-dns-settings"></a>

**(Facultatif)** Spécifie si les entrées DNS du cluster ne doivent pas être créées. Par défaut, AWS ParallelCluster crée une zone hébergée Route 53. Si `disable_cluster_dns` ce paramètre est défini sur`true`, la zone hébergée n'est pas créée.

La valeur par défaut est `false`.

```
disable_cluster_dns = true
```

**Avertissement**  
Un système de résolution de noms est nécessaire au bon fonctionnement du cluster. Si `disable_cluster_dns` ce paramètre est défini sur`true`, un système de résolution de noms supplémentaire doit également être fourni.

**Important**  
[`disable_cluster_dns`](#disable-cluster-dns-settings)= n'`true`est pris en charge que si le [`queue_settings`](#queue-settings) paramètre est spécifié.

**Note**  
Support pour [`disable_cluster_dns`](#disable-cluster-dns-settings) a été ajouté dans la AWS ParallelCluster version 2.9.1.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `disable_hyperthreading`
<a name="disable-hyperthreading"></a>

**(Facultatif)** Désactive l'hyperthreading sur les nœuds de tête et de calcul. Tous les types d'instance ne peuvent pas désactiver l'hyper-threading. Pour obtenir la liste des types d'instances qui prennent en charge la désactivation de l'hyperthreading, consultez la section relative aux [cœurs de processeur et aux threads de chaque cœur de processeur pour chaque type d'instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) dans le guide de l'utilisateur *Amazon* EC2. Si le [`queue_settings`](#queue-settings) paramètre est défini, soit ce paramètre peut être défini, soit les [`disable_hyperthreading`](queue-section.md#queue-disable-hyperthreading) paramètres des [`[queue]`sections](queue-section.md) peuvent être définis.

La valeur par défaut est `false`.

```
disable_hyperthreading = true
```

**Note**  
[`disable_hyperthreading`](#disable-hyperthreading)n'affecte le nœud principal que lorsque`scheduler = awsbatch`.

**Note**  
Support pour [`disable_hyperthreading`](#disable-hyperthreading) a été ajouté dans la AWS ParallelCluster version 2.5.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `ebs_settings`
<a name="ebs-settings"></a>

**(Facultatif)** Identifie les `[ebs]` sections contenant les volumes Amazon EBS montés sur le nœud principal. Lorsque vous utilisez plusieurs volumes Amazon EBS, entrez ces paramètres dans une liste, chacun étant séparé par une virgule. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Jusqu'à cinq (5) volumes Amazon EBS supplémentaires sont pris en charge.

Pour plus d'informations, consultez la [`[ebs]`section](ebs-section.md).

Par exemple, le paramètre suivant indique que les sections démarrent `[ebs custom1]` et `[ebs custom2]` sont utilisées pour les volumes Amazon EBS.

```
ebs_settings = custom1, custom2
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `ec2_iam_role`
<a name="ec2-iam-role"></a>

**(Facultatif)** Définit le nom d'un rôle IAM existant pour Amazon EC2 attaché à toutes les instances du cluster. Le nom d'un rôle IAM et son Amazon Resource Name (ARN) sont différents. ARNs ne peut pas être utilisé comme argument pour`ec2_iam_role`.

Si cette option est spécifiée, le paramètre [`additional_iam_policies`](#additional-iam-policies) est ignoré. Si votre intention est d'ajouter des politiques supplémentaires aux paramètres par défaut des nœuds de cluster, nous vous recommandons de transmettre les politiques IAM personnalisées supplémentaires avec le [`additional_iam_policies`](#additional-iam-policies)paramètre au lieu de `ec2_iam_role` les utiliser.

Si cette option n'est pas spécifiée, le rôle AWS ParallelCluster IAM par défaut pour Amazon EC2 est utilisé. Pour de plus amples informations, veuillez consulter [Gestion des identités et des accès AWS rôles dans AWS ParallelCluster](iam.md).

Il n'existe aucune valeur par défaut.

```
ec2_iam_role = ParallelClusterInstanceRole
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `efs_settings`
<a name="efs-settings"></a>

**(Facultatif)** Spécifie les paramètres relatifs au système de fichiers Amazon EFS. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[efs]`section](efs-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[efs customfs]` est utilisée pour la configuration du système de fichiers Amazon EFS.

```
efs_settings = customfs
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `enable_efa`
<a name="enable-efa"></a>

**(Facultatif)** Le cas échéant, indique qu'Elastic Fabric Adapter (EFA) est activé pour les nœuds de calcul. Pour consulter la liste des instances EC2 qui prennent en charge l'EFA, consultez la section [Types d'instances pris en charge](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) dans le *Guide de l'utilisateur Amazon EC2 pour les* instances Linux. Pour de plus amples informations, veuillez consulter [Elastic Fabric Adapter](efa.md). Si le [`queue_settings`](#queue-settings) paramètre est défini, soit ce paramètre peut être défini, soit les [`enable_efa`](queue-section.md#queue-enable-efa) paramètres de la [`[queue]`section](queue-section.md) peuvent être définis. Un groupe de placement de cluster doit être utilisé pour minimiser les latences entre les instances. Pour plus d’informations, consultez [`placement`](#placement) et [`placement_group`](#placement-group).

```
enable_efa = compute
```

**Note**  
Support de l'EFA sur les instances Graviton2 basées sur ARM a été ajouté dans AWS ParallelCluster la version 2.10.1.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `enable_efa_gdr`
<a name="enable-efa-gdr"></a>

**(Facultatif)** À partir de AWS ParallelCluster la version 2.11.3, ce paramètre n'a aucun effet. La prise en charge GPUDirect du RDMA (Remote Direct Memory Access) par Elastic Fabric Adapter (EFA) est toujours activée si elle est prise en charge à la fois par le type d'instance et par le système d'exploitation.

**Note**  
AWS ParallelCluster versions 2.10.0 à 2.11.2 : si`compute`, indique que la prise en charge du GPUDirect RDMA (accès direct à distance à la mémoire) par Elastic Fabric Adapter (EFA) est activée pour les nœuds de calcul. Pour définir ce paramètre sur, il `compute` doit être défini sur`compute`. [`enable_efa`](#enable-efa) La prise en charge du GPUDirect RDMA par EFA est prise en charge par des types d'instances spécifiques (`p4d.24xlarge`) sur des systèmes d'exploitation spécifiques ([`base_os`](#base-os)is `alinux2` `centos7``ubuntu1804`, ou`ubuntu2004`). Si le [`queue_settings`](#queue-settings) paramètre est défini, soit ce paramètre peut être défini, soit les [`enable_efa_gdr`](queue-section.md#queue-enable-efa-gdr) paramètres des [`[queue]`sections](queue-section.md) peuvent être définis. Un groupe de placement de cluster doit être utilisé pour minimiser les latences entre les instances. Pour plus d’informations, consultez [`placement`](#placement) et [`placement_group`](#placement-group).

```
enable_efa_gdr = compute
```

**Note**  
Support pour `enable_efa_gdr` a été ajouté dans la AWS ParallelCluster version 2.10.0.

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_intel_hpc_platform`
<a name="enable-intel-hpc-platform"></a>

**(Facultatif)** Le cas échéant, indique que le [contrat de licence utilisateur final](https://software.intel.com/en-us/articles/end-user-license-agreement) pour Intel Parallel Studio est accepté. Cela entraîne l'installation d'Intel Parallel Studio sur le nœud principal et le partage avec les nœuds de calcul. Cela ajoute plusieurs minutes au temps nécessaire au nœud principal pour démarrer. Le paramètre [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) n'est pris en charge que sur CentOS 7 ([`base_os`](#base-os)` = centos7`).

La valeur par défaut est `false`.

```
enable_intel_hpc_platform = true
```

**Note**  
Le [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) paramètre n'est pas compatible avec les instances AWS basées sur Graviton.

**Note**  
Support pour [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) a été ajouté dans la AWS ParallelCluster version 2.5.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `encrypted_ephemeral`
<a name="encrypted-ephemeral"></a>

**(Facultatif)** Chiffre les volumes de stockage de l'instance éphémère avec des clés en mémoire non récupérables, à l'aide de LUKS (Linux Unified Key Setup).

Pour de plus amples informations, veuillez consulter [https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md](https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md).

La valeur par défaut est `false`.

```
encrypted_ephemeral = true
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `ephemeral_dir`
<a name="ephemeral-dir"></a>

**(Facultatif)** Définit le chemin où les volumes de stockage d'instance sont montés s'ils sont utilisés.

La valeur par défaut est `/scratch`.

```
ephemeral_dir = /scratch
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `extra_json`
<a name="extra-json"></a>

**(Facultatif)** Définit le JSON supplémentaire qui est fusionné dans le Chef`dna.json`. Pour de plus amples informations, veuillez consulter [Création d'une AWS ParallelCluster AMI personnalisée](tutorials_02_ami_customization.md).

La valeur par défaut est `{}`.

```
extra_json = {}
```

**Note**  
À partir de AWS ParallelCluster la version 2.6.1, la plupart des recettes d'installation sont ignorées par défaut lors du lancement des nœuds afin d'améliorer les temps de démarrage. Pour exécuter toutes les recettes d'installation afin d'améliorer la rétrocompatibilité au détriment des temps de démarrage, ajoutez `"skip_install_recipes" : "no"` la `cluster` clé dans le [`extra_json`](#extra-json) paramètre. Par exemple :  

```
extra_json = { "cluster" : { "skip_install_recipes" : "no" } }
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `fsx_settings`
<a name="fsx-settings"></a>

**(Facultatif)** Spécifie la section qui définit la configuration FSx pour Lustre. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[fsx]`section](fsx-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[fsx fs]` est utilisée pour la configuration FSx for Lustre.

```
fsx_settings = fs
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `iam_lambda_role`
<a name="iam-lambda-role"></a>

**(Facultatif)** Définit le nom d'un rôle AWS Lambda d'exécution existant. Ce rôle est associé à toutes les fonctions Lambda du cluster. Pour plus d'informations, veuillez consulter [Rôle d'exécution AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/lambda-intro-execution-role.html) dans le *Guide du développeur AWS Lambda *.

**Note**  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque

Le nom d'un rôle IAM et son Amazon Resource Name (ARN) sont différents. ARNs ne peut pas être utilisé comme argument pour`iam_lambda_role`. Si les deux [`ec2_iam_role`](#ec2-iam-role) `iam_lambda_role` sont définis et que le « [`scheduler`](#scheduler) est `sge` » ou « ou »`torque`, aucun rôle ne sera créé. `slurm` Si tel [`scheduler`](#scheduler) est le cas`awsbatch`, des rôles seront créés pendant[`pcluster start`](pcluster.start.md). Par exemple, les politiques, voir [`ParallelClusterLambdaPolicy`en utilisant SGESlurm, ou Torque](iam.md#parallelcluster-lambda-policy) et[`ParallelClusterLambdaPolicy` utilisant `awsbatch`](iam.md#parallelcluster-lambda-policy-batch).

Il n'existe aucune valeur par défaut.

```
iam_lambda_role = ParallelClusterLambdaRole
```

**Note**  
Support pour `iam_lambda_role` a été ajouté dans la AWS ParallelCluster version 2.10.1.

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `initial_queue_size`
<a name="configuration-initial-queue-size"></a>

**(Facultatif)** Définit le nombre initial d'instances Amazon EC2 à lancer en tant que nœuds de calcul dans le cluster. Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être supprimé et remplacé par les [`initial_count`](compute-resource-section.md#compute-resource-initial-count) paramètres des [`[compute_resource]`sections](compute-resource-section.md).

**Note**  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque

Ce paramètre s'applique uniquement aux planificateurs traditionnels (SGE, Slurm et Torque). Si le [`maintain_initial_size`](#maintain-initial-size) réglage est le [`initial_queue_size`](#configuration-initial-queue-size) cas`true`, il doit être d'au moins un (1).

Si le planificateur est `awsbatch`, utilisez [`min_vcpus`](#min-vcpus) à la place.

La valeur par défaut est `2` .

```
initial_queue_size = 2
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `key_name`
<a name="key-name"></a>

**(Facultatif)** Nomme une paire de clés Amazon EC2 existante permettant l'accès SSH aux instances.

```
key_name = mykey
```

**Note**  
Avant AWS ParallelCluster la version 2.11.0, `key_name` c'était un paramètre obligatoire.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `maintain_initial_size`
<a name="maintain-initial-size"></a>

**Note**  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque

**(Facultatif)** Conserve la taille initiale du groupe Auto Scaling pour les planificateurs traditionnels (SGE,Slurm, etTorque).

Si le planificateur est `awsbatch`, utilisez [`desired_vcpus`](#desired-vcpus) à la place.

Ce paramètre est un indicateur booléen. S'il est défini sur`true`, le groupe Auto Scaling ne compte jamais moins de membres que la valeur de[`initial_queue_size`](#configuration-initial-queue-size), et la valeur de [`initial_queue_size`](#configuration-initial-queue-size) doit être supérieure ou égale à un (1). Le cluster peut encore être mis à l'échelle jusqu'à la valeur de [`max_queue_size`](#configuration-max-queue-size). Dans `cluster_type = spot` ce cas, les instances du groupe Auto Scaling peuvent être interrompues et leur taille peut diminuer[`initial_queue_size`](#configuration-initial-queue-size).

S'il est défini sur`false`, le groupe Auto Scaling peut être réduit à zéro (0) membre afin d'éviter que les ressources ne restent inutilisées lorsqu'elles ne sont pas nécessaires.

Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être supprimé et remplacé par les [`min_count`](compute-resource-section.md#compute-resource-min-count) paramètres [`initial_count`](compute-resource-section.md#compute-resource-initial-count) et dans les [`[compute_resource]`sections](compute-resource-section.md).

La valeur par défaut est `false` .

```
maintain_initial_size = false
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `master_instance_type`
<a name="master-instance-type"></a>

**(Facultatif)** Définit le type d'instance Amazon EC2 utilisé pour le nœud principal. L'architecture du type d'instance doit être identique à celle utilisée pour le [`compute_instance_type`](#compute-instance-type) paramètre.

Dans Régions AWS le cas d'un niveau gratuit, le type d'instance par défaut est le niveau gratuit (`t2.micro`ou`t3.micro`). Si vous Régions AWS n'avez pas de niveau gratuit, la valeur par défaut est. `t3.micro` Pour plus d'informations sur le niveau AWS gratuit, consultez le [niveau AWS gratuit FAQs](https://aws.amazon.com/free/free-tier-faqs/).

```
master_instance_type = t2.micro
```

**Note**  
Avant AWS ParallelCluster la version 2.10.1, la valeur par défaut était « `t2.micro` in all ». Régions AWS Dans AWS ParallelCluster la version 2.10.0, le nœud `p4d.24xlarge` principal n'était pas pris en charge. Support pour les instances AWS basées sur Graviton (telles que `A1` et`C6g`) a été ajouté dans la AWS ParallelCluster version 2.8.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `master_root_volume_size`
<a name="master-root-volume-size"></a>

**(Facultatif)** Spécifie la taille du volume racine du nœud principal en gibioctets (GiB). L'AMI doit prendre en charge `growroot`.

La valeur par défaut est `35`.

**Note**  
Pour AWS ParallelCluster les versions entre 2.5.0 et 2.10.4, la valeur par défaut était 25. Avant AWS ParallelCluster la version 2.5.0, la valeur par défaut était 20.

```
master_root_volume_size = 35
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `max_queue_size`
<a name="configuration-max-queue-size"></a>

**(Facultatif)** Définit le nombre maximum d'instances Amazon EC2 pouvant être lancées dans le cluster. Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être supprimé et remplacé par les [`max_count`](compute-resource-section.md#compute-resource-max-count) paramètres des [`[compute_resource]`sections](compute-resource-section.md).

**Note**  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque

Ce paramètre s'applique uniquement aux planificateurs traditionnels (SGE, Slurm et Torque).

Si le planificateur est `awsbatch`, utilisez [`max_vcpus`](#max-vcpus) à la place.

La valeur par défaut est `10` .

```
max_queue_size = 10
```

Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour, mais le parc informatique doit être arrêté si la valeur est réduite. Dans le cas contraire, les nœuds existants risquent d'être résiliés.

## `max_vcpus`
<a name="max-vcpus"></a>

**(Facultatif)** Spécifie le nombre maximal de v CPUs dans l'environnement de calcul. Utilisé uniquement si le planificateur est `awsbatch`.

La valeur par défaut est `20`.

```
max_vcpus = 20
```

[Politique de mise à jour : ce paramètre ne peut pas être réduit lors d'une mise à jour.](using-pcluster-update.md#update-policy-no-decrease)

## `min_vcpus`
<a name="min-vcpus"></a>

**(Facultatif)** Conserve la taille initiale du groupe Auto Scaling pour le `awsbatch` planificateur.

**Note**  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque

Si le planificateur est SGE, Slurm ou Torque, utilisez [`maintain_initial_size`](#maintain-initial-size) à la place.

L'environnement de calcul ne compte jamais moins de membres que la valeur de [`min_vcpus`](#min-vcpus).

La valeur par défaut est `0` .

```
min_vcpus = 0
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `placement`
<a name="placement"></a>

**(Facultatif)** Définit la logique du groupe de placement du cluster, permettant à l'ensemble du cluster ou uniquement aux instances de calcul d'utiliser le groupe de placement du cluster.

Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être supprimé et remplacé par des [`placement_group`](queue-section.md#queue-placement-group) paramètres pour chacune des [`[queue]`sections](queue-section.md). Si le même groupe de placement est utilisé pour différents types d'instances, il est plus probable que la demande échoue en raison d'une erreur de capacité insuffisante. Pour plus d'informations, consultez la section [Capacité d'instance insuffisante](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) dans le guide de l'*utilisateur Amazon EC2*. Plusieurs files d'attente ne peuvent partager un groupe de placement que s'il a été créé à l'avance et configuré dans les [`placement_group`](queue-section.md#queue-placement-group) paramètres de chaque file d'attente. Si chaque [`[queue]`section](queue-section.md) définit un [`placement_group`](queue-section.md#queue-placement-group) paramètre, le nœud principal ne peut pas figurer dans le groupe de placement d'une file d'attente.

Les options valides sont `cluster` ou `compute`.

Ce paramètre n'est pas utilisé lorsque le planificateur l'est. `awsbatch`

La valeur par défaut est `compute`.

```
placement = compute
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `placement_group`
<a name="placement-group"></a>

**(Facultatif)** Définit le groupe de placement du cluster. Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être supprimé et remplacé par les [`placement_group`](queue-section.md#queue-placement-group) paramètres des [`[queue]`sections](queue-section.md).

Les options valides sont les valeurs suivantes :
+ `DYNAMIC`
+ Nom d'un groupe de placement de clusters Amazon EC2 existant

Lorsque `DYNAMIC` est défini, un groupe de placement unique est créé et supprimé dans la pile du cluster.

Ce paramètre n'est pas utilisé lorsque le planificateur l'est. `awsbatch`

Pour plus d'informations sur les groupes de placement, consultez la section [Groupes de placement](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) dans le guide de l'*utilisateur Amazon EC2*. Si le même groupe de placement est utilisé pour différents types d'instances, il est plus probable que la demande échoue en raison d'une erreur de capacité insuffisante. Pour plus d'informations, consultez la section [Capacité d'instance insuffisante](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) dans le guide de l'*utilisateur Amazon EC2*.

Il n'existe aucune valeur par défaut.

Tous les types d'instance ne prennent pas en charge les groupes de placement de cluster. Par exemple, le type d'instance par défaut `t3.micro` ne prend pas en charge les groupes de placement de clusters. Pour plus d'informations sur la liste des types d'instances qui prennent en charge les groupes de placement de clusters, consultez la section [Règles et limites des groupes de placement de clusters](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) dans le *guide de l'utilisateur Amazon EC2*. Consultez [Problèmes liés aux groupes de placement et au lancement d'instances](troubleshooting.md#placement-groups-and-instance-launch-issues) pour obtenir des conseils pour l'utilisation des groupes de placement.

```
placement_group = DYNAMIC
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `post_install`
<a name="post-install"></a>

**(Facultatif)** Spécifie l'URL d'un script de post-installation exécuté une fois toutes les actions d'amorçage du nœud terminées. Pour de plus amples informations, veuillez consulter [Actions d'amorçage personnalisées](pre_post_install.md).

Lorsqu'il est utilisé `awsbatch` comme planificateur, le script de post-installation est exécuté uniquement sur le nœud principal.

Le format du paramètre peut être `http://hostname/path/to/script.sh` ou `s3://bucket-name/path/to/script.sh`.

Il n'existe aucune valeur par défaut.

```
post_install = s3://<bucket-name>/my-post-install-script.sh
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `post_install_args`
<a name="post-install-args"></a>

**(Facultatif)** Spécifie une liste d'arguments entre guillemets à transmettre au script de post-installation.

Il n'existe aucune valeur par défaut.

```
post_install_args = "argument-1 argument-2"
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install`
<a name="pre-install"></a>

**(Facultatif)** Spécifie l'URL d'un script de préinstallation exécuté avant le lancement de toute action de démarrage du déploiement d'un nœud. Pour de plus amples informations, veuillez consulter [Actions d'amorçage personnalisées](pre_post_install.md).

Lorsqu'il est utilisé `awsbatch` comme planificateur, le script de préinstallation est exécuté uniquement sur le nœud principal.

Le format du paramètre peut être `http://hostname/path/to/script.sh` ou `s3://bucket-name/path/to/script.sh`.

Il n'existe aucune valeur par défaut.

```
pre_install = s3://bucket-name/my-pre-install-script.sh
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install_args`
<a name="pre-install-args"></a>

**(Facultatif)** Spécifie une liste d'arguments entre guillemets à transmettre au script de préinstallation.

Il n'existe aucune valeur par défaut.

```
pre_install_args = "argument-3 argument-4"
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `proxy_server`
<a name="proxy-server"></a>

**(Facultatif)** Définit généralement un serveur proxy HTTP ou HTTPS`http://x.x.x.x:8080`.

Il n'existe aucune valeur par défaut.

```
proxy_server = http://10.11.12.13:8080
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `queue_settings`
<a name="queue-settings"></a>

**(Facultatif)** Spécifie que le cluster utilise des files d'attente au lieu d'un parc informatique homogène, et indique quelles [`[queue]`sections](queue-section.md) sont utilisées. La première [`[queue]`section](queue-section.md) répertoriée est la file d'attente du planificateur par défaut. Les noms de `queue` section doivent commencer par une lettre minuscule, ne pas contenir plus de 30 caractères et ne contenir que des lettres minuscules, des chiffres et des tirets (-).

**Important**  
[`queue_settings`](#queue-settings)n'est pris en charge que lorsqu'[`scheduler`](#scheduler)il est défini sur`slurm`. Les [`spot_price`](#spot-price) paramètres [`cluster_type`](#cluster-type)[`compute_instance_type`](#compute-instance-type),[`initial_queue_size`](#configuration-initial-queue-size),[`maintain_initial_size`](#maintain-initial-size),[`max_queue_size`](#configuration-max-queue-size), [`placement`](#placement)[`placement_group`](#placement-group), et ne doivent pas être spécifiés. Les [`enable_efa`](#enable-efa) paramètres [`disable_hyperthreading`](#disable-hyperthreading) et peuvent être spécifiés dans la [`[cluster]`section](#cluster-definition) ou dans les [`[queue]`sections](queue-section.md), mais pas dans les deux.

Jusqu'à cinq (5) [`[queue]`sections](queue-section.md) sont prises en charge.

Pour plus d'informations, consultez la [`[queue]`section](queue-section.md).

Par exemple, le paramètre suivant indique que les sections qui démarrent `[queue q1]` et `[queue q2]` sont utilisées.

```
queue_settings = q1, q2
```

**Note**  
Support pour [`queue_settings`](#queue-settings) a été ajouté dans la AWS ParallelCluster version 2.9.0.

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `raid_settings`
<a name="raid-settings"></a>

**(Facultatif)** Identifie la `[raid]` section avec la configuration RAID du volume Amazon EBS. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[raid]`section](raid-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[raid rs]` doit être utilisée pour la configuration Auto Scaling.

```
raid_settings = rs
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `s3_read_resource`
<a name="s3-read-resource"></a>

**(Facultatif)** Spécifie une ressource Amazon S3 à laquelle les AWS ParallelCluster nœuds ont un accès en lecture seule.

`arn:aws:s3:::my_corporate_bucket*`Fournit, par exemple, un accès en lecture seule au *my\$1corporate\$1bucket* compartiment et aux objets qu'il contient.

Consultez la section [Travailler avec Amazon S3](s3_resources.md) pour plus de détails sur le format.

Il n'existe aucune valeur par défaut.

```
s3_read_resource = arn:aws:s3:::my_corporate_bucket*
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `s3_read_write_resource`
<a name="s3-read-write-resource"></a>

**(Facultatif)** Spécifie une ressource Amazon S3 à laquelle les AWS ParallelCluster nœuds ont read/write accès.

Permet par exemple `arn:aws:s3:::my_corporate_bucket/Development/*` read/write d'accéder à tous les objets du `Development` dossier du *my\$1corporate\$1bucket* compartiment.

Consultez la section [Travailler avec Amazon S3](s3_resources.md) pour plus de détails sur le format.

Il n'existe aucune valeur par défaut.

```
s3_read_write_resource = arn:aws:s3:::my_corporate_bucket/*
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `scaling_settings`
<a name="scaling-settings"></a>

Identifie la `[scaling]` section avec la configuration Auto Scaling. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[scaling]`section](scaling-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[scaling custom]` est utilisée pour la configuration Auto Scaling.

```
scaling_settings = custom
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `scheduler`
<a name="scheduler"></a>

**(Obligatoire)**Définit le planificateur du cluster.

Les options valides sont les valeurs suivantes :

`awsbatch`  
AWS Batch  
Pour plus d'informations sur le `awsbatch` planificateur, consultez les sections [Configuration réseau](networking.md#awsbatch-networking) et. [AWS Batch (`awsbatch`)](awsbatchcli.md)

`sge`  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque
Son of Grid Engine (SGE)

`slurm`  
Slurm Workload Manager (Slurm)

`torque`  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque
Torque Resource Manager (Torque)

**Note**  
Avant AWS ParallelCluster la version 2.7.0, le `scheduler` paramètre était facultatif et le paramètre par défaut était`sge`. À partir de AWS ParallelCluster la version 2.7.0, le `scheduler` paramètre est obligatoire.

```
scheduler = slurm
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="cluster-shared-dir"></a>

**(Facultatif)** Définit le chemin où le volume Amazon EBS partagé est monté.

N'utilisez pas cette option avec plusieurs volumes Amazon EBS. Indiquez plutôt des [`shared_dir`](#cluster-shared-dir) valeurs sous chaque [`[ebs]`section](ebs-section.md).

Consultez la [`[ebs]`section](ebs-section.md) pour en savoir plus sur l'utilisation de plusieurs volumes Amazon EBS.

La valeur par défaut est `/shared`.

L'exemple suivant montre un volume Amazon EBS partagé monté sur`/myshared`.

```
shared_dir = myshared
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `spot_bid_percentage`
<a name="spot-bid-percentage"></a>

**(Facultatif)** Définit le pourcentage à la demande utilisé pour calculer le ComputeFleet prix spot maximum pour `awsbatch` le planificateur.

S'il n'est pas spécifié, le prix du marché spot actuel est sélectionné, plafonné au prix à la demande.

```
spot_bid_percentage = 85
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `spot_price`
<a name="spot-price"></a>

**Note**  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque

**(Facultatif)** Définit le prix spot maximum pour ComputeFleet les planificateurs traditionnels (SGE,Slurm, etTorque). Utilisé uniquement lorsque le paramètre [`cluster_type`](#cluster-type) est défini sur `spot`. Si vous ne spécifiez aucune valeur, le prix au comptant vous est facturé, plafonné au prix à la demande. Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être supprimé et remplacé par les [`spot_price`](compute-resource-section.md#compute-resource-spot-price) paramètres des [`[compute_resource]`sections](compute-resource-section.md).

Si le planificateur est `awsbatch`, utilisez [spot\$1bid\$1percentage](#spot-bid-percentage) à la place.

Pour obtenir de l'aide pour trouver une instance Spot qui répond à vos besoins, consultez le [conseiller en matière d'instances Spot](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

**Note**  
Dans AWS ParallelCluster la version 2.5.0, si l'`cluster_type = spot`erreur [`spot_price`](#spot-price) n'est pas spécifiée, l'instance démarre en cas d' ComputeFleet échec. Cela a été corrigé dans la AWS ParallelCluster version 2.5.1.

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `tags`
<a name="tags"></a>

**(Facultatif)** Définit les balises à utiliser par CloudFormation.

Si les balises de la ligne de commande sont spécifiées via *--tags*, elles sont fusionnées aux balises de configuration.

Les balises de ligne de commande remplacent les balises de configuration qui ont la même clé.

Les balises sont au format JSON. N'utilisez pas de guillemets en dehors des bretelles.

Pour plus d'informations, consultez la section [Type de balises de CloudFormation ressource](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) dans le *Guide de AWS CloudFormation l'utilisateur*.

```
tags = {"key" : "value", "key2" : "value2"}
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

**Note**  
La politique de mise à jour ne permettait pas de modifier les `tags` paramètres de la AWS ParallelCluster version 2.8.0 à la version 2.9.1.  
Pour les versions 2.10.0 à 2.11.7, la politique de mise à jour répertoriée qui prenait en charge la modification du `tags` paramètre n'est pas exacte. La mise à jour du cluster lors de la modification de ce paramètre n'est pas prise en charge.

## `template_url`
<a name="template-url"></a>

**(Facultatif)** Définit le chemin d'accès au AWS CloudFormation modèle utilisé pour créer le cluster.

Met à jour l'utilisation du modèle initialement utilisé pour créer la pile.

La valeur par défaut est `https://aws_region_name-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version.cfn.json` .

**Avertissement**  
Il s'agit d'un paramètre avancé. Toute modification de ce paramètre est effectuée à vos risques et périls.

```
template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json
```

[Politique de mise à jour : ce paramètre n'est pas analysé lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-ignored)

## `vpc_settings`
<a name="vpc-settings"></a>

**(Obligatoire)** Identifie la `[vpc]` section contenant la configuration Amazon VPC dans laquelle le cluster est déployé. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[vpc]`section](vpc-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[vpc public]` est utilisée pour la configuration Amazon VPC.

```
vpc_settings = public
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)