

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Configuration
<a name="configuration"></a>

Par défaut, AWS ParallelCluster utilise le `~/.parallelcluster/config` fichier pour tous les paramètres de configuration. Vous pouvez spécifier un fichier de configuration personnalisé à l'aide de l'option de ligne de `--config` commande `-c` ou de la variable d'`AWS_PCLUSTER_CONFIG_FILE`environnement.

Un exemple de fichier de configuration est installé AWS ParallelCluster dans le répertoire Python à l'adresse`site-packages/aws-parallelcluster/examples/config`. L'exemple de fichier de configuration est également disponible sur GitHub, à l'adresse[https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config).

Version AWS ParallelCluster 2 actuelle : 2.11.9.

**Topics**
+ [Disposition](#layout)
+ [`[global]` Section](global.md)
+ [`[aws]` Section](aws.md)
+ [`[aliases]` Section](aliases.md)
+ [`[cluster]` Section](cluster-definition.md)
+ [`[compute_resource]` Section](compute-resource-section.md)
+ [`[cw_log]` Section](cw-log-section.md)
+ [`[dashboard]` Section](dashboard-section.md)
+ [`[dcv]` Section](dcv-section.md)
+ [`[ebs]` Section](ebs-section.md)
+ [`[efs]` Section](efs-section.md)
+ [`[fsx]` Section](fsx-section.md)
+ [`[queue]` Section](queue-section.md)
+ [`[raid]` Section](raid-section.md)
+ [`[scaling]` Section](scaling-section.md)
+ [`[vpc]` Section](vpc-section.md)
+ [Exemples](examples.md)

## Disposition
<a name="layout"></a>

Une AWS ParallelCluster configuration est définie dans plusieurs sections.

Les sections suivantes sont obligatoires : [`[global]`section](global.md) et [`[aws]`section](aws.md).

Vous devez également inclure au moins une [`[cluster]`section](cluster-definition.md) et une [`[vpc]`section](vpc-section.md).

Une section commence avec le nom de section entre parenthèses, suivi des paramètres et de la configuration.

```
[global]
cluster_template = default
update_check = true
sanity_check = true
```

# `[global]` Section
<a name="global"></a>

Spécifie les options de configuration globales associées à `pcluster`.

```
[global]
```

**Topics**
+ [`cluster_template`](#cluster-template)
+ [`update_check`](#update-check)
+ [`sanity_check`](#sanity-check)

## `cluster_template`
<a name="cluster-template"></a>

Définit le nom de la `cluster` section utilisée par défaut pour le cluster. Pour plus d'informations sur `cluster` les sections, consultez [`[cluster]`la section](cluster-definition.md). Le nom du cluster doit commencer par une lettre, ne pas contenir plus de 60 caractères et uniquement contenir des lettres, des chiffres et des tirets (-).

Par exemple, le paramètre suivant spécifie que la section qui commence par `[cluster default]` est utilisée par défaut.

```
cluster_template = default
```

[Politique de mise à jour : ce paramètre n'est pas analysé lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-ignored)

## `update_check`
<a name="update-check"></a>

**(Facultatif)** Vérifie les mises à jour de`pcluster`.

La valeur par défaut est `true`.

```
update_check = true
```

[Politique de mise à jour : ce paramètre n'est pas analysé lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-ignored)

## `sanity_check`
<a name="sanity-check"></a>

**(Facultatif)** Tente de valider la configuration des ressources définies dans les paramètres du cluster.

La valeur par défaut est `true`.

**Avertissement**  
S'il `sanity_check` est défini sur`false`, les vérifications importantes sont ignorées. Cela peut empêcher votre configuration de fonctionner comme prévu.

```
sanity_check = true
```

**Note**  
Avant AWS ParallelCluster la version 2.5.0, la [`sanity_check`](#sanity-check) valeur par défaut était. `false`

[Politique de mise à jour : ce paramètre n'est pas analysé lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-ignored)

# `[aws]` Section
<a name="aws"></a>

**(Facultatif)** Utilisé pour sélectionner le Région AWS.

La création d'un cluster utilise cet ordre de priorité pour sélectionner le Région AWS pour un nouveau cluster :

1. `-r`ou `--region` paramètre to[`pcluster create`](pluster.create.md).

1. `AWS_DEFAULT_REGION`variable d'environnement.

1. `aws_region_name`paramètre dans `[aws]` la section du fichier de AWS ParallelCluster configuration (l'emplacement par défaut est`~/.parallelcluster/config`.) Il s'agit de l'emplacement mis à jour par la [`pcluster configure`](pcluster.configure.md) commande.

1. `region`réglage dans `[default]` la section du fichier de AWS CLI configuration (`~/.aws/config`.)

**Note**  
Avant AWS ParallelCluster la version 2.10.0, ces paramètres étaient obligatoires et appliqués à tous les clusters.

Pour stocker les informations d'identification, vous pouvez utiliser l'environnement, les rôles IAM pour Amazon ou le EC2 [AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html), plutôt que d'enregistrer les informations d'identification dans le fichier de AWS ParallelCluster configuration.

```
[aws]
aws_region_name = Region
```

[Politique de mise à jour : ce paramètre n'est pas analysé lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-ignored)

# `[aliases]` Section
<a name="aliases"></a>

**Topics**

Spécifie les alias, et vous permet de personnaliser la commande `ssh`.

Notez les paramètres par défaut suivants :
+ `CFN_USER`est défini sur le nom d'utilisateur par défaut du système d'exploitation
+ `MASTER_IP`est défini sur l'adresse IP du nœud principal
+ `ARGS`est défini sur tous les arguments fournis par l'utilisateur après *`pcluster ssh cluster_name`*

```
[aliases]
# This is the aliases section, you can configure
# ssh alias here
ssh = ssh {CFN_USER}@{MASTER_IP} {ARGS}
```

[Politique de mise à jour : ce paramètre n'est pas analysé lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-ignored)

# `[cluster]` Section
<a name="cluster-definition"></a>

Définit un modèle de cluster qui peut être utilisé pour créer un cluster. Un fichier de configuration peut contenir plusieurs `[cluster]` sections.

Le même modèle de cluster peut être utilisé pour créer plusieurs clusters.

Le format est `[cluster cluster-template-name]`. La [`[cluster]`section](#cluster-definition) nommée par le [`cluster_template`](global.md#cluster-template) paramètre de la [`[global]`section](global.md) est utilisée par défaut, mais elle peut être remplacée sur la [`pcluster`](pcluster.md) ligne de commande.

*cluster-template-name*doit commencer par une lettre, ne pas contenir plus de 30 caractères et contenir uniquement des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

```
[cluster default]
```

**Topics**
+ [`additional_cfn_template`](#additional-cfn-template)
+ [`additional_iam_policies`](#additional-iam-policies)
+ [`base_os`](#base-os)
+ [`cluster_resource_bucket`](#cluster-resource-bucket-section)
+ [`cluster_type`](#cluster-type)
+ [`compute_instance_type`](#compute-instance-type)
+ [`compute_root_volume_size`](#compute-root-volume-size)
+ [`custom_ami`](#custom-ami-section)
+ [`cw_log_settings`](#cw-log-settings)
+ [`dashboard_settings`](#dashboard-settings)
+ [`dcv_settings`](#dcv-settings)
+ [`desired_vcpus`](#desired-vcpus)
+ [`disable_cluster_dns`](#disable-cluster-dns-settings)
+ [`disable_hyperthreading`](#disable-hyperthreading)
+ [`ebs_settings`](#ebs-settings)
+ [`ec2_iam_role`](#ec2-iam-role)
+ [`efs_settings`](#efs-settings)
+ [`enable_efa`](#enable-efa)
+ [`enable_efa_gdr`](#enable-efa-gdr)
+ [`enable_intel_hpc_platform`](#enable-intel-hpc-platform)
+ [`encrypted_ephemeral`](#encrypted-ephemeral)
+ [`ephemeral_dir`](#ephemeral-dir)
+ [`extra_json`](#extra-json)
+ [`fsx_settings`](#fsx-settings)
+ [`iam_lambda_role`](#iam-lambda-role)
+ [`initial_queue_size`](#configuration-initial-queue-size)
+ [`key_name`](#key-name)
+ [`maintain_initial_size`](#maintain-initial-size)
+ [`master_instance_type`](#master-instance-type)
+ [`master_root_volume_size`](#master-root-volume-size)
+ [`max_queue_size`](#configuration-max-queue-size)
+ [`max_vcpus`](#max-vcpus)
+ [`min_vcpus`](#min-vcpus)
+ [`placement`](#placement)
+ [`placement_group`](#placement-group)
+ [`post_install`](#post-install)
+ [`post_install_args`](#post-install-args)
+ [`pre_install`](#pre-install)
+ [`pre_install_args`](#pre-install-args)
+ [`proxy_server`](#proxy-server)
+ [`queue_settings`](#queue-settings)
+ [`raid_settings`](#raid-settings)
+ [`s3_read_resource`](#s3-read-resource)
+ [`s3_read_write_resource`](#s3-read-write-resource)
+ [`scaling_settings`](#scaling-settings)
+ [`scheduler`](#scheduler)
+ [`shared_dir`](#cluster-shared-dir)
+ [`spot_bid_percentage`](#spot-bid-percentage)
+ [`spot_price`](#spot-price)
+ [`tags`](#tags)
+ [`template_url`](#template-url)
+ [`vpc_settings`](#vpc-settings)

## `additional_cfn_template`
<a name="additional-cfn-template"></a>

**(Facultatif)** Définit un AWS CloudFormation modèle supplémentaire à lancer avec le cluster. Ce modèle supplémentaire est utilisé pour créer des ressources extérieures au cluster mais qui font partie du cycle de vie du cluster.

La valeur doit être une URL HTTP vers un modèle public, avec tous les paramètres fournis.

Il n'existe aucune valeur par défaut.

```
additional_cfn_template = https://<bucket-name>.s3.amazonaws.com/my-cfn-template.yaml
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `additional_iam_policies`
<a name="additional-iam-policies"></a>

**(Facultatif)** Spécifie une liste des Amazon Resource Names (ARN) des politiques IAM pour Amazon EC2. Cette liste est attachée au rôle root utilisé dans le cluster, en plus des autorisations requises, AWS ParallelCluster séparées par des virgules. Le nom d'une politique IAM et son ARN sont différents. Les noms ne peuvent pas être utilisés comme argument pour`additional_iam_policies`.

Si votre intention est d'ajouter des politiques supplémentaires aux paramètres par défaut des nœuds de cluster, nous vous recommandons de transmettre les politiques IAM personnalisées supplémentaires avec le `additional_iam_policies` paramètre au lieu de [`ec2_iam_role`](#ec2-iam-role)les utiliser pour ajouter vos politiques EC2 spécifiques. Cela est dû au fait que `additional_iam_policies` sont ajoutés aux autorisations par défaut AWS ParallelCluster requises. Un document existant [`ec2_iam_role`](#ec2-iam-role)doit inclure toutes les autorisations requises. Cependant, étant donné que les autorisations requises changent souvent d'une version à l'autre au fur et à mesure que des fonctionnalités sont ajoutées, une version existante [`ec2_iam_role`](#ec2-iam-role)peut devenir obsolète.

Il n'existe aucune valeur par défaut.

```
additional_iam_policies = arn:aws:iam::123456789012:policy/CustomEC2Policy
```

**Note**  
Support pour [`additional_iam_policies`](#additional-iam-policies)a été ajouté dans la AWS ParallelCluster version 2.5.0.

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `base_os`
<a name="base-os"></a>

**(Obligatoire)**Spécifie le type de système d'exploitation utilisé dans le cluster.

Les options disponibles sont :
+ `alinux2`
+ `centos7`
+ `ubuntu1804`
+ `ubuntu2004`

**Note**  
Pour les instances AWS basées sur Graviton, uniquement `alinux2``ubuntu1804`, ou `ubuntu2004` sont prises en charge.

**Note**  
Support pour `centos8` a été supprimé dans la AWS ParallelCluster version 2.11.4. Le support pour `ubuntu2004` a été ajouté et le support pour `alinux` et `ubuntu1604` a été supprimé dans la AWS ParallelCluster version 2.11.0. Support pour `centos8` a été ajouté et le support pour `centos6` a été supprimé dans la AWS ParallelCluster version 2.10.0. Support pour `alinux2` a été ajouté dans la AWS ParallelCluster version 2.6.0. Support pour `ubuntu1804` a été ajouté, et le support pour `ubuntu1404` a été supprimé dans la AWS ParallelCluster version 2.5.0.

À l'exception des informations spécifiques Régions AWS mentionnées dans le tableau suivant qui ne sont pas prises en charge`centos7`. Toutes les autres régions AWS commerciales prennent en charge tous les systèmes d'exploitation suivants.


| Cloison (Régions AWS) | `alinux2` | `centos7` | `ubuntu1804` et `ubuntu2004` | 
| --- | --- | --- | --- | 
| Commercial (tout cela Régions AWS n'est pas spécifiquement mentionné) | True | True | True | 
| AWS GovCloud (USA Est) (us-gov-east-1) | True | False | True | 
| AWS GovCloud (US-Ouest) (us-gov-west-1) | True | False | True | 
| Chine (Beijing) (cn-north-1) | True | False | True | 
| Chine (Ningxia) (cn-northwest-1) | True | False | True | 

**Note**  
Le [`base_os`](#base-os) paramètre détermine également le nom d'utilisateur utilisé pour se connecter au cluster.
+ `centos7`: `centos` 
+ `ubuntu1804` et `ubuntu2004` : `ubuntu` 
+ `alinux2`: `ec2-user` 

**Note**  
Avant AWS ParallelCluster la version 2.7.0, le [`base_os`](#base-os) paramètre était facultatif et le paramètre par défaut était`alinux`. À partir de AWS ParallelCluster la version 2.7.0, le [`base_os`](#base-os) paramètre est obligatoire.

**Note**  
Si le paramètre [`scheduler`](#scheduler) est `awsbatch`, seul `alinux2` est pris en charge.

```
base_os = alinux2
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `cluster_resource_bucket`
<a name="cluster-resource-bucket-section"></a>

**(Facultatif)** Spécifie le nom du compartiment Amazon S3 utilisé pour héberger les ressources générées lors de la création du cluster. Le contrôle de version du bucket doit être activé. Pour plus d'informations, consultez la section [Utilisation du versionnement](https://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html) dans le *guide de l'utilisateur d'Amazon Simple Storage Service*. Ce bucket peut être utilisé pour plusieurs clusters. Le compartiment doit se trouver dans la même région que le cluster.

Si ce paramètre n'est pas spécifié, un nouveau compartiment est créé lors de la création du cluster. Le nouveau compartiment porte le nom de`parallelcluster-random_string`. Dans ce nom, *random\$1string* il y a une chaîne aléatoire de caractères alphanumériques. Toutes les ressources du cluster sont stockées dans ce compartiment dans un chemin associé au formulaire`bucket_name/resource_directory`. `resource_directory`a la forme`stack_name-random_string`, où *stack\$1name* est le nom de l'une des CloudFormation piles utilisées par AWS ParallelCluster. La valeur de *bucket\$1name* se trouve dans la `ResourcesS3Bucket` valeur de la sortie de la `parallelcluster-clustername` pile. La valeur de *resource\$1directory* se trouve dans la valeur de la `ArtifactS3RootDirectory` sortie de la même pile.

La valeur par défaut est `parallelcluster-random_string`.

```
cluster_resource_bucket = amzn-s3-demo-bucket
```

**Note**  
Support pour [`cluster_resource_bucket`](#cluster-resource-bucket-section) a été ajouté dans la AWS ParallelCluster version 2.10.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée. La mise à jour de ce paramètre ne peut pas être forcée.](using-pcluster-update.md#update-policy-read-only-resource-bucket)

## `cluster_type`
<a name="cluster-type"></a>

**(Facultatif)** Définit le type de cluster à lancer. Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être remplacé par les [`compute_type`](queue-section.md#queue-compute-type) paramètres des [`[queue]`sections](queue-section.md).

Les options valides sont `ondemand` et `spot`.

La valeur par défaut est `ondemand`.

Pour plus d'informations sur les instances Spot, consultez [Utilisation de instances Spot](spot.md).

**Note**  
L'utilisation d'instances Spot nécessite que le rôle `AWSServiceRoleForEC2Spot` lié au service existe dans votre compte. Pour créer ce rôle dans votre compte à l'aide de AWS CLI, exécutez la commande suivante :  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Pour plus d'informations, consultez la section [Rôle lié au service pour les demandes d'instance Spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) dans le guide de l'*utilisateur Amazon EC2*.

```
cluster_type = ondemand
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_instance_type`
<a name="compute-instance-type"></a>

**(Facultatif)** Définit le type d'instance Amazon EC2 utilisé pour les nœuds de calcul du cluster. L'architecture du type d'instance doit être identique à celle utilisée pour le [`master_instance_type`](#master-instance-type) paramètre. Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être remplacé par les [`instance_type`](compute-resource-section.md#compute-resource-instance-type) paramètres des [`[compute_resource]`sections](compute-resource-section.md).

Si vous utilisez le `awsbatch` planificateur, consultez la section Création d'environnements de calcul dans l' AWS Batch interface utilisateur pour obtenir la liste des types d'instances pris en charge.

Valeur par défaut `t2.micro`, `optimal` lorsque le planificateur est `awsbatch`.

```
compute_instance_type = t2.micro
```

**Note**  
Support pour les instances AWS basées sur Graviton (y compris les `C6g` instances `A1` et) a été ajouté dans la AWS ParallelCluster version 2.8.0.

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_root_volume_size`
<a name="compute-root-volume-size"></a>

**(Facultatif)** Spécifie la taille du volume ComputeFleet racine en gibioctets (GiB). L'AMI doit prendre en charge `growroot`.

La valeur par défaut est `35`.

**Note**  
Pour AWS ParallelCluster les versions entre 2.5.0 et 2.10.4, la valeur par défaut était 25. Avant AWS ParallelCluster la version 2.5.0, la valeur par défaut était 20.

```
compute_root_volume_size = 35
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `custom_ami`
<a name="custom-ami-section"></a>

**(Facultatif)** Spécifie l'ID d'une AMI personnalisée à utiliser pour les nœuds de tête et de calcul au lieu de l'ID [publié](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/amis.txt) par défaut AMIs. Pour plus d’informations, consultez [Modification d’une AMI](tutorials_02_ami_customization.md#modify-an-aws-parallelcluster-ami) ou [Création d'une AWS ParallelCluster AMI personnalisée](tutorials_02_ami_customization.md#build-a-custom-aws-parallelcluster-ami).

Il n'existe aucune valeur par défaut.

```
custom_ami = ami-00d4efc81188687a0
```

Si l'AMI personnalisée nécessite des autorisations supplémentaires pour son lancement, ces autorisations doivent être ajoutées aux politiques de l'utilisateur et du nœud principal.

Par exemple, si un instantané chiffré est associé à une AMI personnalisée, les politiques supplémentaires suivantes sont requises à la fois dans les politiques de l'utilisateur et du nœud principal :

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```

------

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `cw_log_settings`
<a name="cw-log-settings"></a>

**(Facultatif)** Identifie la `[cw_log]` section avec la configuration CloudWatch des journaux. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez les [`[cw_log]`sections](cw-log-section.md)[Tableau de CloudWatch bord Amazon](cloudwatch-dashboard.md), et[Intégration à Amazon CloudWatch Logs](cloudwatch-logs.md).

Par exemple, le paramètre suivant indique que la section qui démarre `[cw_log custom-cw]` est utilisée pour la configuration CloudWatch des journaux.

```
cw_log_settings = custom-cw
```

**Note**  
Support pour [`cw_log_settings`](#cw-log-settings) a été ajouté dans la AWS ParallelCluster version 2.6.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `dashboard_settings`
<a name="dashboard-settings"></a>

**(Facultatif)** Identifie la `[dashboard]` section avec la configuration du CloudWatch tableau de bord. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[dashboard]`section](dashboard-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[dashboard custom-dashboard` est utilisée pour la configuration du CloudWatch tableau de bord.

```
dashboard_settings = custom-dashboard
```

**Note**  
Support pour [`dashboard_settings`](#dashboard-settings) a été ajouté dans la AWS ParallelCluster version 2.10.0.

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `dcv_settings`
<a name="dcv-settings"></a>

**(Facultatif)** Identifie la `[dcv]` section avec la configuration Amazon DCV. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[dcv]`section](dcv-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[dcv custom-dcv]` est utilisée pour la configuration Amazon DCV.

```
dcv_settings = custom-dcv
```

**Note**  
Sur les instances AWS basées sur Graviton, Amazon DCV n'est pris en charge que sur. `alinux2`

**Note**  
Support pour [`dcv_settings`](#dcv-settings) a été ajouté dans la AWS ParallelCluster version 2.5.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `desired_vcpus`
<a name="desired-vcpus"></a>

**(Facultatif)** Spécifie le nombre de v souhaité CPUs dans l'environnement de calcul. Utilisé uniquement si le planificateur est `awsbatch`.

La valeur par défaut est `4`.

```
desired_vcpus = 4
```

[Politique de mise à jour : ce paramètre n'est pas analysé lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-ignored)

## `disable_cluster_dns`
<a name="disable-cluster-dns-settings"></a>

**(Facultatif)** Spécifie si les entrées DNS du cluster ne doivent pas être créées. Par défaut, AWS ParallelCluster crée une zone hébergée Route 53. Si `disable_cluster_dns` ce paramètre est défini sur`true`, la zone hébergée n'est pas créée.

La valeur par défaut est `false`.

```
disable_cluster_dns = true
```

**Avertissement**  
Un système de résolution de noms est nécessaire au bon fonctionnement du cluster. Si `disable_cluster_dns` ce paramètre est défini sur`true`, un système de résolution de noms supplémentaire doit également être fourni.

**Important**  
[`disable_cluster_dns`](#disable-cluster-dns-settings)= n'`true`est pris en charge que si le [`queue_settings`](#queue-settings) paramètre est spécifié.

**Note**  
Support pour [`disable_cluster_dns`](#disable-cluster-dns-settings) a été ajouté dans la AWS ParallelCluster version 2.9.1.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `disable_hyperthreading`
<a name="disable-hyperthreading"></a>

**(Facultatif)** Désactive l'hyperthreading sur les nœuds de tête et de calcul. Tous les types d'instance ne peuvent pas désactiver l'hyper-threading. Pour obtenir la liste des types d'instances qui prennent en charge la désactivation de l'hyperthreading, consultez la section relative aux [cœurs de processeur et aux threads de chaque cœur de processeur pour chaque type d'instance](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) dans le guide de l'utilisateur *Amazon* EC2. Si le [`queue_settings`](#queue-settings) paramètre est défini, soit ce paramètre peut être défini, soit les [`disable_hyperthreading`](queue-section.md#queue-disable-hyperthreading) paramètres des [`[queue]`sections](queue-section.md) peuvent être définis.

La valeur par défaut est `false`.

```
disable_hyperthreading = true
```

**Note**  
[`disable_hyperthreading`](#disable-hyperthreading)n'affecte le nœud principal que lorsque`scheduler = awsbatch`.

**Note**  
Support pour [`disable_hyperthreading`](#disable-hyperthreading) a été ajouté dans la AWS ParallelCluster version 2.5.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `ebs_settings`
<a name="ebs-settings"></a>

**(Facultatif)** Identifie les `[ebs]` sections contenant les volumes Amazon EBS montés sur le nœud principal. Lorsque vous utilisez plusieurs volumes Amazon EBS, entrez ces paramètres dans une liste, chacun étant séparé par une virgule. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Jusqu'à cinq (5) volumes Amazon EBS supplémentaires sont pris en charge.

Pour plus d'informations, consultez la [`[ebs]`section](ebs-section.md).

Par exemple, le paramètre suivant indique que les sections démarrent `[ebs custom1]` et `[ebs custom2]` sont utilisées pour les volumes Amazon EBS.

```
ebs_settings = custom1, custom2
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `ec2_iam_role`
<a name="ec2-iam-role"></a>

**(Facultatif)** Définit le nom d'un rôle IAM existant pour Amazon EC2 attaché à toutes les instances du cluster. Le nom d'un rôle IAM et son Amazon Resource Name (ARN) sont différents. ARNs ne peut pas être utilisé comme argument pour`ec2_iam_role`.

Si cette option est spécifiée, le paramètre [`additional_iam_policies`](#additional-iam-policies) est ignoré. Si votre intention est d'ajouter des politiques supplémentaires aux paramètres par défaut des nœuds de cluster, nous vous recommandons de transmettre les politiques IAM personnalisées supplémentaires avec le [`additional_iam_policies`](#additional-iam-policies)paramètre au lieu de `ec2_iam_role` les utiliser.

Si cette option n'est pas spécifiée, le rôle AWS ParallelCluster IAM par défaut pour Amazon EC2 est utilisé. Pour de plus amples informations, veuillez consulter [Gestion des identités et des accès AWS rôles dans AWS ParallelCluster](iam.md).

Il n'existe aucune valeur par défaut.

```
ec2_iam_role = ParallelClusterInstanceRole
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `efs_settings`
<a name="efs-settings"></a>

**(Facultatif)** Spécifie les paramètres relatifs au système de fichiers Amazon EFS. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[efs]`section](efs-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[efs customfs]` est utilisée pour la configuration du système de fichiers Amazon EFS.

```
efs_settings = customfs
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `enable_efa`
<a name="enable-efa"></a>

**(Facultatif)** Le cas échéant, indique qu'Elastic Fabric Adapter (EFA) est activé pour les nœuds de calcul. Pour consulter la liste des instances EC2 qui prennent en charge l'EFA, consultez la section [Types d'instances pris en charge](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) dans le *Guide de l'utilisateur Amazon EC2 pour les* instances Linux. Pour de plus amples informations, veuillez consulter [Elastic Fabric Adapter](efa.md). Si le [`queue_settings`](#queue-settings) paramètre est défini, soit ce paramètre peut être défini, soit les [`enable_efa`](queue-section.md#queue-enable-efa) paramètres de la [`[queue]`section](queue-section.md) peuvent être définis. Un groupe de placement de cluster doit être utilisé pour minimiser les latences entre les instances. Pour plus d’informations, consultez [`placement`](#placement) et [`placement_group`](#placement-group).

```
enable_efa = compute
```

**Note**  
Support de l'EFA sur les instances Graviton2 basées sur ARM a été ajouté dans AWS ParallelCluster la version 2.10.1.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `enable_efa_gdr`
<a name="enable-efa-gdr"></a>

**(Facultatif)** À partir de AWS ParallelCluster la version 2.11.3, ce paramètre n'a aucun effet. La prise en charge GPUDirect du RDMA (Remote Direct Memory Access) par Elastic Fabric Adapter (EFA) est toujours activée si elle est prise en charge à la fois par le type d'instance et par le système d'exploitation.

**Note**  
AWS ParallelCluster versions 2.10.0 à 2.11.2 : si`compute`, indique que la prise en charge du GPUDirect RDMA (accès direct à distance à la mémoire) par Elastic Fabric Adapter (EFA) est activée pour les nœuds de calcul. Pour définir ce paramètre sur, il `compute` doit être défini sur`compute`. [`enable_efa`](#enable-efa) La prise en charge du GPUDirect RDMA par EFA est prise en charge par des types d'instances spécifiques (`p4d.24xlarge`) sur des systèmes d'exploitation spécifiques ([`base_os`](#base-os)is `alinux2` `centos7``ubuntu1804`, ou`ubuntu2004`). Si le [`queue_settings`](#queue-settings) paramètre est défini, soit ce paramètre peut être défini, soit les [`enable_efa_gdr`](queue-section.md#queue-enable-efa-gdr) paramètres des [`[queue]`sections](queue-section.md) peuvent être définis. Un groupe de placement de cluster doit être utilisé pour minimiser les latences entre les instances. Pour plus d’informations, consultez [`placement`](#placement) et [`placement_group`](#placement-group).

```
enable_efa_gdr = compute
```

**Note**  
Support pour `enable_efa_gdr` a été ajouté dans la AWS ParallelCluster version 2.10.0.

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_intel_hpc_platform`
<a name="enable-intel-hpc-platform"></a>

**(Facultatif)** Le cas échéant, indique que le [contrat de licence utilisateur final](https://software.intel.com/en-us/articles/end-user-license-agreement) pour Intel Parallel Studio est accepté. Cela entraîne l'installation d'Intel Parallel Studio sur le nœud principal et le partage avec les nœuds de calcul. Cela ajoute plusieurs minutes au temps nécessaire au nœud principal pour démarrer. Le paramètre [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) n'est pris en charge que sur CentOS 7 ([`base_os`](#base-os)` = centos7`).

La valeur par défaut est `false`.

```
enable_intel_hpc_platform = true
```

**Note**  
Le [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) paramètre n'est pas compatible avec les instances AWS basées sur Graviton.

**Note**  
Support pour [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) a été ajouté dans la AWS ParallelCluster version 2.5.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `encrypted_ephemeral`
<a name="encrypted-ephemeral"></a>

**(Facultatif)** Chiffre les volumes de stockage de l'instance éphémère avec des clés en mémoire non récupérables, à l'aide de LUKS (Linux Unified Key Setup).

Pour de plus amples informations, veuillez consulter [https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md](https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md).

La valeur par défaut est `false`.

```
encrypted_ephemeral = true
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `ephemeral_dir`
<a name="ephemeral-dir"></a>

**(Facultatif)** Définit le chemin où les volumes de stockage d'instance sont montés s'ils sont utilisés.

La valeur par défaut est `/scratch`.

```
ephemeral_dir = /scratch
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `extra_json`
<a name="extra-json"></a>

**(Facultatif)** Définit le JSON supplémentaire qui est fusionné dans le Chef`dna.json`. Pour de plus amples informations, veuillez consulter [Création d'une AWS ParallelCluster AMI personnalisée](tutorials_02_ami_customization.md).

La valeur par défaut est `{}`.

```
extra_json = {}
```

**Note**  
À partir de AWS ParallelCluster la version 2.6.1, la plupart des recettes d'installation sont ignorées par défaut lors du lancement des nœuds afin d'améliorer les temps de démarrage. Pour exécuter toutes les recettes d'installation afin d'améliorer la rétrocompatibilité au détriment des temps de démarrage, ajoutez `"skip_install_recipes" : "no"` la `cluster` clé dans le [`extra_json`](#extra-json) paramètre. Par exemple :  

```
extra_json = { "cluster" : { "skip_install_recipes" : "no" } }
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `fsx_settings`
<a name="fsx-settings"></a>

**(Facultatif)** Spécifie la section qui définit la configuration FSx pour Lustre. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[fsx]`section](fsx-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[fsx fs]` est utilisée pour la configuration FSx for Lustre.

```
fsx_settings = fs
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `iam_lambda_role`
<a name="iam-lambda-role"></a>

**(Facultatif)** Définit le nom d'un rôle AWS Lambda d'exécution existant. Ce rôle est associé à toutes les fonctions Lambda du cluster. Pour plus d'informations, veuillez consulter [Rôle d'exécution AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/lambda-intro-execution-role.html) dans le *Guide du développeur AWS Lambda *.

**Note**  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque

Le nom d'un rôle IAM et son Amazon Resource Name (ARN) sont différents. ARNs ne peut pas être utilisé comme argument pour`iam_lambda_role`. Si les deux [`ec2_iam_role`](#ec2-iam-role) `iam_lambda_role` sont définis et que le « [`scheduler`](#scheduler) est `sge` » ou « ou »`torque`, aucun rôle ne sera créé. `slurm` Si tel [`scheduler`](#scheduler) est le cas`awsbatch`, des rôles seront créés pendant[`pcluster start`](pcluster.start.md). Par exemple, les politiques, voir [`ParallelClusterLambdaPolicy`en utilisant SGESlurm, ou Torque](iam.md#parallelcluster-lambda-policy) et[`ParallelClusterLambdaPolicy` utilisant `awsbatch`](iam.md#parallelcluster-lambda-policy-batch).

Il n'existe aucune valeur par défaut.

```
iam_lambda_role = ParallelClusterLambdaRole
```

**Note**  
Support pour `iam_lambda_role` a été ajouté dans la AWS ParallelCluster version 2.10.1.

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `initial_queue_size`
<a name="configuration-initial-queue-size"></a>

**(Facultatif)** Définit le nombre initial d'instances Amazon EC2 à lancer en tant que nœuds de calcul dans le cluster. Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être supprimé et remplacé par les [`initial_count`](compute-resource-section.md#compute-resource-initial-count) paramètres des [`[compute_resource]`sections](compute-resource-section.md).

**Note**  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque

Ce paramètre s'applique uniquement aux planificateurs traditionnels (SGE, Slurm et Torque). Si le [`maintain_initial_size`](#maintain-initial-size) réglage est le [`initial_queue_size`](#configuration-initial-queue-size) cas`true`, il doit être d'au moins un (1).

Si le planificateur est `awsbatch`, utilisez [`min_vcpus`](#min-vcpus) à la place.

La valeur par défaut est `2` .

```
initial_queue_size = 2
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `key_name`
<a name="key-name"></a>

**(Facultatif)** Nomme une paire de clés Amazon EC2 existante permettant l'accès SSH aux instances.

```
key_name = mykey
```

**Note**  
Avant AWS ParallelCluster la version 2.11.0, `key_name` c'était un paramètre obligatoire.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `maintain_initial_size`
<a name="maintain-initial-size"></a>

**Note**  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque

**(Facultatif)** Conserve la taille initiale du groupe Auto Scaling pour les planificateurs traditionnels (SGE,Slurm, etTorque).

Si le planificateur est `awsbatch`, utilisez [`desired_vcpus`](#desired-vcpus) à la place.

Ce paramètre est un indicateur booléen. S'il est défini sur`true`, le groupe Auto Scaling ne compte jamais moins de membres que la valeur de[`initial_queue_size`](#configuration-initial-queue-size), et la valeur de [`initial_queue_size`](#configuration-initial-queue-size) doit être supérieure ou égale à un (1). Le cluster peut encore être mis à l'échelle jusqu'à la valeur de [`max_queue_size`](#configuration-max-queue-size). Dans `cluster_type = spot` ce cas, les instances du groupe Auto Scaling peuvent être interrompues et leur taille peut diminuer[`initial_queue_size`](#configuration-initial-queue-size).

S'il est défini sur`false`, le groupe Auto Scaling peut être réduit à zéro (0) membre afin d'éviter que les ressources ne restent inutilisées lorsqu'elles ne sont pas nécessaires.

Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être supprimé et remplacé par les [`min_count`](compute-resource-section.md#compute-resource-min-count) paramètres [`initial_count`](compute-resource-section.md#compute-resource-initial-count) et dans les [`[compute_resource]`sections](compute-resource-section.md).

La valeur par défaut est `false` .

```
maintain_initial_size = false
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `master_instance_type`
<a name="master-instance-type"></a>

**(Facultatif)** Définit le type d'instance Amazon EC2 utilisé pour le nœud principal. L'architecture du type d'instance doit être identique à celle utilisée pour le [`compute_instance_type`](#compute-instance-type) paramètre.

Dans Régions AWS le cas d'un niveau gratuit, le type d'instance par défaut est le niveau gratuit (`t2.micro`ou`t3.micro`). Si vous Régions AWS n'avez pas de niveau gratuit, la valeur par défaut est. `t3.micro` Pour plus d'informations sur le niveau AWS gratuit, consultez le [niveau AWS gratuit FAQs](https://aws.amazon.com/free/free-tier-faqs/).

```
master_instance_type = t2.micro
```

**Note**  
Avant AWS ParallelCluster la version 2.10.1, la valeur par défaut était « `t2.micro` in all ». Régions AWS Dans AWS ParallelCluster la version 2.10.0, le nœud `p4d.24xlarge` principal n'était pas pris en charge. Support pour les instances AWS basées sur Graviton (telles que `A1` et`C6g`) a été ajouté dans la AWS ParallelCluster version 2.8.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `master_root_volume_size`
<a name="master-root-volume-size"></a>

**(Facultatif)** Spécifie la taille du volume racine du nœud principal en gibioctets (GiB). L'AMI doit prendre en charge `growroot`.

La valeur par défaut est `35`.

**Note**  
Pour AWS ParallelCluster les versions entre 2.5.0 et 2.10.4, la valeur par défaut était 25. Avant AWS ParallelCluster la version 2.5.0, la valeur par défaut était 20.

```
master_root_volume_size = 35
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `max_queue_size`
<a name="configuration-max-queue-size"></a>

**(Facultatif)** Définit le nombre maximum d'instances Amazon EC2 pouvant être lancées dans le cluster. Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être supprimé et remplacé par les [`max_count`](compute-resource-section.md#compute-resource-max-count) paramètres des [`[compute_resource]`sections](compute-resource-section.md).

**Note**  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque

Ce paramètre s'applique uniquement aux planificateurs traditionnels (SGE, Slurm et Torque).

Si le planificateur est `awsbatch`, utilisez [`max_vcpus`](#max-vcpus) à la place.

La valeur par défaut est `10` .

```
max_queue_size = 10
```

Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour, mais le parc informatique doit être arrêté si la valeur est réduite. Dans le cas contraire, les nœuds existants risquent d'être résiliés.

## `max_vcpus`
<a name="max-vcpus"></a>

**(Facultatif)** Spécifie le nombre maximal de v CPUs dans l'environnement de calcul. Utilisé uniquement si le planificateur est `awsbatch`.

La valeur par défaut est `20`.

```
max_vcpus = 20
```

[Politique de mise à jour : ce paramètre ne peut pas être réduit lors d'une mise à jour.](using-pcluster-update.md#update-policy-no-decrease)

## `min_vcpus`
<a name="min-vcpus"></a>

**(Facultatif)** Conserve la taille initiale du groupe Auto Scaling pour le `awsbatch` planificateur.

**Note**  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque

Si le planificateur est SGE, Slurm ou Torque, utilisez [`maintain_initial_size`](#maintain-initial-size) à la place.

L'environnement de calcul ne compte jamais moins de membres que la valeur de [`min_vcpus`](#min-vcpus).

La valeur par défaut est `0` .

```
min_vcpus = 0
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `placement`
<a name="placement"></a>

**(Facultatif)** Définit la logique du groupe de placement du cluster, permettant à l'ensemble du cluster ou uniquement aux instances de calcul d'utiliser le groupe de placement du cluster.

Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être supprimé et remplacé par des [`placement_group`](queue-section.md#queue-placement-group) paramètres pour chacune des [`[queue]`sections](queue-section.md). Si le même groupe de placement est utilisé pour différents types d'instances, il est plus probable que la demande échoue en raison d'une erreur de capacité insuffisante. Pour plus d'informations, consultez la section [Capacité d'instance insuffisante](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) dans le guide de l'*utilisateur Amazon EC2*. Plusieurs files d'attente ne peuvent partager un groupe de placement que s'il a été créé à l'avance et configuré dans les [`placement_group`](queue-section.md#queue-placement-group) paramètres de chaque file d'attente. Si chaque [`[queue]`section](queue-section.md) définit un [`placement_group`](queue-section.md#queue-placement-group) paramètre, le nœud principal ne peut pas figurer dans le groupe de placement d'une file d'attente.

Les options valides sont `cluster` ou `compute`.

Ce paramètre n'est pas utilisé lorsque le planificateur l'est. `awsbatch`

La valeur par défaut est `compute`.

```
placement = compute
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `placement_group`
<a name="placement-group"></a>

**(Facultatif)** Définit le groupe de placement du cluster. Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être supprimé et remplacé par les [`placement_group`](queue-section.md#queue-placement-group) paramètres des [`[queue]`sections](queue-section.md).

Les options valides sont les valeurs suivantes :
+ `DYNAMIC`
+ Nom d'un groupe de placement de clusters Amazon EC2 existant

Lorsque `DYNAMIC` est défini, un groupe de placement unique est créé et supprimé dans la pile du cluster.

Ce paramètre n'est pas utilisé lorsque le planificateur l'est. `awsbatch`

Pour plus d'informations sur les groupes de placement, consultez la section [Groupes de placement](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) dans le guide de l'*utilisateur Amazon EC2*. Si le même groupe de placement est utilisé pour différents types d'instances, il est plus probable que la demande échoue en raison d'une erreur de capacité insuffisante. Pour plus d'informations, consultez la section [Capacité d'instance insuffisante](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) dans le guide de l'*utilisateur Amazon EC2*.

Il n'existe aucune valeur par défaut.

Tous les types d'instance ne prennent pas en charge les groupes de placement de cluster. Par exemple, le type d'instance par défaut `t3.micro` ne prend pas en charge les groupes de placement de clusters. Pour plus d'informations sur la liste des types d'instances qui prennent en charge les groupes de placement de clusters, consultez la section [Règles et limites des groupes de placement de clusters](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) dans le *guide de l'utilisateur Amazon EC2*. Consultez [Problèmes liés aux groupes de placement et au lancement d'instances](troubleshooting.md#placement-groups-and-instance-launch-issues) pour obtenir des conseils pour l'utilisation des groupes de placement.

```
placement_group = DYNAMIC
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `post_install`
<a name="post-install"></a>

**(Facultatif)** Spécifie l'URL d'un script de post-installation exécuté une fois toutes les actions d'amorçage du nœud terminées. Pour de plus amples informations, veuillez consulter [Actions d'amorçage personnalisées](pre_post_install.md).

Lorsqu'il est utilisé `awsbatch` comme planificateur, le script de post-installation est exécuté uniquement sur le nœud principal.

Le format du paramètre peut être `http://hostname/path/to/script.sh` ou `s3://bucket-name/path/to/script.sh`.

Il n'existe aucune valeur par défaut.

```
post_install = s3://<bucket-name>/my-post-install-script.sh
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `post_install_args`
<a name="post-install-args"></a>

**(Facultatif)** Spécifie une liste d'arguments entre guillemets à transmettre au script de post-installation.

Il n'existe aucune valeur par défaut.

```
post_install_args = "argument-1 argument-2"
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install`
<a name="pre-install"></a>

**(Facultatif)** Spécifie l'URL d'un script de préinstallation exécuté avant le lancement de toute action de démarrage du déploiement d'un nœud. Pour de plus amples informations, veuillez consulter [Actions d'amorçage personnalisées](pre_post_install.md).

Lorsqu'il est utilisé `awsbatch` comme planificateur, le script de préinstallation est exécuté uniquement sur le nœud principal.

Le format du paramètre peut être `http://hostname/path/to/script.sh` ou `s3://bucket-name/path/to/script.sh`.

Il n'existe aucune valeur par défaut.

```
pre_install = s3://bucket-name/my-pre-install-script.sh
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install_args`
<a name="pre-install-args"></a>

**(Facultatif)** Spécifie une liste d'arguments entre guillemets à transmettre au script de préinstallation.

Il n'existe aucune valeur par défaut.

```
pre_install_args = "argument-3 argument-4"
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `proxy_server`
<a name="proxy-server"></a>

**(Facultatif)** Définit généralement un serveur proxy HTTP ou HTTPS`http://x.x.x.x:8080`.

Il n'existe aucune valeur par défaut.

```
proxy_server = http://10.11.12.13:8080
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `queue_settings`
<a name="queue-settings"></a>

**(Facultatif)** Spécifie que le cluster utilise des files d'attente au lieu d'un parc informatique homogène, et indique quelles [`[queue]`sections](queue-section.md) sont utilisées. La première [`[queue]`section](queue-section.md) répertoriée est la file d'attente du planificateur par défaut. Les noms de `queue` section doivent commencer par une lettre minuscule, ne pas contenir plus de 30 caractères et ne contenir que des lettres minuscules, des chiffres et des tirets (-).

**Important**  
[`queue_settings`](#queue-settings)n'est pris en charge que lorsqu'[`scheduler`](#scheduler)il est défini sur`slurm`. Les [`spot_price`](#spot-price) paramètres [`cluster_type`](#cluster-type)[`compute_instance_type`](#compute-instance-type),[`initial_queue_size`](#configuration-initial-queue-size),[`maintain_initial_size`](#maintain-initial-size),[`max_queue_size`](#configuration-max-queue-size), [`placement`](#placement)[`placement_group`](#placement-group), et ne doivent pas être spécifiés. Les [`enable_efa`](#enable-efa) paramètres [`disable_hyperthreading`](#disable-hyperthreading) et peuvent être spécifiés dans la [`[cluster]`section](#cluster-definition) ou dans les [`[queue]`sections](queue-section.md), mais pas dans les deux.

Jusqu'à cinq (5) [`[queue]`sections](queue-section.md) sont prises en charge.

Pour plus d'informations, consultez la [`[queue]`section](queue-section.md).

Par exemple, le paramètre suivant indique que les sections qui démarrent `[queue q1]` et `[queue q2]` sont utilisées.

```
queue_settings = q1, q2
```

**Note**  
Support pour [`queue_settings`](#queue-settings) a été ajouté dans la AWS ParallelCluster version 2.9.0.

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `raid_settings`
<a name="raid-settings"></a>

**(Facultatif)** Identifie la `[raid]` section avec la configuration RAID du volume Amazon EBS. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[raid]`section](raid-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[raid rs]` doit être utilisée pour la configuration Auto Scaling.

```
raid_settings = rs
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `s3_read_resource`
<a name="s3-read-resource"></a>

**(Facultatif)** Spécifie une ressource Amazon S3 à laquelle les AWS ParallelCluster nœuds ont un accès en lecture seule.

`arn:aws:s3:::my_corporate_bucket*`Fournit, par exemple, un accès en lecture seule au *my\$1corporate\$1bucket* compartiment et aux objets qu'il contient.

Consultez la section [Travailler avec Amazon S3](s3_resources.md) pour plus de détails sur le format.

Il n'existe aucune valeur par défaut.

```
s3_read_resource = arn:aws:s3:::my_corporate_bucket*
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `s3_read_write_resource`
<a name="s3-read-write-resource"></a>

**(Facultatif)** Spécifie une ressource Amazon S3 à laquelle les AWS ParallelCluster nœuds ont read/write accès.

Permet par exemple `arn:aws:s3:::my_corporate_bucket/Development/*` read/write d'accéder à tous les objets du `Development` dossier du *my\$1corporate\$1bucket* compartiment.

Consultez la section [Travailler avec Amazon S3](s3_resources.md) pour plus de détails sur le format.

Il n'existe aucune valeur par défaut.

```
s3_read_write_resource = arn:aws:s3:::my_corporate_bucket/*
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `scaling_settings`
<a name="scaling-settings"></a>

Identifie la `[scaling]` section avec la configuration Auto Scaling. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[scaling]`section](scaling-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[scaling custom]` est utilisée pour la configuration Auto Scaling.

```
scaling_settings = custom
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `scheduler`
<a name="scheduler"></a>

**(Obligatoire)**Définit le planificateur du cluster.

Les options valides sont les valeurs suivantes :

`awsbatch`  
AWS Batch  
Pour plus d'informations sur le `awsbatch` planificateur, consultez les sections [Configuration réseau](networking.md#awsbatch-networking) et. [AWS Batch (`awsbatch`)](awsbatchcli.md)

`sge`  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque
Son of Grid Engine (SGE)

`slurm`  
Slurm Workload Manager (Slurm)

`torque`  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque
Torque Resource Manager (Torque)

**Note**  
Avant AWS ParallelCluster la version 2.7.0, le `scheduler` paramètre était facultatif et le paramètre par défaut était`sge`. À partir de AWS ParallelCluster la version 2.7.0, le `scheduler` paramètre est obligatoire.

```
scheduler = slurm
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="cluster-shared-dir"></a>

**(Facultatif)** Définit le chemin où le volume Amazon EBS partagé est monté.

N'utilisez pas cette option avec plusieurs volumes Amazon EBS. Indiquez plutôt des [`shared_dir`](#cluster-shared-dir) valeurs sous chaque [`[ebs]`section](ebs-section.md).

Consultez la [`[ebs]`section](ebs-section.md) pour en savoir plus sur l'utilisation de plusieurs volumes Amazon EBS.

La valeur par défaut est `/shared`.

L'exemple suivant montre un volume Amazon EBS partagé monté sur`/myshared`.

```
shared_dir = myshared
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `spot_bid_percentage`
<a name="spot-bid-percentage"></a>

**(Facultatif)** Définit le pourcentage à la demande utilisé pour calculer le ComputeFleet prix spot maximum pour `awsbatch` le planificateur.

S'il n'est pas spécifié, le prix du marché spot actuel est sélectionné, plafonné au prix à la demande.

```
spot_bid_percentage = 85
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `spot_price`
<a name="spot-price"></a>

**Note**  
À partir de la version 2.11.5, l'utilisation des planificateurs AWS ParallelCluster n'est pas prise en SGE charge. Torque

**(Facultatif)** Définit le prix spot maximum pour ComputeFleet les planificateurs traditionnels (SGE,Slurm, etTorque). Utilisé uniquement lorsque le paramètre [`cluster_type`](#cluster-type) est défini sur `spot`. Si vous ne spécifiez aucune valeur, le prix au comptant vous est facturé, plafonné au prix à la demande. Si le [`queue_settings`](#queue-settings) paramètre est défini, il doit être supprimé et remplacé par les [`spot_price`](compute-resource-section.md#compute-resource-spot-price) paramètres des [`[compute_resource]`sections](compute-resource-section.md).

Si le planificateur est `awsbatch`, utilisez [spot\$1bid\$1percentage](#spot-bid-percentage) à la place.

Pour obtenir de l'aide pour trouver une instance Spot qui répond à vos besoins, consultez le [conseiller en matière d'instances Spot](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

**Note**  
Dans AWS ParallelCluster la version 2.5.0, si l'`cluster_type = spot`erreur [`spot_price`](#spot-price) n'est pas spécifiée, l'instance démarre en cas d' ComputeFleet échec. Cela a été corrigé dans la AWS ParallelCluster version 2.5.1.

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `tags`
<a name="tags"></a>

**(Facultatif)** Définit les balises à utiliser par CloudFormation.

Si les balises de la ligne de commande sont spécifiées via *--tags*, elles sont fusionnées aux balises de configuration.

Les balises de ligne de commande remplacent les balises de configuration qui ont la même clé.

Les balises sont au format JSON. N'utilisez pas de guillemets en dehors des bretelles.

Pour plus d'informations, consultez la section [Type de balises de CloudFormation ressource](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) dans le *Guide de AWS CloudFormation l'utilisateur*.

```
tags = {"key" : "value", "key2" : "value2"}
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

**Note**  
La politique de mise à jour ne permettait pas de modifier les `tags` paramètres de la AWS ParallelCluster version 2.8.0 à la version 2.9.1.  
Pour les versions 2.10.0 à 2.11.7, la politique de mise à jour répertoriée qui prenait en charge la modification du `tags` paramètre n'est pas exacte. La mise à jour du cluster lors de la modification de ce paramètre n'est pas prise en charge.

## `template_url`
<a name="template-url"></a>

**(Facultatif)** Définit le chemin d'accès au AWS CloudFormation modèle utilisé pour créer le cluster.

Met à jour l'utilisation du modèle initialement utilisé pour créer la pile.

La valeur par défaut est `https://aws_region_name-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version.cfn.json` .

**Avertissement**  
Il s'agit d'un paramètre avancé. Toute modification de ce paramètre est effectuée à vos risques et périls.

```
template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json
```

[Politique de mise à jour : ce paramètre n'est pas analysé lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-ignored)

## `vpc_settings`
<a name="vpc-settings"></a>

**(Obligatoire)** Identifie la `[vpc]` section contenant la configuration Amazon VPC dans laquelle le cluster est déployé. Le nom de section doit commencer par une lettre, ne pas contenir plus de 30 caractères et uniquement contenir des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Pour plus d'informations, consultez la [`[vpc]`section](vpc-section.md).

Par exemple, le paramètre suivant indique que la section qui commence `[vpc public]` est utilisée pour la configuration Amazon VPC.

```
vpc_settings = public
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

# `[compute_resource]` Section
<a name="compute-resource-section"></a>

Définit les paramètres de configuration d'une ressource de calcul. [`[compute_resource]`les sections](#compute-resource-section) sont référencées par le [`compute_resource_settings`](queue-section.md#queue-compute-resource-settings) paramètre de la [`[queue]`section](queue-section.md). [`[compute_resource]`les sections](#compute-resource-section) ne sont prises en charge que lorsqu'elles [`scheduler`](cluster-definition.md#scheduler) sont définies sur`slurm`.

Le format est`[compute_resource <compute-resource-name>]`. *compute-resource-name*doit commencer par une lettre, ne pas contenir plus de 30 caractères et contenir uniquement des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

```
[compute_resource cr1]
instance_type = c5.xlarge
min_count = 0
initial_count = 2
max_count = 10
spot_price = 0.5
```

**Note**  
Support pour [`[compute_resource]`cette section](#compute-resource-section) a été ajouté dans la AWS ParallelCluster version 2.9.0.

**Topics**
+ [`initial_count`](#compute-resource-initial-count)
+ [`instance_type`](#compute-resource-instance-type)
+ [`max_count`](#compute-resource-max-count)
+ [`min_count`](#compute-resource-min-count)
+ [`spot_price`](#compute-resource-spot-price)

## `initial_count`
<a name="compute-resource-initial-count"></a>

**(Facultatif)** Définit le nombre initial d' EC2 instances Amazon à lancer pour cette ressource de calcul. La création du cluster n'est pas terminée tant qu'au moins autant de nœuds n'ont pas été lancés dans la ressource de calcul. Si le [`compute_type`](queue-section.md#queue-compute-type) paramètre de la file d'attente est défini `spot` et qu'il n'y a pas suffisamment d'instances Spot disponibles, la création du cluster peut expirer et échouer. Tout nombre supérieur au [`min_count`](#compute-resource-min-count) paramètre correspond à la capacité dynamique soumise au [`scaledown_idletime`](scaling-section.md#scaledown-idletime) réglage. Ce paramètre remplace le paramètre [`initial_queue_size`](cluster-definition.md#configuration-initial-queue-size).

La valeur par défaut est `0`.

```
initial_count = 2
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `instance_type`
<a name="compute-resource-instance-type"></a>

**(Obligatoire)** Définit le type d' EC2 instance Amazon utilisé pour cette ressource de calcul. L'architecture du type d'instance doit être identique à celle utilisée pour le [`master_instance_type`](cluster-definition.md#master-instance-type) paramètre. Le `instance_type` paramètre doit être unique pour chaque [`[compute_resource]`section](#compute-resource-section) référencée par une [`[queue]`section](queue-section.md). Ce paramètre remplace le paramètre [`compute_instance_type`](cluster-definition.md#compute-instance-type).

```
instance_type = t2.micro
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `max_count`
<a name="compute-resource-max-count"></a>

**(Facultatif)** Définit le nombre maximum d' EC2 instances Amazon pouvant être lancées dans cette ressource de calcul. Tout compte supérieur au [`initial_count`](#compute-resource-initial-count) réglage est lancé en mode hors tension. Ce paramètre remplace le paramètre [`max_queue_size`](cluster-definition.md#configuration-max-queue-size).

La valeur par défaut est `10`.

```
max_count = 10
```

[Politique de mise à jour : pour réduire la taille d'une file d'attente en dessous du nombre actuel de nœuds, il faut d'abord arrêter le parc informatique.](using-pcluster-update.md#update-policy-max-count)

**Note**  
La politique de mise à jour ne permettait pas de modifier le `max_count` paramètre tant que le parc informatique n'était pas arrêté pour les AWS ParallelCluster versions 2.0.0 à 2.9.1.

## `min_count`
<a name="compute-resource-min-count"></a>

**(Facultatif)** Définit le nombre minimum d' EC2 instances Amazon pouvant être lancées dans cette ressource de calcul. Ces nœuds ont tous une capacité statique. La création du cluster n'est pas terminée tant qu'au moins ce nombre de nœuds n'a été lancé dans la ressource de calcul.

La valeur par défaut est `0`.

```
min_count = 1
```

[Politique de mise à jour : pour réduire le nombre de nœuds statiques dans une file d'attente, il faut d'abord arrêter le parc informatique.](using-pcluster-update.md#update-policy-min-count)

**Note**  
La politique de mise à jour ne permettait pas de modifier le `min_count` paramètre tant que le parc informatique n'était pas arrêté pour les AWS ParallelCluster versions 2.0.0 à 2.9.1.

## `spot_price`
<a name="compute-resource-spot-price"></a>

**(Facultatif)** Définit le prix spot maximal pour cette ressource de calcul. Utilisé uniquement lorsque le [`compute_type`](queue-section.md#queue-compute-type) paramètre de la file d'attente contenant ces ressources de calcul est défini sur`spot`. Ce paramètre remplace le paramètre [`spot_price`](cluster-definition.md#spot-price).

Si vous ne spécifiez aucune valeur, le prix au comptant vous est facturé, plafonné au prix à la demande.

Pour obtenir de l'aide pour trouver une instance Spot qui répond à vos besoins, consultez le [conseiller en matière d'instances Spot](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

# `[cw_log]` Section
<a name="cw-log-section"></a>

Définit les paramètres de configuration pour CloudWatch les journaux.

Le format est`[cw_log cw-log-name]`. *cw-log-name*doit commencer par une lettre, ne pas contenir plus de 30 caractères et contenir uniquement des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

```
[cw_log custom-cw-log]
enable = true
retention_days = 14
```

Pour plus d’informations, consultez [Intégration à Amazon CloudWatch Logs](cloudwatch-logs.md), [Tableau de CloudWatch bord Amazon](cloudwatch-dashboard.md) et [Intégration à Amazon CloudWatch Logs](cloudwatch-logs.md).

**Note**  
Support pour `cw_log` a été ajouté dans la AWS ParallelCluster version 2.6.0.

## `enable`
<a name="cw-log-section-enable"></a>

 **(Facultatif)** Indique si CloudWatch les journaux sont activés.

La valeur par défaut est `true`. `false`À utiliser pour désactiver CloudWatch les journaux.

L'exemple suivant active CloudWatch les journaux.

```
enable = true
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `retention_days`
<a name="cw-log-section-retention-days"></a>

 **(Facultatif)** Indique le nombre de jours pendant CloudWatch lesquels Logs conserve les événements individuels du journal.

La valeur par défaut est `14`. Les valeurs prises en charge sont 1, 3, 5, 7, 14, 30, 60, 90, 120, 150, 180, 365, 400, 545, 731, 1827 et 3653.

L'exemple suivant configure les CloudWatch journaux pour conserver les événements des journaux pendant 30 jours.

```
retention_days = 30
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

# `[dashboard]` Section
<a name="dashboard-section"></a>

Définit les paramètres de configuration du CloudWatch tableau de bord.

Le format est`[dashboard dashboard-name]`. *dashboard-name*doit commencer par une lettre, ne pas contenir plus de 30 caractères et contenir uniquement des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

```
[dashboard custom-dashboard]
enable = true
```

**Note**  
Support pour `dashboard` a été ajouté dans la AWS ParallelCluster version 2.10.0.

## `enable`
<a name="dashboard-section-enable"></a>

 **(Facultatif)** Indique si le CloudWatch tableau de bord est activé.

La valeur par défaut est `true`. Utilisez-le `false` pour désactiver le CloudWatch tableau de bord.

L'exemple suivant active le CloudWatch tableau de bord.

```
enable = true
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

# `[dcv]` Section
<a name="dcv-section"></a>

Définit les paramètres de configuration pour le serveur Amazon DCV exécuté sur le nœud principal.

Pour créer et configurer un serveur Amazon DCV, spécifiez le cluster [`dcv_settings`](cluster-definition.md#dcv-settings) avec le nom que vous avez défini dans la `dcv` section, et définissez [`enable`](#dcv-section-enable) sur`master`, et [`base_os`](cluster-definition.md#base-os) sur `alinux2``centos7`, `ubuntu1804` ou`ubuntu2004`. Si le nœud principal est une instance ARM, définissez [`base_os`](cluster-definition.md#base-os) sur `alinux2``centos7`, ou`ubuntu1804`.

Le format est`[dcv dcv-name]`. *dcv-name*doit commencer par une lettre, ne pas contenir plus de 30 caractères et contenir uniquement des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

```
[dcv custom-dcv]
enable = master
port = 8443
access_from = 0.0.0.0/0
```

Pour de plus amples informations, consultez [Connectez-vous au nœud principal via Amazon DCV](dcv.md).

**Important**  
Par défaut, le port Amazon DCV configuré par AWS ParallelCluster est ouvert à toutes les IPv4 adresses. Toutefois, vous ne pouvez vous connecter à un port Amazon DCV que si vous disposez de l'URL de la session Amazon DCV et si vous vous connectez à la session Amazon DCV dans les 30 secondes suivant le renvoi de l'URL. `pcluster dcv connect` Utilisez le [`access_from`](#dcv-section-access-from) paramètre pour restreindre davantage l'accès au port Amazon DCV avec une plage d'adresses IP au format CIDR, et utilisez-le pour [`port`](#dcv-section-port) définir un port non standard.

**Note**  
Support pour la [`[dcv]`section](#dcv-section) sur `centos8` a été supprimé dans la AWS ParallelCluster version 2.10.4. Support pour la [`[dcv]`section](#dcv-section) sur `centos8` a été ajouté dans la AWS ParallelCluster version 2.10.0. Support pour la [`[dcv]`section](#dcv-section) sur les instances AWS basées sur Graviton a été ajouté dans la AWS ParallelCluster version 2.9.0. Support pour la [`[dcv]`section](#dcv-section) sur `alinux2` et `ubuntu1804` a été ajouté dans la AWS ParallelCluster version 2.6.0. Support pour la [`[dcv]`section](#dcv-section) sur `centos7` a été ajouté dans la AWS ParallelCluster version 2.5.0.

## `access_from`
<a name="dcv-section-access-from"></a>

 **(Facultatif, recommandé)** Spécifie la plage d'adresses IP au format CIDR pour les connexions à Amazon DCV. Ce paramètre est utilisé uniquement lors de la AWS ParallelCluster création du groupe de sécurité.

La valeur par défaut est `0.0.0.0/0`, ce qui permet l'accès à partir de n'importe quelle adresse Internet.

```
access_from = 0.0.0.0/0
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `enable`
<a name="dcv-section-enable"></a>

 **(Obligatoire)** Indique si Amazon DCV est activé sur le nœud principal. Pour activer Amazon DCV sur le nœud principal et configurer la règle de groupe de sécurité requise, définissez le `enable` paramètre sur. `master`

L'exemple suivant active Amazon DCV sur le nœud principal.

```
enable = master
```

**Note**  
Amazon DCV génère automatiquement un certificat auto-signé qui est utilisé pour sécuriser le trafic entre le client Amazon DCV et le serveur Amazon DCV exécuté sur le nœud principal. Pour configurer votre propre certificat, veuillez consulter [Certificat HTTPS Amazon DCV](dcv.md#dcv-certificate).

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `port`
<a name="dcv-section-port"></a>

 **(Facultatif)** Spécifie le port pour Amazon DCV.

La valeur par défaut est `8443`.

```
port = 8443
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

# `[ebs]` Section
<a name="ebs-section"></a>

Définit les paramètres de configuration des volumes Amazon EBS pour les volumes montés sur le nœud principal et partagés avec les nœuds de calcul via NFS.

Pour savoir comment inclure les volumes Amazon EBS dans la définition de votre cluster, consultez``[cluster]` Section`/``ebs_settings``.

Pour utiliser un volume Amazon EBS existant pour un stockage permanent à long terme indépendant du cycle de vie du cluster, spécifiez[`ebs_volume_id`](#ebs-volume-id).

Si vous ne le spécifiez pas[`ebs_volume_id`](#ebs-volume-id), AWS ParallelCluster crée le volume EBS à partir des `[ebs]` paramètres lors de la création du cluster et supprime le volume et les données lorsque le cluster est supprimé.

Pour de plus amples informations, veuillez consulter [Bonnes pratiques : déplacement d'un cluster vers une nouvelle version AWS ParallelCluster mineure ou un correctif](best-practices.md#best-practices-cluster-upgrades).

Le format est`[ebs ebs-name]`. *ebs-name*doit commencer par une lettre, ne pas contenir plus de 30 caractères et contenir uniquement des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

```
[ebs custom1]
shared_dir = vol1
ebs_snapshot_id = snap-xxxxx
volume_type = io1
volume_iops = 200
...

[ebs custom2]
shared_dir = vol2
...

...
```

**Topics**
+ [`shared_dir`](#ebs-shared-dir)
+ [`ebs_kms_key_id`](#ebs-kms-key-id)
+ [`ebs_snapshot_id`](#ebs-snapshot-id)
+ [`ebs_volume_id`](#ebs-volume-id)
+ [`encrypted`](#encrypted)
+ [`volume_iops`](#volume-iops)
+ [`volume_size`](#volume-size)
+ [`volume_throughput`](#volume-throughput)
+ [`volume_type`](#volume-type)

## `shared_dir`
<a name="ebs-shared-dir"></a>

**(Obligatoire)** Spécifie le chemin où le volume Amazon EBS partagé est monté.

Ce paramètre est obligatoire lors de l'utilisation de plusieurs volumes Amazon EBS.

[Lorsque vous utilisez un volume Amazon EBS, cette option remplace le [`shared_dir`](cluster-definition.md#cluster-shared-dir) volume spécifié dans la `[cluster]` section.](cluster-definition.md) Dans l'exemple suivant, le volume est monté sur `/vol1`.

```
shared_dir = vol1
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="ebs-kms-key-id"></a>

**(Facultatif)** Spécifie une AWS KMS clé personnalisée à utiliser pour le chiffrement.

Ce paramètre doit être utilisé en même temps que `encrypted = true`. Il doit aussi avoir un [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) personnalisé.

Pour de plus amples informations, veuillez consulter [Chiffrement du disque avec une clé KMS personnalisée](tutorials_04_encrypted_kms_fs.md).

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `ebs_snapshot_id`
<a name="ebs-snapshot-id"></a>

**(Facultatif)** Définit l'ID d'instantané Amazon EBS si vous utilisez un instantané comme source pour le volume.

Il n'existe aucune valeur par défaut.

```
ebs_snapshot_id = snap-xxxxx
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `ebs_volume_id`
<a name="ebs-volume-id"></a>

**(Facultatif)** Définit l'ID de volume d'un volume Amazon EBS existant à associer au nœud principal.

Il n'existe aucune valeur par défaut.

```
ebs_volume_id = vol-xxxxxx
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="encrypted"></a>

**(Facultatif)** Spécifie si le volume Amazon EBS est chiffré. Remarque : ne *pas* utiliser avec les instantanés.

La valeur par défaut est `false`.

```
encrypted = false
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="volume-iops"></a>

**(Facultatif)** Définit le nombre d'IOPS pour `io1``io2`, et le `gp3` type de volumes.

La valeur par défaut, les valeurs prises en charge et `volume_iops` le `volume_size` ratio de production varient selon [`volume_type`](raid-section.md#raid-volume-type) et[`volume_size`](#volume-size).

`volume_type` = `io1`  
Valeur par défaut `volume_iops` = 100  
Valeurs prises en charge `volume_iops` = 100—64 000 †  
`volume_size`Rapport `volume_iops` maximum = 50 IOPS pour chaque GiB. 5000 IOPS nécessitent au `volume_size` moins 100 GiB.

`volume_type` = `io2`  
Valeur par défaut `volume_iops` = 100  
Valeurs prises en charge `volume_iops` = 100 à 64 000 (256 000 pour les volumes `io2` Block Express) †  
`volume_size`Rapport `volume_iops` maximum = 500 IOPS pour chaque GiB. 5000 IOPS nécessitent au `volume_size` moins 10 GiB.

`volume_type` = `gp3`  
Valeur par défaut `volume_iops` = 3000  
Valeurs prises en charge `volume_iops` = 3000 à 16 000  
`volume_size`Rapport `volume_iops` maximum = 500 IOPS pour chaque GiB. 5000 IOPS nécessitent au `volume_size` moins 10 GiB.

```
volume_iops = 200
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

† Le maximum d'IOPS est garanti uniquement sur les [instances basées sur le système Nitro](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) et approvisionnées avec plus de 32 000 IOPS. Les autres instances garantissent jusqu'à 32 000 IOPS. À moins que vous ne [modifiiez le volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html), `io1` les volumes antérieurs risquent de ne pas atteindre leurs performances optimales. `io2` Les volumes Block Express prennent en charge `volume_iops` des valeurs allant jusqu'à 256 000. Pour plus d'informations, consultez les [volumes `io2` Block Express (en version préliminaire)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) dans le *guide de EC2 l'utilisateur Amazon*.

## `volume_size`
<a name="volume-size"></a>

**(Facultatif)** Spécifie la taille du volume à créer, en GiB (si vous n'utilisez pas de capture instantanée).

La valeur par défaut et les valeurs prises en charge varient de[`volume_type`](#volume-type).

`volume_type` = `standard`  
Par défaut `volume_size` = 20 GiB  
Valeurs prises en charge `volume_size` = 1 à 1024 GiB

`volume_type`= `gp2``io1`,`io2`, et `gp3`  
Par défaut `volume_size` = 20 GiB  
Valeurs prises en charge `volume_size` = 1 à 16384 GiB

`volume_type`= `sc1` et `st1`  
Par défaut `volume_size` = 500 GiB  
Valeurs prises en charge `volume_size` = 500—16384 GiB

```
volume_size = 20
```

**Note**  
Avant AWS ParallelCluster la version 2.10.1, la valeur par défaut pour tous les types de volumes était de 20 GiB.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="volume-throughput"></a>

**(Facultatif)** Définit le débit pour les types de `gp3` volumes, en Mbits/s.

La valeur par défaut est `125`.

Valeurs prises en charge `volume_throughput` = 125-1000 MiB/s

Le rapport de `volume_throughput` to ne `volume_iops` peut pas être supérieur à 0,25. Le débit maximal de 1 000 Mbits/s nécessite que le `volume_iops` paramètre soit d'au moins 4 000.

```
volume_throughput = 1000
```

**Note**  
Support pour `volume_throughput` a été ajouté dans la AWS ParallelCluster version 2.10.1.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="volume-type"></a>

**(Facultatif)** Spécifie le [type de volume Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) que vous souhaitez lancer.

Les options valides sont les types de volumes suivants :

`gp2`, `gp3`  
SSD à usage général

`io1`, `io2`  
Provisioned IOPS SSD

`st1`  
Disque dur à débit optimisé

`sc1`  
HDD à froid

`standard`  
Magnétique de génération précédente

Pour plus d'informations, consultez les [types de volumes Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) dans le *guide de l' EC2 utilisateur Amazon*.

La valeur par défaut est `gp2`.

```
volume_type = io2
```

**Note**  
Support pour `gp3` et `io2` a été ajouté dans la AWS ParallelCluster version 2.10.1.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

# `[efs]` Section
<a name="efs-section"></a>

Définit les paramètres de configuration pour l'Amazon EFS monté sur les nœuds de tête et de calcul. Pour plus d'informations, consultez [CreateFileSystem](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html)le manuel *Amazon EFS API Reference*.

Pour savoir comment inclure les systèmes de fichiers Amazon EFS dans la définition de votre cluster, consultez``[cluster]` Section`/``efs_settings``.

Pour utiliser un système de fichiers Amazon EFS existant pour un stockage permanent à long terme indépendant du cycle de vie du cluster, spécifiez[`efs_fs_id`](#efs-efs-fs-id).

Si vous ne le spécifiez pas[`efs_fs_id`](#efs-efs-fs-id), AWS ParallelCluster crée le système de fichiers Amazon EFS à partir des `[efs]` paramètres lors de la création du cluster et supprime le système de fichiers et les données lorsque le cluster est supprimé.

Pour de plus amples informations, veuillez consulter [Bonnes pratiques : déplacement d'un cluster vers une nouvelle version AWS ParallelCluster mineure ou un correctif](best-practices.md#best-practices-cluster-upgrades).

Le format est`[efs efs-name]`. *efs-name*doit commencer par une lettre, ne pas contenir plus de 30 caractères et contenir uniquement des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

```
[efs customfs]
shared_dir = efs
encrypted = false
performance_mode = generalPurpose
```

**Topics**
+ [`efs_fs_id`](#efs-efs-fs-id)
+ [`efs_kms_key_id`](#efs-efs-kms-key-id)
+ [`encrypted`](#efs-encrypted)
+ [`performance_mode`](#efs-performance-mode)
+ [`provisioned_throughput`](#efs-provisioned-throughput)
+ [`shared_dir`](#efs-shared-dir)
+ [`throughput_mode`](#efs-throughput-mode)

## `efs_fs_id`
<a name="efs-efs-fs-id"></a>

**(Facultatif)** Définit l'ID du système de fichiers Amazon EFS pour un système de fichiers existant.

La spécification de cette option annule toutes les autres options Amazon EFS, à l'exception de[`shared_dir`](cluster-definition.md#cluster-shared-dir).

Si vous définissez cette option, elle ne prend en charge que les types de systèmes de fichiers suivants :
+ Systèmes de fichiers qui n'ont pas de cible de montage dans la zone de disponibilité de la pile.
+ Systèmes de fichiers dotés d'une cible de montage existante dans la zone de disponibilité de la pile et dont le trafic NFS entrant et sortant est autorisé à partir de. `0.0.0.0/0`

La vérification d'intégrité pour valider [`efs_fs_id`](#efs-efs-fs-id) exige que le rôle IAM dispose des autorisations suivantes :
+ `elasticfilesystem:DescribeMountTargets`
+ `elasticfilesystem:DescribeMountTargetSecurityGroups`
+ `ec2:DescribeSubnets`
+ `ec2:DescribeSecurityGroups`
+ `ec2:DescribeNetworkInterfaceAttribute`

Veuillez ajouter ces autorisations à votre rôle IAM ou définissez `sanity_check = false` pour éviter les erreurs.

**Important**  
Lorsque vous définissez une cible de montage dont le trafic NFS entrant et sortant est autorisé`0.0.0.0/0`, le système de fichiers est exposé aux demandes de montage NFS provenant de n'importe quel endroit de la zone de disponibilité de la cible de montage. AWS ne recommande pas de créer une cible de montage dans la zone de disponibilité de la pile. Laissons plutôt cette étape s' AWS occuper de cette étape. Si vous souhaitez avoir une cible de montage dans la zone de disponibilité de la pile, pensez à utiliser un groupe de sécurité personnalisé en fournissant une [`vpc_security_group_id`](vpc-section.md#vpc-security-group-id) option dans la [`[vpc]`section](vpc-section.md). Ajoutez ensuite ce groupe de sécurité à la cible de montage et désactivez-le `sanity_check` pour créer le cluster.

Il n'existe aucune valeur par défaut.

```
efs_fs_id = fs-12345
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `efs_kms_key_id`
<a name="efs-efs-kms-key-id"></a>

**(Facultatif)** Identifie la clé gérée par le client AWS Key Management Service (AWS KMS) à utiliser pour protéger le système de fichiers chiffré. Si ce paramètre est défini, le paramètre [`encrypted`](#efs-encrypted) doit être défini sur `true`. Cela correspond au [KmsKeyId](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-KmsKeyId)paramètre indiqué dans le manuel *Amazon EFS API Reference*.

Il n'existe aucune valeur par défaut.

```
efs_kms_key_id = 1234abcd-12ab-34cd-56ef-1234567890ab
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="efs-encrypted"></a>

**(Facultatif)** Indique si le système de fichiers est crypté. Cela correspond au paramètre [Encrypted](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-Encrypted) dans la *référence d'API Amazon EFS*.

La valeur par défaut est `false`.

```
encrypted = true
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `performance_mode`
<a name="efs-performance-mode"></a>

**(Facultatif)** Définit le mode de performance du système de fichiers. Cela correspond au [PerformanceMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-PerformanceMode)paramètre indiqué dans le manuel *Amazon EFS API Reference*.

Les options valides sont les valeurs suivantes :
+ `generalPurpose`
+ `maxIO`

 Les deux valeurs distinguent les majuscules et minuscules.

Nous recommandons le mode de performance `generalPurpose` pour la plupart des systèmes de fichiers.

Les systèmes de fichiers qui utilisent le mode de performance `maxIO` peuvent évoluer vers des niveaux plus élevés de débit cumulé et d'opérations par seconde. Cependant, il existe un compromis entre des latences légèrement plus élevées pour la plupart des opérations sur les fichiers.

Une fois le système de fichiers créé, ce paramètre ne peut pas être modifié.

La valeur par défaut est `generalPurpose`.

```
performance_mode = generalPurpose
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `provisioned_throughput`
<a name="efs-provisioned-throughput"></a>

**(Facultatif)** Définit le débit provisionné du système de fichiers, mesuré en Mbits/s. Cela correspond au [ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps)paramètre indiqué dans le manuel *Amazon EFS API Reference*.

Si vous utilisez ce paramètre, vous devez définir [`throughput_mode`](#efs-throughput-mode) sur `provisioned`.

Le quota de débit est de `1024` Mbits/s. Pour demander une augmentation de quota, contactez Support.

La valeur minimale est `0.0` MiO/s.

```
provisioned_throughput = 1024
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `shared_dir`
<a name="efs-shared-dir"></a>

**(Obligatoire)** Définit le point de montage Amazon EFS sur la tête et les nœuds de calcul.

Ce paramètre est obligatoire. La section Amazon EFS n'est utilisée que si elle [`shared_dir`](cluster-definition.md#cluster-shared-dir) est spécifiée.

N'utilisez pas `NONE` ou `/NONE` comme répertoire partagé.

L'exemple suivant montre comment monter Amazon EFS à`/efs`.

```
shared_dir = efs
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `throughput_mode`
<a name="efs-throughput-mode"></a>

**(Facultatif)** Définit le mode de débit du système de fichiers. Cela correspond au [ThroughputMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-ThroughputMode)paramètre indiqué dans le manuel *Amazon EFS API Reference*.

Les options valides sont les valeurs suivantes :
+ `bursting`
+ `provisioned`

La valeur par défaut est `bursting`.

```
throughput_mode = provisioned
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

# `[fsx]` Section
<a name="fsx-section"></a>

Définit les paramètres de configuration d'un système FSx de fichiers attaché à Lustre. Pour plus d'informations, consultez [Amazon FSx CreateFileSystem](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html) dans le *Amazon FSx API Reference*.

Si le [`base_os`](cluster-definition.md#base-os) est`alinux2`, ou `centos7` `ubuntu1804``ubuntu2004`, FSx pour Lustre est pris en charge.

Lorsque vous utilisez Amazon Linux, le noyau doit être une version `4.14.104-78.84.amzn1.x86_64` ou une version ultérieure. Pour obtenir des instructions, consultez la section [Installation du client Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/install-lustre-client.html) dans le *guide de l'utilisateur d'Amazon FSx pour Lustre*.

**Note**  
FSx for Lustre n'est actuellement pas pris en charge lors de son utilisation en `awsbatch` tant que planificateur.

**Note**  
Support FSx pour Lustre activé `centos8` a été supprimé dans la AWS ParallelCluster version 2.10.4. Support FSx pour Lustre activé `ubuntu2004` a été ajouté dans la AWS ParallelCluster version 2.11.0. Support FSx pour Lustre activé `centos8` a été ajouté dans la AWS ParallelCluster version 2.10.0. Support FSx pour Lustre activé sur`alinux2`,`ubuntu1604`, et `ubuntu1804` a été ajouté dans la AWS ParallelCluster version 2.6.0. Support FSx pour Lustre activé `centos7` a été ajouté dans la AWS ParallelCluster version 2.4.0.

Si vous utilisez un système de fichiers existant, celui-ci doit être associé à un groupe de sécurité qui autorise le trafic TCP entrant vers le port `988`. La définition de la source `0.0.0.0/0` sur une règle de groupe de sécurité fournit un accès client à partir de toutes les plages d'adresses IP de votre groupe de sécurité VPC pour le protocole et la plage de ports pour cette règle. Pour limiter davantage l'accès à vos systèmes de fichiers, nous vous recommandons d'utiliser des sources plus restrictives pour les règles de votre groupe de sécurité. Par exemple, vous pouvez utiliser des plages d'adresses CIDR, des adresses IP ou des groupes IDs de sécurité plus spécifiques. Cette opération est effectuée automatiquement lorsque vous n'utilisez pas [`vpc_security_group_id`](vpc-section.md#vpc-security-group-id).

Pour utiliser un système de FSx fichiers Amazon existant pour un stockage permanent à long terme indépendant du cycle de vie du cluster, spécifiez[`fsx_fs_id`](#fsx-fs-id).

Si vous ne le spécifiez pas[`fsx_fs_id`](#fsx-fs-id), AWS ParallelCluster crée le système de fichiers FSx for Lustre à partir des `[fsx]` paramètres lors de la création du cluster et supprime le système de fichiers et les données lorsque le cluster est supprimé.

Pour de plus amples informations, veuillez consulter [Bonnes pratiques : déplacement d'un cluster vers une nouvelle version AWS ParallelCluster mineure ou un correctif](best-practices.md#best-practices-cluster-upgrades).

Le format est`[fsx fsx-name]`. *fsx-name*doit commencer par une lettre, ne pas contenir plus de 30 caractères et contenir uniquement des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

```
[fsx fs]
shared_dir = /fsx
fsx_fs_id = fs-073c3803dca3e28a6
```

Pour créer et configurer un nouveau système de fichiers, utilisez les paramètres suivants :

```
[fsx fs]
shared_dir = /fsx
storage_capacity = 3600
imported_file_chunk_size = 1024
export_path = s3://bucket/folder
import_path = s3://bucket
weekly_maintenance_start_time = 1:00:00
```

**Topics**
+ [`auto_import_policy`](#fsx-auto-import-policy)
+ [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)
+ [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)
+ [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time)
+ [`data_compression_type`](#fsx-data-compression-type)
+ [`deployment_type`](#fsx-deployment-type)
+ [`drive_cache_type`](#fsx-drive-cache-type)
+ [`export_path`](#fsx-export-path)
+ [`fsx_backup_id`](#fsx-backup-id)
+ [`fsx_fs_id`](#fsx-fs-id)
+ [`fsx_kms_key_id`](#fsx-kms-key-id)
+ [`import_path`](#fsx-import-path)
+ [`imported_file_chunk_size`](#fsx-imported-file-chunk-size)
+ [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)
+ [`shared_dir`](#fsx-shared-dir)
+ [`storage_capacity`](#fsx-storage-capacity)
+ [`storage_type`](#fsx-storage-type)
+ [`weekly_maintenance_start_time`](#fsx-weekly-maintenance-start-time)

## `auto_import_policy`
<a name="fsx-auto-import-policy"></a>

**(Facultatif)** Spécifie la politique d'importation automatique pour refléter les modifications apportées au compartiment S3 utilisé pour créer le système de fichiers FSx for Lustre. Les valeurs possibles sont les suivantes :

`NEW`  
FSx for Lustre importe automatiquement les listes de répertoires de tous les nouveaux objets ajoutés au compartiment S3 lié qui n'existent pas actuellement dans le système de fichiers FSx for Lustre. 

`NEW_CHANGED`  
FSx for Lustre importe automatiquement les listes de fichiers et de répertoires de tous les nouveaux objets ajoutés au compartiment S3 et de tous les objets existants modifiés dans le compartiment S3. 

Cela correspond à la [AutoImportPolicy](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-autoimportpolicy)propriété. Pour plus d'informations, consultez [Importer automatiquement les mises à jour depuis votre compartiment S3](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html) dans le *guide de l'utilisateur d'Amazon FSx for Lustre*. Lorsque le [`auto_import_policy`](#fsx-auto-import-policy) paramètre est spécifié, les [`fsx_backup_id`](#fsx-backup-id) paramètres [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)[`copy_tags_to_backups`](#fsx-copy-tags-to-backups),[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time), et ne doivent pas être spécifiés.

Si le `auto_import_policy` paramètre n'est pas spécifié, les importations automatiques sont désactivées. FSx for Lustre met uniquement à jour les listes de fichiers et de répertoires à partir du compartiment S3 lié lorsque le système de fichiers est créé.

```
auto_import_policy = NEW_CHANGED
```

**Note**  
Support pour [`auto_import_policy`](#fsx-auto-import-policy) a été ajouté dans la AWS ParallelCluster version 2.10.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `automatic_backup_retention_days`
<a name="fsx-automatic-backup-retention-days"></a>

**(Facultatif)** Spécifie le nombre de jours pendant lesquels les sauvegardes automatiques sont conservées. Ceci n'est valable que pour les types de `PERSISTENT_1` déploiement. Lorsque le [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) paramètre est spécifié, les [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) paramètres [`auto_import_policy`](#fsx-auto-import-policy)[`export_path`](#fsx-export-path),[`import_path`](#fsx-import-path), et ne doivent pas être spécifiés. Cela correspond à la [AutomaticBackupRetentionDays](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-automaticbackupretentiondays)propriété.

La valeur par défaut est 0. Ce paramètre désactive les sauvegardes automatiques. Les valeurs possibles sont des entiers compris entre 0 et 35 inclus.

```
automatic_backup_retention_days = 35
```

**Note**  
Support pour [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) a été ajouté dans la AWS ParallelCluster version 2.8.0.

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `copy_tags_to_backups`
<a name="fsx-copy-tags-to-backups"></a>

**(Facultatif)** Spécifie si les balises du système de fichiers sont copiées dans les sauvegardes. Ceci n'est valable que pour les types de `PERSISTENT_1` déploiement. Lorsque le [`copy_tags_to_backups`](#fsx-copy-tags-to-backups) paramètre est spécifié, [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) il doit être spécifié avec une valeur supérieure à 0, et les [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) paramètres [`auto_import_policy`](#fsx-auto-import-policy)[`export_path`](#fsx-export-path),[`import_path`](#fsx-import-path), et ne doivent pas être spécifiés. Cela correspond à la [CopyTagsToBackups](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-copytagstobackups)propriété.

La valeur par défaut est `false`.

```
copy_tags_to_backups = true
```

**Note**  
Support pour [`copy_tags_to_backups`](#fsx-copy-tags-to-backups) a été ajouté dans la AWS ParallelCluster version 2.8.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `daily_automatic_backup_start_time`
<a name="fsx-daily-automatic-backup-start-time"></a>

**(Facultatif)** Spécifie l'heure (UTC) à laquelle démarrer les sauvegardes automatiques. Ceci n'est valable que pour les types de `PERSISTENT_1` déploiement. Lorsque le [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) paramètre est spécifié, [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) il doit être spécifié avec une valeur supérieure à 0, et les [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) paramètres [`auto_import_policy`](#fsx-auto-import-policy)[`export_path`](#fsx-export-path),[`import_path`](#fsx-import-path), et ne doivent pas être spécifiés. Cela correspond à la [DailyAutomaticBackupStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-dailyautomaticbackupstarttime)propriété.

Le format est le `HH:MM` suivant : où `HH` est l'heure du jour remplie de zéro (0-23) et où `MM` est la minute de l'heure remplie de zéro. Par exemple, 1 h 03 UTC est le suivant.

```
daily_automatic_backup_start_time = 01:03
```

La valeur par défaut est une durée aléatoire comprise entre `00:00` et`23:59`.

**Note**  
Support pour [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) a été ajouté dans la AWS ParallelCluster version 2.8.0.

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `data_compression_type`
<a name="fsx-data-compression-type"></a>

**(Facultatif)** Spécifie le type de compression de données FSx pour Lustre. Cela correspond à la [DataCompressionType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-datacompressiontype)propriété. Pour plus d'informations, consultez la section relative [FSx à la compression des données Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html) dans le *guide de l'utilisateur d'Amazon FSx for Lustre*.

La seule valeur valide est `LZ4`. Pour désactiver la compression des données, supprimez le [`data_compression_type`](#fsx-data-compression-type)paramètre.

```
data_compression_type = LZ4
```

**Note**  
Support pour [`data_compression_type`](#fsx-data-compression-type) a été ajouté dans la AWS ParallelCluster version 2.11.0.

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `deployment_type`
<a name="fsx-deployment-type"></a>

**(Facultatif)** Spécifie le type de déploiement FSx pour Lustre. Cela correspond à la [DeploymentType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-deploymenttype)propriété. Pour plus d'informations, consultez [FSx les options de déploiement de Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) dans le *guide de l'utilisateur d'Amazon FSx pour Lustre*. Choisissez un type de déploiement temporaire pour le stockage temporaire et le traitement des données à court terme. `SCRATCH_2`est la dernière génération de systèmes de fichiers scratch. Il offre un débit en rafale supérieur au débit de base et le chiffrement des données en transit.

Les valeurs valides sont `SCRATCH_1`, `SCRATCH_2` et `PERSISTENT_1`.

`SCRATCH_1`  
Type de déploiement par défaut FSx pour Lustre. Avec ce type de déploiement, le paramètre [`storage_capacity`](#fsx-storage-capacity) peut avoir pour valeur 1 200, 2 400 et n'importe quel multiple de 3 600. Support pour `SCRATCH_1` a été ajouté dans la AWS ParallelCluster version 2.4.0.

`SCRATCH_2`  
La dernière génération de systèmes de fichiers Scratch. Il prend en charge un débit jusqu'à six fois supérieur à celui de base pour les charges de travail exigeantes. Il prend également en charge le chiffrement des données en transit pour les types d'instances pris en charge Régions AWS. Pour plus d'informations, consultez la section [Chiffrement des données en transit](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html) dans le *guide de l'utilisateur d'Amazon FSx for Lustre*. Avec ce type de déploiement, le paramètre [`storage_capacity`](#fsx-storage-capacity) peut avoir pour valeur 1 200 et n'importe quel multiple de 2 400. Support pour `SCRATCH_2` a été ajouté dans la AWS ParallelCluster version 2.6.0.

`PERSISTENT_1`  
Conçu pour un stockage à plus long terme. Les serveurs de fichiers sont hautement disponibles et les données sont répliquées dans la zone de AWS disponibilité des systèmes de fichiers. Il prend en charge le chiffrement des données en transit pour les types d'instances pris en charge. Avec ce type de déploiement, le paramètre [`storage_capacity`](#fsx-storage-capacity) peut avoir pour valeur 1 200 et n'importe quel multiple de 2 400. Support pour `PERSISTENT_1` a été ajouté dans la AWS ParallelCluster version 2.6.0.

La valeur par défaut est `SCRATCH_1`.

```
deployment_type = SCRATCH_2
```

**Note**  
Support pour [`deployment_type`](#fsx-deployment-type) a été ajouté dans la AWS ParallelCluster version 2.6.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `drive_cache_type`
<a name="fsx-drive-cache-type"></a>

**(Facultatif)** Spécifie que le système de fichiers possède un cache de disque SSD. Cela ne peut être défini que si le [`storage_type`](#fsx-storage-type) paramètre est défini sur`HDD`. Cela correspond à la [DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype)propriété. Pour plus d'informations, consultez [FSx les options de déploiement de Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) dans le *guide de l'utilisateur d'Amazon FSx pour Lustre*.

La seule valeur valide est `READ`. Pour désactiver le cache du disque SSD, ne spécifiez pas le `drive_cache_type` paramètre.

```
drive_cache_type = READ
```

**Note**  
Support pour [`drive_cache_type`](#fsx-drive-cache-type) a été ajouté dans la AWS ParallelCluster version 2.10.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `export_path`
<a name="fsx-export-path"></a>

**(Facultatif)** Spécifie le chemin Amazon S3 où la racine de votre système de fichiers est exportée. Lorsque le [`export_path`](#fsx-export-path) paramètre est spécifié, les [`fsx_backup_id`](#fsx-backup-id) paramètres [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)[`copy_tags_to_backups`](#fsx-copy-tags-to-backups),[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time), et ne doivent pas être spécifiés. Cela correspond à la [ExportPath](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-exportpath)propriété. Les données et métadonnées des fichiers ne sont pas automatiquement exportées vers le`export_path`. Pour plus d'informations sur l'exportation de données et de métadonnées, consultez la section [Exportation des modifications apportées au référentiel de données](https://docs.aws.amazon.com/fsx/latest/LustreGuide/export-changed-data-meta-dra.html) dans le *guide de l'utilisateur d'Amazon FSx for Lustre*.

La valeur par défaut est `s3://import-bucket/FSxLustre[creation-timestamp]`, où `import-bucket` représente le compartiment fourni dans le paramètre [`import_path`](#fsx-import-path).

```
export_path = s3://bucket/folder
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `fsx_backup_id`
<a name="fsx-backup-id"></a>

**(Facultatif)** Spécifie l'ID de la sauvegarde à utiliser pour restaurer le système de fichiers à partir d'une sauvegarde existante. Lorsque le [`fsx_backup_id`](#fsx-backup-id) paramètre est spécifié, les [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) paramètres [`auto_import_policy`](#fsx-auto-import-policy)[`deployment_type`](#fsx-deployment-type),[`export_path`](#fsx-export-path),[`fsx_kms_key_id`](#fsx-kms-key-id),[`import_path`](#fsx-import-path),[`imported_file_chunk_size`](#fsx-imported-file-chunk-size),[`storage_capacity`](#fsx-storage-capacity), et ne doivent pas être spécifiés. Ces paramètres sont lus à partir de la sauvegarde. En outre[`auto_import_policy`](#fsx-auto-import-policy), les [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) paramètres [`export_path`](#fsx-export-path)[`import_path`](#fsx-import-path),, et ne doivent pas être spécifiés.

Cela correspond à la [BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid)propriété.

```
fsx_backup_id = backup-fedcba98
```

**Note**  
Support pour [`fsx_backup_id`](#fsx-backup-id) a été ajouté dans la AWS ParallelCluster version 2.8.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `fsx_fs_id`
<a name="fsx-fs-id"></a>

**(Facultatif)** Attache un système de fichiers existant FSx pour Lustre.

Si cette option est spécifiée, seuls les [`fsx_fs_id`](#fsx-fs-id) paramètres [`shared_dir`](#fsx-shared-dir) et de la [`[fsx]`section](#fsx-section) sont utilisés et tous les autres paramètres de la [`[fsx]`section](#fsx-section) sont ignorés.

```
fsx_fs_id = fs-073c3803dca3e28a6
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `fsx_kms_key_id`
<a name="fsx-kms-key-id"></a>

**(Facultatif)** Spécifie l'ID de clé de votre AWS Key Management Service (AWS KMS) clé gérée par le client.

Cette clé est utilisée pour chiffrer les données dans votre système de fichiers au repos.

Il doit être utilisé avec un [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) personnalisé. Pour de plus amples informations, veuillez consulter [Chiffrement du disque avec une clé KMS personnalisée](tutorials_04_encrypted_kms_fs.md). Cela correspond au [KmsKeyId](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html#FSx-CreateFileSystem-request-KmsKeyId)paramètre indiqué dans le *Amazon FSx API Reference*.

```
fsx_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

**Note**  
Support pour [`fsx_kms_key_id`](#fsx-kms-key-id) a été ajouté dans la AWS ParallelCluster version 2.6.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `import_path`
<a name="fsx-import-path"></a>

**(Facultatif)** Spécifie le compartiment S3 à partir duquel les données seront chargées dans le système de fichiers et qui servira de compartiment d'exportation. Pour de plus amples informations, veuillez consulter [`export_path`](#fsx-export-path). Si vous spécifiez le [`import_path`](#fsx-import-path) paramètre[`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days), les [`fsx_backup_id`](#fsx-backup-id) paramètres[`copy_tags_to_backups`](#fsx-copy-tags-to-backups),[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time), et ne doivent pas être spécifiés. Cela correspond au [ImportPath](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystemLustreConfiguration.html#FSx-Type-CreateFileSystemLustreConfiguration-ImportPath)paramètre indiqué dans le *Amazon FSx API Reference*.

L’importation se produit à la création du cluster. Pour plus d'informations, consultez la section [Importation de données depuis votre référentiel de données](https://docs.aws.amazon.com/fsx/latest/LustreGuide/importing-files.html) dans le *guide de l'utilisateur d'Amazon FSx for Lustre*. Lors de l'importation, seules les métadonnées du fichier (nom, propriétaire, horodatage et autorisations) sont importées. Les données du fichier ne sont importées depuis le compartiment S3 qu'après le premier accès au fichier. Pour plus d'informations sur le préchargement du contenu des fichiers, consultez la section [Préchargement de fichiers dans votre système de fichiers dans le](https://docs.aws.amazon.com/fsx/latest/LustreGuide/preload-file-contents-hsm-dra.html) guide de *l'utilisateur d'Amazon FSx for Lustre*.

Si aucune valeur n'est fournie, le système de fichiers est vide.

```
import_path =  s3://bucket
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `imported_file_chunk_size`
<a name="fsx-imported-file-chunk-size"></a>

**(Facultatif)** Détermine le nombre de bandes et la quantité maximale de données pour chaque fichier (en MiB) stocké sur un seul disque physique pour les fichiers importés depuis un référentiel de données (en utilisant[`import_path`](#fsx-import-path)). Le nombre maximal de disques sur lesquels un fichier unique peut être agrégé par bandes est limité au nombre total de disques qui composent le système de fichiers. Lorsque le [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) paramètre est spécifié, les [`fsx_backup_id`](#fsx-backup-id) paramètres [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)[`copy_tags_to_backups`](#fsx-copy-tags-to-backups),[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time), et ne doivent pas être spécifiés. Cela correspond à la [ImportedFileChunkSize](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-importedfilechunksize)propriété.

La taille de bloc par défaut est `1024` (1 GiB), et elle peut atteindre 512 000 MiB (500 GiB). Les objets Amazon S3 ont une taille maximale de 5 To.

```
imported_file_chunk_size = 1024
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `per_unit_storage_throughput`
<a name="fsx-per-unit-storage-throughput"></a>

**(Obligatoire pour les types de déploiement `PERSISTENT_1`)** Pour le type de déploiement [`deployment_type`](#fsx-deployment-type)` = PERSISTENT_1`, décrit le débit en lecture et en écriture pour chaque téraoctet (To) de stockage, en Mo/s/To. La capacité de débit du système de fichiers est calculée en multipliant la capacité de stockage du système de fichiers (TiB) par le [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) (pour [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) obtenir 120 Mo/s de débit MB/s/TiB). For a 2.4 TiB ﬁle system, provisioning 50 MB/s/TiB du système de fichiers). Vous payez le débit que vous allouez. Cela correspond à la [PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput)propriété.

Les valeurs possibles dépendent de la valeur du [`storage_type`](#fsx-storage-type) paramètre.

`storage\$1type = SSD`  
Les valeurs possibles sont 50, 100 et 200.

`storage\$1type = HDD`  
Les valeurs possibles sont 12, 40.

```
per_unit_storage_throughput = 200
```

**Note**  
Support pour [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) a été ajouté dans la AWS ParallelCluster version 2.6.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="fsx-shared-dir"></a>

**(Obligatoire)** Définit le point de montage du système de fichiers FSx for Lustre sur les nœuds de tête et de calcul.

N'utilisez pas `NONE` ou `/NONE` comme répertoire partagé.

L'exemple suivant monte le système de fichiers à l'emplacement `/fsx`.

```
shared_dir = /fsx
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `storage_capacity`
<a name="fsx-storage-capacity"></a>

**(Obligatoire)** Spécifie la capacité de stockage du système de fichiers en Gio. Cela correspond à la [StorageCapacity](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagecapacity)propriété.

Les valeurs de capacité de stockage possibles varient en fonction du paramètre [`deployment_type`](#fsx-deployment-type).

`SCRATCH_1`  
Les valeurs possibles sont 1 200, 2 400 et n'importe quel multiple de 3 600.

`SCRATCH_2`  
Les valeurs possibles sont 1 200 et n'importe quel multiple de 2 400.

`PERSISTENT_1`  
Les valeurs possibles varient en fonction des valeurs des autres paramètres.    
`storage\$1type = SSD`  
Les valeurs possibles sont 1 200 et n'importe quel multiple de 2 400.  
`storage\$1type = HDD`  
Les valeurs possibles varient en fonction du [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) réglage.    
`per\$1unit\$1storage\$1throughput = 12`  
Les valeurs possibles sont un multiple de 6 000.  
`per\$1unit\$1storage\$1throughput = 40`  
Les valeurs possibles sont un multiple de 1800.

```
storage_capacity = 7200
```

**Note**  
Pour les AWS ParallelCluster versions 2.5.0 et 2.5.1, les valeurs possibles de 1200, 2400 et tout multiple de 3600 étaient prises en [`storage_capacity`](#fsx-storage-capacity) charge. Pour les versions antérieures à AWS ParallelCluster la version 2.5.0, la taille minimale [`storage_capacity`](#fsx-storage-capacity) était de 3600.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `storage_type`
<a name="fsx-storage-type"></a>

**(Facultatif)** Spécifie le type de stockage du système de fichiers. Cela correspond à la [StorageType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagetype)propriété. Les valeurs possibles sont `SSD` et `HDD`. La valeur par défaut est `SSD`.

Le type de stockage modifie les valeurs possibles des autres paramètres.

`storage_type = SSD`   
Spécifie un type de stockage SSD (Solid State Drive).  
`storage_type = SSD`modifie les valeurs possibles de plusieurs autres paramètres.    
[`drive_cache_type`](#fsx-drive-cache-type)  
Ce paramètre ne peut pas être spécifié.  
[`deployment_type`](#fsx-deployment-type)  
Ce paramètre peut être défini sur `SCRATCH_1``SCRATCH_2`, ou`PERSISTENT_1`.  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
Ce paramètre doit être spécifié si [`deployment_type`](#fsx-deployment-type) est défini sur `PERSISTENT_1`. Les valeurs possibles sont 50, 100 ou 200.  
[`storage_capacity`](#fsx-storage-capacity)  
Ce paramètre doit être spécifié. Les valeurs possibles varient en fonction de[`deployment_type`](#fsx-deployment-type).    
`deployment_type = SCRATCH_1`  
[`storage_capacity`](#fsx-storage-capacity)peut être 1200, 2400 ou n'importe quel multiple de 3600.  
`deployment_type = SCRATCH_2` ou `deployment_type = PERSISTENT_1`  
[`storage_capacity`](#fsx-storage-capacity)peut être 1200 ou n'importe quel multiple de 2400.

`storage_type = HDD`  
Spécifie un type de stockage sur disque dur (HDD).  
`storage_type = HDD`modifie les valeurs possibles des autres paramètres.    
[`drive_cache_type`](#fsx-drive-cache-type)  
Ce paramètre peut être spécifié.  
[`deployment_type`](#fsx-deployment-type)  
Ce paramètre doit être défini sur`PERSISTENT_1`.  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
Ce paramètre doit être spécifié. Les valeurs possibles sont 12 ou 40.  
[`storage_capacity`](#fsx-storage-capacity)  
Ce paramètre doit être spécifié. Les valeurs possibles varient en fonction du [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) réglage.    
`storage_capacity = 12`  
[`storage_capacity`](#fsx-storage-capacity)peut être un multiple de 6000.  
`storage_capacity = 40`  
[`storage_capacity`](#fsx-storage-capacity)peut être un multiple de 1800.

```
storage_type = SSD
```

**Note**  
Support pour ce [`storage_type`](#fsx-storage-type)paramètre a été ajouté dans la AWS ParallelCluster version 2.10.0.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `weekly_maintenance_start_time`
<a name="fsx-weekly-maintenance-start-time"></a>

**(Facultatif)** Spécifie l'heure privilégiée d'exécution de la maintenance hebdomadaire, dans le fuseau horaire de l'heure universelle coordonnée (UTC). Cela correspond à la [WeeklyMaintenanceStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-weeklymaintenancestarttime)propriété.

Le format est [jour de la semaine]:[heure du jour]:[minute de l'heure]. Par exemple, le lundi à minuit est le suivant.

```
weekly_maintenance_start_time = 1:00:00
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

# `[queue]` Section
<a name="queue-section"></a>

Définit les paramètres de configuration pour une file d'attente unique. [`[queue]`les sections](#queue-section) ne sont prises en charge que lorsqu'elles [`scheduler`](cluster-definition.md#scheduler) sont définies sur`slurm`.

Le format est`[queue <queue-name>]`. *queue-name*doit commencer par une lettre minuscule, ne pas contenir plus de 30 caractères et contenir uniquement des lettres minuscules, des chiffres et des tirets (-).

```
[queue q1]
compute_resource_settings = i1,i2
placement_group = DYNAMIC
enable_efa = true
disable_hyperthreading = false
compute_type = spot
```

**Note**  
Support pour [`[queue]`cette section](#queue-section) a été ajouté dans la AWS ParallelCluster version 2.9.0.

**Topics**
+ [`compute_resource_settings`](#queue-compute-resource-settings)
+ [`compute_type`](#queue-compute-type)
+ [`disable_hyperthreading`](#queue-disable-hyperthreading)
+ [`enable_efa`](#queue-enable-efa)
+ [`enable_efa_gdr`](#queue-enable-efa-gdr)
+ [`placement_group`](#queue-placement-group)

## `compute_resource_settings`
<a name="queue-compute-resource-settings"></a>

**(Obligatoire)** Identifie les [`[compute_resource]`sections](compute-resource-section.md) contenant les configurations des ressources de calcul pour cette file d'attente. Les noms des sections doivent commencer par une lettre, ne pas contenir plus de 30 caractères et contenir uniquement des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

Jusqu'à trois (3) [`[compute_resource]`sections](compute-resource-section.md) sont prises en charge pour chaque [`[queue]`section](#queue-section).

Par exemple, le paramètre suivant indique que les sections qui démarrent `[compute_resource cr1]` et `[compute_resource cr2]` sont utilisées.

```
compute_resource_settings = cr1, cr2
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `compute_type`
<a name="queue-compute-type"></a>

**(Facultatif)** Définit le type d'instances à lancer pour cette file d'attente. Ce paramètre remplace le paramètre [`cluster_type`](cluster-definition.md#cluster-type).

Les options valides sont `ondemand` et `spot`.

La valeur par défaut est `ondemand`.

Pour plus d'informations sur les instances Spot, consultez [Utilisation de instances Spot](spot.md).

**Note**  
L'utilisation d'instances Spot nécessite que le rôle `AWSServiceRoleForEC2Spot` lié au service existe dans votre compte. Pour créer ce rôle dans votre compte à l'aide de AWS CLI, exécutez la commande suivante :  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Pour plus d'informations, consultez la section [Rôle lié au service pour les demandes d'instance Spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) dans le guide de * EC2 l'utilisateur Amazon*.

L'exemple suivant utilise SpotInstances pour les nœuds de calcul de cette file d'attente.

```
compute_type = spot
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `disable_hyperthreading`
<a name="queue-disable-hyperthreading"></a>

**(Facultatif)** Désactive l'hyperthreading sur les nœuds de cette file d'attente. Tous les types d'instance ne peuvent pas désactiver l'hyper-threading. Pour obtenir la liste des types d'instances qui prennent en charge la désactivation de l'hyperthreading, consultez la section [Cœurs et threads de processeur pour chaque cœur de processeur par type d'instance dans le guide de](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) l'utilisateur *Amazon EC2 *. Si le [`disable_hyperthreading`](cluster-definition.md#disable-hyperthreading) paramètre de la [`[cluster]`section](cluster-definition.md) est défini, il ne peut pas être défini.

La valeur par défaut est `false`.

```
disable_hyperthreading = true
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa`
<a name="queue-enable-efa"></a>

**(Facultatif)** Si ce paramètre est défini sur`true`, indique qu'Elastic Fabric Adapter (EFA) est activé pour les nœuds de cette file d'attente. Pour consulter la liste des EC2 instances compatibles EFA, consultez la section [Types d'instances pris en charge](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) dans le *Guide de EC2 l'utilisateur Amazon pour les instances Linux*. Si le [`enable_efa`](cluster-definition.md#enable-efa) paramètre de la [`[cluster]`section](cluster-definition.md) est défini, il ne peut pas être défini. Un groupe de placement de cluster doit être utilisé pour minimiser les latences entre les instances. Pour plus d’informations, consultez [`placement`](cluster-definition.md#placement) et [`placement_group`](cluster-definition.md#placement-group).

```
enable_efa = true
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa_gdr`
<a name="queue-enable-efa-gdr"></a>

**(Facultatif)** À partir de AWS ParallelCluster la version 2.11.3, ce paramètre n'a aucun effet. Le support d'Elastic Fabric Adapter (EFA) GPUDirect pour le RDMA (accès direct à distance à la mémoire) est activé pour les nœuds de calcul. Il est toujours activé s'il est pris en charge par le type d'instance.

**Note**  
AWS ParallelCluster versions 2.10.0 à 2.11.2 : si`true`, indique qu'Elastic Fabric Adapter (EFA) GPUDirect RDMA (accès direct à la mémoire à distance) est activé pour les nœuds de cette file d'attente. La définition de cette `true` valeur nécessite que le [`enable_efa`](#queue-enable-efa) paramètre soit défini sur `true` .EFA GPUDirect RDMA est pris en charge par les types d'instances suivants (`p4d.24xlarge`) sur ces systèmes d'exploitation (`alinux2`, `centos7``ubuntu1804`, ou`ubuntu2004`). Si le [`enable_efa_gdr`](cluster-definition.md#enable-efa-gdr) paramètre de la [`[cluster]`section](cluster-definition.md) est défini, il ne peut pas être défini. Un groupe de placement de cluster doit être utilisé pour minimiser les latences entre les instances. Pour plus d’informations, consultez [`placement`](cluster-definition.md#placement) et [`placement_group`](cluster-definition.md#placement-group).

La valeur par défaut est `false`.

```
enable_efa_gdr = true
```

**Note**  
Support pour `enable_efa_gdr` a été ajouté dans la AWS ParallelCluster version 2.10.0.

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `placement_group`
<a name="queue-placement-group"></a>

**(Facultatif)** Le cas échéant, définit le groupe de placement pour cette file d'attente. Ce paramètre remplace le paramètre [`placement_group`](cluster-definition.md#placement-group).

Les options valides sont les valeurs suivantes :
+ `DYNAMIC`
+ Nom d'un groupe de placement de EC2 clusters Amazon existant

Lorsque ce paramètre est défini sur`DYNAMIC`, un groupe de placement unique pour cette file d'attente est créé et supprimé dans le cadre de la pile de clusters.

Pour plus d'informations sur les groupes de placement, consultez la section [Groupes de placement](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) dans le *guide de EC2 l'utilisateur Amazon*. Si le même groupe de placement est utilisé pour différents types d'instances, il est plus probable que la demande échoue en raison d'une erreur de capacité insuffisante. Pour plus d'informations, consultez la section [Capacité d'instance insuffisante](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) dans le *guide de EC2 l'utilisateur Amazon*.

Il n'existe aucune valeur par défaut.

Tous les types d'instance ne prennent pas en charge les groupes de placement de cluster. Par exemple, `t2.micro` ne prend pas en charge les groupes de placement en cluster. Pour plus d'informations sur la liste des types d'instances qui prennent en charge les groupes de placement de [clusters, consultez la section Règles et limites des groupes de placement](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) de clusters dans le *guide de EC2 l'utilisateur Amazon*. Consultez [Problèmes liés aux groupes de placement et au lancement d'instances](troubleshooting.md#placement-groups-and-instance-launch-issues) pour obtenir des conseils pour l'utilisation des groupes de placement.

```
placement_group = DYNAMIC
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

# `[raid]` Section
<a name="raid-section"></a>

Définit les paramètres de configuration d'une matrice RAID construite à partir d'un certain nombre de volumes Amazon EBS identiques. Le disque RAID est monté sur le nœud principal et est exporté vers des nœuds de calcul avec NFS.

Le format est`[raid raid-name]`. *raid-name*doit commencer par une lettre, ne pas contenir plus de 30 caractères et contenir uniquement des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

```
[raid rs]
shared_dir = raid
raid_type = 1
num_of_raid_volumes = 2
encrypted = true
```

**Topics**
+ [`shared_dir`](#raid-shared-dir)
+ [`ebs_kms_key_id`](#raid-ebs_kms_key_id)
+ [`encrypted`](#raid-encrypted)
+ [`num_of_raid_volumes`](#num-of-raid-volumes)
+ [`raid_type`](#raid-type)
+ [`volume_iops`](#raid-volume-iops)
+ [`volume_size`](#raid-volume-size)
+ [`volume_throughput`](#raid-volume-throughput)
+ [`volume_type`](#raid-volume-type)

## `shared_dir`
<a name="raid-shared-dir"></a>

**(Obligatoire)** Définit le point de montage de la matrice RAID sur la tête et les nœuds de calcul.

Le lecteur RAID est créé uniquement si ce paramètre est spécifié.

N'utilisez pas `NONE` ou `/NONE` comme répertoire partagé.

L'exemple suivant monte le tableau à `/raid`.

```
shared_dir = raid
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="raid-ebs_kms_key_id"></a>

**(Facultatif)** Spécifie une AWS KMS clé personnalisée à utiliser pour le chiffrement.

Ce paramètre doit être utilisé en même temps que `encrypted = true`, et doit avoir un [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) personnalisé.

Pour de plus amples informations, veuillez consulter [Chiffrement du disque avec une clé KMS personnalisée](tutorials_04_encrypted_kms_fs.md).

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="raid-encrypted"></a>

**(Facultatif)** Spécifie si le système de fichiers est chiffré.

La valeur par défaut est `false`.

```
encrypted = false
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `num_of_raid_volumes`
<a name="num-of-raid-volumes"></a>

**(Facultatif)** Définit le nombre de volumes Amazon EBS à partir desquels assembler la matrice RAID.

Le nombre minimum de volumes est de`2`.

Le nombre maximum de volumes est de`5`.

La valeur par défaut est `2`.

```
num_of_raid_volumes = 2
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `raid_type`
<a name="raid-type"></a>

**(Obligatoire)** Définit le type RAID de la matrice RAID.

Le lecteur RAID est créé uniquement si ce paramètre est spécifié.

Les options valides sont les valeurs suivantes :
+ `0`
+ `1`

Pour plus d'informations sur les types de RAID, consultez les [informations RAID](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/raid-config.html) dans le *guide de EC2 l'utilisateur Amazon*.

L'exemple suivant crée un tableau RAID `0` :

```
raid_type = 0
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="raid-volume-iops"></a>

**(Facultatif)** Définit le nombre d'IOPS pour `io1``io2`, et le `gp3` type de volumes.

La valeur par défaut, les valeurs prises en charge et `volume_iops` le `volume_size` ratio de production varient selon [`volume_type`](#raid-volume-type) et[`volume_size`](#raid-volume-size).

`volume_type` = `io1`  
Valeur par défaut `volume_iops` = 100  
Valeurs prises en charge `volume_iops` = 100—64 000 †  
`volume_size`Rapport `volume_iops` maximum = 50 IOPS par GiB. 5000 IOPS nécessitent au `volume_size` moins 100 GiB.

`volume_type` = `io2`  
Valeur par défaut `volume_iops` = 100  
Valeurs prises en charge `volume_iops` = 100 à 64 000 (256 000 pour les volumes `io2` Block Express) †  
`volume_size`Rapport `volume_iops` maximum = 500 IOPS par GiB. 5000 IOPS nécessitent au `volume_size` moins 10 GiB.

`volume_type` = `gp3`  
Valeur par défaut `volume_iops` = 3000  
Valeurs prises en charge `volume_iops` = 3000 à 16 000  
`volume_size`Rapport `volume_iops` maximum = 500 IOPS par GiB. 5000 IOPS nécessitent au `volume_size` moins 10 GiB.

```
volume_iops = 3000
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

† Le maximum d'IOPS est garanti uniquement sur les [instances basées sur le système Nitro](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) et approvisionnées avec plus de 32 000 IOPS. Les autres instances garantissent jusqu'à 32 000 IOPS. Les anciens `io1` volumes risquent de ne pas atteindre leurs performances optimales à moins que vous ne [modifiiez le volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html). `io2` Les volumes Block Express prennent en charge `volume_iops` des valeurs allant jusqu'à 256 000. Pour plus d'informations, consultez les [volumes `io2` Block Express (en version préliminaire)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) dans le *guide de EC2 l'utilisateur Amazon*.

## `volume_size`
<a name="raid-volume-size"></a>

**(Facultatif)** Définit la taille du volume à créer, en GiB.

La valeur par défaut et les valeurs prises en charge varient de[`volume_type`](#raid-volume-type).

`volume_type` = `standard`  
Par défaut `volume_size` = 20 GiB  
Valeurs prises en charge `volume_size` = 1 à 1024 GiB

`volume_type`= `gp2``io1`,`io2`, et `gp3`  
Par défaut `volume_size` = 20 GiB  
Valeurs prises en charge `volume_size` = 1 à 16384 GiB

`volume_type`= `sc1` et `st1`  
Par défaut `volume_size` = 500 GiB  
Valeurs prises en charge `volume_size` = 500—16384 GiB

```
volume_size = 20
```

**Note**  
Avant AWS ParallelCluster la version 2.10.1, la valeur par défaut pour tous les types de volumes était de 20 GiB.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="raid-volume-throughput"></a>

**(Facultatif)** Définit le débit pour les types de `gp3` volumes, en Mbits/s.

La valeur par défaut est `125`.

Valeurs prises en charge `volume_throughput` = 125-1000 MiB/s

Le rapport de `volume_throughput` à ne `volume_iops` peut pas être supérieur à 0,25. Le débit maximal de 1 000 Mbits/s nécessite que le `volume_iops` paramètre soit d'au moins 4 000.

```
volume_throughput = 1000
```

**Note**  
Support pour `volume_throughput` a été ajouté dans la AWS ParallelCluster version 2.10.1.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="raid-volume-type"></a>

**(Facultatif)** Définit le type de volume à créer.

Les options valides sont les valeurs suivantes :

`gp2`, `gp3`  
SSD à usage général

`io1`, `io2`  
Provisioned IOPS SSD

`st1`  
Disque dur à débit optimisé

`sc1`  
HDD à froid

`standard`  
Magnétique de génération précédente

Pour plus d'informations, consultez les [types de volumes Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) dans le *guide de l' EC2 utilisateur Amazon*.

La valeur par défaut est `gp2`.

```
volume_type = io2
```

**Note**  
Support pour `gp3` et `io2` a été ajouté dans la AWS ParallelCluster version 2.10.1.

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

# `[scaling]` Section
<a name="scaling-section"></a>

**Topics**
+ [`scaledown_idletime`](#scaledown-idletime)

Spécifie les paramètres qui définissent la façon dont les nœuds de calcul sont mis à l'échelle.

Le format est`[scaling scaling-name]`. *scaling-name*doit commencer par une lettre, ne pas contenir plus de 30 caractères et contenir uniquement des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

```
[scaling custom]
scaledown_idletime = 10
```

## `scaledown_idletime`
<a name="scaledown-idletime"></a>

**(Facultatif)** Spécifie la durée en minutes sans tâche, après laquelle le nœud de calcul se termine.

Ce paramètre n'est pas utilisé s'il s'`awsbatch`agit du planificateur.

La valeur par défaut est `10`.

```
scaledown_idletime = 10
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

# `[vpc]` Section
<a name="vpc-section"></a>

Spécifie les paramètres de configuration d'Amazon VPC. Pour plus d'informations VPCs, consultez [Qu'est-ce qu'Amazon VPC ?](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html) et les [meilleures pratiques de sécurité pour votre VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-best-practices.html) dans le guide de l'utilisateur Amazon *VPC*.

Le format est`[vpc vpc-name]`. *vpc-name*doit commencer par une lettre, ne pas contenir plus de 30 caractères et contenir uniquement des lettres, des chiffres, des traits d'union (-) et des traits de soulignement (\$1).

```
[vpc public]
vpc_id = vpc-xxxxxx
master_subnet_id = subnet-xxxxxx
```

**Topics**
+ [`additional_sg`](#additional-sg)
+ [`compute_subnet_cidr`](#compute-subnet-cidr)
+ [`compute_subnet_id`](#compute-subnet-id)
+ [`master_subnet_id`](#master-subnet-id)
+ [`ssh_from`](#ssh-from)
+ [`use_public_ips`](#use-public-ips)
+ [`vpc_id`](#vpc-id)
+ [`vpc_security_group_id`](#vpc-security-group-id)

## `additional_sg`
<a name="additional-sg"></a>

**(Facultatif)** Fournit un identifiant de groupe de sécurité Amazon VPC supplémentaire pour toutes les instances.

Il n'existe aucune valeur par défaut.

```
additional_sg = sg-xxxxxx
```

## `compute_subnet_cidr`
<a name="compute-subnet-cidr"></a>

**(Facultatif)** Spécifie un bloc CIDR (Classless Inter-Domain Routing). Utilisez ce paramètre si vous souhaitez AWS ParallelCluster créer un sous-réseau de calcul.

```
compute_subnet_cidr = 10.0.100.0/24
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `compute_subnet_id`
<a name="compute-subnet-id"></a>

**(Facultatif)** Spécifie l'ID d'un sous-réseau existant dans lequel approvisionner les nœuds de calcul.

S'il n'est pas spécifié, [`compute_subnet_id`](#compute-subnet-id) utilise la valeur de [`master_subnet_id`](#master-subnet-id).

Si le sous-réseau est privé, vous devez configurer NAT pour l'accès à Internet.

```
compute_subnet_id = subnet-xxxxxx
```

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `master_subnet_id`
<a name="master-subnet-id"></a>

**(Obligatoire)** Spécifie l'ID d'un sous-réseau existant dans lequel le nœud principal doit être provisionné.

```
master_subnet_id = subnet-xxxxxx
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `ssh_from`
<a name="ssh-from"></a>

**(Facultatif)** Spécifie une plage d'adresses IP au format CIDR à partir de laquelle autoriser l'accès SSH.

Ce paramètre est utilisé uniquement lors de la AWS ParallelCluster création du groupe de sécurité.

La valeur par défaut est `0.0.0.0/0`.

```
ssh_from = 0.0.0.0/0
```

[Politique de mise à jour : ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-setting-supported)

## `use_public_ips`
<a name="use-public-ips"></a>

**(Facultatif)** Définit s'il faut attribuer des adresses IP publiques aux instances de calcul.

Si ce paramètre est défini sur`true`, une adresse IP élastique est associée au nœud principal.

S'il est défini sur`false`, le nœud principal possède une adresse IP publique (ou non) conformément à la valeur du paramètre de configuration du sous-réseau « Attribuer automatiquement une adresse IP publique ».

Pour obtenir des exemples, consultez [Configuration de mise en réseau](networking.md).

La valeur par défaut est `true`.

```
use_public_ips = true
```

**Important**  
Par défaut, Comptes AWS elles sont toutes limitées à cinq (5) adresses IP Elastic pour chacune Région AWS. Pour plus d'informations, consultez la section [Limite d'adresses IP élastique](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/elastic-ip-addresses-eip.html#using-instance-addressing-limit) dans le *guide de EC2 l'utilisateur Amazon*.

[Politique de mise à jour : le parc informatique doit être arrêté pour que ce paramètre soit modifié pour une mise à jour.](using-pcluster-update.md#update-policy-compute-fleet)

## `vpc_id`
<a name="vpc-id"></a>

**(Obligatoire)** Spécifie l'ID du VPC Amazon dans lequel le cluster doit être provisionné.

```
vpc_id = vpc-xxxxxx
```

[Politique de mise à jour : si ce paramètre est modifié, la mise à jour n'est pas autorisée.](using-pcluster-update.md#update-policy-fail)

## `vpc_security_group_id`
<a name="vpc-security-group-id"></a>

**(Facultatif)** Spécifie l'utilisation d'un groupe de sécurité existant pour toutes les instances.

Il n'existe aucune valeur par défaut.

```
vpc_security_group_id = sg-xxxxxx
```

Le groupe de sécurité créé par AWS ParallelCluster autorise l'accès SSH via le port 22 à partir des adresses spécifiées dans le [`ssh_from`](#ssh-from) paramètre, ou de toutes les IPv4 adresses (`0.0.0.0/0`) si le [`ssh_from`](#ssh-from) paramètre n'est pas spécifié. Si Amazon DCV est activé, le groupe de sécurité autorise l'accès à Amazon DCV en utilisant le port 8443 (ou tout autre [`port`](dcv-section.md#dcv-section-port) paramètre spécifié) à partir des adresses spécifiées dans le [`access_from`](dcv-section.md#dcv-section-access-from) paramètre, ou de toutes les IPv4 adresses (`0.0.0.0/0`) si le [`access_from`](dcv-section.md#dcv-section-access-from) paramètre n'est pas spécifié.

**Avertissement**  
Vous pouvez modifier la valeur de ce paramètre et mettre à jour le cluster s'il [`[cluster]`[`fsx_settings`](cluster-definition.md#fsx-settings)](cluster-definition.md)n'est pas spécifié, ou les deux `fsx_settings` et un système de fichiers externe existant FSx pour Lustre est spécifié [`fsx-fs-id`](fsx-section.md#fsx-fs-id)dans [`[fsx fs]`](fsx-section.md).  
Vous ne pouvez pas modifier la valeur de ce paramètre si un système de fichiers AWS ParallelCluster géré FSx pour Lustre est spécifié dans `fsx_settings` et`[fsx fs]`.

[Politique de mise à jour : si les systèmes de fichiers Amazon FSx for Lustre AWS ParallelCluster gérés ne sont pas spécifiés dans la configuration, ce paramètre peut être modifié lors d'une mise à jour.](using-pcluster-update.md#update-policy-no-managed-fsx-lustre)

# Exemples
<a name="examples"></a>

Les exemples de configuration suivants illustrent AWS ParallelCluster les configurations utilisant Slurm, Torque, et des AWS Batch planificateurs.

**Note**  
À partir de la version 2.11.5, AWS ParallelCluster ne prend pas en charge l'utilisation de SGE or Torque planificateurs.

**Contents**
+ [Slurm Workload Manager (`slurm`)](#example.slurm)
+ [Son of Grid Engine (`sge`) et Torque Resource Manager (`torque`)](#example.torque)
+ [AWS Batch (`awsbatch`)](#example.awsbatch)

## Slurm Workload Manager (`slurm`)
<a name="example.slurm"></a>

L'exemple suivant lance un cluster avec le planificateur `slurm`. L'exemple de configuration lance 1 cluster avec 2 files d'attente de tâches. La première file d'`spot`attente dispose initialement de 2 instances `t3.micro` Spot disponibles. Il peut être redimensionné jusqu'à 10 instances au maximum et réduit à un minimum d'une instance lorsqu'aucune tâche n'a été exécutée pendant 10 minutes (réglable à l'aide du [`scaledown_idletime`](scaling-section.md#scaledown-idletime) paramètre). La deuxième file d'attente démarre sans aucune instance et peut être étendue jusqu'à un maximum de 5 instances `t3.micro` à la demande. `ondemand`

```
[global]
update_check = true
sanity_check = true
cluster_template = slurm

[aws]
aws_region_name = <your Région AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster slurm]
key_name = <your EC2 keypair name>
base_os = alinux2                   # optional, defaults to alinux2
scheduler = slurm
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
queue_settings = spot,ondemand

[queue spot]
compute_resource_settings = spot_i1
compute_type = spot                 # optional, defaults to ondemand

[compute_resource spot_i1]
instance_type = t3.micro
min_count = 1                       # optional, defaults to 0
initial_count = 2                   # optional, defaults to 0

[queue ondemand]
compute_resource_settings = ondemand_i1

[compute_resource ondemand_i1]
instance_type = t3.micro
max_count = 5                       # optional, defaults to 10
```

## Son of Grid Engine (`sge`) et Torque Resource Manager (`torque`)
<a name="example.torque"></a>

**Note**  
Cet exemple s'applique uniquement aux AWS ParallelCluster versions antérieures à la version 2.11.4 incluse. À partir de la version 2.11.5, AWS ParallelCluster ne prend pas en charge l'utilisation de SGE or Torque planificateurs.

L'exemple suivant lance un cluster avec le `torque` `sge` planificateur or. Pour utiliser SGE, remplacez `scheduler = torque` par`scheduler = sge`. L'exemple de configuration autorise un maximum de 5 nœuds simultanés et est réduit à deux lorsqu'aucune tâche n'a été exécutée pendant 10 minutes.

```
[global]
update_check = true
sanity_check = true
cluster_template = torque

[aws]
aws_region_name = <your Région AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster torque]
key_name = <your EC2 keypair name>but they aren't eligible for future updates
base_os = alinux2                   # optional, defaults to alinux2
scheduler = torque                  # optional, defaults to sge
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
initial_queue_size = 2              # optional, defaults to 0
maintain_initial_size = true        # optional, defaults to false
max_queue_size = 5                  # optional, defaults to 10
```

**Note**  
À partir de la version 2.11.5, AWS ParallelCluster ne prend pas en charge l'utilisation de SGE or Torque planificateurs. Si vous utilisez ces versions, vous pouvez continuer à les utiliser ou à obtenir l'assistance des équipes de AWS service et de AWS support pour la résolution des problèmes.

## AWS Batch (`awsbatch`)
<a name="example.awsbatch"></a>

L'exemple suivant lance un cluster avec le planificateur `awsbatch`. Il est configuré pour sélectionner le meilleur type d'instance en fonction des besoins en ressources de votre travail.

L'exemple de configuration autorise un maximum de 40 v CPUs simultanés et est réduit à zéro lorsqu'aucune tâche n'a été exécutée pendant 10 minutes (réglable à l'aide du [`scaledown_idletime`](scaling-section.md#scaledown-idletime) paramètre).

```
[global]
update_check = true
sanity_check = true
cluster_template = awsbatch

[aws]
aws_region_name = <your Région AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster awsbatch]
scheduler = awsbatch
compute_instance_type = optimal # optional, defaults to optimal
min_vcpus = 0                   # optional, defaults to 0
desired_vcpus = 0               # optional, defaults to 4
max_vcpus = 40                  # optional, defaults to 20
base_os = alinux2               # optional, defaults to alinux2, controls the base_os of
                                # the head node and the docker image for the compute fleet
key_name = <your EC2 keypair name>
vpc_settings = public
```