

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Exemples
<a name="examples"></a>

Les exemples de configuration suivants illustrent AWS ParallelCluster les configurations utilisant Slurm, Torque, et des AWS Batch planificateurs.

**Note**  
À partir de la version 2.11.5, AWS ParallelCluster ne prend pas en charge l'utilisation de SGE or Torque planificateurs.

**Contents**
+ [Slurm Workload Manager (`slurm`)](#example.slurm)
+ [Son of Grid Engine (`sge`) et Torque Resource Manager (`torque`)](#example.torque)
+ [AWS Batch (`awsbatch`)](#example.awsbatch)

## Slurm Workload Manager (`slurm`)
<a name="example.slurm"></a>

L'exemple suivant lance un cluster avec le planificateur `slurm`. L'exemple de configuration lance 1 cluster avec 2 files d'attente de tâches. La première file d'`spot`attente dispose initialement de 2 instances `t3.micro` Spot disponibles. Il peut être redimensionné jusqu'à 10 instances au maximum et réduit à un minimum d'une instance lorsqu'aucune tâche n'a été exécutée pendant 10 minutes (réglable à l'aide du [`scaledown_idletime`](scaling-section.md#scaledown-idletime) paramètre). La deuxième file d'attente démarre sans aucune instance et peut être étendue jusqu'à un maximum de 5 instances `t3.micro` à la demande. `ondemand`

```
[global]
update_check = true
sanity_check = true
cluster_template = slurm

[aws]
aws_region_name = <your Région AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster slurm]
key_name = <your EC2 keypair name>
base_os = alinux2                   # optional, defaults to alinux2
scheduler = slurm
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
queue_settings = spot,ondemand

[queue spot]
compute_resource_settings = spot_i1
compute_type = spot                 # optional, defaults to ondemand

[compute_resource spot_i1]
instance_type = t3.micro
min_count = 1                       # optional, defaults to 0
initial_count = 2                   # optional, defaults to 0

[queue ondemand]
compute_resource_settings = ondemand_i1

[compute_resource ondemand_i1]
instance_type = t3.micro
max_count = 5                       # optional, defaults to 10
```

## Son of Grid Engine (`sge`) et Torque Resource Manager (`torque`)
<a name="example.torque"></a>

**Note**  
Cet exemple s'applique uniquement aux AWS ParallelCluster versions antérieures à la version 2.11.4 incluse. À partir de la version 2.11.5, AWS ParallelCluster ne prend pas en charge l'utilisation de SGE or Torque planificateurs.

L'exemple suivant lance un cluster avec le `torque` `sge` planificateur or. Pour utiliser SGE, remplacez `scheduler = torque` par`scheduler = sge`. L'exemple de configuration autorise un maximum de 5 nœuds simultanés et est réduit à deux lorsqu'aucune tâche n'a été exécutée pendant 10 minutes.

```
[global]
update_check = true
sanity_check = true
cluster_template = torque

[aws]
aws_region_name = <your Région AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster torque]
key_name = <your EC2 keypair name>but they aren't eligible for future updates
base_os = alinux2                   # optional, defaults to alinux2
scheduler = torque                  # optional, defaults to sge
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
initial_queue_size = 2              # optional, defaults to 0
maintain_initial_size = true        # optional, defaults to false
max_queue_size = 5                  # optional, defaults to 10
```

**Note**  
À partir de la version 2.11.5, AWS ParallelCluster ne prend pas en charge l'utilisation de SGE or Torque planificateurs. Si vous utilisez ces versions, vous pouvez continuer à les utiliser ou à obtenir l'assistance des équipes de AWS service et de AWS support pour la résolution des problèmes.

## AWS Batch (`awsbatch`)
<a name="example.awsbatch"></a>

L'exemple suivant lance un cluster avec le planificateur `awsbatch`. Il est configuré pour sélectionner le meilleur type d'instance en fonction des besoins en ressources de votre travail.

L'exemple de configuration autorise un maximum de 40 v CPUs simultanés et est réduit à zéro lorsqu'aucune tâche n'a été exécutée pendant 10 minutes (réglable à l'aide du [`scaledown_idletime`](scaling-section.md#scaledown-idletime) paramètre).

```
[global]
update_check = true
sanity_check = true
cluster_template = awsbatch

[aws]
aws_region_name = <your Région AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster awsbatch]
scheduler = awsbatch
compute_instance_type = optimal # optional, defaults to optimal
min_vcpus = 0                   # optional, defaults to 0
desired_vcpus = 0               # optional, defaults to 4
max_vcpus = 40                  # optional, defaults to 20
base_os = alinux2               # optional, defaults to alinux2, controls the base_os of
                                # the head node and the docker image for the compute fleet
key_name = <your EC2 keypair name>
vpc_settings = public
```