

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Configuration de plusieurs files d'attente
<a name="configuration-of-multiple-queues-v3"></a>

Avec AWS ParallelCluster la version 3, vous pouvez configurer plusieurs files d'attente en définissant le [`Scheduler`](Scheduling-v3.md#yaml-Scheduling-Scheduler)à `slurm` et en spécifiant plusieurs files d'attente [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues) dans le fichier de configuration. Dans ce mode, différents types d'instances coexistent dans les nœuds de calcul spécifiés dans la [`ComputeResources`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-ComputeResources) section du fichier de configuration. [`ComputeResources`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-ComputeResources)avec différents types d'instances sont redimensionnés à la hausse ou à la baisse selon les besoins du[`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues).

Les *files d'attente multiples au sein d'*un même cluster sont généralement préférées à plusieurs clusters lorsque les charges de travail partagent la même infrastructure et les mêmes ressources sous-jacentes (telles que le stockage partagé, le réseau ou les nœuds de connexion). Si les charges de travail ont des besoins de calcul, de stockage et de mise en réseau similaires, l'utilisation de plusieurs files d'attente au sein d'un même cluster est plus efficace car elle permet le partage des ressources et évite les doublons inutiles. Cette approche simplifie la gestion et réduit les frais généraux, tout en permettant une planification des tâches et une allocation des ressources efficaces. D'autre part, plusieurs *clusters* doivent être utilisés lorsqu'il existe de fortes exigences en matière de sécurité, de données ou d'isolation opérationnelle entre les charges de travail. Par exemple, si vous devez gérer et exploiter les charges de travail de manière indépendante, avec des plannings, des cycles de mise à jour ou des politiques d'accès différents, plusieurs clusters sont plus appropriés.


**Quotas de ressources de calcul et files d'attente du cluster**  

| Ressource | Quota | 
| --- | --- | 
|  [`Slurm queues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)  |  50 files d'attente par cluster  | 
|  [`Compute resources`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-ComputeResources)  |  50 ressources de calcul par file d'attente 50 ressources de calcul par cluster  | 

**Nombre de nœuds**

Chaque ressource de calcul [`ComputeResources`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-ComputeResources)d'une file d'attente doit avoir un [`Name`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-Name)caractère unique [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType), [`MinCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MinCount), et [`MaxCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MaxCount). [`MinCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MinCount)et [`MaxCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MaxCount)ont des valeurs par défaut qui définissent la plage d'instances d'une ressource de calcul dans [`ComputeResources`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-ComputeResources)une file d'attente. Vous pouvez également spécifier vos propres valeurs pour [`MinCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MinCount)et [`MaxCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MaxCount). Chaque ressource de calcul [`ComputeResources`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-ComputeResources)est composée de nœuds statiques numérotés de 1 à la valeur de [`MinCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MinCount)et de nœuds dynamiques numérotés de la valeur de [`MinCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MinCount)à la valeur de [`MaxCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MaxCount).

**Exemple de configuration**

Voici un exemple de section de [planification](Scheduling-v3.md) pour un fichier de configuration de cluster. Dans cette configuration, deux files d'attente sont nommées `queue1` `queue2` et chacune d'entre elles possède un nom [`ComputeResources`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-ComputeResources)spécifié. [`MaxCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MaxCount)

```
Scheduling:
  Scheduler: slurm
  SlurmQueues:
  - Name: queue1
    ComputeResources:
    - InstanceType: c5.xlarge
      MaxCount: 5
      Name: c5xlarge
    - InstanceType: c4.xlarge
      MaxCount: 5
      Name: c4xlarge
  - Name: queue2
    ComputeResources:
    - InstanceType: c5.xlarge
      MaxCount: 5
      Name: c5xlarge
```

**Noms d'hôtes**

Les instances lancées dans le parc informatique sont attribuées dynamiquement. Les noms d'hôtes sont générés pour chaque nœud. Par défaut AWS ParallelCluster , le format du nom d'hôte sera le suivant :

 `$HOSTNAME=$QUEUE-$STATDYN-$COMPUTE_RESOURCE-$NODENUM` 
+ `$QUEUE`est le nom de la file d'attente. Par exemple, si la [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)section comporte une entrée [`Name`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Name)définie sur « `queue-name` », alors « `$QUEUE` » est « `queue-name` ».
+  `$STATDYN`est `st` destiné aux nœuds statiques ou `dy` aux nœuds dynamiques. 
+  `$COMPUTE_RESOURCE`est le [`Name`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-Name)de la ressource de [`ComputeResources`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-ComputeResources)calcul correspondant à ce nœud.
+  `$NODENUM`est le numéro du nœud. `$NODENUM`est compris entre un (1) et la valeur de [`MinCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MinCount)pour les nœuds statiques et entre un (1) et [`MaxCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MaxCount)- [`MinCount`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-MinCount)pour les nœuds dynamiques.

Dans l'exemple de fichier de configuration ci-dessus, un nœud donné `queue1` et une ressource de calcul `c5xlarge` ont un nom d'hôte :`queue1-dy-c5xlarge-1`.

Les noms d'hôte et les noms de domaine complets (FQDN) sont créés à l'aide des zones hébergées Amazon Route 53. Le FQDN est`$HOSTNAME.$CLUSTERNAME.pcluster`, où `$CLUSTERNAME` est le nom du cluster.

Notez que le même format sera également utilisé pour les noms de Slurm nœuds.

 Les utilisateurs peuvent choisir d'utiliser le EC2 nom d'hôte Amazon par défaut de l'instance alimentant le nœud de calcul au lieu du format de nom d'hôte par défaut utilisé par AWS ParallelCluster. Cela peut être fait en réglant le [`UseEc2Hostnames`](Scheduling-v3.md#yaml-Scheduling-SlurmSettings-Dns-UseEc2Hostnames)paramètre sur true. Toutefois, les noms de Slurm nœuds continueront d'utiliser le AWS ParallelCluster format par défaut.