

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Beispiele
<a name="examples"></a>

Die folgenden Beispielkonfigurationen demonstrieren AWS ParallelCluster Konfigurationen mit Slurm, Torque, und AWS Batch Scheduler.

**Anmerkung**  
Ab Version 2.11.5 wird die Verwendung von AWS ParallelCluster nicht unterstützt SGE or Torque Scheduler.

**Contents**
+ [Slurm Workload Manager (`slurm`)](#example.slurm)
+ [Son of Grid Engine (`sge`) und Torque Resource Manager (`torque`)](#example.torque)
+ [AWS Batch (`awsbatch`)](#example.awsbatch)

## Slurm Workload Manager (`slurm`)
<a name="example.slurm"></a>

Das folgende Beispiel startet einen Cluster mit dem Scheduler `slurm`. In der Beispielkonfiguration wird 1 Cluster mit 2 Jobwarteschlangen gestartet. In der ersten Warteschlange `spot` sind zunächst 2 `t3.micro` Spot-Instances verfügbar. Sie kann auf maximal 10 Instances und auf mindestens 1 Instanz herunterskaliert werden, wenn 10 Minuten lang keine Jobs ausgeführt wurden (einstellbar über die [`scaledown_idletime`](scaling-section.md#scaledown-idletime) Einstellung). Die zweite Warteschlange beginnt ohne Instanzen und kann auf maximal 5 `t3.micro` On-Demand-Instanzen skaliert werden. `ondemand`

```
[global]
update_check = true
sanity_check = true
cluster_template = slurm

[aws]
aws_region_name = <your AWS-Region>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster slurm]
key_name = <your EC2 keypair name>
base_os = alinux2                   # optional, defaults to alinux2
scheduler = slurm
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
queue_settings = spot,ondemand

[queue spot]
compute_resource_settings = spot_i1
compute_type = spot                 # optional, defaults to ondemand

[compute_resource spot_i1]
instance_type = t3.micro
min_count = 1                       # optional, defaults to 0
initial_count = 2                   # optional, defaults to 0

[queue ondemand]
compute_resource_settings = ondemand_i1

[compute_resource ondemand_i1]
instance_type = t3.micro
max_count = 5                       # optional, defaults to 10
```

## Son of Grid Engine (`sge`) und Torque Resource Manager (`torque`)
<a name="example.torque"></a>

**Anmerkung**  
Dieses Beispiel gilt nur für AWS ParallelCluster Versionen bis einschließlich Version 2.11.4. Beginnend mit Version 2.11.5 unterstützt AWS ParallelCluster es nicht die Verwendung von SGE or Torque Scheduler.

Im folgenden Beispiel wird ein Cluster mit dem `sge` Scheduler `torque` OR gestartet. Zur Verwendung SGE, wechseln Sie `scheduler = torque` zu. `scheduler = sge` Die Beispielkonfiguration erlaubt maximal 5 gleichzeitige Knoten und wird auf zwei herunterskaliert, wenn 10 Minuten lang keine Jobs ausgeführt wurden.

```
[global]
update_check = true
sanity_check = true
cluster_template = torque

[aws]
aws_region_name = <your AWS-Region>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster torque]
key_name = <your EC2 keypair name>but they aren't eligible for future updates
base_os = alinux2                   # optional, defaults to alinux2
scheduler = torque                  # optional, defaults to sge
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
initial_queue_size = 2              # optional, defaults to 0
maintain_initial_size = true        # optional, defaults to false
max_queue_size = 5                  # optional, defaults to 10
```

**Anmerkung**  
Ab Version 2.11.5 wird die Verwendung von AWS ParallelCluster nicht unterstützt SGE or Torque Scheduler. Wenn Sie diese Versionen verwenden, können Sie sie weiterhin verwenden oder den Support der AWS Service- und Support-Teams AWS bei der Fehlerbehebung unterstützen.

## AWS Batch (`awsbatch`)
<a name="example.awsbatch"></a>

Das folgende Beispiel startet einen Cluster mit dem Scheduler `awsbatch`. Es ist so eingestellt, dass es auf der Grundlage Ihrer Anforderungen an die Jobressourcen den besseren Instanztyp auswählt.

Die Beispielkonfiguration erlaubt maximal 40 gleichzeitige V und wird auf Null herunterskaliertCPUs, wenn 10 Minuten lang keine Jobs ausgeführt wurden (einstellbar über die [`scaledown_idletime`](scaling-section.md#scaledown-idletime) Einstellung).

```
[global]
update_check = true
sanity_check = true
cluster_template = awsbatch

[aws]
aws_region_name = <your AWS-Region>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster awsbatch]
scheduler = awsbatch
compute_instance_type = optimal # optional, defaults to optimal
min_vcpus = 0                   # optional, defaults to 0
desired_vcpus = 0               # optional, defaults to 4
max_vcpus = 40                  # optional, defaults to 20
base_os = alinux2               # optional, defaults to alinux2, controls the base_os of
                                # the head node and the docker image for the compute fleet
key_name = <your EC2 keypair name>
vpc_settings = public
```