

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Konfiguration
<a name="configuration"></a>

Standardmäßig AWS ParallelCluster verwendet die `~/.parallelcluster/config` Datei für alle Konfigurationsparameter. Sie können eine benutzerdefinierte Konfigurationsdatei angeben, indem Sie die `-c` `--config` Befehlszeilenoption oder oder die `AWS_PCLUSTER_CONFIG_FILE` Umgebungsvariable verwenden.

Eine Beispielkonfigurationsdatei ist mit AWS ParallelCluster im Python-Verzeichnis unter installiert`site-packages/aws-parallelcluster/examples/config`. Die Beispielkonfigurationsdatei ist auch auf GitHub, unter verfügbar[https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config).

Aktuelle AWS ParallelCluster 2-Version: 2.11.9.

**Topics**
+ [Layout](#layout)
+ [`[global]` Abschnitt](global.md)
+ [`[aws]` Abschnitt](aws.md)
+ [`[aliases]` Abschnitt](aliases.md)
+ [`[cluster]` Abschnitt](cluster-definition.md)
+ [`[compute_resource]` Abschnitt](compute-resource-section.md)
+ [`[cw_log]` Abschnitt](cw-log-section.md)
+ [`[dashboard]` Abschnitt](dashboard-section.md)
+ [`[dcv]` Abschnitt](dcv-section.md)
+ [`[ebs]` Abschnitt](ebs-section.md)
+ [`[efs]` Abschnitt](efs-section.md)
+ [`[fsx]` Abschnitt](fsx-section.md)
+ [`[queue]` Abschnitt](queue-section.md)
+ [`[raid]` Abschnitt](raid-section.md)
+ [`[scaling]` Abschnitt](scaling-section.md)
+ [`[vpc]` Abschnitt](vpc-section.md)
+ [Beispiele](examples.md)

## Layout
<a name="layout"></a>

Eine AWS ParallelCluster Konfiguration ist in mehreren Abschnitten definiert.

Die folgenden Abschnitte sind erforderlich: [`[global]`Abschnitt](global.md) und [`[aws]`Abschnitt](aws.md).

Sie müssen außerdem mindestens einen [`[cluster]`Abschnitt](cluster-definition.md) und einen [`[vpc]`Abschnitt angeben](vpc-section.md).

Ein Abschnitt beginnt mit dem Abschnittsnamen in Klammern, gefolgt von Parametern und der Konfiguration.

```
[global]
cluster_template = default
update_check = true
sanity_check = true
```

# `[global]` Abschnitt
<a name="global"></a>

Gibt globale Konfigurationsoptionen im Zusammenhang mit `pcluster` an.

```
[global]
```

**Topics**
+ [`cluster_template`](#cluster-template)
+ [`update_check`](#update-check)
+ [`sanity_check`](#sanity-check)

## `cluster_template`
<a name="cluster-template"></a>

Definiert den Namen des `cluster` Abschnitts, der standardmäßig für den Cluster verwendet wird. Weitere Informationen zu `cluster` Abschnitten finden Sie [`[cluster]`im Abschnitt](cluster-definition.md). Der Clustername muss mit einem Buchstaben beginnen, darf nicht mehr als 60 Zeichen enthalten und darf nur Buchstaben, Zahlen und Bindestriche (-) enthalten.

Beispiel: Die folgende Einstellung besagt, dass der Abschnitt, der `[cluster default]` startet, standardmäßig verwendet wird.

```
cluster_template = default
```

[Aktualisierungsrichtlinie: Diese Einstellung wird während eines Updates nicht analysiert.](using-pcluster-update.md#update-policy-setting-ignored)

## `update_check`
<a name="update-check"></a>

**(Optional) Sucht** nach Aktualisierungen für. `pcluster`

Der Standardwert ist `true`.

```
update_check = true
```

[Aktualisierungsrichtlinie: Diese Einstellung wird während eines Updates nicht analysiert.](using-pcluster-update.md#update-policy-setting-ignored)

## `sanity_check`
<a name="sanity-check"></a>

**(Optional)** Versucht, die Konfiguration der Ressourcen zu überprüfen, die in den Clusterparametern definiert sind.

Der Standardwert ist `true`.

**Warnung**  
Wenn auf gesetzt `sanity_check` ist`false`, werden wichtige Prüfungen übersprungen. Dies kann dazu führen, dass Ihre Konfiguration nicht wie vorgesehen funktioniert.

```
sanity_check = true
```

**Anmerkung**  
Vor AWS ParallelCluster Version 2.5.0, [`sanity_check`](#sanity-check) standardmäßig auf. `false`

[Aktualisierungsrichtlinie: Diese Einstellung wird während eines Updates nicht analysiert.](using-pcluster-update.md#update-policy-setting-ignored)

# `[aws]` Abschnitt
<a name="aws"></a>

**(Optional)** Wird zur Auswahl von verwendet AWS-Region.

Bei der Clustererstellung wird diese Prioritätsreihenfolge verwendet, um Folgendes AWS-Region für einen neuen Cluster auszuwählen:

1. `-r`oder `--region` Parameter für[`pcluster create`](pluster.create.md).

1. `AWS_DEFAULT_REGION`-Umgebungsvariable.

1. `aws_region_name`Einstellung im `[aws]` Abschnitt der AWS ParallelCluster Konfigurationsdatei (der Standardspeicherort ist`~/.parallelcluster/config`.) Dies ist der Speicherort, der durch den [`pcluster configure`](pcluster.configure.md) Befehl aktualisiert wurde.

1. `region`Einstellung im `[default]` Abschnitt der AWS CLI Konfigurationsdatei (`~/.aws/config`.)

**Anmerkung**  
Vor AWS ParallelCluster Version 2.10.0 waren diese Einstellungen erforderlich und wurden auf alle Cluster angewendet.

Um Anmeldeinformationen zu speichern, können Sie die Umgebung, die IAM-Rollen für Amazon EC2 oder die verwenden [AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html), anstatt die Anmeldeinformationen in der AWS ParallelCluster Konfigurationsdatei zu speichern.

```
[aws]
aws_region_name = Region
```

[Aktualisierungsrichtlinie: Diese Einstellung wird während eines Updates nicht analysiert.](using-pcluster-update.md#update-policy-setting-ignored)

# `[aliases]` Abschnitt
<a name="aliases"></a>

**Topics**

Gibt Aliasnamen an und ermöglicht Ihnen, den `ssh`-Befehl anzupassen.

Beachten Sie die folgenden Standardeinstellungen:
+ `CFN_USER`ist auf den Standardbenutzernamen für das Betriebssystem gesetzt
+ `MASTER_IP`ist auf die IP-Adresse des Hauptknotens eingestellt
+ `ARGS`ist auf die Argumente gesetzt, nach denen der Benutzer sie eingibt *`pcluster ssh cluster_name`*

```
[aliases]
# This is the aliases section, you can configure
# ssh alias here
ssh = ssh {CFN_USER}@{MASTER_IP} {ARGS}
```

[Aktualisierungsrichtlinie: Diese Einstellung wird während eines Updates nicht analysiert.](using-pcluster-update.md#update-policy-setting-ignored)

# `[cluster]` Abschnitt
<a name="cluster-definition"></a>

Definiert eine Clustervorlage, die zum Erstellen eines Clusters verwendet werden kann. Eine Konfigurationsdatei kann mehrere `[cluster]` Abschnitte enthalten.

Dieselbe Cluster-Vorlage kann verwendet werden, um mehrere Cluster zu erstellen.

Das Format ist `[cluster cluster-template-name]`. Der durch die [`cluster_template`](global.md#cluster-template) Einstellung im [`[cluster]``[global]`Abschnitt](#cluster-definition) [benannte Abschnitt](global.md) wird standardmäßig verwendet, kann aber in der [`pcluster`](pcluster.md) Befehlszeile überschrieben werden.

*cluster-template-name*muss mit einem Buchstaben beginnen, darf nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

```
[cluster default]
```

**Topics**
+ [`additional_cfn_template`](#additional-cfn-template)
+ [`additional_iam_policies`](#additional-iam-policies)
+ [`base_os`](#base-os)
+ [`cluster_resource_bucket`](#cluster-resource-bucket-section)
+ [`cluster_type`](#cluster-type)
+ [`compute_instance_type`](#compute-instance-type)
+ [`compute_root_volume_size`](#compute-root-volume-size)
+ [`custom_ami`](#custom-ami-section)
+ [`cw_log_settings`](#cw-log-settings)
+ [`dashboard_settings`](#dashboard-settings)
+ [`dcv_settings`](#dcv-settings)
+ [`desired_vcpus`](#desired-vcpus)
+ [`disable_cluster_dns`](#disable-cluster-dns-settings)
+ [`disable_hyperthreading`](#disable-hyperthreading)
+ [`ebs_settings`](#ebs-settings)
+ [`ec2_iam_role`](#ec2-iam-role)
+ [`efs_settings`](#efs-settings)
+ [`enable_efa`](#enable-efa)
+ [`enable_efa_gdr`](#enable-efa-gdr)
+ [`enable_intel_hpc_platform`](#enable-intel-hpc-platform)
+ [`encrypted_ephemeral`](#encrypted-ephemeral)
+ [`ephemeral_dir`](#ephemeral-dir)
+ [`extra_json`](#extra-json)
+ [`fsx_settings`](#fsx-settings)
+ [`iam_lambda_role`](#iam-lambda-role)
+ [`initial_queue_size`](#configuration-initial-queue-size)
+ [`key_name`](#key-name)
+ [`maintain_initial_size`](#maintain-initial-size)
+ [`master_instance_type`](#master-instance-type)
+ [`master_root_volume_size`](#master-root-volume-size)
+ [`max_queue_size`](#configuration-max-queue-size)
+ [`max_vcpus`](#max-vcpus)
+ [`min_vcpus`](#min-vcpus)
+ [`placement`](#placement)
+ [`placement_group`](#placement-group)
+ [`post_install`](#post-install)
+ [`post_install_args`](#post-install-args)
+ [`pre_install`](#pre-install)
+ [`pre_install_args`](#pre-install-args)
+ [`proxy_server`](#proxy-server)
+ [`queue_settings`](#queue-settings)
+ [`raid_settings`](#raid-settings)
+ [`s3_read_resource`](#s3-read-resource)
+ [`s3_read_write_resource`](#s3-read-write-resource)
+ [`scaling_settings`](#scaling-settings)
+ [`scheduler`](#scheduler)
+ [`shared_dir`](#cluster-shared-dir)
+ [`spot_bid_percentage`](#spot-bid-percentage)
+ [`spot_price`](#spot-price)
+ [`tags`](#tags)
+ [`template_url`](#template-url)
+ [`vpc_settings`](#vpc-settings)

## `additional_cfn_template`
<a name="additional-cfn-template"></a>

**(Optional)** Definiert eine zusätzliche AWS CloudFormation Vorlage, die zusammen mit dem Cluster gestartet wird. Diese zusätzliche Vorlage wird für die Erstellung von Ressourcen verwendet, die sich außerhalb des Clusters befinden, aber Teil des Cluster-Lebenszyklus sind.

Der Wert muss eine HTTP-URL zu einer öffentlichen Vorlage mit allen angegebenen Parametern sein.

Es ist kein Standardwert vorhanden.

```
additional_cfn_template = https://<bucket-name>.s3.amazonaws.com/my-cfn-template.yaml
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `additional_iam_policies`
<a name="additional-iam-policies"></a>

**(Optional)** Gibt eine Liste von Amazon Resource Names (ARNs) von IAM-Richtlinien für Amazon EC2 an. Diese Liste wird zusätzlich zu den erforderlichen Berechtigungen durch AWS ParallelCluster Kommas getrennt an die im Cluster verwendete Root-Rolle angehängt. Ein IAM-Richtlinienname und sein ARN sind unterschiedlich. Namen können nicht als Argument für verwendet werden. `additional_iam_policies`

Wenn Sie beabsichtigen, den Standardeinstellungen für Clusterknoten zusätzliche Richtlinien hinzuzufügen, empfehlen wir Ihnen, die zusätzlichen benutzerdefinierten IAM-Richtlinien zusammen mit der `additional_iam_policies` Einstellung zu übergeben, anstatt die [`ec2_iam_role`](#ec2-iam-role)Einstellungen zum Hinzufügen Ihrer spezifischen EC2-Richtlinien zu verwenden. Dies liegt daran, `additional_iam_policies` dass zu den erforderlichen Standardberechtigungen hinzugefügt werden. AWS ParallelCluster Ein vorhandenes [`ec2_iam_role`](#ec2-iam-role)muss alle erforderlichen Berechtigungen enthalten. Da sich die erforderlichen Berechtigungen jedoch häufig von Version zu Version ändern, wenn Funktionen hinzugefügt werden, [`ec2_iam_role`](#ec2-iam-role)kann eine bestehende Lizenz veraltet sein.

Es ist kein Standardwert vorhanden.

```
additional_iam_policies = arn:aws:iam::123456789012:policy/CustomEC2Policy
```

**Anmerkung**  
Support für [`additional_iam_policies`](#additional-iam-policies)wurde in AWS ParallelCluster Version 2.5.0 hinzugefügt.

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `base_os`
<a name="base-os"></a>

**(Erforderlich)** Gibt an, welcher Betriebssystemtyp im Cluster verwendet wird.

Verfügbare Optionen sind:
+ `alinux2`
+ `centos7`
+ `ubuntu1804`
+ `ubuntu2004`

**Anmerkung**  
Für AWS Graviton-basierte Instances werden nur, `alinux2``ubuntu1804`, oder `ubuntu2004` unterstützt.

**Anmerkung**  
Die Support für `centos8` wurde in AWS ParallelCluster Version 2.11.4 entfernt. Support für `ubuntu2004` wurde hinzugefügt und Unterstützung für `alinux` und `ubuntu1604` wurde in AWS ParallelCluster Version 2.11.0 entfernt. Support für `centos8` wurde hinzugefügt und Unterstützung für `centos6` wurde in AWS ParallelCluster Version 2.10.0 entfernt. Support für `alinux2` wurde in AWS ParallelCluster Version 2.6.0 hinzugefügt. Support für `ubuntu1804` wurde hinzugefügt und Unterstützung für `ubuntu1404` wurde in AWS ParallelCluster Version 2.5.0 entfernt.

Mit Ausnahme der in der folgenden Tabelle AWS-Regionen aufgeführten Spezifika, die nicht unterstützt `centos7` werden. Alle anderen AWS kommerziellen Regionen unterstützen alle der folgenden Betriebssysteme.


| Partition (AWS-Regionen) | `alinux2` | `centos7` | `ubuntu1804` und `ubuntu2004` | 
| --- | --- | --- | --- | 
| Kommerziell (Alle AWS-Regionen nicht ausdrücklich erwähnt) | Wahr | True | Wahr | 
| AWS GovCloud (US-Ost) (us-gov-east-1) | Wahr | False | True | 
| AWS GovCloud (US-West) () us-gov-west-1 | Wahr | False | True | 
| China (Peking) (cn-north-1) | Wahr | False | True | 
| China (Ningxia) (cn-northwest-1) | Wahr | False | True | 

**Anmerkung**  
Der [`base_os`](#base-os) Parameter bestimmt auch den Benutzernamen, der für die Anmeldung beim Cluster verwendet wird.
+ `centos7`: `centos` 
+ `ubuntu1804` und `ubuntu2004`: `ubuntu` 
+ `alinux2`: `ec2-user` 

**Anmerkung**  
Vor AWS ParallelCluster Version 2.7.0 war der [`base_os`](#base-os) Parameter optional, und der Standardwert war`alinux`. Ab AWS ParallelCluster Version 2.7.0 ist der [`base_os`](#base-os) Parameter erforderlich.

**Anmerkung**  
Wenn der Parameter [`scheduler`](#scheduler) `awsbatch` ist, wird nur `alinux2` unterstützt.

```
base_os = alinux2
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `cluster_resource_bucket`
<a name="cluster-resource-bucket-section"></a>

**(Optional)** Gibt den Namen des Amazon S3 S3-Buckets an, der zum Hosten von Ressourcen verwendet wird, die bei der Erstellung des Clusters generiert werden. Für den Bucket muss die Versionierung aktiviert sein. Weitere Informationen finden Sie unter [Verwenden der Versionierung](https://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html) im *Amazon Simple Storage Service-Benutzerhandbuch*. Dieser Bucket kann für mehrere Cluster verwendet werden. Der Bucket muss sich in derselben Region wie der Cluster befinden.

Wenn dieser Parameter nicht angegeben ist, wird bei der Erstellung des Clusters ein neuer Bucket erstellt. Der neue Bucket hat den Namen`parallelcluster-random_string`. In diesem Namen *random\$1string* befindet sich eine zufällige Zeichenfolge aus alphanumerischen Zeichen. Alle Clusterressourcen werden in diesem Bucket in einem Pfad mit der folgenden Form `bucket_name/resource_directory` gespeichert. `resource_directory`hat die Form`stack_name-random_string`, wobei der Name eines der CloudFormation Stacks *stack\$1name* steht, die von AWS ParallelCluster verwendet werden. Der Wert von *bucket\$1name* kann dem `ResourcesS3Bucket` Wert in der Ausgabe des `parallelcluster-clustername` Stacks entnommen werden. Der Wert von *resource\$1directory* kann im Wert der `ArtifactS3RootDirectory` Ausgabe desselben Stacks gefunden werden.

Der Standardwert ist `parallelcluster-random_string`.

```
cluster_resource_bucket = amzn-s3-demo-bucket
```

**Anmerkung**  
Support für [`cluster_resource_bucket`](#cluster-resource-bucket-section) wurde in AWS ParallelCluster Version 2.10.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig. Die Aktualisierung dieser Einstellung kann nicht erzwungen werden.](using-pcluster-update.md#update-policy-read-only-resource-bucket)

## `cluster_type`
<a name="cluster-type"></a>

**(Optional)** Definiert den Typ des Clusters, der gestartet werden soll. Wenn die [`queue_settings`](#queue-settings) Einstellung definiert ist, muss diese Einstellung durch die [`compute_type`](queue-section.md#queue-compute-type) Einstellungen in den [`[queue]`Abschnitten](queue-section.md) ersetzt werden.

Gültige Optionen sind `ondemand` und `spot`.

Der Standardwert ist `ondemand`.

Weitere Informationen zu Spot-Instances finden Sie unter [Arbeiten mit Spot-Instances](spot.md).

**Anmerkung**  
Die Verwendung von Spot-Instances setzt voraus, dass die `AWSServiceRoleForEC2Spot` mit dem Service verknüpfte Rolle in Ihrem Konto vorhanden ist. Führen Sie den folgenden Befehl aus AWS CLI, um diese Rolle in Ihrem Konto mithilfe von zu erstellen:  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Weitere Informationen finden Sie unter [Service-verknüpfte Rolle für Spot-Instance-Anfragen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) im *Amazon EC2 EC2-Benutzerhandbuch*.

```
cluster_type = ondemand
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_instance_type`
<a name="compute-instance-type"></a>

**(Optional)** Definiert den Amazon EC2 EC2-Instance-Typ, der für die Cluster-Rechenknoten verwendet wird. Die Architektur des Instance-Typs muss mit der Architektur übereinstimmen, die für die [`master_instance_type`](#master-instance-type) Einstellung verwendet wurde. Wenn die [`queue_settings`](#queue-settings) Einstellung definiert ist, muss diese Einstellung durch die [`instance_type`](compute-resource-section.md#compute-resource-instance-type) Einstellungen in den [`[compute_resource]`Abschnitten](compute-resource-section.md) ersetzt werden.

Wenn Sie den `awsbatch` Scheduler verwenden, finden Sie unter der Erstellung von Compute Environments in der AWS Batch Benutzeroberfläche eine Liste der unterstützten Instanztypen.

Der Standardwert ist `t2.micro`, `optimal` wenn der Scheduler `awsbatch` ist.

```
compute_instance_type = t2.micro
```

**Anmerkung**  
Support für AWS Graviton-basierte Instanzen (einschließlich `A1` `C6g` Und-Instanzen) wurde in AWS ParallelCluster Version 2.8.0 hinzugefügt.

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_root_volume_size`
<a name="compute-root-volume-size"></a>

**(Optional)** Gibt die Größe des ComputeFleet Root-Volumes in Gibibyte (GiB) an. Das AMI muss `growroot` unterstützen.

Der Standardwert ist `35`.

**Anmerkung**  
Für AWS ParallelCluster Versionen zwischen 2.5.0 und 2.10.4 war der Standardwert 25. Vor AWS ParallelCluster Version 2.5.0 war die Standardeinstellung 20.

```
compute_root_volume_size = 35
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `custom_ami`
<a name="custom-ami-section"></a>

**(Optional)** Gibt die ID eines benutzerdefinierten AMI an, das für die Head- und Compute-Knoten anstelle des [veröffentlichten](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/amis.txt) Standard-AMIs verwendet werden soll AMIs. Für weitere Informationen siehe [Ändern eines -AMIs](tutorials_02_ami_customization.md#modify-an-aws-parallelcluster-ami) oder [Erstellen Sie ein benutzerdefiniertes AWS ParallelCluster AMI](tutorials_02_ami_customization.md#build-a-custom-aws-parallelcluster-ami).

Es ist kein Standardwert vorhanden.

```
custom_ami = ami-00d4efc81188687a0
```

Wenn das benutzerdefinierte AMI zusätzliche Berechtigungen für seinen Start benötigt, müssen diese Berechtigungen sowohl den Benutzer- als auch den Headnode-Richtlinien hinzugefügt werden.

Wenn einem benutzerdefinierten AMI beispielsweise ein verschlüsselter Snapshot zugeordnet ist, sind die folgenden zusätzlichen Richtlinien sowohl in den Benutzer- als auch in den Headnode-Richtlinien erforderlich:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```

------

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `cw_log_settings`
<a name="cw-log-settings"></a>

**(Optional)** Identifiziert den `[cw_log]` Abschnitt mit der CloudWatch Logs-Konfiguration. Der Abschnittsname muss mit einem Buchstaben beginnen, darf nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

Weitere Informationen finden Sie im [`[cw_log]`Abschnitt](cw-log-section.md), und[CloudWatch Amazon-Dashboard](cloudwatch-dashboard.md). [Integration mit Amazon CloudWatch Logs](cloudwatch-logs.md)

Die folgende Einstellung gibt beispielsweise an, dass der Abschnitt, der gestartet `[cw_log custom-cw]` wird, für die CloudWatch Logs-Konfiguration verwendet wird.

```
cw_log_settings = custom-cw
```

**Anmerkung**  
Support für [`cw_log_settings`](#cw-log-settings) wurde in AWS ParallelCluster Version 2.6.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `dashboard_settings`
<a name="dashboard-settings"></a>

**(Optional)** Identifiziert den `[dashboard]` Abschnitt mit der CloudWatch Dashboard-Konfiguration. Der Abschnittsname muss mit einem Buchstaben beginnen, darf nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

[Weitere Informationen finden Sie im Abschnitt. `[dashboard]`](dashboard-section.md)

Die folgende Einstellung gibt beispielsweise an, dass der Abschnitt, der gestartet `[dashboard custom-dashboard` wird, für die CloudWatch Dashboard-Konfiguration verwendet wird.

```
dashboard_settings = custom-dashboard
```

**Anmerkung**  
Support für [`dashboard_settings`](#dashboard-settings) wurde in AWS ParallelCluster Version 2.10.0 hinzugefügt.

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `dcv_settings`
<a name="dcv-settings"></a>

**(Optional)** Identifiziert den `[dcv]` Abschnitt mit der Amazon DCV-Konfiguration. Der Abschnittsname muss mit einem Buchstaben beginnen, darf nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

[Weitere Informationen finden Sie im Abschnitt. `[dcv]`](dcv-section.md)

Die folgende Einstellung gibt beispielsweise an, dass der Abschnitt, der beginnt, für die Amazon DCV-Konfiguration verwendet `[dcv custom-dcv]` wird.

```
dcv_settings = custom-dcv
```

**Anmerkung**  
Auf AWS Graviton-basierten Instances wird Amazon DCV nur auf unterstützt. `alinux2`

**Anmerkung**  
Support für [`dcv_settings`](#dcv-settings) wurde in AWS ParallelCluster Version 2.5.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `desired_vcpus`
<a name="desired-vcpus"></a>

**(Optional)** Gibt die gewünschte Anzahl von v CPUs in der Rechenumgebung an. Wird nur verwendet, wenn der Scheduler `awsbatch` ist.

Der Standardwert ist `4`.

```
desired_vcpus = 4
```

[Aktualisierungsrichtlinie: Diese Einstellung wird während eines Updates nicht analysiert.](using-pcluster-update.md#update-policy-setting-ignored)

## `disable_cluster_dns`
<a name="disable-cluster-dns-settings"></a>

**(Optional)** Gibt an, ob die DNS-Einträge für den Cluster nicht erstellt werden sollen. AWS ParallelCluster Erstellt standardmäßig eine Route 53-Hosting-Zone. Wenn auf gesetzt `disable_cluster_dns` ist`true`, wird die Hosting-Zone nicht erstellt.

Der Standardwert ist `false`.

```
disable_cluster_dns = true
```

**Warnung**  
Für den ordnungsgemäßen Betrieb des Clusters ist ein System zur Namensauflösung erforderlich. Wenn auf gesetzt `disable_cluster_dns` ist`true`, muss auch ein zusätzliches System zur Namensauflösung bereitgestellt werden.

**Wichtig**  
[`disable_cluster_dns`](#disable-cluster-dns-settings)= `true` wird nur unterstützt, wenn die [`queue_settings`](#queue-settings) Einstellung angegeben ist.

**Anmerkung**  
Support für [`disable_cluster_dns`](#disable-cluster-dns-settings) wurde in AWS ParallelCluster Version 2.9.1 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `disable_hyperthreading`
<a name="disable-hyperthreading"></a>

**(Optional)** Deaktiviert Hyperthreading auf den Head- und Compute-Knoten. Nicht alle Instance-Typen können Hyperthreading deaktivieren. Eine Liste der Instance-Typen, die die Deaktivierung von Hyperthreading unterstützen, finden Sie im *Amazon EC2 EC2-Benutzerhandbuch* unter [CPU-Kerne und Threads für jeden CPU-Kern für jeden Instance-Typ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values). Wenn die [`queue_settings`](#queue-settings) Einstellung definiert ist, kann entweder diese Einstellung oder die [`disable_hyperthreading`](queue-section.md#queue-disable-hyperthreading) Einstellungen in den [`[queue]`Abschnitten](queue-section.md) definiert werden.

Der Standardwert ist `false`.

```
disable_hyperthreading = true
```

**Anmerkung**  
[`disable_hyperthreading`](#disable-hyperthreading)wirkt sich nur auf den Kopfknoten aus, wenn`scheduler = awsbatch`.

**Anmerkung**  
Support für [`disable_hyperthreading`](#disable-hyperthreading) wurde in AWS ParallelCluster Version 2.5.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `ebs_settings`
<a name="ebs-settings"></a>

**(Optional)** Identifiziert die `[ebs]` Abschnitte mit den Amazon EBS-Volumes, die auf dem Hauptknoten bereitgestellt sind. Wenn Sie mehrere Amazon EBS-Volumes verwenden, geben Sie diese Parameter in eine Liste ein, wobei jeder Parameter durch ein Komma getrennt ist. Der Abschnittsname muss mit einem Buchstaben beginnen, darf nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

Bis zu fünf (5) zusätzliche Amazon EBS-Volumes werden unterstützt.

Weitere Informationen finden Sie im [`[ebs]`Abschnitt](ebs-section.md).

Die folgende Einstellung gibt beispielsweise an, dass die Abschnitte, die beginnen `[ebs custom1]` und für die Amazon EBS-Volumes verwendet `[ebs custom2]` werden, verwendet werden.

```
ebs_settings = custom1, custom2
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `ec2_iam_role`
<a name="ec2-iam-role"></a>

**(Optional)** Definiert den Namen einer vorhandenen IAM-Rolle für Amazon EC2, die allen Instances im Cluster zugeordnet ist. Ein IAM-Rollenname und sein Amazon-Ressourcenname (ARN) unterscheiden sich. ARNs kann nicht als Argument für verwendet werden. `ec2_iam_role`

Bei Angabe dieser Option wird die [`additional_iam_policies`](#additional-iam-policies)-Einstellung ignoriert. Wenn Sie beabsichtigen, den Standardeinstellungen für Clusterknoten zusätzliche Richtlinien hinzuzufügen, empfehlen wir Ihnen, die zusätzlichen benutzerdefinierten IAM-Richtlinien zusammen mit der [`additional_iam_policies`](#additional-iam-policies)Einstellung zu übergeben, anstatt die `ec2_iam_role` Einstellungen zu verwenden.

Wenn diese Option nicht angegeben ist, wird die AWS ParallelCluster Standard-IAM-Rolle für Amazon EC2 verwendet. Weitere Informationen finden Sie unter [AWS Identity and Access Management Rollen in AWS ParallelCluster](iam.md).

Es ist kein Standardwert vorhanden.

```
ec2_iam_role = ParallelClusterInstanceRole
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `efs_settings`
<a name="efs-settings"></a>

**(Optional)** Gibt Einstellungen für das Amazon EFS-Dateisystem an. Der Abschnittsname muss mit einem Buchstaben beginnen, darf nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

[Weitere Informationen finden Sie im Abschnitt. `[efs]`](efs-section.md)

Die folgende Einstellung gibt beispielsweise an, dass der Abschnitt, der beginnt, für die Amazon EFS-Dateisystemkonfiguration verwendet `[efs customfs]` wird.

```
efs_settings = customfs
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `enable_efa`
<a name="enable-efa"></a>

**(Optional)** Gibt an, dass der Elastic Fabric Adapter (EFA) für die Rechenknoten aktiviert ist, falls vorhanden. Eine Liste der EC2-Instances, die EFA unterstützen, finden Sie unter [Unterstützte Instance-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) im *Amazon EC2 EC2-Benutzerhandbuch für* Linux-Instances. Weitere Informationen finden Sie unter [Elastic Fabric Adapter](efa.md). Wenn die [`queue_settings`](#queue-settings) Einstellung definiert ist, kann entweder diese Einstellung oder die [`enable_efa`](queue-section.md#queue-enable-efa) Einstellungen im [`[queue]`Abschnitt](queue-section.md) definiert werden. Latenzen zwischen Instances sollten mithilfe einer Cluster-Placement-Gruppe minimiert werden. Weitere Informationen erhalten Sie unter [`placement`](#placement) und [`placement_group`](#placement-group).

```
enable_efa = compute
```

**Anmerkung**  
Support für EFA auf ARM-basierten Graviton2-Instances wurde in Version 2.10.1 hinzugefügt. AWS ParallelCluster 

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `enable_efa_gdr`
<a name="enable-efa-gdr"></a>

**(Optional)** Ab AWS ParallelCluster Version 2.11.3 hat diese Einstellung keine Auswirkung. Die Unterstützung des Elastic Fabric Adapter (EFA) für GPUDirect RDMA (Remote Direct Memory Access) ist immer aktiviert, wenn sie sowohl vom Instance-Typ als auch vom Betriebssystem unterstützt wird.

**Anmerkung**  
AWS ParallelCluster Version 2.10.0 bis 2.11.2: Wenn`compute`, gibt an, dass die Elastic Fabric Adapter (EFA) -Unterstützung für GPUDirect RDMA (Remote Direct Memory Access) für die Rechenknoten aktiviert ist. Um diese Einstellung auf zu setzen, `compute` muss die Einstellung auf gesetzt sein. [`enable_efa`](#enable-efa) `compute` Die EFA-Unterstützung für GPUDirect RDMA wird von bestimmten Instance-Typen (`p4d.24xlarge`) auf bestimmten Betriebssystemen ([`base_os`](#base-os)is`alinux2`, `centos7``ubuntu1804`, oder`ubuntu2004`) unterstützt. Wenn die [`queue_settings`](#queue-settings) Einstellung definiert ist, kann entweder diese Einstellung oder die [`enable_efa_gdr`](queue-section.md#queue-enable-efa-gdr) Einstellungen in den [`[queue]`Abschnitten](queue-section.md) definiert werden. Latenzen zwischen Instances sollten mithilfe einer Cluster-Placement-Gruppe minimiert werden. Weitere Informationen erhalten Sie unter [`placement`](#placement) und [`placement_group`](#placement-group).

```
enable_efa_gdr = compute
```

**Anmerkung**  
Support für `enable_efa_gdr` wurde in AWS ParallelCluster Version 2.10.0 hinzugefügt.

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_intel_hpc_platform`
<a name="enable-intel-hpc-platform"></a>

**(Optional)** Falls vorhanden, bedeutet dies, dass die [Endbenutzer-Lizenzvereinbarung](https://software.intel.com/en-us/articles/end-user-license-agreement) für Intel Parallel Studio akzeptiert wurde. Dadurch wird Intel Parallel Studio auf dem Hauptknoten installiert und von den Rechenknoten gemeinsam genutzt. Dadurch verlängert sich die Zeit, die der Hauptknoten für das Bootstrap benötigt, um mehrere Minuten. Die Einstellung [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) wird nur auf CentOS 7 ([`base_os`](#base-os)` = centos7`) unterstützt.

Der Standardwert ist `false`.

```
enable_intel_hpc_platform = true
```

**Anmerkung**  
Der [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) Parameter ist nicht mit AWS Graviton-basierten Instances kompatibel.

**Anmerkung**  
Support für [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) wurde in AWS ParallelCluster Version 2.5.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `encrypted_ephemeral`
<a name="encrypted-ephemeral"></a>

**(Optional)** Verschlüsselt die temporären Instance-Speicher-Volumes mit nicht wiederherstellbaren In-Memory-Schlüsseln mithilfe von LUKS (Linux Unified Key Setup).

Weitere Informationen finden Sie unter [https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md](https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md).

Der Standardwert ist `false`.

```
encrypted_ephemeral = true
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `ephemeral_dir`
<a name="ephemeral-dir"></a>

**(Optional)** Definiert den Pfad, in dem Instance-Speicher-Volumes bereitgestellt werden, falls sie verwendet werden.

Der Standardwert ist `/scratch`.

```
ephemeral_dir = /scratch
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `extra_json`
<a name="extra-json"></a>

**(Optional)** Definiert das zusätzliche JSON, das mit dem zusammengeführt wird Chef`dna.json`. Weitere Informationen finden Sie unter [Ein benutzerdefiniertes AWS ParallelCluster AMI erstellen](tutorials_02_ami_customization.md).

Der Standardwert ist `{}`.

```
extra_json = {}
```

**Anmerkung**  
Ab AWS ParallelCluster Version 2.6.1 werden die meisten Installationsrezepte standardmäßig beim Starten von Knoten übersprungen, um die Startzeiten zu verkürzen. Um alle Installationsrezepte für eine bessere Abwärtskompatibilität auf Kosten der Startzeiten auszuführen, fügen Sie den `cluster` Schlüssel in der Einstellung `"skip_install_recipes" : "no"` hinzu. [`extra_json`](#extra-json) Beispiel:  

```
extra_json = { "cluster" : { "skip_install_recipes" : "no" } }
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `fsx_settings`
<a name="fsx-settings"></a>

**(Optional)** Gibt den Abschnitt an, der die FSx for Lustre-Konfiguration definiert. Der Abschnittsname muss mit einem Buchstaben beginnen, darf nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

[Weitere Informationen finden Sie im Abschnitt. `[fsx]`](fsx-section.md)

Die folgende Einstellung gibt beispielsweise an, dass der Abschnitt, der beginnt, für die FSx for Lustre-Konfiguration verwendet `[fsx fs]` wird.

```
fsx_settings = fs
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `iam_lambda_role`
<a name="iam-lambda-role"></a>

**(Optional)** Definiert den Namen einer vorhandenen AWS Lambda Ausführungsrolle. Diese Rolle ist allen Lambda-Funktionen im Cluster zugewiesen. Weitere Informationen finden Sie unter [AWS Lambda -Ausführungsrolle](https://docs.aws.amazon.com/lambda/latest/dg/lambda-intro-execution-role.html) im *AWS Lambda -Entwicklerhandbuch*.

**Anmerkung**  
Ab Version 2.11.5 wird die Verwendung von SGE OR-Schedulern AWS ParallelCluster nicht unterstützt. Torque

Ein IAM-Rollenname und sein Amazon-Ressourcenname (ARN) unterscheiden sich. ARNs kann nicht als Argument für verwendet werden. `iam_lambda_role` Wenn [`ec2_iam_role`](#ec2-iam-role) sowohl als auch definiert `iam_lambda_role` sind und das [`scheduler`](#scheduler) ist `sge``slurm`, oder`torque`, dann werden keine Rollen erstellt. Ist dies der [`scheduler`](#scheduler) `awsbatch` Fall, werden währenddessen Rollen erstellt[`pcluster start`](pcluster.start.md). Richtlinien finden Sie beispielsweise unter [`ParallelClusterLambdaPolicy`mit, oder SGE Slurm Torque](iam.md#parallelcluster-lambda-policy) und[`ParallelClusterLambdaPolicy` mit `awsbatch`](iam.md#parallelcluster-lambda-policy-batch).

Es ist kein Standardwert vorhanden.

```
iam_lambda_role = ParallelClusterLambdaRole
```

**Anmerkung**  
Support für `iam_lambda_role` wurde in AWS ParallelCluster Version 2.10.1 hinzugefügt.

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `initial_queue_size`
<a name="configuration-initial-queue-size"></a>

**(Optional)** Legt die anfängliche Anzahl von Amazon EC2 EC2-Instances fest, die als Rechenknoten im Cluster gestartet werden sollen. Wenn die [`queue_settings`](#queue-settings) Einstellung definiert ist, muss diese Einstellung entfernt und durch die [`initial_count`](compute-resource-section.md#compute-resource-initial-count) Einstellungen in den [`[compute_resource]`Abschnitten](compute-resource-section.md) ersetzt werden.

**Anmerkung**  
Ab Version 2.11.5 wird die Verwendung von SGE oder Torque -Schedulern AWS ParallelCluster nicht unterstützt.

Diese Einstellung gilt nur für herkömmliche Scheduler (SGE, Slurm, und Torque). Wenn die [`maintain_initial_size`](#maintain-initial-size) Einstellung ja ist`true`, muss die [`initial_queue_size`](#configuration-initial-queue-size) Einstellung mindestens eins (1) sein.

Wenn der Scheduler `awsbatch` ist, verwenden Sie stattdessen [`min_vcpus`](#min-vcpus).

Standardeinstellung: `2`.

```
initial_queue_size = 2
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `key_name`
<a name="key-name"></a>

**(Optional) Benennt** ein vorhandenes Amazon EC2 EC2-Schlüsselpaar, mit dem der SSH-Zugriff auf die Instances aktiviert werden soll.

```
key_name = mykey
```

**Anmerkung**  
Vor AWS ParallelCluster Version 2.11.0 `key_name` war dies eine erforderliche Einstellung.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `maintain_initial_size`
<a name="maintain-initial-size"></a>

**Anmerkung**  
Ab Version 2.11.5 wird die Verwendung von oder AWS ParallelCluster -Schedulern nicht unterstützt. SGE Torque

**(Optional)** Behält die ursprüngliche Größe der Auto Scaling Scaling-Gruppe für herkömmliche Scheduler bei (SGESlurm, undTorque).

Wenn der Scheduler `awsbatch` ist, verwenden Sie stattdessen [`desired_vcpus`](#desired-vcpus).

Bei dieser Einstellung handelt es sich um ein boolesches Flag. Wenn auf gesetzt`true`, hat die Auto Scaling Scaling-Gruppe niemals weniger Mitglieder als den Wert von[`initial_queue_size`](#configuration-initial-queue-size), und der Wert von [`initial_queue_size`](#configuration-initial-queue-size) muss eins (1) oder größer sein. Der Cluster kann immer noch auf den Wert [`max_queue_size`](#configuration-max-queue-size) skaliert werden. Wenn `cluster_type = spot` dann kann es bei der Auto Scaling Scaling-Gruppe zu Unterbrechungen von Instanzen kommen und die Größe kann untergehen[`initial_queue_size`](#configuration-initial-queue-size).

Wenn auf gesetzt`false`, kann die Auto Scaling Scaling-Gruppe auf null (0) Mitglieder herunterskalieren, um zu verhindern, dass Ressourcen ungenutzt bleiben, wenn sie nicht benötigt werden.

Wenn die [`queue_settings`](#queue-settings) Einstellung definiert ist, muss diese Einstellung entfernt und durch die [`min_count`](compute-resource-section.md#compute-resource-min-count) Einstellungen [`initial_count`](compute-resource-section.md#compute-resource-initial-count) und in den [`[compute_resource]`Abschnitten](compute-resource-section.md) ersetzt werden.

Standardeinstellung: `false`.

```
maintain_initial_size = false
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `master_instance_type`
<a name="master-instance-type"></a>

**(Optional)** Definiert den Amazon EC2 EC2-Instance-Typ, der für den Head-Knoten verwendet wird. Die Architektur des Instance-Typs muss mit der Architektur übereinstimmen, die für die [`compute_instance_type`](#compute-instance-type) Einstellung verwendet wurde.

Bei AWS-Regionen denen, die über ein kostenloses Kontingent verfügen, wird standardmäßig der Instance-Typ „Kostenloses Kontingent“ (`t2.micro`oder`t3.micro`) verwendet. Falls AWS-Regionen kein kostenloses Kontingent vorhanden ist, ist standardmäßig der Wert. `t3.micro` Weitere Informationen zum AWS kostenlosen Kontingent finden Sie unter [AWS Kostenloses Kontingent FAQs](https://aws.amazon.com/free/free-tier-faqs/).

```
master_instance_type = t2.micro
```

**Anmerkung**  
Vor AWS ParallelCluster Version 2.10.1 war die Standardeinstellung in all. `t2.micro` AWS-Regionen In AWS ParallelCluster Version 2.10.0 wurde das für den `p4d.24xlarge` Hauptknoten nicht unterstützt. Support für AWS Graviton-basierte Instanzen (wie `A1` und`C6g`) wurde in AWS ParallelCluster Version 2.8.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `master_root_volume_size`
<a name="master-root-volume-size"></a>

**(Optional)** Gibt die Größe des Stammvolumens des Kopfknotens in Gibibyte (GiB) an. Das AMI muss `growroot` unterstützen.

Der Standardwert ist `35`.

**Anmerkung**  
Für AWS ParallelCluster Versionen zwischen 2.5.0 und 2.10.4 war der Standardwert 25. Vor AWS ParallelCluster Version 2.5.0 war die Standardeinstellung 20.

```
master_root_volume_size = 35
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `max_queue_size`
<a name="configuration-max-queue-size"></a>

**(Optional)** Legt die maximale Anzahl von Amazon EC2 EC2-Instances fest, die im Cluster gestartet werden können. Wenn die [`queue_settings`](#queue-settings) Einstellung definiert ist, muss diese Einstellung entfernt und durch die [`max_count`](compute-resource-section.md#compute-resource-max-count) Einstellungen in den [`[compute_resource]`Abschnitten](compute-resource-section.md) ersetzt werden.

**Anmerkung**  
Ab Version 2.11.5 wird die Verwendung von SGE oder Torque -Schedulern AWS ParallelCluster nicht unterstützt.

Diese Einstellung gilt nur für herkömmliche Scheduler (SGE, Slurm, und Torque).

Wenn der Scheduler `awsbatch` ist, verwenden Sie stattdessen [`max_vcpus`](#max-vcpus).

Standardeinstellung: `10`.

```
max_queue_size = 10
```

Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates geändert werden, aber die Rechenflotte sollte gestoppt werden, wenn der Wert reduziert wird. Andernfalls können bestehende Knoten beendet werden.

## `max_vcpus`
<a name="max-vcpus"></a>

**(Optional)** Gibt die maximale Anzahl von v CPUs in der Rechenumgebung an. Wird nur verwendet, wenn der Scheduler `awsbatch` ist.

Der Standardwert ist `20`.

```
max_vcpus = 20
```

[Aktualisierungsrichtlinie: Diese Einstellung kann während eines Updates nicht verringert werden.](using-pcluster-update.md#update-policy-no-decrease)

## `min_vcpus`
<a name="min-vcpus"></a>

**(Optional)** Behält die ursprüngliche Größe der Auto Scaling Scaling-Gruppe für den `awsbatch` Scheduler bei.

**Anmerkung**  
Ab Version 2.11.5 wird die Verwendung von SGE OR-Schedulern AWS ParallelCluster nicht unterstützt. Torque

Wenn der Scheduler SGE, Slurm oder Torque ist, verwenden Sie stattdessen [`maintain_initial_size`](#maintain-initial-size).

Die Datenverarbeitungsumgebung hat niemals weniger Mitglieder als der Wert von [`min_vcpus`](#min-vcpus).

Standardeinstellung: `0`.

```
min_vcpus = 0
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `placement`
<a name="placement"></a>

**(Optional)** Definiert die Cluster-Placement-Gruppenlogik, sodass entweder der gesamte Cluster oder nur die Compute-Instances die Cluster-Placement-Gruppe verwenden können.

Wenn die [`queue_settings`](#queue-settings) Einstellung definiert ist, sollte diese Einstellung entfernt und durch [`placement_group`](queue-section.md#queue-placement-group) Einstellungen für jeden der [`[queue]`Abschnitte](queue-section.md) ersetzt werden. Wenn dieselbe Platzierungsgruppe für verschiedene Instance-Typen verwendet wird, ist es wahrscheinlicher, dass die Anforderung aufgrund eines Fehlers mit unzureichender Kapazität fehlschlägt. Weitere Informationen finden Sie unter [Unzureichende Instance-Kapazität](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) im *Amazon EC2 EC2-Benutzerhandbuch*. Eine Platzierungsgruppe kann von mehreren Warteschlangen nur gemeinsam genutzt werden, wenn sie im Voraus erstellt und in den [`placement_group`](queue-section.md#queue-placement-group) Einstellungen für jede Warteschlange konfiguriert wurde. Wenn jeder [`[queue]`Abschnitt](queue-section.md) eine [`placement_group`](queue-section.md#queue-placement-group) Einstellung definiert, kann sich der Hauptknoten nicht in der Platzierungsgruppe für eine Warteschlange befinden.

Gültige Optionen sind `cluster` oder `compute`.

Dieser Parameter wird nicht verwendet, wenn der Scheduler verwendet wird`awsbatch`.

Der Standardwert ist `compute`.

```
placement = compute
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `placement_group`
<a name="placement-group"></a>

**(Optional)** Definiert die Cluster-Platzierungsgruppe. Wenn die [`queue_settings`](#queue-settings) Einstellung definiert ist, sollte diese Einstellung entfernt und durch die [`placement_group`](queue-section.md#queue-placement-group) Einstellungen in den [`[queue]`Abschnitten](queue-section.md) ersetzt werden.

Gültige Optionen sind die folgenden Werte:
+ `DYNAMIC`
+ Name einer vorhandenen Amazon EC2 EC2-Cluster-Platzierungsgruppe

Wenn `DYNAMIC` festgelegt ist, wird eine eindeutige Platzierungsgruppe als Teil des Cluster-Stacks erstellt und gelöscht.

Dieser Parameter wird nicht verwendet, wenn der Scheduler verwendet wird. `awsbatch`

Weitere Informationen zu Placement-Gruppen finden Sie unter [Placement-Gruppen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) im *Amazon EC2 EC2-Benutzerhandbuch*. Wenn dieselbe Platzierungsgruppe für verschiedene Instance-Typen verwendet wird, ist es wahrscheinlicher, dass die Anforderung aufgrund eines Fehlers mit unzureichender Kapazität fehlschlägt. Weitere Informationen finden Sie unter [Unzureichende Instance-Kapazität](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) im *Amazon EC2 EC2-Benutzerhandbuch*.

Es ist kein Standardwert vorhanden.

Nicht alle Instance-Typen unterstützen Cluster-Placement-Gruppen. Beispielsweise unterstützt der Standard-Instance-Typ von `t3.micro` keine Cluster-Platzierungsgruppen. Informationen zur Liste der Instance-Typen, die Cluster Placement-Gruppen unterstützen, finden Sie unter [Regeln und Einschränkungen für Cluster Placement-Gruppen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) im *Amazon EC2 EC2-Benutzerhandbuch*. Tipps zum Arbeiten mit Platzierungsgruppen finden Sie unter [Probleme bei der Platzierung von Gruppen und beim Starten von Instances](troubleshooting.md#placement-groups-and-instance-launch-issues).

```
placement_group = DYNAMIC
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `post_install`
<a name="post-install"></a>

**(Optional)** Gibt die URL eines Skripts nach der Installation an, das ausgeführt wird, nachdem alle Node-Bootstrap-Aktionen abgeschlossen sind. Weitere Informationen finden Sie unter [Benutzerdefinierte Bootstrap-Aktionen](pre_post_install.md).

Bei Verwendung `awsbatch` als Scheduler wird das Post-Installationsskript nur auf dem Hauptknoten ausgeführt.

Das Parameterformat kann entweder „`http://hostname/path/to/script.sh`“ oder „`s3://bucket-name/path/to/script.sh`“ sein.

Es ist kein Standardwert vorhanden.

```
post_install = s3://<bucket-name>/my-post-install-script.sh
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `post_install_args`
<a name="post-install-args"></a>

**(Optional)** Gibt eine Liste von Argumenten in Anführungszeichen an, die an das Post-Installationsskript übergeben werden sollen.

Es ist kein Standardwert vorhanden.

```
post_install_args = "argument-1 argument-2"
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install`
<a name="pre-install"></a>

**(Optional)** Gibt die URL eines Vorinstallationsskripts an, das ausgeführt wird, bevor eine Bootstrap-Aktion für die Knotenbereitstellung gestartet wird. Weitere Informationen finden Sie unter [Benutzerdefinierte Bootstrap-Aktionen](pre_post_install.md).

Bei Verwendung `awsbatch` als Scheduler wird das Vorinstallationsskript nur auf dem Hauptknoten ausgeführt.

Das Parameterformat kann entweder „`http://hostname/path/to/script.sh`“ oder „`s3://bucket-name/path/to/script.sh`“ sein.

Es ist kein Standardwert vorhanden.

```
pre_install = s3://bucket-name/my-pre-install-script.sh
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install_args`
<a name="pre-install-args"></a>

**(Optional)** Gibt eine Liste von Argumenten in Anführungszeichen an, die an das Vorinstallationsskript übergeben werden sollen.

Es ist kein Standardwert vorhanden.

```
pre_install_args = "argument-3 argument-4"
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `proxy_server`
<a name="proxy-server"></a>

**(Optional)** Definiert normalerweise `http://x.x.x.x:8080` einen HTTP- oder HTTPS-Proxyserver.

Es ist kein Standardwert vorhanden.

```
proxy_server = http://10.11.12.13:8080
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `queue_settings`
<a name="queue-settings"></a>

**(Optional)** Gibt an, dass der Cluster Warteschlangen anstelle einer homogenen Rechenflotte verwendet, und gibt an, welche [`[queue]`Abschnitte](queue-section.md) verwendet werden. Der erste aufgeführte [`[queue]`Abschnitt](queue-section.md) ist die Standard-Scheduler-Warteschlange. Die `queue` Abschnittsnamen müssen mit einem Kleinbuchstaben beginnen, dürfen nicht mehr als 30 Zeichen enthalten und dürfen nur Kleinbuchstaben, Zahlen und Bindestriche (-) enthalten.

**Wichtig**  
[`queue_settings`](#queue-settings)wird nur unterstützt, wenn [`scheduler`](#scheduler) auf gesetzt ist. `slurm` Die [`spot_price`](#spot-price) Einstellungen [`cluster_type`](#cluster-type) [`compute_instance_type`](#compute-instance-type)[`initial_queue_size`](#configuration-initial-queue-size),[`maintain_initial_size`](#maintain-initial-size),[`max_queue_size`](#configuration-max-queue-size),[`placement`](#placement),[`placement_group`](#placement-group), und dürfen nicht angegeben werden. Die [`enable_efa`](#enable-efa) Einstellungen [`disable_hyperthreading`](#disable-hyperthreading) und können entweder im [`[cluster]`Abschnitt](#cluster-definition) oder in den [`[queue]`Abschnitten](queue-section.md) angegeben werden, jedoch nicht in beiden.

Es werden bis zu fünf (5) [`[queue]`Abschnitte](queue-section.md) unterstützt.

Weitere Informationen finden Sie im [`[queue]`Abschnitt](queue-section.md).

Die folgende Einstellung gibt beispielsweise an, dass die Abschnitte beginnen `[queue q1]` und verwendet `[queue q2]` werden.

```
queue_settings = q1, q2
```

**Anmerkung**  
Support für [`queue_settings`](#queue-settings) wurde in AWS ParallelCluster Version 2.9.0 hinzugefügt.

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `raid_settings`
<a name="raid-settings"></a>

**(Optional)** Identifiziert den `[raid]` Abschnitt mit der Amazon EBS-Volume-RAID-Konfiguration. Der Abschnittsname muss mit einem Buchstaben beginnen, darf nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

[Weitere Informationen finden Sie im Abschnitt. `[raid]`](raid-section.md)

Die folgende Einstellung gibt beispielsweise an, dass der Abschnitt, der beginnt, für die Auto Scaling Scaling-Konfiguration verwendet `[raid rs]` wird.

```
raid_settings = rs
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `s3_read_resource`
<a name="s3-read-resource"></a>

**(Optional)** Gibt eine Amazon S3 S3-Ressource an, auf die AWS ParallelCluster Knoten nur Lesezugriff erhalten.

`arn:aws:s3:::my_corporate_bucket*`Bietet beispielsweise schreibgeschützten Zugriff auf den *my\$1corporate\$1bucket* Bucket und die Objekte im Bucket.

Einzelheiten zum Format finden Sie unter [Arbeiten mit Amazon S3](s3_resources.md).

Es ist kein Standardwert vorhanden.

```
s3_read_resource = arn:aws:s3:::my_corporate_bucket*
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `s3_read_write_resource`
<a name="s3-read-write-resource"></a>

**(Optional)** Gibt eine Amazon S3 S3-Ressource an, read/write auf die AWS ParallelCluster Knoten Zugriff erhalten.

`arn:aws:s3:::my_corporate_bucket/Development/*`Bietet beispielsweise read/write Zugriff auf alle Objekte im `Development` Ordner des *my\$1corporate\$1bucket* Buckets.

Einzelheiten zum Format finden Sie unter [Arbeiten mit Amazon S3](s3_resources.md).

Es ist kein Standardwert vorhanden.

```
s3_read_write_resource = arn:aws:s3:::my_corporate_bucket/*
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `scaling_settings`
<a name="scaling-settings"></a>

Identifiziert den `[scaling]` Abschnitt mit der Auto Scaling Scaling-Konfiguration. Der Abschnittsname muss mit einem Buchstaben beginnen, darf nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

[Weitere Informationen finden Sie im Abschnitt. `[scaling]`](scaling-section.md)

Die folgende Einstellung gibt beispielsweise an, dass der Abschnitt, der beginnt, für die Auto Scaling Scaling-Konfiguration verwendet `[scaling custom]` wird.

```
scaling_settings = custom
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `scheduler`
<a name="scheduler"></a>

**(Erforderlich)** Definiert den Cluster-Scheduler.

Gültige Optionen sind die folgenden Werte:

`awsbatch`  
AWS Batch  
Weitere Informationen zum `awsbatch` Scheduler finden Sie unter [Netzwerk-Setup](networking.md#awsbatch-networking) und[AWS Batch (`awsbatch`)](awsbatchcli.md).

`sge`  
Ab Version 2.11.5 wird die Verwendung von SGE OR-Schedulern AWS ParallelCluster nicht unterstützt. Torque
Son of Grid Engine (SGE)

`slurm`  
Slurm Workload Manager (Slurm)

`torque`  
Ab Version 2.11.5 wird die Verwendung von AWS ParallelCluster OR-Schedulern nicht unterstützt. SGE Torque
Torque Resource Manager (Torque)

**Anmerkung**  
Vor AWS ParallelCluster Version 2.7.0 war der `scheduler` Parameter optional, und die Standardeinstellung war. `sge` Ab AWS ParallelCluster Version 2.7.0 ist der `scheduler` Parameter erforderlich.

```
scheduler = slurm
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="cluster-shared-dir"></a>

**(Optional)** Definiert den Pfad, in dem das gemeinsam genutzte Amazon EBS-Volume bereitgestellt wird.

Verwenden Sie diese Option nicht mit mehreren Amazon EBS-Volumes. Geben Sie stattdessen [`shared_dir`](#cluster-shared-dir) Werte in jedem [`[ebs]`Abschnitt](ebs-section.md) an.

Einzelheiten zur Arbeit mit mehreren Amazon EBS-Volumes finden Sie im [`[ebs]`Abschnitt](ebs-section.md).

Der Standardwert ist `/shared`.

Das folgende Beispiel zeigt ein gemeinsam genutztes Amazon EBS-Volume, das unter `/myshared` gemountet ist.

```
shared_dir = myshared
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `spot_bid_percentage`
<a name="spot-bid-percentage"></a>

**(Optional)** Legt den On-Demand-Prozentsatz fest, der zur Berechnung des maximalen Spot-Preises für den ComputeFleet Terminplaner verwendet `awsbatch` wird.

Wenn Sie diesen Parameter nicht angeben, wird der aktuelle Spot-Marktpreis ausgewählt, dessen Obergrenze der On-Demand-Preis ist.

```
spot_bid_percentage = 85
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `spot_price`
<a name="spot-price"></a>

**Anmerkung**  
Ab Version 2.11.5 wird die Verwendung von SGE OR-Schedulern AWS ParallelCluster nicht unterstützt. Torque

**(Optional)** Legt den maximalen Spot-Preis für herkömmliche Scheduler (SGE, Slurm und) fest. ComputeFleet Torque Wird nur verwendet, wenn die [`cluster_type`](#cluster-type)-Einstellung auf „`spot`“ festgelegt ist. Wenn Sie keinen Wert angeben, wird Ihnen der Spot-Preis berechnet, der auf den On-Demand-Preis begrenzt ist. Wenn die [`queue_settings`](#queue-settings) Einstellung definiert ist, muss diese Einstellung entfernt und durch die [`spot_price`](compute-resource-section.md#compute-resource-spot-price) Einstellungen in den [`[compute_resource]`Abschnitten](compute-resource-section.md) ersetzt werden.

Wenn der Scheduler `awsbatch` ist, verwenden Sie stattdessen [spot\$1bid\$1percentage](#spot-bid-percentage).

Hilfe bei der Suche nach einer Spot-Instance, die Ihren Anforderungen entspricht, finden Sie im [Spot-Instance-Berater](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

**Anmerkung**  
In AWS ParallelCluster Version 2.5.0 wird `cluster_type = spot` die [`spot_price`](#spot-price) Instance ohne Angabe des Fehlers gestartet ComputeFleet . Dies wurde in AWS ParallelCluster Version 2.5.1 behoben.

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `tags`
<a name="tags"></a>

**(Optional)** Definiert Tags, von CloudFormation denen verwendet werden soll.

Wenn Befehlszeilen-Tags über *--tags* angegeben sind, werden diese mit config-Tags zusammengeführt.

Befehlszeilen-Tags überschreiben config-Tags, die denselben Schlüssel haben.

Tags sind im JSON-Format. Verwenden Sie keine Anführungszeichen außerhalb der geschweiften Klammern.

Weitere Informationen finden Sie unter [Typ von CloudFormation Ressourcen-Tags](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) im *AWS CloudFormation Benutzerhandbuch*.

```
tags = {"key" : "value", "key2" : "value2"}
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

**Anmerkung**  
Die Aktualisierungsrichtlinie unterstützte nicht das Ändern der `tags` Einstellung für AWS ParallelCluster Version 2.8.0 bis Version 2.9.1.  
Für die Versionen 2.10.0 bis Version 2.11.7 ist die aufgeführte Aktualisierungsrichtlinie, die das Ändern der `tags` Einstellung unterstützt hat, nicht korrekt. Ein Cluster-Update beim Ändern dieser Einstellung wird nicht unterstützt.

## `template_url`
<a name="template-url"></a>

**(Optional)** Definiert den Pfad zu der AWS CloudFormation Vorlage, die zur Erstellung des Clusters verwendet wird.

Updates verwenden die Vorlage, anhand der der Stack ursprünglich erstellt wurde.

Standardeinstellung: `https://aws_region_name-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version.cfn.json`.

**Warnung**  
Dies ist ein erweiterter Parameter. Jede Änderung dieser Einstellung erfolgt auf eigenes Risiko.

```
template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json
```

[Aktualisierungsrichtlinie: Diese Einstellung wird während eines Updates nicht analysiert.](using-pcluster-update.md#update-policy-setting-ignored)

## `vpc_settings`
<a name="vpc-settings"></a>

**(Erforderlich)** Identifiziert den `[vpc]` Abschnitt mit der Amazon VPC-Konfiguration, in dem der Cluster bereitgestellt wird. Der Abschnittsname muss mit einem Buchstaben beginnen, darf nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

[Weitere Informationen finden Sie im Abschnitt. `[vpc]`](vpc-section.md)

Die folgende Einstellung gibt beispielsweise an, dass der Abschnitt, der beginnt, für die Amazon VPC-Konfiguration verwendet `[vpc public]` wird.

```
vpc_settings = public
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

# `[compute_resource]` Abschnitt
<a name="compute-resource-section"></a>

Definiert Konfigurationseinstellungen für eine Rechenressource. [`[compute_resource]`Abschnitte](#compute-resource-section) werden durch die [`compute_resource_settings`](queue-section.md#queue-compute-resource-settings) Einstellung im [`[queue]`Abschnitt](queue-section.md) referenziert. [`[compute_resource]`Abschnitte](#compute-resource-section) werden nur unterstützt, wenn auf gesetzt [`scheduler`](cluster-definition.md#scheduler) ist`slurm`.

Das Format ist`[compute_resource <compute-resource-name>]`. *compute-resource-name*muss mit einem Buchstaben beginnen, nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

```
[compute_resource cr1]
instance_type = c5.xlarge
min_count = 0
initial_count = 2
max_count = 10
spot_price = 0.5
```

**Anmerkung**  
Support für den [`[compute_resource]`Abschnitt](#compute-resource-section) wurde in AWS ParallelCluster Version 2.9.0 hinzugefügt.

**Topics**
+ [`initial_count`](#compute-resource-initial-count)
+ [`instance_type`](#compute-resource-instance-type)
+ [`max_count`](#compute-resource-max-count)
+ [`min_count`](#compute-resource-min-count)
+ [`spot_price`](#compute-resource-spot-price)

## `initial_count`
<a name="compute-resource-initial-count"></a>

**(Optional)** Legt die anfängliche Anzahl von EC2 Amazon-Instances fest, die für diese Rechenressource gestartet werden sollen. Die Clustererstellung ist erst abgeschlossen, wenn mindestens so viele Knoten in die Rechenressource gestartet wurden. Wenn die [`compute_type`](queue-section.md#queue-compute-type) Einstellung für die Warteschlange lautet `spot` und nicht genügend Spot-Instances verfügbar sind, kann es bei der Clustererstellung zu einem Timeout kommen und ein Fehler auftreten. Jede Anzahl, die größer als die [`min_count`](#compute-resource-min-count) Einstellung ist, ist abhängig von der [`scaledown_idletime`](scaling-section.md#scaledown-idletime) Einstellung dynamische Kapazität. Diese Einstellung ersetzt die [`initial_queue_size`](cluster-definition.md#configuration-initial-queue-size)-Einstellung.

Standardeinstellung: `0`.

```
initial_count = 2
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `instance_type`
<a name="compute-resource-instance-type"></a>

**(Erforderlich)** Definiert den EC2 Amazon-Instance-Typ, der für diese Rechenressource verwendet wird. Die Architektur des Instance-Typs muss mit der Architektur übereinstimmen, die für die [`master_instance_type`](cluster-definition.md#master-instance-type) Einstellung verwendet wurde. Die `instance_type` Einstellung muss für jeden [`[compute_resource]`Abschnitt, auf den ein [`[queue]`Abschnitt](queue-section.md)](#compute-resource-section) verweist, eindeutig sein. Diese Einstellung ersetzt die [`compute_instance_type`](cluster-definition.md#compute-instance-type)-Einstellung.

```
instance_type = t2.micro
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `max_count`
<a name="compute-resource-max-count"></a>

**(Optional)** Legt die maximale Anzahl von EC2 Amazon-Instances fest, die in dieser Rechenressource gestartet werden können. Jede Anzahl, die größer als die [`initial_count`](#compute-resource-initial-count) Einstellung ist, wird im Abschaltmodus gestartet. Diese Einstellung ersetzt die [`max_queue_size`](cluster-definition.md#configuration-max-queue-size)-Einstellung.

Standardeinstellung: `10`.

```
max_count = 10
```

[Richtlinie aktualisieren: Um die Größe einer Warteschlange unter die aktuelle Anzahl von Knoten zu reduzieren, muss zuerst die Rechenflotte gestoppt werden.](using-pcluster-update.md#update-policy-max-count)

**Anmerkung**  
Die Aktualisierungsrichtlinie unterstützte das Ändern der `max_count` Einstellung erst, wenn die Rechenflotte für AWS ParallelCluster Version 2.0.0 bis Version 2.9.1 gestoppt wurde.

## `min_count`
<a name="compute-resource-min-count"></a>

**(Optional)** Legt die Mindestanzahl von EC2 Amazon-Instances fest, die in dieser Rechenressource gestartet werden können. Bei diesen Knoten handelt es sich allesamt um statische Kapazitäten. Die Clustererstellung ist erst abgeschlossen, wenn mindestens diese Anzahl von Knoten in die Rechenressource gestartet wurde.

Standardeinstellung: `0`.

```
min_count = 1
```

[Richtlinie aktualisieren: Um die Anzahl der statischen Knoten in einer Warteschlange zu reduzieren, muss zuerst die Rechenflotte gestoppt werden.](using-pcluster-update.md#update-policy-min-count)

**Anmerkung**  
Die Aktualisierungsrichtlinie unterstützte das Ändern der `min_count` Einstellung erst, wenn die Rechenflotte für die AWS ParallelCluster Versionen 2.0.0 bis 2.9.1 gestoppt wurde.

## `spot_price`
<a name="compute-resource-spot-price"></a>

**(Optional)** Legt den maximalen Spot-Preis für diese Rechenressource fest. Wird nur verwendet, wenn die [`compute_type`](queue-section.md#queue-compute-type) Einstellung für die Warteschlange, die diese Rechenressourcen enthält, auf gesetzt ist`spot`. Diese Einstellung ersetzt die [`spot_price`](cluster-definition.md#spot-price)-Einstellung.

Wenn Sie keinen Wert angeben, wird Ihnen der Spot-Preis berechnet, der auf den On-Demand-Preis begrenzt ist.

Hilfe bei der Suche nach einer Spot-Instance, die Ihren Anforderungen entspricht, finden Sie im [Spot-Instance-Berater](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

# `[cw_log]` Abschnitt
<a name="cw-log-section"></a>

Definiert die Konfigurationseinstellungen für CloudWatch Logs.

Das Format ist`[cw_log cw-log-name]`. *cw-log-name*muss mit einem Buchstaben beginnen, nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

```
[cw_log custom-cw-log]
enable = true
retention_days = 14
```

Weitere Informationen finden Sie unter [Integration mit Amazon CloudWatch Logs](cloudwatch-logs.md), [CloudWatch Amazon-Dashboard](cloudwatch-dashboard.md) und [Integration mit Amazon CloudWatch Logs](cloudwatch-logs.md).

**Anmerkung**  
Support für `cw_log` wurde in AWS ParallelCluster Version 2.6.0 hinzugefügt.

## `enable`
<a name="cw-log-section-enable"></a>

 **(Optional)** Gibt an, ob CloudWatch Logs aktiviert ist.

Der Standardwert ist `true`. Wird verwendet`false`, um CloudWatch Logs zu deaktivieren.

Das folgende Beispiel aktiviert CloudWatch Logs.

```
enable = true
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `retention_days`
<a name="cw-log-section-retention-days"></a>

 **(Optional)** Gibt an, wie viele Tage CloudWatch Logs einzelne Protokollereignisse aufbewahrt.

Der Standardwert ist `14`. Die unterstützten Werte lauten 1, 3, 5, 7, 14, 30, 60, 90, 120, 150, 180, 365, 400, 545, 731, 1827 und 3653.

Im folgenden Beispiel wird CloudWatch Logs so konfiguriert, dass Protokollereignisse 30 Tage lang aufbewahrt werden.

```
retention_days = 30
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

# `[dashboard]` Abschnitt
<a name="dashboard-section"></a>

Definiert die Konfigurationseinstellungen für das CloudWatch Dashboard.

Das Format ist`[dashboard dashboard-name]`. *dashboard-name*muss mit einem Buchstaben beginnen, nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

```
[dashboard custom-dashboard]
enable = true
```

**Anmerkung**  
Support für `dashboard` wurde in AWS ParallelCluster Version 2.10.0 hinzugefügt.

## `enable`
<a name="dashboard-section-enable"></a>

 **(Optional)** Gibt an, ob das CloudWatch Dashboard aktiviert ist.

Der Standardwert ist `true`. Wird verwendet`false`, um das CloudWatch Dashboard zu deaktivieren.

Das folgende Beispiel aktiviert das CloudWatch Dashboard.

```
enable = true
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

# `[dcv]` Abschnitt
<a name="dcv-section"></a>

Definiert die Konfigurationseinstellungen für den Amazon DCV-Server, der auf dem Hauptknoten ausgeführt wird.

Um einen Amazon DCV-Server zu erstellen und zu konfigurieren, geben Sie den Cluster [`dcv_settings`](cluster-definition.md#dcv-settings) mit dem Namen an, den Sie im `dcv` Abschnitt definiert haben, und setzen Sie [`enable`](#dcv-section-enable) auf`master`, und [`base_os`](cluster-definition.md#base-os) auf `alinux2``centos7`, `ubuntu1804` oder`ubuntu2004`. Wenn der Hauptknoten eine ARM-Instance ist, legen Sie ihn [`base_os`](cluster-definition.md#base-os) auf `alinux2``centos7`, oder `ubuntu1804` fest.

Das Format ist`[dcv dcv-name]`. *dcv-name*muss mit einem Buchstaben beginnen, nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

```
[dcv custom-dcv]
enable = master
port = 8443
access_from = 0.0.0.0/0
```

Weitere Informationen finden Sie unter [Stellen Sie über Amazon DCV eine Connect zum Hauptknoten her](dcv.md).

**Wichtig**  
Standardmäßig AWS ParallelCluster ist der Amazon DCV-Port, der eingerichtet wurde, für alle IPv4 Adressen geöffnet. Sie können jedoch nur dann eine Verbindung zu einem Amazon DCV-Port herstellen, wenn Sie die URL für die Amazon DCV-Sitzung haben und sich innerhalb von 30 Sekunden nach Rückgabe der URL mit der Amazon DCV-Sitzung verbinden. `pcluster dcv connect` Verwenden Sie die [`access_from`](#dcv-section-access-from) Einstellung, um den Zugriff auf den Amazon DCV-Port mit einem CIDR-formatierten IP-Bereich weiter einzuschränken, und verwenden Sie die [`port`](#dcv-section-port) Einstellung, um einen nicht standardmäßigen Port festzulegen.

**Anmerkung**  
Die Support für den [`[dcv]`Abschnitt](#dcv-section) on `centos8` wurde in AWS ParallelCluster Version 2.10.4 entfernt. Support für den [`[dcv]`Abschnitt](#dcv-section) on `centos8` wurde in AWS ParallelCluster Version 2.10.0 hinzugefügt. Support für den [`[dcv]`Abschnitt](#dcv-section) über AWS Graviton-basierte Instanzen wurde in AWS ParallelCluster Version 2.9.0 hinzugefügt. Support für den [`[dcv]`Abschnitt](#dcv-section) über `alinux2` und `ubuntu1804` wurde in AWS ParallelCluster Version 2.6.0 hinzugefügt. Support für den [`[dcv]`Abschnitt](#dcv-section) on `centos7` wurde in AWS ParallelCluster Version 2.5.0 hinzugefügt.

## `access_from`
<a name="dcv-section-access-from"></a>

 **(Optional, empfohlen)** Gibt den CIDR-formatierten IP-Bereich für Verbindungen zu Amazon DCV an. Diese Einstellung wird nur bei der Erstellung AWS ParallelCluster der Sicherheitsgruppe verwendet.

Der Standardwert ist `0.0.0.0/0` und ermöglicht den Zugriff von jeder beliebigen Internetadresse.

```
access_from = 0.0.0.0/0
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `enable`
<a name="dcv-section-enable"></a>

 **(Erforderlich)** Gibt an, ob Amazon DCV auf dem Hauptknoten aktiviert ist. Um Amazon DCV auf dem Hauptknoten zu aktivieren und die erforderliche Sicherheitsgruppenregel zu konfigurieren, setzen Sie die `enable` Einstellung auf`master`.

Das folgende Beispiel aktiviert Amazon DCV auf dem Hauptknoten.

```
enable = master
```

**Anmerkung**  
Amazon DCV generiert automatisch ein selbstsigniertes Zertifikat, das zur Sicherung des Datenverkehrs zwischen dem Amazon DCV-Client und dem Amazon DCV-Server verwendet wird, der auf dem Hauptknoten ausgeführt wird. Informationen zum Konfigurieren Ihres eigenen Zertifikats finden Sie unter [Amazon DCV HTTPS-Zertifikat](dcv.md#dcv-certificate).

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `port`
<a name="dcv-section-port"></a>

 **(Optional)** Gibt den Port für Amazon DCV an.

Der Standardwert ist `8443`.

```
port = 8443
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

# `[ebs]` Abschnitt
<a name="ebs-section"></a>

Definiert Amazon EBS-Volume-Konfigurationseinstellungen für Volumes, die auf dem Hauptknoten bereitgestellt und über NFS für die Rechenknoten gemeinsam genutzt werden.

Informationen darüber, wie Sie Amazon EBS-Volumes in Ihre Cluster-Definition aufnehmen können, finden Sie unter``[cluster]` Abschnitt`/``ebs_settings``.

Um ein vorhandenes Amazon EBS-Volume für dauerhaften Langzeitspeicher zu verwenden, der unabhängig vom Cluster-Lebenszyklus ist, geben Sie an[`ebs_volume_id`](#ebs-volume-id).

Wenn Sie keine Angabe machen[`ebs_volume_id`](#ebs-volume-id), AWS ParallelCluster erstellt das EBS-Volume anhand der `[ebs]` Einstellungen beim Erstellen des Clusters und löscht das Volume und die Daten, wenn der Cluster gelöscht wird.

Weitere Informationen finden Sie unter [Bewährte Methoden: Umstellung eines Clusters auf eine neue AWS ParallelCluster Minor- oder Patch-Version](best-practices.md#best-practices-cluster-upgrades).

Das Format ist. `[ebs ebs-name]` *ebs-name*muss mit einem Buchstaben beginnen, nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

```
[ebs custom1]
shared_dir = vol1
ebs_snapshot_id = snap-xxxxx
volume_type = io1
volume_iops = 200
...

[ebs custom2]
shared_dir = vol2
...

...
```

**Topics**
+ [`shared_dir`](#ebs-shared-dir)
+ [`ebs_kms_key_id`](#ebs-kms-key-id)
+ [`ebs_snapshot_id`](#ebs-snapshot-id)
+ [`ebs_volume_id`](#ebs-volume-id)
+ [`encrypted`](#encrypted)
+ [`volume_iops`](#volume-iops)
+ [`volume_size`](#volume-size)
+ [`volume_throughput`](#volume-throughput)
+ [`volume_type`](#volume-type)

## `shared_dir`
<a name="ebs-shared-dir"></a>

**(Erforderlich)** Gibt den Pfad an, in dem das gemeinsam genutzte Amazon EBS-Volume bereitgestellt wird.

Dieser Parameter ist erforderlich, wenn Sie mehrere Amazon EBS-Volumes verwenden.

[Wenn Sie ein Amazon EBS-Volume verwenden, überschreibt diese Option das Volume[`shared_dir`](cluster-definition.md#cluster-shared-dir), das `[cluster]` im Abschnitt angegeben ist.](cluster-definition.md) Im folgenden Beispiel wird das Volume auf `/vol1` gemountet.

```
shared_dir = vol1
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="ebs-kms-key-id"></a>

**(Optional)** Gibt einen benutzerdefinierten AWS KMS Schlüssel an, der für die Verschlüsselung verwendet werden soll.

Dieser Parameter muss in Verbindung mit `encrypted = true` verwendet werden. Darüber hinaus muss er über eine benutzerdefinierte [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) verfügen.

Weitere Informationen finden Sie unter [Festplattenverschlüsselung mit einem benutzerdefinierten KMS-Schlüssel](tutorials_04_encrypted_kms_fs.md).

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `ebs_snapshot_id`
<a name="ebs-snapshot-id"></a>

**(Optional)** Definiert die Amazon EBS-Snapshot-ID, wenn Sie einen Snapshot als Quelle für das Volume verwenden.

Es ist kein Standardwert vorhanden.

```
ebs_snapshot_id = snap-xxxxx
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `ebs_volume_id`
<a name="ebs-volume-id"></a>

**(Optional)** Definiert die Volume-ID eines vorhandenen Amazon EBS-Volumes, das an den Hauptknoten angehängt werden soll.

Es ist kein Standardwert vorhanden.

```
ebs_volume_id = vol-xxxxxx
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="encrypted"></a>

**(Optional)** Gibt an, ob das Amazon EBS-Volume verschlüsselt ist. Hinweis: *Nicht* mit Snapshots verwenden.

Der Standardwert ist `false`.

```
encrypted = false
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="volume-iops"></a>

**(Optional)** Definiert die Anzahl der IOPS für Volumes `gp3` vom Typ `io1``io2`, und.

Der Standardwert, die unterstützten Werte und `volume_iops` das `volume_size` Zu-Verhältnis variieren je nach [`volume_type`](raid-section.md#raid-volume-type) und[`volume_size`](#volume-size).

`volume_type` = `io1`  
Standard `volume_iops` = 100  
Unterstützte Werte `volume_iops` = 100—64000 †  
Maximales `volume_iops` `volume_size` Verhältnis = 50 IOPS für jedes GiB. 5000 IOPS erfordern einen Wert `volume_size` von mindestens 100 GiB.

`volume_type` = `io2`  
Standard `volume_iops` = 100  
Unterstützte Werte `volume_iops` = 100—64000 (256000 für `io2` Block Express-Volumes) †  
Maximales `volume_iops` `volume_size` Verhältnis = 500 IOPS für jedes GiB. 5000 IOPS erfordern einen Wert `volume_size` von mindestens 10 GiB.

`volume_type` = `gp3`  
Standard `volume_iops` = 3000  
Unterstützte Werte `volume_iops` = 3000—16000  
Maximales `volume_iops` `volume_size` Verhältnis = 500 IOPS für jedes GiB. 5000 IOPS erfordern einen Wert `volume_size` von mindestens 10 GiB.

```
volume_iops = 200
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

† Maximale IOPS wird nur für [Instances garantiert, die auf dem Nitro-System basieren](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) und mit mehr als 32.000 IOPS ausgestattet sind. Andere Instanzen garantieren bis zu 32.000 IOPS. Wenn Sie [das Volume nicht ändern](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html), erreichen frühere `io1` Volumes möglicherweise nicht die volle Leistung. `io2` Block Express-Volumes unterstützen `volume_iops` Werte bis zu 256.000. Weitere Informationen finden Sie unter [`io2`Block Express-Volumen (in der Vorschauversion)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) im * EC2 Amazon-Benutzerhandbuch*.

## `volume_size`
<a name="volume-size"></a>

**(Optional)** Gibt die Größe des zu erstellenden Volumes in GiB an (wenn Sie keinen Snapshot verwenden).

Der Standardwert und die unterstützten Werte variieren je nach[`volume_type`](#volume-type).

`volume_type` = `standard`  
Standard `volume_size` = 20 GiB  
Unterstützte Werte `volume_size` = 1—1024 GiB

`volume_type`=`gp2`, `io1``io2`, und `gp3`  
Standard `volume_size` = 20 GiB  
Unterstützte Werte `volume_size` = 1—16384 GiB

`volume_type`= und `sc1` `st1`  
Standard `volume_size` = 500 GiB  
Unterstützte Werte `volume_size` = 500—16384 GiB

```
volume_size = 20
```

**Anmerkung**  
Vor AWS ParallelCluster Version 2.10.1 war der Standardwert für alle Volumetypen 20 GiB.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="volume-throughput"></a>

**(Optional)** Definiert den Durchsatz für `gp3` Volumetypen in MiB/s.

Der Standardwert ist `125`.

Unterstützte Werte `volume_throughput` = 125—1000 MiB/s

Das Verhältnis von `volume_throughput` zu `volume_iops` darf nicht mehr als 0,25 betragen. Der maximale Durchsatz von 1000 MiB/s setzt voraus, dass die `volume_iops` Einstellung mindestens 4000 beträgt.

```
volume_throughput = 1000
```

**Anmerkung**  
Support für `volume_throughput` wurde in AWS ParallelCluster Version 2.10.1 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="volume-type"></a>

**(Optional)** Gibt den [Amazon EBS-Volumetyp](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) des Volumes an, das Sie starten möchten.

Gültige Optionen sind die folgenden Volumetypen:

`gp2`, `gp3`  
Allzweck-SSD

`io1`, `io2`  
Provisioned IOPS SSD

`st1`  
Durchsatzoptimierte HDD

`sc1`  
Cold HDD

`standard`  
Magnetisch der vorherigen Generation

Weitere Informationen finden Sie unter [Amazon EBS-Volumetypen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) im * EC2 Amazon-Benutzerhandbuch*.

Der Standardwert ist `gp2`.

```
volume_type = io2
```

**Anmerkung**  
Support für `gp3` und `io2` wurde in AWS ParallelCluster Version 2.10.1 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

# `[efs]` Abschnitt
<a name="efs-section"></a>

Definiert die Konfigurationseinstellungen für das Amazon EFS, das auf den Kopf- und Rechenknoten installiert ist. Weitere Informationen finden Sie [CreateFileSystem](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html)in der *Amazon EFS API-Referenz*.

Informationen zum Einbeziehen von Amazon EFS-Dateisystemen in Ihre Cluster-Definition finden Sie unter``[cluster]` Abschnitt`/``efs_settings``.

Um ein vorhandenes Amazon EFS-Dateisystem für dauerhaften Langzeitspeicher zu verwenden, der unabhängig vom Cluster-Lebenszyklus ist, geben Sie an[`efs_fs_id`](#efs-efs-fs-id).

Wenn Sie nichts angeben[`efs_fs_id`](#efs-efs-fs-id), AWS ParallelCluster erstellt das Amazon EFS-Dateisystem anhand der `[efs]` Einstellungen beim Erstellen des Clusters und löscht das Dateisystem und die Daten, wenn der Cluster gelöscht wird.

Weitere Informationen finden Sie unter [Bewährte Methoden: Umstellung eines Clusters auf eine neue AWS ParallelCluster Minor- oder Patch-Version](best-practices.md#best-practices-cluster-upgrades).

Das Format ist`[efs efs-name]`. *efs-name*muss mit einem Buchstaben beginnen, nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

```
[efs customfs]
shared_dir = efs
encrypted = false
performance_mode = generalPurpose
```

**Topics**
+ [`efs_fs_id`](#efs-efs-fs-id)
+ [`efs_kms_key_id`](#efs-efs-kms-key-id)
+ [`encrypted`](#efs-encrypted)
+ [`performance_mode`](#efs-performance-mode)
+ [`provisioned_throughput`](#efs-provisioned-throughput)
+ [`shared_dir`](#efs-shared-dir)
+ [`throughput_mode`](#efs-throughput-mode)

## `efs_fs_id`
<a name="efs-efs-fs-id"></a>

**(Optional)** Definiert die Amazon EFS-Dateisystem-ID für ein vorhandenes Dateisystem.

Wenn Sie diese Option angeben, werden alle anderen Amazon EFS-Optionen außer für [`shared_dir`](cluster-definition.md#cluster-shared-dir) ungültig erklärt.

Wenn Sie diese Option festlegen, unterstützt sie nur die folgenden Arten von Dateisystemen:
+ Dateisysteme, die kein Mount-Ziel in der Availability Zone des Stacks haben.
+ Dateisysteme, die über ein vorhandenes Mount-Ziel in der Availability Zone des Stacks verfügen, von dem sowohl eingehender als auch ausgehender NFS-Verkehr zugelassen ist. `0.0.0.0/0`

Die Integritätsprüfung für die Validierung von [`efs_fs_id`](#efs-efs-fs-id) erfordert, dass die IAM-Rolle über die folgenden Berechtigungen verfügt:
+ `elasticfilesystem:DescribeMountTargets`
+ `elasticfilesystem:DescribeMountTargetSecurityGroups`
+ `ec2:DescribeSubnets`
+ `ec2:DescribeSecurityGroups`
+ `ec2:DescribeNetworkInterfaceAttribute`

Fügen Sie diese Berechtigungen Ihrer IAM-Rolle hinzu oder legen Sie `sanity_check = false` fest, um Fehler zu vermeiden.

**Wichtig**  
Wenn Sie ein Mount-Ziel festlegen, von dem ein- und ausgehender NFS-Verkehr zugelassen ist`0.0.0.0/0`, wird das Dateisystem NFS-Mount-Anfragen von überall in der Availability Zone des Mount-Ziels ausgesetzt. AWS empfiehlt nicht, ein Mount-Ziel in der Availability Zone des Stacks zu erstellen. Lassen Sie uns stattdessen diesen Schritt AWS erledigen. Wenn Sie ein Mount-Ziel in der Availability Zone des Stacks haben möchten, sollten Sie die Verwendung einer benutzerdefinierten Sicherheitsgruppe in Betracht ziehen, indem Sie im [`[vpc]`Abschnitt eine [`vpc_security_group_id`](vpc-section.md#vpc-security-group-id) Option angeben](vpc-section.md). Fügen Sie dann diese Sicherheitsgruppe dem Mount-Ziel hinzu und schalten Sie `sanity_check` sie aus, um den Cluster zu erstellen.

Es ist kein Standardwert vorhanden.

```
efs_fs_id = fs-12345
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `efs_kms_key_id`
<a name="efs-efs-kms-key-id"></a>

**(Optional)** Identifiziert den AWS Key Management Service (AWS KMS) vom Kunden verwalteten Schlüssel, der zum Schutz des verschlüsselten Dateisystems verwendet werden soll. Wenn dies festgelegt ist , muss [`encrypted`](#efs-encrypted)auf `true` eingestellt sein. Dies entspricht dem [KmsKeyId](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-KmsKeyId)Parameter in der *Amazon EFS API-Referenz*.

Es ist kein Standardwert vorhanden.

```
efs_kms_key_id = 1234abcd-12ab-34cd-56ef-1234567890ab
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="efs-encrypted"></a>

**(Optional)** Gibt an, ob das Dateisystem verschlüsselt ist. Dies entspricht dem Parameter [Encrypted](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-Encrypted) in der *Amazon EFS API-Referenz*.

Der Standardwert ist `false`.

```
encrypted = true
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `performance_mode`
<a name="efs-performance-mode"></a>

**(Optional)** Definiert den Leistungsmodus des Dateisystems. Dies entspricht dem [PerformanceMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-PerformanceMode)Parameter in der *Amazon EFS API-Referenz*.

Gültige Optionen sind die folgenden Werte:
+ `generalPurpose`
+ `maxIO`

 Bei beiden Werten wird zwischen Groß- und Kleinschreibung unterschieden.

Wir empfehlen den `generalPurpose`-Leistungsmodus für die meisten Dateisysteme.

Dateisysteme, die den `maxIO`-Leistungsmodus verwenden, können auf einen höheren Gesamtdurchsatz und mehr Vorgänge pro Sekunde skalieren. Bei den meisten Dateioperationen gibt es jedoch einen Kompromiss zwischen etwas höheren Latenzen.

Nachdem das Dateisystem erstellt wurde, kann dieser Parameter nicht mehr geändert werden.

Der Standardwert ist `generalPurpose`.

```
performance_mode = generalPurpose
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `provisioned_throughput`
<a name="efs-provisioned-throughput"></a>

**(Optional)** Definiert den bereitgestellten Durchsatz des Dateisystems, gemessen in MiB/s. Dies entspricht dem [ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps)Parameter in der *Amazon EFS API-Referenz*.

Wenn Sie diesen Parameter verwenden, müssen Sie [`throughput_mode`](#efs-throughput-mode) auf `provisioned` einstellen.

Die Quote für den Durchsatz beträgt `1024` MiB/s. Um eine Kontingenterhöhung anzufordern, wenn Sie sich an Support.

Der minimale Wert beträgt `0.0` MiB/s.

```
provisioned_throughput = 1024
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `shared_dir`
<a name="efs-shared-dir"></a>

**(Erforderlich)** Definiert den Amazon EFS-Bereitstellungspunkt auf den Kopf- und Rechenknoten.

Dieser Parameter muss angegeben werden. Der Amazon EFS-Abschnitt wird nur verwendet, wenn er angegeben [`shared_dir`](cluster-definition.md#cluster-shared-dir) ist.

Verwenden Sie `NONE` oder nicht `/NONE` als gemeinsam genutztes Verzeichnis.

Im folgenden Beispiel wird Amazon EFS unter `/efs` bereitgestellt.

```
shared_dir = efs
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `throughput_mode`
<a name="efs-throughput-mode"></a>

**(Optional)** Definiert den Durchsatzmodus des Dateisystems. Dies entspricht dem [ThroughputMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-ThroughputMode)Parameter in der *Amazon EFS API-Referenz*.

Gültige Optionen sind die folgenden Werte:
+ `bursting`
+ `provisioned`

Der Standardwert ist `bursting`.

```
throughput_mode = provisioned
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

# `[fsx]` Abschnitt
<a name="fsx-section"></a>

Definiert Konfigurationseinstellungen für ein angehängtes FSx for Lustre-Dateisystem. Weitere Informationen finden Sie unter [Amazon FSx CreateFileSystem](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html) in der *Amazon FSx API-Referenz*.

Wenn das [`base_os`](cluster-definition.md#base-os) ist`alinux2`,`centos7`, oder `ubuntu1804``ubuntu2004`, FSx für Lustre unterstützt wird.

Wenn Sie Amazon Linux verwenden, muss der Kernel `4.14.104-78.84.amzn1.x86_64` oder eine neuere Version sein. Anweisungen finden Sie unter [Installation des Lustre-Clients](https://docs.aws.amazon.com/fsx/latest/LustreGuide/install-lustre-client.html) im *Amazon FSx for Lustre-Benutzerhandbuch*.

**Anmerkung**  
FSx for Lustre wird derzeit nicht unterstützt, wenn es `awsbatch` als Scheduler verwendet wird.

**Anmerkung**  
Die Support FSx für Lustre on `centos8` wurde in AWS ParallelCluster Version 2.10.4 entfernt. Support FSx für Lustre on `ubuntu2004` wurde in AWS ParallelCluster Version 2.11.0 hinzugefügt. Support FSx für Lustre on `centos8` wurde in AWS ParallelCluster Version 2.10.0 hinzugefügt. Support FSx für Lustre on`alinux2`,`ubuntu1604`, und `ubuntu1804` wurde in AWS ParallelCluster Version 2.6.0 hinzugefügt. Support FSx für Lustre on `centos7` wurde in AWS ParallelCluster Version 2.4.0 hinzugefügt.

Bei Verwendung eines vorhandenen Dateisystems muss es einer Sicherheitsgruppe zugeordnet sein, die eingehenden TCP-Datenverkehr zu Port „`988`“ erlaubt. Wenn Sie die Quelle in einer Sicherheitsgruppenregel `0.0.0.0/0` auf festlegen, erhalten Sie Client-Zugriff von allen IP-Bereichen innerhalb Ihrer VPC-Sicherheitsgruppe für das Protokoll und den Portbereich für diese Regel. Um den Zugriff auf Ihre Dateisysteme weiter einzuschränken, empfehlen wir, restriktivere Quellen für Ihre Sicherheitsgruppenregeln zu verwenden. Sie können beispielsweise spezifischere CIDR-Bereiche, IP-Adressen oder Sicherheitsgruppen IDs verwenden. Dies geschieht automatisch, wenn [`vpc_security_group_id`](vpc-section.md#vpc-security-group-id) nicht verwendet wird.

Um ein vorhandenes FSx Amazon-Dateisystem für dauerhaften Langzeitspeicher zu verwenden, der unabhängig vom Cluster-Lebenszyklus ist, geben Sie an[`fsx_fs_id`](#fsx-fs-id).

Wenn Sie nichts angeben[`fsx_fs_id`](#fsx-fs-id), AWS ParallelCluster erstellt das FSx for Lustre-Dateisystem anhand der `[fsx]` Einstellungen beim Erstellen des Clusters und löscht das Dateisystem und die Daten, wenn der Cluster gelöscht wird.

Weitere Informationen finden Sie unter [Bewährte Methoden: Umstellung eines Clusters auf eine neue AWS ParallelCluster Minor- oder Patch-Version](best-practices.md#best-practices-cluster-upgrades).

Das Format ist. `[fsx fsx-name]` *fsx-name*muss mit einem Buchstaben beginnen, nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

```
[fsx fs]
shared_dir = /fsx
fsx_fs_id = fs-073c3803dca3e28a6
```

Verwenden Sie zum Erstellen und Konfigurieren eines neuen Dateisystems die folgenden Parameter:

```
[fsx fs]
shared_dir = /fsx
storage_capacity = 3600
imported_file_chunk_size = 1024
export_path = s3://bucket/folder
import_path = s3://bucket
weekly_maintenance_start_time = 1:00:00
```

**Topics**
+ [`auto_import_policy`](#fsx-auto-import-policy)
+ [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)
+ [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)
+ [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time)
+ [`data_compression_type`](#fsx-data-compression-type)
+ [`deployment_type`](#fsx-deployment-type)
+ [`drive_cache_type`](#fsx-drive-cache-type)
+ [`export_path`](#fsx-export-path)
+ [`fsx_backup_id`](#fsx-backup-id)
+ [`fsx_fs_id`](#fsx-fs-id)
+ [`fsx_kms_key_id`](#fsx-kms-key-id)
+ [`import_path`](#fsx-import-path)
+ [`imported_file_chunk_size`](#fsx-imported-file-chunk-size)
+ [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)
+ [`shared_dir`](#fsx-shared-dir)
+ [`storage_capacity`](#fsx-storage-capacity)
+ [`storage_type`](#fsx-storage-type)
+ [`weekly_maintenance_start_time`](#fsx-weekly-maintenance-start-time)

## `auto_import_policy`
<a name="fsx-auto-import-policy"></a>

**(Optional)** Gibt die automatische Importrichtlinie an, um Änderungen im S3-Bucket widerzuspiegeln, der zur Erstellung des FSx for Lustre-Dateisystems verwendet wurde. Die folgenden Werte sind möglich:

`NEW`  
FSx for Lustre importiert automatisch Verzeichnislisten aller neuen Objekte, die dem verknüpften S3-Bucket hinzugefügt wurden und die derzeit nicht im FSx for Lustre-Dateisystem vorhanden sind. 

`NEW_CHANGED`  
FSx for Lustre importiert automatisch Datei- und Verzeichnislisten aller neuen Objekte, die dem S3-Bucket hinzugefügt werden, sowie aller vorhandenen Objekte, die im S3-Bucket geändert wurden. 

Dies entspricht der [AutoImportPolicy](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-autoimportpolicy)Eigenschaft. Weitere Informationen finden Sie unter [Automatisches Importieren von Updates aus Ihrem S3-Bucket](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html) im *Amazon FSx for Lustre-Benutzerhandbuch*. Wenn der [`auto_import_policy`](#fsx-auto-import-policy) Parameter angegeben ist, dürfen die [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) [`fsx_backup_id`](#fsx-backup-id) Parameter [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time),, und nicht angegeben werden.

Wenn die `auto_import_policy` Einstellung nicht angegeben ist, sind automatische Importe deaktiviert. FSx for Lustre aktualisiert nur Datei- und Verzeichnislisten aus dem verknüpften S3-Bucket, wenn das Dateisystem erstellt wird.

```
auto_import_policy = NEW_CHANGED
```

**Anmerkung**  
Support für [`auto_import_policy`](#fsx-auto-import-policy) wurde in AWS ParallelCluster Version 2.10.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `automatic_backup_retention_days`
<a name="fsx-automatic-backup-retention-days"></a>

**(Optional)** Gibt an, wie viele Tage automatische Backups aufbewahrt werden sollen. Dies gilt nur für `PERSISTENT_1` Bereitstellungstypen. Wenn der [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) Parameter angegeben ist, dürfen die [`auto_import_policy`](#fsx-auto-import-policy) [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) Parameter [`export_path`](#fsx-export-path)[`import_path`](#fsx-import-path),, und nicht angegeben werden. Dies entspricht der [AutomaticBackupRetentionDays](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-automaticbackupretentiondays)Eigenschaft.

Der Standardwert lautet 0. Diese Einstellung deaktiviert automatische Backups. Die möglichen Werte sind ganze Zahlen zwischen 0 und einschließlich 35.

```
automatic_backup_retention_days = 35
```

**Anmerkung**  
Support für [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) wurde in AWS ParallelCluster Version 2.8.0 hinzugefügt.

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `copy_tags_to_backups`
<a name="fsx-copy-tags-to-backups"></a>

**(Optional)** Gibt an, ob Tags für das Dateisystem in die Backups kopiert werden. Dies gilt nur für die Verwendung mit `PERSISTENT_1` Bereitstellungstypen. Wenn der [`copy_tags_to_backups`](#fsx-copy-tags-to-backups) Parameter angegeben wird, [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) muss der mit einem Wert größer als 0 angegeben werden, und die [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) Parameter [`auto_import_policy`](#fsx-auto-import-policy) [`export_path`](#fsx-export-path)[`import_path`](#fsx-import-path),, und dürfen nicht angegeben werden. Dies entspricht der [CopyTagsToBackups](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-copytagstobackups)Eigenschaft.

Der Standardwert ist `false`.

```
copy_tags_to_backups = true
```

**Anmerkung**  
Support für [`copy_tags_to_backups`](#fsx-copy-tags-to-backups) wurde in AWS ParallelCluster Version 2.8.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `daily_automatic_backup_start_time`
<a name="fsx-daily-automatic-backup-start-time"></a>

**(Optional)** Gibt die Tageszeit (UTC) an, zu der automatische Backups gestartet werden sollen. Dies gilt nur für die Verwendung mit `PERSISTENT_1` Bereitstellungstypen. Wenn der [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) Parameter angegeben wird, [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) muss der mit einem Wert größer als 0 angegeben werden, und die [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) Parameter [`auto_import_policy`](#fsx-auto-import-policy) [`export_path`](#fsx-export-path)[`import_path`](#fsx-import-path),, und dürfen nicht angegeben werden. Dies entspricht der [DailyAutomaticBackupStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-dailyautomaticbackupstarttime)Eigenschaft.

Das Format ist`HH:MM`, wobei `HH` die mit Nullen aufgefüllte Stunde des Tages (0-23) und die mit Nullen `MM` aufgefüllte Minute der Stunde ist. 1:03 Uhr UTC ist beispielsweise das Folgende.

```
daily_automatic_backup_start_time = 01:03
```

Der Standardwert ist eine zufällige Zeit zwischen `00:00` und`23:59`.

**Anmerkung**  
Support für [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) wurde in AWS ParallelCluster Version 2.8.0 hinzugefügt.

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `data_compression_type`
<a name="fsx-data-compression-type"></a>

**(Optional)** Gibt den FSx Datenkomprimierungstyp für Lustre an. Dies entspricht der [DataCompressionType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-datacompressiontype)Eigenschaft. Weitere Informationen finden Sie unter [FSx Lustre-Datenkomprimierung](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html) im *Amazon FSx for Lustre-Benutzerhandbuch*.

Der einzige gültige Wert ist `LZ4`. Um die Datenkomprimierung zu deaktivieren, entfernen Sie den [`data_compression_type`](#fsx-data-compression-type)Parameter.

```
data_compression_type = LZ4
```

**Anmerkung**  
Support für [`data_compression_type`](#fsx-data-compression-type) wurde in AWS ParallelCluster Version 2.11.0 hinzugefügt.

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `deployment_type`
<a name="fsx-deployment-type"></a>

**(Optional) Gibt den Bereitstellungstyp** FSx für Lustre an. Dies entspricht der [DeploymentType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-deploymenttype)Eigenschaft. Weitere Informationen finden Sie unter [FSx Lustre-Bereitstellungsoptionen](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) im *Amazon FSx for Lustre-Benutzerhandbuch*. Wählen Sie einen Scratch-Bereitstellungstyp für die temporäre Speicherung und die kurzfristigere Verarbeitung von Daten. `SCRATCH_2`ist die neueste Generation von Scratch-Dateisystemen. Es bietet einen höheren Burst-Durchsatz als den Basisdurchsatz und die Verschlüsselung von Daten bei der Übertragung.

Die gültigen Werte sind `SCRATCH_1`, `SCRATCH_2` und `PERSISTENT_1`.

`SCRATCH_1`  
Der Standard-Bereitstellungstyp FSx für Lustre. Bei diesem Bereitstellungstyp hat die [`storage_capacity`](#fsx-storage-capacity)-Einstellung mögliche Werte von 1200, 2400 und von einem beliebigen Vielfachen von 3600. Support für `SCRATCH_1` wurde in AWS ParallelCluster Version 2.4.0 hinzugefügt.

`SCRATCH_2`  
Die neueste Generation von Scratch-Dateisystemen. Sie unterstützt den bis zu sechsfachen Basisdurchsatz für hohe Workloads. Es unterstützt auch die Verschlüsselung von Daten während der Übertragung für unterstützte Instance-Typen, sofern unterstützt. AWS-Regionen Weitere Informationen finden Sie unter [Verschlüsseln von Daten bei der Übertragung](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html) im *Amazon FSx for Lustre-Benutzerhandbuch*. Bei diesem Bereitstellungstyp hat die [`storage_capacity`](#fsx-storage-capacity)-Einstellung mögliche Werte von 1200 und von einem beliebigen Vielfachen von 2400. Support für `SCRATCH_2` wurde in AWS ParallelCluster Version 2.6.0 hinzugefügt.

`PERSISTENT_1`  
Konzipiert für längerfristige Speicherung. Die Dateiserver sind hochverfügbar und die Daten werden innerhalb der Availability Zone der Dateisysteme repliziert. AWS Es unterstützt die Verschlüsselung von Daten während der Übertragung für unterstützte Instance-Typen. Bei diesem Bereitstellungstyp hat die [`storage_capacity`](#fsx-storage-capacity)-Einstellung mögliche Werte von 1200 und von einem beliebigen Vielfachen von 2400. Support für `PERSISTENT_1` wurde in AWS ParallelCluster Version 2.6.0 hinzugefügt.

Der Standardwert ist `SCRATCH_1`.

```
deployment_type = SCRATCH_2
```

**Anmerkung**  
Support für [`deployment_type`](#fsx-deployment-type) wurde in AWS ParallelCluster Version 2.6.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `drive_cache_type`
<a name="fsx-drive-cache-type"></a>

**(Optional)** Gibt an, dass das Dateisystem über einen SSD-Laufwerkscache verfügt. Dies kann nur festgelegt werden, wenn die [`storage_type`](#fsx-storage-type) Einstellung auf gesetzt ist`HDD`. Dies entspricht der [DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype)Eigenschaft. Weitere Informationen finden Sie unter [FSx Lustre-Bereitstellungsoptionen](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) im *Amazon FSx for Lustre-Benutzerhandbuch*.

Der einzige gültige Wert ist `READ`. Um den SSD-Laufwerk-Cache zu deaktivieren, geben Sie die `drive_cache_type` Einstellung nicht an.

```
drive_cache_type = READ
```

**Anmerkung**  
Support für [`drive_cache_type`](#fsx-drive-cache-type) wurde in AWS ParallelCluster Version 2.10.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `export_path`
<a name="fsx-export-path"></a>

**(Optional)** Gibt den Amazon S3 S3-Pfad an, in den das Stammverzeichnis Ihres Dateisystems exportiert wird. Wenn der [`export_path`](#fsx-export-path) Parameter angegeben ist, dürfen die [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) [`fsx_backup_id`](#fsx-backup-id) Parameter [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time),, und nicht angegeben werden. Dies entspricht der [ExportPath](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-exportpath)Eigenschaft. Dateidaten und Metadaten werden nicht automatisch in die exportiert`export_path`. Informationen zum Exportieren von Daten und Metadaten finden Sie unter [Exportieren von Änderungen in das Daten-Repository](https://docs.aws.amazon.com/fsx/latest/LustreGuide/export-changed-data-meta-dra.html) im *Amazon FSx for Lustre-Benutzerhandbuch*.

Standardmäßig wird `s3://import-bucket/FSxLustre[creation-timestamp]` verwendet, wobei `import-bucket` der im Parameter [`import_path`](#fsx-import-path) angegebene Bucket ist.

```
export_path = s3://bucket/folder
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `fsx_backup_id`
<a name="fsx-backup-id"></a>

**(Optional)** Gibt die ID der Sicherung an, die für die Wiederherstellung des Dateisystems aus einer vorhandenen Sicherung verwendet werden soll. Wenn der [`fsx_backup_id`](#fsx-backup-id) Parameter angegeben ist, dürfen die [`auto_import_policy`](#fsx-auto-import-policy) [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) Parameter [`deployment_type`](#fsx-deployment-type) [`export_path`](#fsx-export-path)[`fsx_kms_key_id`](#fsx-kms-key-id),[`import_path`](#fsx-import-path),[`imported_file_chunk_size`](#fsx-imported-file-chunk-size),[`storage_capacity`](#fsx-storage-capacity),, und nicht angegeben werden. Diese Parameter werden aus dem Backup gelesen. Darüber hinaus dürfen die [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) Parameter [`auto_import_policy`](#fsx-auto-import-policy) [`export_path`](#fsx-export-path)[`import_path`](#fsx-import-path),, und nicht angegeben werden.

Dies entspricht der [BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid)Eigenschaft.

```
fsx_backup_id = backup-fedcba98
```

**Anmerkung**  
Support für [`fsx_backup_id`](#fsx-backup-id) wurde in AWS ParallelCluster Version 2.8.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `fsx_fs_id`
<a name="fsx-fs-id"></a>

**(Optional) Hängt** ein vorhandenes Dateisystem FSx für Lustre an.

Wenn diese Option angegeben ist, werden nur die [`fsx_fs_id`](#fsx-fs-id) Einstellungen [`shared_dir`](#fsx-shared-dir) und im [`[fsx]`Abschnitt](#fsx-section) verwendet und alle anderen Einstellungen im [`[fsx]`Abschnitt werden ignoriert](#fsx-section).

```
fsx_fs_id = fs-073c3803dca3e28a6
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `fsx_kms_key_id`
<a name="fsx-kms-key-id"></a>

**(Optional)** Gibt die Schlüssel-ID Ihres AWS Key Management Service (AWS KMS) vom Kunden verwalteten Schlüssels an.

Diese ID wird verwendet, um die Daten in Ihrem Dateisystem im Ruhezustand zu verschlüsseln.

Diese Einstellung muss mit einer benutzerdefinierten [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) verwendet werden. Weitere Informationen finden Sie unter [Festplattenverschlüsselung mit einem benutzerdefinierten KMS-Schlüssel](tutorials_04_encrypted_kms_fs.md). Dies entspricht dem [KmsKeyId](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html#FSx-CreateFileSystem-request-KmsKeyId)Parameter in der *Amazon FSx API-Referenz*.

```
fsx_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

**Anmerkung**  
Support für [`fsx_kms_key_id`](#fsx-kms-key-id) wurde in AWS ParallelCluster Version 2.6.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `import_path`
<a name="fsx-import-path"></a>

**(Optional)** Gibt den S3-Bucket an, aus dem Daten in das Dateisystem geladen und als Export-Bucket verwendet werden sollen. Weitere Informationen finden Sie unter [`export_path`](#fsx-export-path). Wenn Sie den [`import_path`](#fsx-import-path) Parameter angeben, dürfen die [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) [`fsx_backup_id`](#fsx-backup-id) Parameter [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time),, und nicht angegeben werden. Dies entspricht dem [ImportPath](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystemLustreConfiguration.html#FSx-Type-CreateFileSystemLustreConfiguration-ImportPath)Parameter in der *Amazon FSx API-Referenz*.

Der Import findet bei der Cluster-Erstellung statt. Weitere Informationen finden Sie unter [Daten aus Ihrem Daten-Repository importieren](https://docs.aws.amazon.com/fsx/latest/LustreGuide/importing-files.html) im *Amazon FSx for Lustre-Benutzerhandbuch*. Beim Import werden nur Dateimetadaten (Name, Besitz, Zeitstempel und Berechtigungen) importiert. Dateidaten werden erst aus dem S3-Bucket importiert, wenn auf die Datei zum ersten Mal zugegriffen wird. Informationen zum Vorladen des Dateiinhalts finden Sie unter [Vorladen von Dateien in Ihr Dateisystem](https://docs.aws.amazon.com/fsx/latest/LustreGuide/preload-file-contents-hsm-dra.html) im *Amazon FSx for Lustre-Benutzerhandbuch*.

Wenn kein Wert angegeben wird, ist das Dateisystem leer.

```
import_path =  s3://bucket
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `imported_file_chunk_size`
<a name="fsx-imported-file-chunk-size"></a>

**(Optional)** Bestimmt die Stripe-Anzahl und die maximale Datenmenge für jede Datei (in MiB), die auf einer einzigen physischen Festplatte gespeichert ist, für Dateien, die aus einem Daten-Repository importiert werden (using[`import_path`](#fsx-import-path)). Die maximale Anzahl von Datenträgern, über die eine einzelne Datei als Stripeset zugeordnet werden kann, ist durch die Gesamtzahl der Datenträger begrenzt, aus denen sich das Dateisystem zusammensetzt. Wenn der [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) Parameter angegeben ist, dürfen die [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) [`fsx_backup_id`](#fsx-backup-id) Parameter [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time),, und nicht angegeben werden. Dies entspricht der [ImportedFileChunkSize](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-importedfilechunksize)Eigenschaft.

Die Standardgröße für Chunks ist `1024` (1 GiB) und kann bis zu 512.000 MiB (500 GiB) betragen. Amazon S3-Objekte haben eine maximale Größe von 5 TB.

```
imported_file_chunk_size = 1024
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `per_unit_storage_throughput`
<a name="fsx-per-unit-storage-throughput"></a>

**(Erforderlich für `PERSISTENT_1`-Bereitstellungstypen)** Beschreibt für den [`deployment_type`](#fsx-deployment-type)` = PERSISTENT_1`-Bereitstellungstyp den Lese- und Schreibdurchsatz für jeweils 1 Tebibyte (TiB) Speicher in MB/s/TiB. Die Durchsatzkapazität des Dateisystems wird berechnet, indem die Dateisystemspeicherkapazität (TiB) mit (von) multipliziert wird, was einen [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) Dateisystemdurchsatz MB/s/TiB). For a 2.4 TiB ﬁle system, provisioning 50 MB/s/TiB von 120 MB/s [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) ergibt. Sie zahlen den Durchsatz, den Sie bereitstellen. Dies entspricht der Eigenschaft. [PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput)

Die möglichen Werte hängen vom Wert der [`storage_type`](#fsx-storage-type) Einstellung ab.

`storage\$1type = SSD`  
Die möglichen Werte lauten 50, 100, 200.

`storage\$1type = HDD`  
Die möglichen Werte sind 12, 40.

```
per_unit_storage_throughput = 200
```

**Anmerkung**  
Support für [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) wurde in AWS ParallelCluster Version 2.6.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="fsx-shared-dir"></a>

**(Erforderlich)** Definiert den Einhängepunkt für das FSx for Lustre-Dateisystem auf den Kopf- und Rechenknoten.

Verwenden Sie `NONE` oder nicht `/NONE` als gemeinsam genutztes Verzeichnis.

Im folgenden Beispiel wird das Dateisystem unter `/fsx` gemountet.

```
shared_dir = /fsx
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `storage_capacity`
<a name="fsx-storage-capacity"></a>

**(Erforderlich)** Gibt die Speicherkapazität des Dateisystems in GiB an. Dies entspricht der [StorageCapacity](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagecapacity)Eigenschaft.

Die möglichen Werte für die Speicherkapazität variieren je nach [`deployment_type`](#fsx-deployment-type)-Einstellung.

`SCRATCH_1`  
Die möglichen Werte sind 1200, 2400 und ein beliebiges Vielfaches von 3600.

`SCRATCH_2`  
Die möglichen Werte sind 1200 und ein beliebiges Vielfaches von 2400.

`PERSISTENT_1`  
Die möglichen Werte variieren je nach den Werten anderer Einstellungen.    
`storage\$1type = SSD`  
Die möglichen Werte sind 1200 und ein beliebiges Vielfaches von 2400.  
`storage\$1type = HDD`  
Die möglichen Werte variieren je nach Einstellung der [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) Einstellung.    
`per\$1unit\$1storage\$1throughput = 12`  
Die möglichen Werte sind ein beliebiges Vielfaches von 6000.  
`per\$1unit\$1storage\$1throughput = 40`  
Die möglichen Werte sind ein beliebiges Vielfaches von 1800.

```
storage_capacity = 7200
```

**Anmerkung**  
In den AWS ParallelCluster Versionen 2.5.0 und 2.5.1 wurden mögliche Werte von 1200, 2400 und jedes Vielfache von 3600 [`storage_capacity`](#fsx-storage-capacity) unterstützt. [`storage_capacity`](#fsx-storage-capacity)Hatte für Versionen vor AWS ParallelCluster Version 2.5.0 eine Mindestgröße von 3600.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `storage_type`
<a name="fsx-storage-type"></a>

**(Optional)** Gibt den Speichertyp des Dateisystems an. Dies entspricht der [StorageType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagetype)Eigenschaft. Die möglichen Werte sind `SSD` und `HDD`. Der Standardwert ist `SSD`.

Der Speichertyp ändert die möglichen Werte anderer Einstellungen.

`storage_type = SSD`   
Gibt einen SSD-Speichertyp (Sold-State Drive) an.  
`storage_type = SSD`ändert die möglichen Werte mehrerer anderer Einstellungen.    
[`drive_cache_type`](#fsx-drive-cache-type)  
Diese Einstellung kann nicht angegeben werden.  
[`deployment_type`](#fsx-deployment-type)  
Diese Einstellung kann auf `SCRATCH_1``SCRATCH_2`, oder gesetzt werden`PERSISTENT_1`.  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
Diese Einstellung muss angegeben werden, wenn [`deployment_type`](#fsx-deployment-type) auf `PERSISTENT_1` gesetzt wird. Die möglichen Werte sind 50, 100 oder 200.  
[`storage_capacity`](#fsx-storage-capacity)  
Diese Einstellung muss angegeben werden. Die möglichen Werte variieren je nach[`deployment_type`](#fsx-deployment-type).    
`deployment_type = SCRATCH_1`  
[`storage_capacity`](#fsx-storage-capacity)kann 1200, 2400 oder ein beliebiges Vielfaches von 3600 sein.  
`deployment_type = SCRATCH_2` oder `deployment_type = PERSISTENT_1`  
[`storage_capacity`](#fsx-storage-capacity)kann 1200 oder ein beliebiges Vielfaches von 2400 sein.

`storage_type = HDD`  
Gibt einen Speichertyp für ein Festplattenlaufwerk (HDD) an.  
`storage_type = HDD`ändert die möglichen Werte anderer Einstellungen.    
[`drive_cache_type`](#fsx-drive-cache-type)  
Diese Einstellung kann angegeben werden.  
[`deployment_type`](#fsx-deployment-type)  
Diese Einstellung muss auf gesetzt sein`PERSISTENT_1`.  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
Diese Einstellung muss angegeben werden. Die möglichen Werte sind 12 oder 40.  
[`storage_capacity`](#fsx-storage-capacity)  
Diese Einstellung muss angegeben werden. Die möglichen Werte variieren je nach [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) Einstellung.    
`storage_capacity = 12`  
[`storage_capacity`](#fsx-storage-capacity)kann ein beliebiges Vielfaches von 6000 sein.  
`storage_capacity = 40`  
[`storage_capacity`](#fsx-storage-capacity)kann ein beliebiges Vielfaches von 1800 sein.

```
storage_type = SSD
```

**Anmerkung**  
Support für die [`storage_type`](#fsx-storage-type)Einstellung wurde in AWS ParallelCluster Version 2.10.0 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `weekly_maintenance_start_time`
<a name="fsx-weekly-maintenance-start-time"></a>

**(Optional)** Gibt den bevorzugten Zeitpunkt zum Durchführen der wöchentlichen Wartung in koordinierter Weltzeit (UTC) an. Dies entspricht der [WeeklyMaintenanceStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-weeklymaintenancestarttime)Eigenschaft.

Das Format ist [Wochentag]: [Stunde des Tages]:[Minute der Stunde]. Montag um Mitternacht sieht zum Beispiel wie folgt aus.

```
weekly_maintenance_start_time = 1:00:00
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

# `[queue]` Abschnitt
<a name="queue-section"></a>

Definiert Konfigurationseinstellungen für eine einzelne Warteschlange. [`[queue]`Abschnitte](#queue-section) werden nur unterstützt, wenn auf gesetzt [`scheduler`](cluster-definition.md#scheduler) ist`slurm`.

Das Format ist`[queue <queue-name>]`. *queue-name*muss mit einem Kleinbuchstaben beginnen, darf nicht mehr als 30 Zeichen enthalten und darf nur Kleinbuchstaben, Zahlen und Bindestriche (-) enthalten.

```
[queue q1]
compute_resource_settings = i1,i2
placement_group = DYNAMIC
enable_efa = true
disable_hyperthreading = false
compute_type = spot
```

**Anmerkung**  
Support für den [`[queue]`Abschnitt](#queue-section) wurde in AWS ParallelCluster Version 2.9.0 hinzugefügt.

**Topics**
+ [`compute_resource_settings`](#queue-compute-resource-settings)
+ [`compute_type`](#queue-compute-type)
+ [`disable_hyperthreading`](#queue-disable-hyperthreading)
+ [`enable_efa`](#queue-enable-efa)
+ [`enable_efa_gdr`](#queue-enable-efa-gdr)
+ [`placement_group`](#queue-placement-group)

## `compute_resource_settings`
<a name="queue-compute-resource-settings"></a>

**(Erforderlich)** Identifiziert die [`[compute_resource]`Abschnitte](compute-resource-section.md), die die Rechenressourcenkonfigurationen für diese Warteschlange enthalten. Die Abschnittsnamen müssen mit einem Buchstaben beginnen, dürfen nicht mehr als 30 Zeichen enthalten und dürfen nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

[Für jeden Abschnitt werden bis zu drei (3) [`[compute_resource]`Abschnitte](compute-resource-section.md) unterstützt. `[queue]`](#queue-section)

Beispielsweise gibt die folgende Einstellung an, dass die Abschnitte beginnen `[compute_resource cr1]` und verwendet `[compute_resource cr2]` werden.

```
compute_resource_settings = cr1, cr2
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `compute_type`
<a name="queue-compute-type"></a>

**(Optional)** Definiert den Typ der Instances, die für diese Warteschlange gestartet werden sollen. Diese Einstellung ersetzt die [`cluster_type`](cluster-definition.md#cluster-type)-Einstellung.

Gültige Optionen sind `ondemand` und `spot`.

Der Standardwert ist `ondemand`.

Weitere Informationen zu Spot-Instances finden Sie unter [Arbeiten mit Spot-Instances](spot.md).

**Anmerkung**  
Die Verwendung von Spot-Instances setzt voraus, dass die `AWSServiceRoleForEC2Spot` mit dem Service verknüpfte Rolle in Ihrem Konto vorhanden ist. Führen Sie den folgenden Befehl aus AWS CLI, um diese Rolle in Ihrem Konto mithilfe von zu erstellen:  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Weitere Informationen finden Sie unter [Service-verknüpfte Rolle für Spot-Instance-Anfragen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) im * EC2 Amazon-Benutzerhandbuch*.

Das folgende Beispiel verwendet SpotInstances für die Rechenknoten in dieser Warteschlange.

```
compute_type = spot
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `disable_hyperthreading`
<a name="queue-disable-hyperthreading"></a>

**(Optional)** Deaktiviert Hyperthreading auf den Knoten in dieser Warteschlange. Nicht alle Instance-Typen können Hyperthreading deaktivieren. Eine Liste der Instance-Typen, die die Deaktivierung von Hyperthreading unterstützen, finden Sie im * EC2 Amazon-Benutzerhandbuch* unter [CPU-Kerne und Threads für jeden CPU-Kern pro Instance-Typ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values). Wenn die [`disable_hyperthreading`](cluster-definition.md#disable-hyperthreading) Einstellung in dem [`[cluster]`Abschnitt](cluster-definition.md) definiert ist, kann diese Einstellung nicht definiert werden.

Der Standardwert ist `false`.

```
disable_hyperthreading = true
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa`
<a name="queue-enable-efa"></a>

**(Optional)** Wenn auf gesetzt`true`, gibt dies an, dass der Elastic Fabric Adapter (EFA) für die Knoten in dieser Warteschlange aktiviert ist. Eine Liste der EC2 Instances, die EFA unterstützen, finden Sie unter [Unterstützte Instance-Typen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) im * EC2 Amazon-Benutzerhandbuch für Linux-Instances*. Wenn die [`enable_efa`](cluster-definition.md#enable-efa) Einstellung in dem [`[cluster]`Abschnitt](cluster-definition.md) definiert ist, kann diese Einstellung nicht definiert werden. Latenzen zwischen Instances sollten mithilfe einer Cluster-Placement-Gruppe minimiert werden. Weitere Informationen erhalten Sie unter [`placement`](cluster-definition.md#placement) und [`placement_group`](cluster-definition.md#placement-group).

```
enable_efa = true
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa_gdr`
<a name="queue-enable-efa-gdr"></a>

**(Optional)** Ab AWS ParallelCluster Version 2.11.3 hat diese Einstellung keine Auswirkung. Die Unterstützung des Elastic Fabric Adapter (EFA) für GPUDirect RDMA (Remote Direct Memory Access) ist für die Rechenknoten aktiviert. Sie ist immer aktiviert, wenn sie vom Instance-Typ unterstützt wird.

**Anmerkung**  
AWS ParallelCluster Version 2.10.0 bis 2.11.2: Wenn`true`, gibt an, dass Elastic Fabric Adapter (EFA) GPUDirect RDMA (Remote Direct Memory Access) für die Knoten in dieser Warteschlange aktiviert ist. Die Einstellung auf `true` setzt voraus, dass die [`enable_efa`](#queue-enable-efa) Einstellung auf `true` .EFA gesetzt ist. GPUDirect RDMA wird von den folgenden Instance-Typen (`p4d.24xlarge`) auf diesen Betriebssystemen unterstützt (,, oder). `alinux2` `centos7` `ubuntu1804` `ubuntu2004` Wenn die [`enable_efa_gdr`](cluster-definition.md#enable-efa-gdr) Einstellung in dem [`[cluster]`Abschnitt](cluster-definition.md) definiert ist, kann diese Einstellung nicht definiert werden. Latenzen zwischen Instances sollten mithilfe einer Cluster-Placement-Gruppe minimiert werden. Weitere Informationen erhalten Sie unter [`placement`](cluster-definition.md#placement) und [`placement_group`](cluster-definition.md#placement-group).

Der Standardwert ist `false`.

```
enable_efa_gdr = true
```

**Anmerkung**  
Support für `enable_efa_gdr` wurde in AWS ParallelCluster Version 2.10.0 hinzugefügt.

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `placement_group`
<a name="queue-placement-group"></a>

**(Optional)** Definiert, falls vorhanden, die Platzierungsgruppe für diese Warteschlange. Diese Einstellung ersetzt die [`placement_group`](cluster-definition.md#placement-group)-Einstellung.

Gültige Optionen sind die folgenden Werte:
+ `DYNAMIC`
+ Name einer vorhandenen Amazon EC2 Cluster Placement-Gruppe

Wenn diese Option auf gesetzt ist`DYNAMIC`, wird eine eindeutige Platzierungsgruppe für diese Warteschlange erstellt und als Teil des Cluster-Stacks gelöscht.

Weitere Informationen zu Placement-Gruppen finden Sie unter [Placement-Gruppen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) im * EC2 Amazon-Benutzerhandbuch*. Wenn dieselbe Platzierungsgruppe für verschiedene Instance-Typen verwendet wird, ist es wahrscheinlicher, dass die Anfrage aufgrund eines Fehlers mit unzureichender Kapazität fehlschlägt. Weitere Informationen finden Sie unter [Unzureichende Instance-Kapazität](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) im * EC2 Amazon-Benutzerhandbuch*.

Es ist kein Standardwert vorhanden.

Nicht alle Instance-Typen unterstützen Cluster-Placement-Gruppen. Unterstützt beispielsweise `t2.micro` keine Cluster-Platzierungsgruppen. Informationen zur Liste der Instance-Typen, die Cluster Placement-Gruppen unterstützen, finden Sie unter [Regeln und Einschränkungen für Cluster Placement-Gruppen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) im * EC2 Amazon-Benutzerhandbuch*. Tipps zum Arbeiten mit Platzierungsgruppen finden Sie unter [Probleme bei der Platzierung von Gruppen und beim Starten von Instances](troubleshooting.md#placement-groups-and-instance-launch-issues).

```
placement_group = DYNAMIC
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

# `[raid]` Abschnitt
<a name="raid-section"></a>

Definiert Konfigurationseinstellungen für ein RAID-Array, das aus einer Reihe identischer Amazon EBS-Volumes aufgebaut ist. Das RAID-Laufwerk ist auf dem Hauptknoten montiert und wird mit NFS auf Rechenknoten exportiert.

Das Format ist`[raid raid-name]`. *raid-name*muss mit einem Buchstaben beginnen, nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

```
[raid rs]
shared_dir = raid
raid_type = 1
num_of_raid_volumes = 2
encrypted = true
```

**Topics**
+ [`shared_dir`](#raid-shared-dir)
+ [`ebs_kms_key_id`](#raid-ebs_kms_key_id)
+ [`encrypted`](#raid-encrypted)
+ [`num_of_raid_volumes`](#num-of-raid-volumes)
+ [`raid_type`](#raid-type)
+ [`volume_iops`](#raid-volume-iops)
+ [`volume_size`](#raid-volume-size)
+ [`volume_throughput`](#raid-volume-throughput)
+ [`volume_type`](#raid-volume-type)

## `shared_dir`
<a name="raid-shared-dir"></a>

**(Erforderlich)** Definiert den Einhängepunkt für das RAID-Array auf den Kopf- und Rechenknoten.

Das RAID-Laufwerk wird nur erstellt, wenn dieser Parameter angegeben ist.

Verwenden Sie `NONE` oder nicht `/NONE` als gemeinsam genutztes Verzeichnis.

Im folgenden Beispiel wird das Array unter `/raid` gemountet.

```
shared_dir = raid
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="raid-ebs_kms_key_id"></a>

**(Optional)** Gibt einen benutzerdefinierten AWS KMS Schlüssel an, der für die Verschlüsselung verwendet werden soll.

Dieser Parameter muss in Verbindung mit `encrypted = true` verwendet werden und eine benutzerdefinierte [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) aufweisen.

Weitere Informationen finden Sie unter [Festplattenverschlüsselung mit einem benutzerdefinierten KMS-Schlüssel](tutorials_04_encrypted_kms_fs.md).

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="raid-encrypted"></a>

**(Optional)** Gibt an, ob das Dateisystem verschlüsselt ist.

Der Standardwert ist `false`.

```
encrypted = false
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `num_of_raid_volumes`
<a name="num-of-raid-volumes"></a>

**(Optional)** Definiert die Anzahl der Amazon EBS-Volumes, aus denen das RAID-Array zusammengestellt werden soll.

Die Mindestanzahl von Volumes ist`2`.

Die maximale Anzahl von Bänden ist`5`.

Der Standardwert ist `2`.

```
num_of_raid_volumes = 2
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `raid_type`
<a name="raid-type"></a>

**(Erforderlich)** Definiert den RAID-Typ für das RAID-Array.

Das RAID-Laufwerk wird nur erstellt, wenn dieser Parameter angegeben ist.

Gültige Optionen sind die folgenden Werte:
+ `0`
+ `1`

Weitere Informationen zu RAID-Typen finden Sie unter [RAID-Informationen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/raid-config.html) im * EC2 Amazon-Benutzerhandbuch*.

Im folgenden Beispiel wird ein RAID-`0`-Array erstellt:

```
raid_type = 0
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="raid-volume-iops"></a>

**(Optional)** Definiert die Anzahl der IOPS für Volumes `gp3` vom Typ `io1``io2`, und.

Der Standardwert, die unterstützten Werte und `volume_iops` das `volume_size` Zu-Verhältnis variieren je nach [`volume_type`](#raid-volume-type) und[`volume_size`](#raid-volume-size).

`volume_type` = `io1`  
Standard `volume_iops` = 100  
Unterstützte Werte `volume_iops` = 100—64000 †  
Maximales `volume_iops` `volume_size` Verhältnis = 50 IOPS pro GiB. 5000 IOPS erfordern einen Wert `volume_size` von mindestens 100 GiB.

`volume_type` = `io2`  
Standard `volume_iops` = 100  
Unterstützte Werte `volume_iops` = 100—64000 (256000 für `io2` Block Express-Volumes) †  
Maximales `volume_iops` `volume_size` Verhältnis = 500 IOPS pro GiB. 5000 IOPS erfordern einen Wert `volume_size` von mindestens 10 GiB.

`volume_type` = `gp3`  
Standard `volume_iops` = 3000  
Unterstützte Werte `volume_iops` = 3000—16000  
Maximales `volume_iops` `volume_size` Verhältnis = 500 IOPS pro GiB. 5000 IOPS erfordern einen Wert `volume_size` von mindestens 10 GiB.

```
volume_iops = 3000
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

† Maximale IOPS wird nur für [Instances garantiert, die auf dem Nitro-System basieren](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) und mit mehr als 32.000 IOPS ausgestattet sind. Andere Instanzen garantieren bis zu 32.000 IOPS. Ältere `io1` Volumes erreichen möglicherweise nicht die volle Leistung, es sei denn, Sie [ändern das](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html) Volume. `io2` Block Express-Volumes unterstützen `volume_iops` Werte bis zu 256000. Weitere Informationen finden Sie unter [`io2`Block Express-Volumen (in der Vorschauversion)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) im * EC2 Amazon-Benutzerhandbuch*.

## `volume_size`
<a name="raid-volume-size"></a>

**(Optional)** Definiert die Größe des zu erstellenden Volumes in GiB.

Der Standardwert und die unterstützten Werte variieren je nach[`volume_type`](#raid-volume-type).

`volume_type` = `standard`  
Standard `volume_size` = 20 GiB  
Unterstützte Werte `volume_size` = 1—1024 GiB

`volume_type`=`gp2`, `io1``io2`, und `gp3`  
Standard `volume_size` = 20 GiB  
Unterstützte Werte `volume_size` = 1—16384 GiB

`volume_type`= und `sc1` `st1`  
Standard `volume_size` = 500 GiB  
Unterstützte Werte `volume_size` = 500—16384 GiB

```
volume_size = 20
```

**Anmerkung**  
Vor AWS ParallelCluster Version 2.10.1 war der Standardwert für alle Volumetypen 20 GiB.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="raid-volume-throughput"></a>

**(Optional)** Definiert den Durchsatz für `gp3` Volumetypen in MiB/s.

Der Standardwert ist `125`.

Unterstützte Werte `volume_throughput` = 125—1000 MiB/s

Das Verhältnis von `volume_throughput` zu `volume_iops` darf nicht mehr als 0,25 betragen. Der maximale Durchsatz von 1000 MiB/s setzt voraus, dass die `volume_iops` Einstellung mindestens 4000 beträgt.

```
volume_throughput = 1000
```

**Anmerkung**  
Support für `volume_throughput` wurde in AWS ParallelCluster Version 2.10.1 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="raid-volume-type"></a>

**(Optional)** Definiert den Typ des zu erstellenden Volumes.

Gültige Optionen sind die folgenden Werte:

`gp2`, `gp3`  
Allzweck-SSD

`io1`, `io2`  
Provisioned IOPS SSD

`st1`  
Durchsatzoptimierte HDD

`sc1`  
Cold HDD

`standard`  
Magnetisch der vorherigen Generation

Weitere Informationen finden Sie unter [Amazon EBS-Volumetypen](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) im * EC2 Amazon-Benutzerhandbuch*.

Der Standardwert ist `gp2`.

```
volume_type = io2
```

**Anmerkung**  
Support für `gp3` und `io2` wurde in AWS ParallelCluster Version 2.10.1 hinzugefügt.

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

# `[scaling]` Abschnitt
<a name="scaling-section"></a>

**Topics**
+ [`scaledown_idletime`](#scaledown-idletime)

Gibt Einstellungen an, die definieren, wie die Datenverarbeitungsknoten skaliert werden.

Das Format ist`[scaling scaling-name]`. *scaling-name*muss mit einem Buchstaben beginnen, nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

```
[scaling custom]
scaledown_idletime = 10
```

## `scaledown_idletime`
<a name="scaledown-idletime"></a>

**(Optional)** Gibt die Zeit in Minuten ohne Job an, nach der der Rechenknoten beendet wird.

Dieser Parameter wird nicht verwendet, wenn es sich um den Scheduler `awsbatch` handelt.

Der Standardwert ist `10`.

```
scaledown_idletime = 10
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

# `[vpc]` Abschnitt
<a name="vpc-section"></a>

Gibt die Amazon VPC-Konfigurationseinstellungen an. Weitere Informationen finden Sie VPCs unter [Was ist Amazon VPC?](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html) und [bewährte Sicherheitsmethoden für Ihre VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-best-practices.html) im *Amazon VPC-Benutzerhandbuch*.

Das Format ist. `[vpc vpc-name]` *vpc-name*muss mit einem Buchstaben beginnen, nicht mehr als 30 Zeichen enthalten und darf nur Buchstaben, Zahlen, Bindestriche (-) und Unterstriche (\$1) enthalten.

```
[vpc public]
vpc_id = vpc-xxxxxx
master_subnet_id = subnet-xxxxxx
```

**Topics**
+ [`additional_sg`](#additional-sg)
+ [`compute_subnet_cidr`](#compute-subnet-cidr)
+ [`compute_subnet_id`](#compute-subnet-id)
+ [`master_subnet_id`](#master-subnet-id)
+ [`ssh_from`](#ssh-from)
+ [`use_public_ips`](#use-public-ips)
+ [`vpc_id`](#vpc-id)
+ [`vpc_security_group_id`](#vpc-security-group-id)

## `additional_sg`
<a name="additional-sg"></a>

**(Optional)** Stellt eine zusätzliche Amazon VPC-Sicherheitsgruppen-ID für alle Instances bereit.

Es ist kein Standardwert vorhanden.

```
additional_sg = sg-xxxxxx
```

## `compute_subnet_cidr`
<a name="compute-subnet-cidr"></a>

**(Optional)** Spezifiziert einen CIDR-Block (Classless Inter-Domain Routing). Verwenden Sie diesen Parameter, wenn Sie ein AWS ParallelCluster Compute-Subnetz erstellen möchten.

```
compute_subnet_cidr = 10.0.100.0/24
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `compute_subnet_id`
<a name="compute-subnet-id"></a>

**(Optional)** Gibt die ID eines vorhandenen Subnetzes an, in dem die Rechenknoten bereitgestellt werden sollen.

Wenn nicht angegeben, verwendet [`compute_subnet_id`](#compute-subnet-id) der Wert von [`master_subnet_id`](#master-subnet-id).

Wenn das Subnetz privat ist, müssen Sie NAT für den Internetzugriff einrichten.

```
compute_subnet_id = subnet-xxxxxx
```

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `master_subnet_id`
<a name="master-subnet-id"></a>

**(Erforderlich)** Gibt die ID eines vorhandenen Subnetzes an, in dem der Hauptknoten bereitgestellt werden soll.

```
master_subnet_id = subnet-xxxxxx
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `ssh_from`
<a name="ssh-from"></a>

**(Optional)** Gibt einen IP-Bereich im CIDR-Format an, von dem aus SSH-Zugriff möglich ist.

Dieser Parameter wird nur verwendet, wenn AWS ParallelCluster die Sicherheitsgruppe erstellt wird.

Der Standardwert ist `0.0.0.0/0`.

```
ssh_from = 0.0.0.0/0
```

[Richtlinie aktualisieren: Diese Einstellung kann während eines Updates geändert werden.](using-pcluster-update.md#update-policy-setting-supported)

## `use_public_ips`
<a name="use-public-ips"></a>

**(Optional)** Definiert, ob Computing-Instances öffentliche IP-Adressen zugewiesen werden sollen.

Wenn auf gesetzt`true`, wird dem Hauptknoten eine Elastic IP-Adresse zugeordnet.

Wenn auf gesetzt`false`, hat der Hauptknoten eine öffentliche IP (oder nicht), je nach dem Wert des Subnetz-Konfigurationsparameters „Automatische Zuweisung öffentlicher IP“.

Beispiele finden Sie unter [Netzwerkkonfiguration](networking.md).

Der Standardwert ist `true`.

```
use_public_ips = true
```

**Wichtig**  
Standardmäßig AWS-Konten sind alle auf jeweils fünf (5) Elastic IP-Adressen beschränkt. AWS-Region Weitere Informationen finden Sie unter [Elastic IP address limit](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/elastic-ip-addresses-eip.html#using-instance-addressing-limit) im * EC2 Amazon-Benutzerhandbuch*.

[Aktualisierungsrichtlinie: Die Rechenflotte muss gestoppt werden, damit diese Einstellung für ein Update geändert werden kann.](using-pcluster-update.md#update-policy-compute-fleet)

## `vpc_id`
<a name="vpc-id"></a>

**(Erforderlich)** Gibt die ID der Amazon VPC an, in der der Cluster bereitgestellt werden soll.

```
vpc_id = vpc-xxxxxx
```

[Aktualisierungsrichtlinie: Wenn diese Einstellung geändert wird, ist das Update nicht zulässig.](using-pcluster-update.md#update-policy-fail)

## `vpc_security_group_id`
<a name="vpc-security-group-id"></a>

**(Optional)** Gibt die Verwendung einer vorhandenen Sicherheitsgruppe für alle Instances an.

Es ist kein Standardwert vorhanden.

```
vpc_security_group_id = sg-xxxxxx
```

Die von erstellte Sicherheitsgruppe AWS ParallelCluster ermöglicht den SSH-Zugriff über Port 22 von den in der [`ssh_from`](#ssh-from) Einstellung angegebenen Adressen oder von allen IPv4 Adressen (`0.0.0.0/0`) aus, wenn die [`ssh_from`](#ssh-from) Einstellung nicht angegeben ist. Wenn Amazon DCV aktiviert ist, ermöglicht die Sicherheitsgruppe den Zugriff auf Amazon DCV über Port 8443 (oder was auch immer in der [`port`](dcv-section.md#dcv-section-port) Einstellung angegeben ist) von den in der [`access_from`](dcv-section.md#dcv-section-access-from) Einstellung angegebenen Adressen oder von allen IPv4 Adressen (`0.0.0.0/0`), falls die [`access_from`](dcv-section.md#dcv-section-access-from) Einstellung nicht angegeben ist.

**Warnung**  
Sie können den Wert dieses Parameters ändern und den Cluster aktualisieren, falls [`[cluster]`[`fsx_settings`](cluster-definition.md#fsx-settings)](cluster-definition.md)nicht oder beides angegeben ist `fsx_settings` und ein externes, FSx für Lustre vorhandenes Dateisystem für in angegeben ist. [`fsx-fs-id`[`[fsx fs]`](fsx-section.md)](fsx-section.md#fsx-fs-id)  
Sie können den Wert dieses Parameters nicht ändern, wenn in `fsx_settings` und ein FSx für Lustre AWS ParallelCluster verwaltetes Dateisystem angegeben ist. `[fsx fs]`

[Aktualisierungsrichtlinie: Wenn AWS ParallelCluster verwaltete Amazon FSx for Lustre-Dateisysteme in der Konfiguration nicht angegeben sind, kann diese Einstellung während eines Updates geändert werden.](using-pcluster-update.md#update-policy-no-managed-fsx-lustre)

# Beispiele
<a name="examples"></a>

Die folgenden Beispielkonfigurationen demonstrieren AWS ParallelCluster Konfigurationen mit Slurm, Torque, und AWS Batch Scheduler.

**Anmerkung**  
Ab Version 2.11.5 wird die Verwendung von AWS ParallelCluster nicht unterstützt SGE or Torque Scheduler.

**Contents**
+ [Slurm Workload Manager (`slurm`)](#example.slurm)
+ [Son of Grid Engine (`sge`) und Torque Resource Manager (`torque`)](#example.torque)
+ [AWS Batch (`awsbatch`)](#example.awsbatch)

## Slurm Workload Manager (`slurm`)
<a name="example.slurm"></a>

Das folgende Beispiel startet einen Cluster mit dem Scheduler `slurm`. In der Beispielkonfiguration wird 1 Cluster mit 2 Jobwarteschlangen gestartet. In der ersten Warteschlange `spot` sind zunächst 2 `t3.micro` Spot-Instances verfügbar. Sie kann auf maximal 10 Instances und auf mindestens 1 Instanz herunterskaliert werden, wenn 10 Minuten lang keine Jobs ausgeführt wurden (einstellbar über die [`scaledown_idletime`](scaling-section.md#scaledown-idletime) Einstellung). Die zweite Warteschlange beginnt ohne Instanzen und kann auf maximal 5 `t3.micro` On-Demand-Instanzen skaliert werden. `ondemand`

```
[global]
update_check = true
sanity_check = true
cluster_template = slurm

[aws]
aws_region_name = <your AWS-Region>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster slurm]
key_name = <your EC2 keypair name>
base_os = alinux2                   # optional, defaults to alinux2
scheduler = slurm
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
queue_settings = spot,ondemand

[queue spot]
compute_resource_settings = spot_i1
compute_type = spot                 # optional, defaults to ondemand

[compute_resource spot_i1]
instance_type = t3.micro
min_count = 1                       # optional, defaults to 0
initial_count = 2                   # optional, defaults to 0

[queue ondemand]
compute_resource_settings = ondemand_i1

[compute_resource ondemand_i1]
instance_type = t3.micro
max_count = 5                       # optional, defaults to 10
```

## Son of Grid Engine (`sge`) und Torque Resource Manager (`torque`)
<a name="example.torque"></a>

**Anmerkung**  
Dieses Beispiel gilt nur für AWS ParallelCluster Versionen bis einschließlich Version 2.11.4. Beginnend mit Version 2.11.5 unterstützt AWS ParallelCluster es nicht die Verwendung von SGE or Torque Scheduler.

Im folgenden Beispiel wird ein Cluster mit dem `sge` Scheduler `torque` OR gestartet. Zur Verwendung SGE, wechseln Sie `scheduler = torque` zu. `scheduler = sge` Die Beispielkonfiguration erlaubt maximal 5 gleichzeitige Knoten und wird auf zwei herunterskaliert, wenn 10 Minuten lang keine Jobs ausgeführt wurden.

```
[global]
update_check = true
sanity_check = true
cluster_template = torque

[aws]
aws_region_name = <your AWS-Region>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster torque]
key_name = <your EC2 keypair name>but they aren't eligible for future updates
base_os = alinux2                   # optional, defaults to alinux2
scheduler = torque                  # optional, defaults to sge
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
initial_queue_size = 2              # optional, defaults to 0
maintain_initial_size = true        # optional, defaults to false
max_queue_size = 5                  # optional, defaults to 10
```

**Anmerkung**  
Ab Version 2.11.5 wird die Verwendung von AWS ParallelCluster nicht unterstützt SGE or Torque Scheduler. Wenn Sie diese Versionen verwenden, können Sie sie weiterhin verwenden oder den Support der AWS Service- und Support-Teams AWS bei der Fehlerbehebung unterstützen.

## AWS Batch (`awsbatch`)
<a name="example.awsbatch"></a>

Das folgende Beispiel startet einen Cluster mit dem Scheduler `awsbatch`. Es ist so eingestellt, dass es auf der Grundlage Ihrer Anforderungen an die Jobressourcen den besseren Instanztyp auswählt.

Die Beispielkonfiguration erlaubt maximal 40 gleichzeitige V und wird auf Null herunterskaliertCPUs, wenn 10 Minuten lang keine Jobs ausgeführt wurden (einstellbar über die [`scaledown_idletime`](scaling-section.md#scaledown-idletime) Einstellung).

```
[global]
update_check = true
sanity_check = true
cluster_template = awsbatch

[aws]
aws_region_name = <your AWS-Region>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster awsbatch]
scheduler = awsbatch
compute_instance_type = optimal # optional, defaults to optimal
min_vcpus = 0                   # optional, defaults to 0
desired_vcpus = 0               # optional, defaults to 4
max_vcpus = 40                  # optional, defaults to 20
base_os = alinux2               # optional, defaults to alinux2, controls the base_os of
                                # the head node and the docker image for the compute fleet
key_name = <your EC2 keypair name>
vpc_settings = public
```