

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Configurazione
<a name="configuration"></a>

Per impostazione predefinita, AWS ParallelCluster utilizza il `~/.parallelcluster/config` file per tutti i parametri di configurazione. È possibile specificare un file di configurazione personalizzato utilizzando l'opzione `-c` o della riga di `--config` comando o la variabile di `AWS_PCLUSTER_CONFIG_FILE` ambiente.

Un file di configurazione di esempio viene installato AWS ParallelCluster nella directory Python all'indirizzo. `site-packages/aws-parallelcluster/examples/config` Il file di configurazione di esempio è disponibile anche su GitHub, all'indirizzo[https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config).

Versione attuale AWS ParallelCluster 2:2.11.9.

**Topics**
+ [Layout](#layout)
+ [Sezione `[global]`](global.md)
+ [Sezione `[aws]`](aws.md)
+ [Sezione `[aliases]`](aliases.md)
+ [Sezione `[cluster]`](cluster-definition.md)
+ [Sezione `[compute_resource]`](compute-resource-section.md)
+ [Sezione `[cw_log]`](cw-log-section.md)
+ [Sezione `[dashboard]`](dashboard-section.md)
+ [Sezione `[dcv]`](dcv-section.md)
+ [Sezione `[ebs]`](ebs-section.md)
+ [Sezione `[efs]`](efs-section.md)
+ [Sezione `[fsx]`](fsx-section.md)
+ [Sezione `[queue]`](queue-section.md)
+ [Sezione `[raid]`](raid-section.md)
+ [Sezione `[scaling]`](scaling-section.md)
+ [Sezione `[vpc]`](vpc-section.md)
+ [Esempi](examples.md)

## Layout
<a name="layout"></a>

Una AWS ParallelCluster configurazione è definita in più sezioni.

Sono obbligatorie le seguenti sezioni: [`[global]`sezione](global.md) e [`[aws]`sezione](aws.md).

È inoltre necessario includere almeno una [`[cluster]`sezione](cluster-definition.md) e una [`[vpc]`sezione](vpc-section.md).

L'inizio della sezione è indicato dal relativo nome tra parentesi, seguito da parametri e configurazione.

```
[global]
cluster_template = default
update_check = true
sanity_check = true
```

# Sezione `[global]`
<a name="global"></a>

Specifica opzioni di configurazione generali correlate a `pcluster`.

```
[global]
```

**Topics**
+ [`cluster_template`](#cluster-template)
+ [`update_check`](#update-check)
+ [`sanity_check`](#sanity-check)

## `cluster_template`
<a name="cluster-template"></a>

Definisce il nome della `cluster` sezione utilizzata per il cluster per impostazione predefinita. Per ulteriori informazioni sulle `cluster` sezioni, vedere la [`[cluster]`sezione](cluster-definition.md). Il nome del cluster deve iniziare con una lettera, contenere non più di 60 caratteri e contenere solo lettere, numeri e trattini (-).

Ad esempio, l'impostazione seguente specifica che la sezione che avvia `[cluster default]` viene utilizzata per impostazione predefinita.

```
cluster_template = default
```

[Politica di aggiornamento: questa impostazione non viene analizzata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-ignored)

## `update_check`
<a name="update-check"></a>

**(Facoltativo)** Verifica la presenza di aggiornamenti a. `pcluster`

Il valore predefinito è `true`.

```
update_check = true
```

[Politica di aggiornamento: questa impostazione non viene analizzata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-ignored)

## `sanity_check`
<a name="sanity-check"></a>

**(Facoltativo)** Tenta di convalidare la configurazione delle risorse definite nei parametri del cluster.

Il valore predefinito è `true`.

**avvertimento**  
Se `sanity_check` è impostato su`false`, i controlli importanti vengono ignorati. Ciò potrebbe far sì che la configurazione non funzioni come previsto.

```
sanity_check = true
```

**Nota**  
Prima della AWS ParallelCluster versione 2.5.0, l'[`sanity_check`](#sanity-check)impostazione predefinita era. `false`

[Politica di aggiornamento: questa impostazione non viene analizzata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-ignored)

# Sezione `[aws]`
<a name="aws"></a>

**(Facoltativo)** Utilizzato per selezionare Regione AWS.

La creazione del cluster utilizza questo ordine di priorità Regione AWS per selezionare un nuovo cluster:

1. `-r`o `--region` parametro per[`pcluster create`](pluster.create.md).

1. `AWS_DEFAULT_REGION`variabile di ambiente.

1. `aws_region_name`impostazione nella `[aws]` sezione del file di AWS ParallelCluster configurazione (la posizione predefinita è`~/.parallelcluster/config`.) Questa è la posizione aggiornata dal [`pcluster configure`](pcluster.configure.md) comando.

1. `region`impostazione nella `[default]` sezione del file di AWS CLI configurazione (`~/.aws/config`.)

**Nota**  
Prima della AWS ParallelCluster versione 2.10.0, queste impostazioni erano obbligatorie e applicate a tutti i cluster.

Per archiviare le credenziali, puoi utilizzare l'ambiente, i ruoli IAM per Amazon o EC2 [AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html), anziché salvare le credenziali nel file di AWS ParallelCluster configurazione.

```
[aws]
aws_region_name = Region
```

[Politica di aggiornamento: questa impostazione non viene analizzata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-ignored)

# Sezione `[aliases]`
<a name="aliases"></a>

**Topics**

Specifica gli alias e consente di personalizzare il comando `ssh`.

Nota le seguenti impostazioni predefinite:
+ `CFN_USER`è impostato sul nome utente predefinito per il sistema operativo
+ `MASTER_IP`è impostato sull'indirizzo IP del nodo principale
+ `ARGS`è impostato su qualsiasi argomento fornito dall'utente dopo *`pcluster ssh cluster_name`*

```
[aliases]
# This is the aliases section, you can configure
# ssh alias here
ssh = ssh {CFN_USER}@{MASTER_IP} {ARGS}
```

[Politica di aggiornamento: questa impostazione non viene analizzata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-ignored)

# Sezione `[cluster]`
<a name="cluster-definition"></a>

Definisce un modello di cluster che può essere utilizzato per creare un cluster. Un file di configurazione può contenere più `[cluster]` sezioni.

Lo stesso modello di cluster può essere utilizzato per creare più cluster.

Il formato è `[cluster cluster-template-name]`. La [`[cluster]`sezione](#cluster-definition) denominata dall'[`cluster_template`](global.md#cluster-template)impostazione nella [`[global]`sezione](global.md) viene utilizzata per impostazione predefinita, ma può essere sovrascritta nella [`pcluster`](pcluster.md) riga di comando.

*cluster-template-name*deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

```
[cluster default]
```

**Topics**
+ [`additional_cfn_template`](#additional-cfn-template)
+ [`additional_iam_policies`](#additional-iam-policies)
+ [`base_os`](#base-os)
+ [`cluster_resource_bucket`](#cluster-resource-bucket-section)
+ [`cluster_type`](#cluster-type)
+ [`compute_instance_type`](#compute-instance-type)
+ [`compute_root_volume_size`](#compute-root-volume-size)
+ [`custom_ami`](#custom-ami-section)
+ [`cw_log_settings`](#cw-log-settings)
+ [`dashboard_settings`](#dashboard-settings)
+ [`dcv_settings`](#dcv-settings)
+ [`desired_vcpus`](#desired-vcpus)
+ [`disable_cluster_dns`](#disable-cluster-dns-settings)
+ [`disable_hyperthreading`](#disable-hyperthreading)
+ [`ebs_settings`](#ebs-settings)
+ [`ec2_iam_role`](#ec2-iam-role)
+ [`efs_settings`](#efs-settings)
+ [`enable_efa`](#enable-efa)
+ [`enable_efa_gdr`](#enable-efa-gdr)
+ [`enable_intel_hpc_platform`](#enable-intel-hpc-platform)
+ [`encrypted_ephemeral`](#encrypted-ephemeral)
+ [`ephemeral_dir`](#ephemeral-dir)
+ [`extra_json`](#extra-json)
+ [`fsx_settings`](#fsx-settings)
+ [`iam_lambda_role`](#iam-lambda-role)
+ [`initial_queue_size`](#configuration-initial-queue-size)
+ [`key_name`](#key-name)
+ [`maintain_initial_size`](#maintain-initial-size)
+ [`master_instance_type`](#master-instance-type)
+ [`master_root_volume_size`](#master-root-volume-size)
+ [`max_queue_size`](#configuration-max-queue-size)
+ [`max_vcpus`](#max-vcpus)
+ [`min_vcpus`](#min-vcpus)
+ [`placement`](#placement)
+ [`placement_group`](#placement-group)
+ [`post_install`](#post-install)
+ [`post_install_args`](#post-install-args)
+ [`pre_install`](#pre-install)
+ [`pre_install_args`](#pre-install-args)
+ [`proxy_server`](#proxy-server)
+ [`queue_settings`](#queue-settings)
+ [`raid_settings`](#raid-settings)
+ [`s3_read_resource`](#s3-read-resource)
+ [`s3_read_write_resource`](#s3-read-write-resource)
+ [`scaling_settings`](#scaling-settings)
+ [`scheduler`](#scheduler)
+ [`shared_dir`](#cluster-shared-dir)
+ [`spot_bid_percentage`](#spot-bid-percentage)
+ [`spot_price`](#spot-price)
+ [`tags`](#tags)
+ [`template_url`](#template-url)
+ [`vpc_settings`](#vpc-settings)

## `additional_cfn_template`
<a name="additional-cfn-template"></a>

**(Facoltativo)** Definisce un AWS CloudFormation modello aggiuntivo da avviare insieme al cluster. Questo modello aggiuntivo viene utilizzato per creare risorse esterne al cluster ma che fanno parte del ciclo di vita del cluster.

Il valore deve essere un URL HTTP verso un modello pubblico, con tutti i parametri forniti.

Non c'è alcun valore predefinito.

```
additional_cfn_template = https://<bucket-name>.s3.amazonaws.com/my-cfn-template.yaml
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `additional_iam_policies`
<a name="additional-iam-policies"></a>

**(Facoltativo)** Specifica un elenco di Amazon Resource Names (ARN) delle policy IAM per Amazon EC2. Questo elenco è allegato al ruolo root utilizzato nel cluster oltre alle autorizzazioni richieste, separate da AWS ParallelCluster virgole. Il nome di una policy IAM e il relativo ARN sono diversi. I nomi non possono essere usati come argomento per`additional_iam_policies`.

Se il tuo intento è aggiungere politiche aggiuntive alle impostazioni predefinite per i nodi del cluster, ti consigliamo di aggiungere le politiche IAM personalizzate aggiuntive con l'`additional_iam_policies`impostazione invece di utilizzare [`ec2_iam_role`](#ec2-iam-role)le impostazioni per aggiungere le tue politiche EC2 specifiche. Questo perché `additional_iam_policies` vengono aggiunte alle autorizzazioni predefinite richieste. AWS ParallelCluster Un esistente [`ec2_iam_role`](#ec2-iam-role)deve includere tutte le autorizzazioni richieste. Tuttavia, poiché le autorizzazioni richieste cambiano spesso da una versione all'altra man mano che vengono aggiunte funzionalità, una esistente [`ec2_iam_role`](#ec2-iam-role)può diventare obsoleta.

Non c'è alcun valore predefinito.

```
additional_iam_policies = arn:aws:iam::123456789012:policy/CustomEC2Policy
```

**Nota**  
Il supporto per [`additional_iam_policies`](#additional-iam-policies)è stato aggiunto nella AWS ParallelCluster versione 2.5.0.

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `base_os`
<a name="base-os"></a>

**(Obbligatorio)** Specifica il tipo di sistema operativo utilizzato nel cluster.

Le opzioni disponibili sono:
+ `alinux2`
+ `centos7`
+ `ubuntu1804`
+ `ubuntu2004`

**Nota**  
Sono supportate solo AWS le istanze basate su Graviton o sono `alinux2` supportate`ubuntu1804`. `ubuntu2004`

**Nota**  
Il supporto per `centos8` è stato rimosso nella AWS ParallelCluster versione 2.11.4. Il supporto per `ubuntu2004` è stato aggiunto e il supporto per `alinux` ed `ubuntu1604` è stato rimosso nella AWS ParallelCluster versione 2.11.0. Il supporto per `centos8` è stato aggiunto e il supporto per `centos6` è stato rimosso nella AWS ParallelCluster versione 2.10.0. Il supporto per `alinux2` è stato aggiunto nella AWS ParallelCluster versione 2.6.0. Il supporto per `ubuntu1804` è stato aggiunto e il supporto per `ubuntu1404` è stato rimosso nella AWS ParallelCluster versione 2.5.0.

Oltre a quelli specifici Regioni AWS menzionati nella tabella seguente che non supportano`centos7`. Tutte le altre regioni AWS commerciali supportano tutti i seguenti sistemi operativi.


| Partizione ()Regioni AWS | `alinux2` | `centos7` | `ubuntu1804` e `ubuntu2004` | 
| --- | --- | --- | --- | 
| Commerciale (tutto ciò Regioni AWS non espressamente menzionato) | True | True | True | 
| AWS GovCloud (Stati Uniti orientali) (us-gov-east-1) | True | False | True | 
| AWS GovCloud (Stati Uniti occidentali) () us-gov-west-1 | True | False | True | 
| Cina (Pechino) (cn-north-1) | True | False | True | 
| Cina (Ningxia) (cn-northwest-1) | True | False | True | 

**Nota**  
Il [`base_os`](#base-os) parametro determina anche il nome utente utilizzato per accedere al cluster.
+ `centos7`: `centos` 
+ `ubuntu1804` e `ubuntu2004`: `ubuntu` 
+ `alinux2`: `ec2-user` 

**Nota**  
Prima della AWS ParallelCluster versione 2.7.0, il [`base_os`](#base-os) parametro era facoltativo e l'impostazione predefinita era. `alinux` A partire dalla AWS ParallelCluster versione 2.7.0, il [`base_os`](#base-os) parametro è obbligatorio.

**Nota**  
Se il [`scheduler`](#scheduler) parametro è `awsbatch`, è supportato solo `alinux2`.

```
base_os = alinux2
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `cluster_resource_bucket`
<a name="cluster-resource-bucket-section"></a>

**(Facoltativo)** Speciifica il nome del bucket Amazon S3 utilizzato per ospitare le risorse generate al momento della creazione del cluster. Il bucket deve avere il controllo delle versioni abilitato. Per ulteriori informazioni, consulta [Using versioning](https://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html) nella *Amazon Simple Storage Service User Guide*. Questo bucket può essere utilizzato per più cluster. Il bucket deve trovarsi nella stessa regione del cluster.

Se questo parametro non è specificato, viene creato un nuovo bucket quando viene creato il cluster. Il nuovo bucket ha il nome di. `parallelcluster-random_string` In questo nome, *random\$1string* c'è una stringa casuale di caratteri alfanumerici. Tutte le risorse del cluster sono archiviate in questo bucket in un percorso con il modulo. `bucket_name/resource_directory` `resource_directory`ha la forma`stack_name-random_string`, dove *stack\$1name* è il nome di uno degli CloudFormation stack usati da. AWS ParallelCluster Il valore di *bucket\$1name* può essere trovato nel `ResourcesS3Bucket` valore nell'output dello `parallelcluster-clustername` stack. Il valore di *resource\$1directory* può essere trovato nel valore dell'`ArtifactS3RootDirectory`output dello stesso stack.

Il valore predefinito è `parallelcluster-random_string`.

```
cluster_resource_bucket = amzn-s3-demo-bucket
```

**Nota**  
Il supporto per [`cluster_resource_bucket`](#cluster-resource-bucket-section) è stato aggiunto nella AWS ParallelCluster versione 2.10.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito. L'aggiornamento di questa impostazione non può essere forzato.](using-pcluster-update.md#update-policy-read-only-resource-bucket)

## `cluster_type`
<a name="cluster-type"></a>

**(Facoltativo)** Definisce il tipo di cluster da avviare. Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere sostituita dalle [`compute_type`](queue-section.md#queue-compute-type) impostazioni nelle [`[queue]`sezioni](queue-section.md).

Opzioni valide sono: `ondemand` e `spot`.

Il valore predefinito è `ondemand`.

Per ulteriori informazioni sulle istanze Spot, consulta [Utilizzo di Istanze spot](spot.md).

**Nota**  
L'utilizzo delle istanze Spot richiede che il ruolo `AWSServiceRoleForEC2Spot` collegato al servizio esista nell'account. Per creare questo ruolo nel tuo account utilizzando AWS CLI, esegui il seguente comando:  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Per ulteriori informazioni, consulta il [ruolo collegato ai servizi per le richieste di istanze Spot nella Guida](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) per l'utente di *Amazon EC2*.

```
cluster_type = ondemand
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_instance_type`
<a name="compute-instance-type"></a>

**(Facoltativo)** Definisce il tipo di istanza Amazon EC2 utilizzato per i nodi di calcolo del cluster. L'architettura del tipo di istanza deve essere la stessa dell'architettura utilizzata per l'[`master_instance_type`](#master-instance-type)impostazione. Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere sostituita dalle [`instance_type`](compute-resource-section.md#compute-resource-instance-type) impostazioni nelle [`[compute_resource]`sezioni](compute-resource-section.md).

Se utilizzi lo `awsbatch` scheduler, consulta la creazione di Compute Environments nell' AWS Batch interfaccia utente per un elenco dei tipi di istanze supportati.

L’impostazione predefinita è `t2.micro`, `optimal` quando il pianificatore è `awsbatch`.

```
compute_instance_type = t2.micro
```

**Nota**  
Il supporto per le istanze AWS basate su Graviton (incluse le istanze `A1` e) è stato `C6g` aggiunto nella versione 2.8.0. AWS ParallelCluster 

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_root_volume_size`
<a name="compute-root-volume-size"></a>

**(Facoltativo)** Specificate la dimensione del volume ComputeFleet root in gibibyte (GiB). L'AMI deve supportare `growroot`.

Il valore predefinito è `35`.

**Nota**  
Per AWS ParallelCluster le versioni comprese tra 2.5.0 e 2.10.4, il valore predefinito era 25. Prima della AWS ParallelCluster versione 2.5.0, l'impostazione predefinita era 20.

```
compute_root_volume_size = 35
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `custom_ami`
<a name="custom-ami-section"></a>

**(Facoltativo)** [Specifica l'ID di un'AMI personalizzata da utilizzare per i nodi principale e di calcolo anziché quella predefinita pubblicata. AMIs](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/amis.txt) Per ulteriori informazioni, consulta [Modificare un'AMI](tutorials_02_ami_customization.md#modify-an-aws-parallelcluster-ami) o [Crea un' AWS ParallelCluster AMI personalizzata](tutorials_02_ami_customization.md#build-a-custom-aws-parallelcluster-ami).

Non c'è alcun valore predefinito.

```
custom_ami = ami-00d4efc81188687a0
```

Se l'AMI personalizzata richiede autorizzazioni aggiuntive per il suo avvio, tali autorizzazioni devono essere aggiunte sia alle politiche utente che a quelle del nodo principale.

Ad esempio, se a un'AMI personalizzata è associata un'istantanea crittografata, sono necessarie le seguenti politiche aggiuntive sia nelle politiche utente che in quelle del nodo principale:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```

------

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `cw_log_settings`
<a name="cw-log-settings"></a>

**(Facoltativo)** Identifica la `[cw_log]` sezione con la configurazione CloudWatch Logs. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

Per ulteriori informazioni, consulta la [`[cw_log]`sezione](cw-log-section.md), e[CloudWatch Pannello di controllo Amazon](cloudwatch-dashboard.md). [Integrazione con Amazon CloudWatch Logs](cloudwatch-logs.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[cw_log custom-cw]` viene utilizzata per la configurazione dei CloudWatch registri.

```
cw_log_settings = custom-cw
```

**Nota**  
Il supporto per [`cw_log_settings`](#cw-log-settings) è stato aggiunto nella AWS ParallelCluster versione 2.6.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `dashboard_settings`
<a name="dashboard-settings"></a>

**(Facoltativo)** Identifica la `[dashboard]` sezione con la configurazione del CloudWatch dashboard. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[dashboard]`](dashboard-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[dashboard custom-dashboard` viene utilizzata per la configurazione del CloudWatch dashboard.

```
dashboard_settings = custom-dashboard
```

**Nota**  
Il supporto per [`dashboard_settings`](#dashboard-settings) è stato aggiunto nella AWS ParallelCluster versione 2.10.0.

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `dcv_settings`
<a name="dcv-settings"></a>

**(Facoltativo)** Identifica la `[dcv]` sezione con la configurazione Amazon DCV. Il nome della sezione deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[dcv]`](dcv-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[dcv custom-dcv]` viene utilizzata per la configurazione di Amazon DCV.

```
dcv_settings = custom-dcv
```

**Nota**  
Sulle istanze AWS basate su Graviton, Amazon DCV è supportato solo su. `alinux2`

**Nota**  
Il supporto per [`dcv_settings`](#dcv-settings) è stato aggiunto nella AWS ParallelCluster versione 2.5.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `desired_vcpus`
<a name="desired-vcpus"></a>

**(Facoltativo)** Specificate il numero desiderato di v CPUs nell'ambiente di calcolo. Utilizzato solo se il pianificatore è `awsbatch`.

Il valore predefinito è `4`.

```
desired_vcpus = 4
```

[Politica di aggiornamento: questa impostazione non viene analizzata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-ignored)

## `disable_cluster_dns`
<a name="disable-cluster-dns-settings"></a>

**(Facoltativo)** Speciifica se le voci DNS per il cluster non devono essere create. Per impostazione predefinita, AWS ParallelCluster crea una zona ospitata sulla Route 53. Se `disable_cluster_dns` è impostato su`true`, la zona ospitata non viene creata.

Il valore predefinito è `false`.

```
disable_cluster_dns = true
```

**avvertimento**  
È necessario un sistema di risoluzione dei nomi per il corretto funzionamento del cluster. Se `disable_cluster_dns` è impostato su`true`, deve essere fornito anche un sistema di risoluzione dei nomi aggiuntivo.

**Importante**  
[`disable_cluster_dns`](#disable-cluster-dns-settings)= `true` è supportato solo se viene specificata l'[`queue_settings`](#queue-settings)impostazione.

**Nota**  
Il supporto per [`disable_cluster_dns`](#disable-cluster-dns-settings) è stato aggiunto nella AWS ParallelCluster versione 2.9.1.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `disable_hyperthreading`
<a name="disable-hyperthreading"></a>

**(Facoltativo)** Disattiva l'hyperthreading sui nodi head e di calcolo. Non tutti i tipi di istanza possono disabilitare l'hyper-threading. *Per un elenco dei tipi di istanza che supportano la disabilitazione dell'hyperthreading, consulta Core [e thread della CPU per ogni core di CPU per ogni tipo di istanza nella Guida per l'utente](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) di Amazon EC2.* [Se l'[`queue_settings`](#queue-settings)impostazione è definita, è possibile definire questa impostazione o le [`disable_hyperthreading`](queue-section.md#queue-disable-hyperthreading) impostazioni nelle sezioni. `[queue]`](queue-section.md)

Il valore predefinito è `false`.

```
disable_hyperthreading = true
```

**Nota**  
[`disable_hyperthreading`](#disable-hyperthreading)influisce sul nodo principale solo quando`scheduler = awsbatch`.

**Nota**  
Il supporto per [`disable_hyperthreading`](#disable-hyperthreading) è stato aggiunto nella AWS ParallelCluster versione 2.5.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `ebs_settings`
<a name="ebs-settings"></a>

**(Facoltativo)** Identifica le `[ebs]` sezioni con i volumi Amazon EBS montati sul nodo principale. Quando usi più volumi Amazon EBS, inserisci questi parametri in un elenco separato da una virgola. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

Sono supportati fino a cinque (5) volumi Amazon EBS aggiuntivi.

Per ulteriori informazioni, consulta la [`[ebs]`sezione](ebs-section.md).

Ad esempio, l'impostazione seguente specifica le sezioni che iniziano `[ebs custom1]` e `[ebs custom2]` vengono utilizzate per i volumi Amazon EBS.

```
ebs_settings = custom1, custom2
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `ec2_iam_role`
<a name="ec2-iam-role"></a>

**(Facoltativo)** Definisce il nome di un ruolo IAM esistente per Amazon EC2 collegato a tutte le istanze del cluster. Il nome di un ruolo IAM e il relativo Amazon Resource Name (ARN) sono diversi. ARNs non può essere usato come argomento per`ec2_iam_role`.

Se questa opzione è specificata, l'impostazione [`additional_iam_policies`](#additional-iam-policies) viene ignorata. Se il tuo intento è aggiungere politiche aggiuntive alle impostazioni predefinite per i nodi del cluster, ti consigliamo di passare le politiche IAM personalizzate aggiuntive con l'[`additional_iam_policies`](#additional-iam-policies)impostazione anziché utilizzare le `ec2_iam_role` impostazioni.

Se questa opzione non è specificata, viene utilizzato il ruolo AWS ParallelCluster IAM predefinito per Amazon EC2. Per ulteriori informazioni, consulta [AWS Identity and Access Management ruoli in AWS ParallelCluster](iam.md).

Non c'è alcun valore predefinito.

```
ec2_iam_role = ParallelClusterInstanceRole
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `efs_settings`
<a name="efs-settings"></a>

**(Facoltativo)** Specifica le impostazioni relative al file system Amazon EFS. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[efs]`](efs-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[efs customfs]` viene utilizzata per la configurazione del file system Amazon EFS.

```
efs_settings = customfs
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `enable_efa`
<a name="enable-efa"></a>

**(Facoltativo)** Se presente, specifica che Elastic Fabric Adapter (EFA) è abilitato per i nodi di calcolo. Per visualizzare l'elenco delle istanze EC2 che supportano EFA, consulta [Tipi di istanze supportati](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) nella Guida per l'*utente di Amazon EC2* per le istanze Linux. Per ulteriori informazioni, consulta [Elastic Fabric Adapter](efa.md). [Se l'[`queue_settings`](#queue-settings)impostazione è definita, è possibile definire questa impostazione oppure è possibile definire le [`enable_efa`](queue-section.md#queue-enable-efa) impostazioni nella `[queue]` sezione.](queue-section.md) Un gruppo di collocazione cluster deve essere utilizzato per ridurre al minimo le latenze tra le istanze. Per ulteriori informazioni, consultare [`placement`](#placement) e [`placement_group`](#placement-group).

```
enable_efa = compute
```

**Nota**  
Il supporto per EFA sulle istanze Graviton2 basate su ARM è stato aggiunto nella versione 2.10.1. AWS ParallelCluster 

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `enable_efa_gdr`
<a name="enable-efa-gdr"></a>

**(Facoltativo)** A partire dalla AWS ParallelCluster versione 2.11.3, questa impostazione non ha alcun effetto. Il supporto Elastic Fabric Adapter (EFA) per GPUDirect RDMA (accesso diretto remoto alla memoria) è sempre abilitato se è supportato sia dal tipo di istanza che dal sistema operativo.

**Nota**  
AWS ParallelCluster versione da 2.10.0 a 2.11.2: If`compute`, specifica che il supporto Elastic Fabric Adapter (EFA) GPUDirect per RDMA (accesso diretto remoto alla memoria) è abilitato per i nodi di calcolo. L'impostazione di questa impostazione su richiede che l'impostazione sia impostata su`compute`. [`enable_efa`](#enable-efa) `compute` Il supporto EFA per GPUDirect RDMA è supportato da tipi di istanze specifici (`p4d.24xlarge`) su sistemi operativi specifici ([`base_os`](#base-os)is`alinux2`, `centos7``ubuntu1804`, o`ubuntu2004`). Se l'[`queue_settings`](#queue-settings)impostazione è definita, è possibile definire questa impostazione oppure le [`enable_efa_gdr`](queue-section.md#queue-enable-efa-gdr) impostazioni nelle [`[queue]`sezioni](queue-section.md). Un gruppo di collocazione cluster deve essere utilizzato per ridurre al minimo le latenze tra le istanze. Per ulteriori informazioni, consultare [`placement`](#placement) e [`placement_group`](#placement-group).

```
enable_efa_gdr = compute
```

**Nota**  
Il supporto per `enable_efa_gdr` è stato aggiunto nella AWS ParallelCluster versione 2.10.0.

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_intel_hpc_platform`
<a name="enable-intel-hpc-platform"></a>

**(Facoltativo)** Se presente, indica che il [contratto di licenza con l'utente finale](https://software.intel.com/en-us/articles/end-user-license-agreement) per Intel Parallel Studio è accettato. Ciò fa sì che Intel Parallel Studio venga installato sul nodo principale e condiviso con i nodi di elaborazione. Ciò aggiunge diversi minuti al tempo impiegato dal nodo principale per avviarsi. L'impostazione [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) è supportata solo su CentOS 7 ([`base_os`](#base-os)` = centos7`).

Il valore predefinito è `false`.

```
enable_intel_hpc_platform = true
```

**Nota**  
Il [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) parametro non è compatibile con le istanze basate su AWS Graviton.

**Nota**  
Il supporto per [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) è stato aggiunto nella AWS ParallelCluster versione 2.5.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `encrypted_ephemeral`
<a name="encrypted-ephemeral"></a>

**(Facoltativo)** Crittografa i volumi temporanei dell'Instance Store con chiavi in memoria non recuperabili, utilizzando LUKS (Linux Unified Key Setup).

Per ulteriori informazioni, consulta [https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md](https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md).

Il valore predefinito è `false`.

```
encrypted_ephemeral = true
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `ephemeral_dir`
<a name="ephemeral-dir"></a>

**(Facoltativo)** Definisce il percorso in cui vengono montati i volumi dell'Instance Store, se utilizzati.

Il valore predefinito è `/scratch`.

```
ephemeral_dir = /scratch
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `extra_json`
<a name="extra-json"></a>

**(Facoltativo)** Definisce il codice JSON aggiuntivo che viene unito in. Chef `dna.json` Per ulteriori informazioni, consulta [Creazione di un' AWS ParallelCluster AMI personalizzata](tutorials_02_ami_customization.md).

Il valore predefinito è `{}`.

```
extra_json = {}
```

**Nota**  
A partire dalla AWS ParallelCluster versione 2.6.1, la maggior parte delle ricette di installazione vengono ignorate per impostazione predefinita all'avvio dei nodi per migliorare i tempi di avvio. Per eseguire tutte le ricette di installazione per una migliore compatibilità con le versioni precedenti a scapito dei tempi di avvio, aggiungile `"skip_install_recipes" : "no"` alla chiave nell'`cluster`impostazione. [`extra_json`](#extra-json) Esempio:  

```
extra_json = { "cluster" : { "skip_install_recipes" : "no" } }
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `fsx_settings`
<a name="fsx-settings"></a>

**(Facoltativo)** Specificate la sezione che definisce la configurazione di FSx for Lustre. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[fsx]`](fsx-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[fsx fs]` viene utilizzata per la configurazione di FSx for Lustre.

```
fsx_settings = fs
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `iam_lambda_role`
<a name="iam-lambda-role"></a>

**(Facoltativo)** Definisce il nome di un ruolo di AWS Lambda esecuzione esistente. Questo ruolo è associato a tutte le funzioni Lambda del cluster. Per ulteriori informazioni, consulta [Ruolo di esecuzione di AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/lambda-intro-execution-role.html) nella *Guida per gli sviluppatori di AWS Lambda *.

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei SGE nostri scheduler. Torque

Il nome di un ruolo IAM e il relativo Amazon Resource Name (ARN) sono diversi. ARNs non può essere usato come argomento per`iam_lambda_role`. Se entrambi [`ec2_iam_role`](#ec2-iam-role) `iam_lambda_role` sono definiti e l'[`scheduler`](#scheduler)è `sge``slurm`, o`torque`, non verrà creato alcun ruolo. Se lo [`scheduler`](#scheduler) è`awsbatch`, allora verranno creati ruoli durante[`pcluster start`](pcluster.start.md). Ad esempio, le politiche, vedi [`ParallelClusterLambdaPolicy`utilizzando, o SGE Slurm Torque](iam.md#parallelcluster-lambda-policy) e[`ParallelClusterLambdaPolicy` tramite `awsbatch`](iam.md#parallelcluster-lambda-policy-batch).

Non c'è alcun valore predefinito.

```
iam_lambda_role = ParallelClusterLambdaRole
```

**Nota**  
Il supporto per `iam_lambda_role` è stato aggiunto nella AWS ParallelCluster versione 2.10.1.

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `initial_queue_size`
<a name="configuration-initial-queue-size"></a>

**(Facoltativo)** Imposta il numero iniziale di istanze Amazon EC2 da avviare come nodi di calcolo nel cluster. [Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere rimossa e sostituita dalle [`initial_count`](compute-resource-section.md#compute-resource-initial-count) impostazioni nelle sezioni. `[compute_resource]`](compute-resource-section.md)

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei nostri schedulerSGE. Torque

Questa impostazione è applicabile solo per i pianificatori tradizionali (SGE, Slurm e Torque). Se l'[`maintain_initial_size`](#maintain-initial-size)impostazione è`true`, deve essere almeno una (1). [`initial_queue_size`](#configuration-initial-queue-size)

Se il pianificatore è `awsbatch`, utilizza piuttosto [`min_vcpus`](#min-vcpus).

L’impostazione predefinita è `2`.

```
initial_queue_size = 2
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `key_name`
<a name="key-name"></a>

**(Facoltativo)** Assegna un nome a una coppia di key pair Amazon EC2 esistente con cui abilitare l'accesso SSH alle istanze.

```
key_name = mykey
```

**Nota**  
Prima della AWS ParallelCluster versione 2.11.0, `key_name` era un'impostazione obbligatoria.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `maintain_initial_size`
<a name="maintain-initial-size"></a>

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei nostri scheduler. SGE Torque

**(Facoltativo)** Mantiene la dimensione iniziale del gruppo Auto Scaling per gli scheduler tradizionali (SGESlurm, e). Torque

Se il pianificatore è `awsbatch`, utilizza piuttosto [`desired_vcpus`](#desired-vcpus).

Questa impostazione è un flag booleano. Se impostato su`true`, il gruppo Auto Scaling non ha mai un numero di membri inferiore al valore di [`initial_queue_size`](#configuration-initial-queue-size) e il valore di [`initial_queue_size`](#configuration-initial-queue-size) deve essere uno (1) o superiore. I cluster possono comunque essere aumentati fino al valore di [`max_queue_size`](#configuration-max-queue-size). In `cluster_type = spot` tal caso, nel gruppo Auto Scaling le istanze possono essere interrotte e le dimensioni possono diminuire. [`initial_queue_size`](#configuration-initial-queue-size)

Se impostato su`false`, il gruppo Auto Scaling può ridurlo a zero (0) membri per evitare che le risorse rimangano inattive quando non sono necessarie.

[Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere rimossa e sostituita dalle [`min_count`](compute-resource-section.md#compute-resource-min-count) impostazioni [`initial_count`](compute-resource-section.md#compute-resource-initial-count) e nelle `[compute_resource]` sezioni.](compute-resource-section.md)

L’impostazione predefinita è `false`.

```
maintain_initial_size = false
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `master_instance_type`
<a name="master-instance-type"></a>

**(Facoltativo)** Definisce il tipo di istanza Amazon EC2 utilizzato per il nodo principale. L'architettura del tipo di istanza deve essere la stessa dell'architettura utilizzata per l'[`compute_instance_type`](#compute-instance-type)impostazione.

In Regioni AWS quelle con un piano gratuito, il valore predefinito è il tipo di istanza Free Tier (`t2.micro`o`t3.micro`). In quelle Regioni AWS che non dispongono di un piano gratuito, l'impostazione predefinita è. `t3.micro` Per ulteriori informazioni sul piano AWS gratuito, consulta il piano [AWS gratuito](https://aws.amazon.com/free/free-tier-faqs/). FAQs

```
master_instance_type = t2.micro
```

**Nota**  
Prima della AWS ParallelCluster versione 2.10.1, l'impostazione predefinita era in all. `t2.micro` Regioni AWS Nella AWS ParallelCluster versione 2.10.0, `p4d.24xlarge` non era supportato per il nodo principale. Il supporto per le istanze AWS basate su Graviton (come `A1` e`C6g`) è stato aggiunto nella versione 2.8.0. AWS ParallelCluster 

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `master_root_volume_size`
<a name="master-root-volume-size"></a>

**(Facoltativo)** Specificate la dimensione del volume radice del nodo principale in gibibyte (GiB). L'AMI deve supportare `growroot`.

Il valore predefinito è `35`.

**Nota**  
Per AWS ParallelCluster le versioni comprese tra 2.5.0 e 2.10.4, il valore predefinito era 25. Prima della AWS ParallelCluster versione 2.5.0, l'impostazione predefinita era 20.

```
master_root_volume_size = 35
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `max_queue_size`
<a name="configuration-max-queue-size"></a>

**(Facoltativo)** Imposta il numero massimo di istanze Amazon EC2 che possono essere avviate nel cluster. [Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere rimossa e sostituita dalle [`max_count`](compute-resource-section.md#compute-resource-max-count) impostazioni nelle `[compute_resource]` sezioni.](compute-resource-section.md)

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei nostri schedulerSGE. Torque

Questa impostazione è applicabile solo per i pianificatori tradizionali (SGE, Slurm e Torque).

Se il pianificatore è `awsbatch`, utilizza piuttosto [`max_vcpus`](#max-vcpus).

L’impostazione predefinita è `10`.

```
max_queue_size = 10
```

Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento, ma la flotta di elaborazione dovrebbe essere interrotta se il valore viene ridotto. In caso contrario, i nodi esistenti potrebbero essere terminati.

## `max_vcpus`
<a name="max-vcpus"></a>

**(Facoltativo)** Specifica il numero massimo di v CPUs nell'ambiente di calcolo. Utilizzato solo se il pianificatore è `awsbatch`.

Il valore predefinito è `20`.

```
max_vcpus = 20
```

[Politica di aggiornamento: questa impostazione non può essere ridotta durante un aggiornamento.](using-pcluster-update.md#update-policy-no-decrease)

## `min_vcpus`
<a name="min-vcpus"></a>

**(Facoltativo)** Mantiene la dimensione iniziale del gruppo Auto Scaling per lo `awsbatch` scheduler.

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei nostri scheduler. SGE Torque

Se il pianificatore è SGE, Slurm o Torque utilizza piuttosto [`maintain_initial_size`](#maintain-initial-size).

L'ambiente di calcolo non dispone mai di un numero inferiore di membri rispetto al valore di [`min_vcpus`](#min-vcpus).

L’impostazione predefinita è `0`.

```
min_vcpus = 0
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `placement`
<a name="placement"></a>

**(Facoltativo)** Definisce la logica del gruppo di posizionamento del cluster, abilitando l'uso del gruppo di posizionamento del cluster all'intero cluster o solo alle istanze di calcolo.

[Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere rimossa e sostituita con [`placement_group`](queue-section.md#queue-placement-group) impostazioni per ciascuna sezione`[queue]`.](queue-section.md) Se lo stesso gruppo di collocamento viene utilizzato per diversi tipi di istanze, è più probabile che la richiesta non riesca a causa di un errore di capacità insufficiente. Per ulteriori informazioni, consulta la sezione [Capacità insufficiente delle istanze](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) nella Guida per l'*utente di Amazon EC2*. Più code possono condividere un gruppo di posizionamento solo se questo è stato creato in anticipo e configurato nelle [`placement_group`](queue-section.md#queue-placement-group) impostazioni di ciascuna coda. Se ogni [`[queue]`sezione](queue-section.md) definisce un'[`placement_group`](queue-section.md#queue-placement-group)impostazione, il nodo principale non può appartenere al gruppo di posizionamento di una coda.

È possibile utilizzare i valori `cluster` e `compute`.

Questo parametro non viene utilizzato quando lo scheduler lo è. `awsbatch`

Il valore predefinito è `compute`.

```
placement = compute
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `placement_group`
<a name="placement-group"></a>

**(Facoltativo)** Definisce il gruppo di posizionamento del cluster. Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere rimossa e sostituita dalle [`placement_group`](queue-section.md#queue-placement-group) impostazioni nelle [`[queue]`sezioni](queue-section.md).

Le opzioni valide sono i seguenti valori:
+ `DYNAMIC`
+ Un nome del gruppo di posizionamento del cluster Amazon EC2 esistente

Quando impostato su`DYNAMIC`, un gruppo di collocazione univoco viene creato ed eliminato come parte dello stack del cluster.

Questo parametro non viene utilizzato quando lo scheduler lo è. `awsbatch`

Per ulteriori informazioni sui gruppi di collocamento, consulta [Placement groups](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) nella *Amazon EC2 User Guide*. Se lo stesso gruppo di collocamento viene utilizzato per diversi tipi di istanze, è più probabile che la richiesta non riesca a causa di un errore di capacità insufficiente. Per ulteriori informazioni, consulta la sezione [Capacità insufficiente delle istanze](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) nella Guida per l'*utente di Amazon EC2*.

Non c'è alcun valore predefinito.

Non tutti i tipi di istanza supportano i gruppi di collocazione cluster. Ad esempio, il tipo di istanza predefinito di `t3.micro` non supporta i gruppi di posizionamento dei cluster. Per informazioni sull'elenco dei tipi di istanze che supportano i gruppi di posizionamento dei cluster, consulta [le regole e le limitazioni dei gruppi di posizionamento dei cluster](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) nella Guida per l'*utente di Amazon EC2*. Consulta [Gruppi di collocamento e problemi relativi al lancio delle istanze](troubleshooting.md#placement-groups-and-instance-launch-issues) per i suggerimenti relativi all'utilizzo dei gruppi di collocamento.

```
placement_group = DYNAMIC
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `post_install`
<a name="post-install"></a>

**(Facoltativo)** Speciifica l'URL di uno script di post-installazione che viene eseguito dopo che tutte le azioni di bootstrap del nodo sono state completate. Per ulteriori informazioni, consulta [Operazioni di bootstrap personalizzate](pre_post_install.md).

Quando viene utilizzato `awsbatch` come scheduler, lo script di post-installazione viene eseguito solo sul nodo principale.

Il formato del parametro può essere "`http://hostname/path/to/script.sh`" o "`s3://bucket-name/path/to/script.sh`".

Non c'è alcun valore predefinito.

```
post_install = s3://<bucket-name>/my-post-install-script.sh
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `post_install_args`
<a name="post-install-args"></a>

**(Facoltativo)** Specifica un elenco tra virgolette di argomenti da passare allo script di post-installazione.

Non c'è alcun valore predefinito.

```
post_install_args = "argument-1 argument-2"
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install`
<a name="pre-install"></a>

**(Facoltativo)** Specifica l'URL di uno script di preinstallazione che viene eseguito prima dell'avvio di qualsiasi azione di bootstrap di distribuzione del nodo. Per ulteriori informazioni, consulta [Operazioni di bootstrap personalizzate](pre_post_install.md).

Quando viene utilizzato `awsbatch` come scheduler, lo script di preinstallazione viene eseguito solo sul nodo principale.

Il formato del parametro può essere "`http://hostname/path/to/script.sh`" o "`s3://bucket-name/path/to/script.sh`".

Non c'è alcun valore predefinito.

```
pre_install = s3://bucket-name/my-pre-install-script.sh
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install_args`
<a name="pre-install-args"></a>

**(Facoltativo)** Specifica un elenco tra virgolette di argomenti da passare allo script di preinstallazione.

Non c'è alcun valore predefinito.

```
pre_install_args = "argument-3 argument-4"
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `proxy_server`
<a name="proxy-server"></a>

**(Facoltativo)** Definisce in genere un server proxy HTTP o HTTPS. `http://x.x.x.x:8080`

Non c'è alcun valore predefinito.

```
proxy_server = http://10.11.12.13:8080
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `queue_settings`
<a name="queue-settings"></a>

**(Facoltativo)** [Speciifica che il cluster utilizza le code anziché una flotta di elaborazione omogenea e quali `[queue]` sezioni vengono utilizzate.](queue-section.md) La prima [`[queue]`sezione](queue-section.md) elencata è la coda di pianificazione predefinita. I nomi delle `queue` sezioni devono iniziare con una lettera minuscola, contenere non più di 30 caratteri e contenere solo lettere minuscole, numeri e trattini (-).

**Importante**  
[`queue_settings`](#queue-settings)è supportato solo quando è impostato su. [`scheduler`](#scheduler) `slurm` Le [`spot_price`](#spot-price) impostazioni [`cluster_type`](#cluster-type)[`compute_instance_type`](#compute-instance-type),[`initial_queue_size`](#configuration-initial-queue-size),[`maintain_initial_size`](#maintain-initial-size),[`max_queue_size`](#configuration-max-queue-size), [`placement`](#placement)[`placement_group`](#placement-group), e non devono essere specificate. Le [`enable_efa`](#enable-efa) impostazioni [`disable_hyperthreading`](#disable-hyperthreading) e possono essere specificate nella [`[cluster]`sezione](#cluster-definition) o nelle [`[queue]`sezioni](queue-section.md), ma non in entrambe.

Sono supportate fino a cinque (5) [`[queue]`sezioni](queue-section.md).

Per ulteriori informazioni, consulta la [`[queue]`sezione](queue-section.md).

Ad esempio, l'impostazione seguente specifica le sezioni che iniziano `[queue q1]` e `[queue q2]` vengono utilizzate.

```
queue_settings = q1, q2
```

**Nota**  
Il supporto per [`queue_settings`](#queue-settings) è stato aggiunto nella AWS ParallelCluster versione 2.9.0.

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `raid_settings`
<a name="raid-settings"></a>

**(Facoltativo)** Identifica la `[raid]` sezione con la configurazione RAID del volume Amazon EBS. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[raid]`](raid-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[raid rs]` deve essere utilizzata per la configurazione Auto Scaling.

```
raid_settings = rs
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `s3_read_resource`
<a name="s3-read-resource"></a>

**(Facoltativo)** Speciifica una risorsa Amazon S3 a AWS ParallelCluster cui è concesso l'accesso in sola lettura ai nodi.

Ad esempio, `arn:aws:s3:::my_corporate_bucket*` fornisce l'accesso in sola lettura al *my\$1corporate\$1bucket* bucket e agli oggetti in esso contenuti.

Per dettagli sul formato, consulta [Lavorare con Amazon S3](s3_resources.md).

Non c'è alcun valore predefinito.

```
s3_read_resource = arn:aws:s3:::my_corporate_bucket*
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `s3_read_write_resource`
<a name="s3-read-write-resource"></a>

**(Facoltativo)** Speciifica una risorsa Amazon S3 a AWS ParallelCluster cui è read/write consentito l'accesso ai nodi.

Ad esempio, `arn:aws:s3:::my_corporate_bucket/Development/*` fornisce read/write l'accesso a tutti gli oggetti nella `Development` cartella del *my\$1corporate\$1bucket* bucket.

Per dettagli sul formato, consulta [Lavorare con Amazon S3](s3_resources.md).

Non c'è alcun valore predefinito.

```
s3_read_write_resource = arn:aws:s3:::my_corporate_bucket/*
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `scaling_settings`
<a name="scaling-settings"></a>

Identifica la `[scaling]` sezione con la configurazione Auto Scaling. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[scaling]`](scaling-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[scaling custom]` viene utilizzata per la configurazione Auto Scaling.

```
scaling_settings = custom
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `scheduler`
<a name="scheduler"></a>

**(Obbligatorio)** Definisce il pianificatore del cluster.

Le opzioni valide sono i seguenti valori:

`awsbatch`  
AWS Batch  
Per ulteriori informazioni sullo `awsbatch` scheduler, vedere [configurazione della rete](networking.md#awsbatch-networking) e[AWS Batch (`awsbatch`)](awsbatchcli.md).

`sge`  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei SGE nostri scheduler. Torque
Son of Grid Engine (SGE)

`slurm`  
Slurm Workload Manager (Slurm)

`torque`  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso di o scheduler. SGE Torque
Torque Resource Manager (Torque)

**Nota**  
Prima della AWS ParallelCluster versione 2.7.0, il `scheduler` parametro era facoltativo e l'impostazione predefinita era. `sge` A partire dalla AWS ParallelCluster versione 2.7.0, il `scheduler` parametro è obbligatorio.

```
scheduler = slurm
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="cluster-shared-dir"></a>

**(Facoltativo)** Definisce il percorso in cui viene montato il volume Amazon EBS condiviso.

Non utilizzare questa opzione con più volumi Amazon EBS. Fornisci invece [`shared_dir`](#cluster-shared-dir) valori in ogni [`[ebs]`sezione](ebs-section.md).

Consulta la [`[ebs]`sezione](ebs-section.md) per i dettagli sull'utilizzo di più volumi Amazon EBS.

Il valore predefinito è `/shared`.

L'esempio seguente mostra un volume Amazon EBS condiviso montato su`/myshared`.

```
shared_dir = myshared
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `spot_bid_percentage`
<a name="spot-bid-percentage"></a>

**(Facoltativo)** Imposta la percentuale su richiesta utilizzata per calcolare il prezzo Spot massimo per lo ComputeFleet scheduler, when `awsbatch` is.

Se non viene specificato, viene selezionato il prezzo Spot attuale di mercato, con limite massimo pari al prezzo on demand.

```
spot_bid_percentage = 85
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `spot_price`
<a name="spot-price"></a>

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso dei nostri scheduler. SGE Torque

**(Facoltativo)** Imposta il prezzo Spot massimo per gli ComputeFleet scheduler tradizionali (SGE, Slurm e). Torque Utilizzato solo quando l'impostazione [`cluster_type`](#cluster-type) è impostata su `spot`. Se non specifichi un valore, ti verrà addebitato il prezzo Spot, limitato al prezzo On-Demand. [Se l'[`queue_settings`](#queue-settings)impostazione è definita, questa impostazione deve essere rimossa e sostituita dalle [`spot_price`](compute-resource-section.md#compute-resource-spot-price) impostazioni nelle `[compute_resource]` sezioni.](compute-resource-section.md)

Se il pianificatore è `awsbatch`, utilizza piuttosto [spot\$1bid\$1percentage](#spot-bid-percentage).

Per assistenza nella ricerca di un'istanza Spot che soddisfi le tue esigenze, consulta il [consulente Spot Instance](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

**Nota**  
Nella AWS ParallelCluster versione 2.5.0, se [`spot_price`](#spot-price) non è specificato `cluster_type = spot` ma, l'istanza viene avviata in errore. ComputeFleet Questo problema è stato risolto nella AWS ParallelCluster versione 2.5.1.

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `tags`
<a name="tags"></a>

**(Facoltativo)** Definisce i tag da CloudFormation utilizzare.

Se vengono specificati i tag della riga di comando tramite *--tags*, vengono uniti ai tag di configurazione.

I tag della riga di comando sovrascrivono i tag di configurazione che hanno la stessa chiave.

I tag sono in formato JSON. Non utilizzare virgolette al di fuori delle parentesi graffe.

Per ulteriori informazioni, consulta il [tipo di tag di CloudFormation risorsa](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) nella Guida per l'*AWS CloudFormation utente*.

```
tags = {"key" : "value", "key2" : "value2"}
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

**Nota**  
La politica di aggiornamento non supportava la modifica dell'`tags`impostazione dalla AWS ParallelCluster versione 2.8.0 alla versione 2.9.1.  
Per le versioni da 2.10.0 a 2.11.7, i criteri di aggiornamento elencati che supportavano la modifica dell'impostazione non sono accurati. `tags` L'aggiornamento del cluster durante la modifica di questa impostazione non è supportato.

## `template_url`
<a name="template-url"></a>

**(Facoltativo)** Definisce il percorso del AWS CloudFormation modello utilizzato per creare il cluster.

Gli aggiornamenti utilizzano il modello originariamente usato per creare lo stack.

L’impostazione predefinita è `https://aws_region_name-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version.cfn.json`.

**avvertimento**  
Si tratta di un parametro avanzato. Qualsiasi modifica a questa impostazione viene effettuata a proprio rischio.

```
template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json
```

[Politica di aggiornamento: questa impostazione non viene analizzata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-ignored)

## `vpc_settings`
<a name="vpc-settings"></a>

**(Obbligatorio)** Identifica la `[vpc]` sezione con la configurazione Amazon VPC in cui viene distribuito il cluster. Il nome della sezione deve iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Per ulteriori informazioni, consulta la sezione. `[vpc]`](vpc-section.md)

Ad esempio, l'impostazione seguente specifica che la sezione che inizia `[vpc public]` viene utilizzata per la configurazione di Amazon VPC.

```
vpc_settings = public
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

# Sezione `[compute_resource]`
<a name="compute-resource-section"></a>

Definisce le impostazioni di configurazione per una risorsa di calcolo. [`[compute_resource]`le sezioni](#compute-resource-section) [sono referenziate dall'[`compute_resource_settings`](queue-section.md#queue-compute-resource-settings)impostazione nella `[queue]` sezione.](queue-section.md) [`[compute_resource]`le sezioni](#compute-resource-section) sono supportate solo quando [`scheduler`](cluster-definition.md#scheduler) è impostata su. `slurm`

Il formato è`[compute_resource <compute-resource-name>]`. *compute-resource-name*deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

```
[compute_resource cr1]
instance_type = c5.xlarge
min_count = 0
initial_count = 2
max_count = 10
spot_price = 0.5
```

**Nota**  
Il supporto per la [`[compute_resource]`sezione](#compute-resource-section) è stato aggiunto nella AWS ParallelCluster versione 2.9.0.

**Topics**
+ [`initial_count`](#compute-resource-initial-count)
+ [`instance_type`](#compute-resource-instance-type)
+ [`max_count`](#compute-resource-max-count)
+ [`min_count`](#compute-resource-min-count)
+ [`spot_price`](#compute-resource-spot-price)

## `initial_count`
<a name="compute-resource-initial-count"></a>

**(Facoltativo)** Imposta il numero iniziale di EC2 istanze Amazon da avviare per questa risorsa di elaborazione. La creazione del cluster non viene completata finché almeno questo numero di nodi non viene avviato nella risorsa di calcolo. Se l'[`compute_type`](queue-section.md#queue-compute-type)impostazione per la coda è corretta `spot` e non ci sono abbastanza istanze Spot disponibili, la creazione del cluster potrebbe scadere e fallire. Qualsiasi conteggio superiore all'[`min_count`](#compute-resource-min-count)impostazione è la capacità dinamica soggetta all'[`scaledown_idletime`](scaling-section.md#scaledown-idletime)impostazione. Questa impostazione sostituisce l'impostazione [`initial_queue_size`](cluster-definition.md#configuration-initial-queue-size).

L'impostazione predefinita è `0`.

```
initial_count = 2
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `instance_type`
<a name="compute-resource-instance-type"></a>

**(Obbligatorio)** Definisce il tipo di EC2 istanza Amazon utilizzato per questa risorsa di calcolo. L'architettura del tipo di istanza deve essere la stessa dell'architettura utilizzata per l'[`master_instance_type`](cluster-definition.md#master-instance-type)impostazione. L'`instance_type`impostazione deve essere unica per ogni [`[compute_resource]`sezione](#compute-resource-section) a cui fa riferimento una [`[queue]`sezione](queue-section.md). Questa impostazione sostituisce l'impostazione [`compute_instance_type`](cluster-definition.md#compute-instance-type).

```
instance_type = t2.micro
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `max_count`
<a name="compute-resource-max-count"></a>

**(Facoltativo)** Imposta il numero massimo di EC2 istanze Amazon che possono essere avviate in questa risorsa di elaborazione. Qualsiasi conteggio superiore all'[`initial_count`](#compute-resource-initial-count)impostazione viene avviato in modalità di spegnimento. Questa impostazione sostituisce l'impostazione [`max_queue_size`](cluster-definition.md#configuration-max-queue-size).

L'impostazione predefinita è `10`.

```
max_count = 10
```

[Politica di aggiornamento: per ridurre le dimensioni di una coda al di sotto del numero attuale di nodi è necessario arrestare prima il parco di elaborazione.](using-pcluster-update.md#update-policy-max-count)

**Nota**  
La politica di aggiornamento non supportava la modifica dell'`max_count`impostazione fino all'interruzione del parco di elaborazione dalla AWS ParallelCluster versione 2.0.0 alla versione 2.9.1.

## `min_count`
<a name="compute-resource-min-count"></a>

**(Facoltativo)** Imposta il numero minimo di EC2 istanze Amazon che possono essere avviate in questa risorsa di elaborazione. Questi nodi sono tutti di capacità statica. La creazione del cluster non viene completata finché almeno questo numero di nodi non viene avviato nella risorsa di elaborazione.

L'impostazione predefinita è `0`.

```
min_count = 1
```

[Politica di aggiornamento: per ridurre il numero di nodi statici in una coda è necessario arrestare prima il parco di elaborazione.](using-pcluster-update.md#update-policy-min-count)

**Nota**  
La politica di aggiornamento non supportava la modifica dell'`min_count`impostazione fino all'interruzione del parco di elaborazione dalla AWS ParallelCluster versione 2.0.0 alla versione 2.9.1.

## `spot_price`
<a name="compute-resource-spot-price"></a>

**(Facoltativo)** Imposta il prezzo Spot massimo per questa risorsa di elaborazione. Utilizzato solo quando l'[`compute_type`](queue-section.md#queue-compute-type)impostazione per la coda contenente queste risorse di calcolo è impostata su. `spot` Questa impostazione sostituisce l'impostazione [`spot_price`](cluster-definition.md#spot-price).

Se non specifichi un valore, ti verrà addebitato il prezzo Spot, limitato al prezzo On-Demand.

Per assistenza nella ricerca di un'istanza Spot che soddisfi le tue esigenze, consulta il consulente [Spot Instance](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

# Sezione `[cw_log]`
<a name="cw-log-section"></a>

Definisce le impostazioni di configurazione per CloudWatch i registri.

Il formato è`[cw_log cw-log-name]`. *cw-log-name*deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

```
[cw_log custom-cw-log]
enable = true
retention_days = 14
```

Per ulteriori informazioni, consulta [Integrazione con Amazon CloudWatch Logs](cloudwatch-logs.md), [CloudWatch Pannello di controllo Amazon](cloudwatch-dashboard.md) e [Integrazione con Amazon CloudWatch Logs](cloudwatch-logs.md).

**Nota**  
Il supporto per `cw_log` è stato aggiunto nella AWS ParallelCluster versione 2.6.0.

## `enable`
<a name="cw-log-section-enable"></a>

 **(Facoltativo)** Indica se CloudWatch i registri sono abilitati.

Il valore predefinito è `true`. Utilizzare `false` per disabilitare i CloudWatch registri.

L'esempio seguente abilita i CloudWatch log.

```
enable = true
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `retention_days`
<a name="cw-log-section-retention-days"></a>

 **(Facoltativo)** Indica per quanti giorni CloudWatch Logs conserva i singoli eventi di registro.

Il valore predefinito è `14`. I valori supportati sono 1, 3, 5, 7, 14, 30, 60, 90, 120, 150, 180, 365, 400, 545, 731, 1827 e 3653.

L'esempio seguente configura CloudWatch Logs per conservare gli eventi di registro per 30 giorni.

```
retention_days = 30
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

# Sezione `[dashboard]`
<a name="dashboard-section"></a>

Definisce le impostazioni di configurazione per la CloudWatch dashboard.

Il formato è`[dashboard dashboard-name]`. *dashboard-name*deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

```
[dashboard custom-dashboard]
enable = true
```

**Nota**  
Il supporto per `dashboard` è stato aggiunto nella AWS ParallelCluster versione 2.10.0.

## `enable`
<a name="dashboard-section-enable"></a>

 **(Facoltativo)** Indica se la CloudWatch dashboard è abilitata.

Il valore predefinito è `true`. Utilizzare `false` per disabilitare il CloudWatch pannello di controllo.

L'esempio seguente abilita la CloudWatch dashboard.

```
enable = true
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

# Sezione `[dcv]`
<a name="dcv-section"></a>

Definisce le impostazioni di configurazione per il server Amazon DCV in esecuzione sul nodo principale.

Per creare e configurare un server Amazon DCV, specifica il cluster [`dcv_settings`](cluster-definition.md#dcv-settings) con il nome definito nella `dcv` sezione e impostalo su [`enable`](#dcv-section-enable)`master`, e [`base_os`](cluster-definition.md#base-os) to `alinux2``centos7`, `ubuntu1804` o`ubuntu2004`. Se il nodo principale è un'istanza ARM, imposta su [`base_os`](cluster-definition.md#base-os) `alinux2``centos7`, o`ubuntu1804`.

Il formato è`[dcv dcv-name]`. *dcv-name*deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

```
[dcv custom-dcv]
enable = master
port = 8443
access_from = 0.0.0.0/0
```

Per ulteriori informazioni, consulta [Connect al nodo principale tramite Amazon DCV](dcv.md)

**Importante**  
Per impostazione predefinita, la porta Amazon DCV configurata da AWS ParallelCluster è aperta a tutti gli IPv4 indirizzi. Tuttavia, puoi connetterti a una porta Amazon DCV solo se disponi dell'URL per la sessione Amazon DCV e connetterti alla sessione Amazon DCV entro 30 secondi dal momento in cui l'URL viene restituito. `pcluster dcv connect` Utilizza l'[`access_from`](#dcv-section-access-from)impostazione per limitare ulteriormente l'accesso alla porta Amazon DCV con un intervallo IP in formato CIDR e usa l'[`port`](#dcv-section-port)impostazione per impostare una porta non standard.

**Nota**  
Il supporto per la [`[dcv]`sezione](#dcv-section) on `centos8` è stato rimosso nella AWS ParallelCluster versione 2.10.4. Il supporto per la [`[dcv]`sezione](#dcv-section) on `centos8` è stato aggiunto nella AWS ParallelCluster versione 2.10.0. Il supporto per la [`[dcv]`sezione](#dcv-section) sulle istanze AWS basate su Graviton è stato aggiunto nella versione 2.9.0. AWS ParallelCluster Il supporto per la [`[dcv]`sezione](#dcv-section) su `alinux2` ed `ubuntu1804` è stato aggiunto nella AWS ParallelCluster versione 2.6.0. Il supporto per la [`[dcv]`sezione](#dcv-section) on `centos7` è stato aggiunto nella AWS ParallelCluster versione 2.5.0.

## `access_from`
<a name="dcv-section-access-from"></a>

 **(Facoltativo, consigliato)** Specifica l'intervallo IP in formato CIDR per le connessioni ad Amazon DCV. Questa impostazione viene utilizzata solo quando si crea il gruppo di sicurezza. AWS ParallelCluster 

Il valore predefinito è `0.0.0.0/0` che consente l'accesso da qualsiasi indirizzo internet.

```
access_from = 0.0.0.0/0
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `enable`
<a name="dcv-section-enable"></a>

 **(Obbligatorio)** Indica se Amazon DCV è abilitato sul nodo principale. Per abilitare Amazon DCV sul nodo principale e configurare la regola del gruppo di sicurezza richiesta, imposta l'`enable`impostazione su. `master`

L'esempio seguente abilita Amazon DCV sul nodo principale.

```
enable = master
```

**Nota**  
Amazon DCV genera automaticamente un certificato autofirmato utilizzato per proteggere il traffico tra il client Amazon DCV e il server Amazon DCV in esecuzione sul nodo principale. Per configurare il proprio certificato, consulta [Certificato HTTPS Amazon DCV](dcv.md#dcv-certificate).

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `port`
<a name="dcv-section-port"></a>

 **(Facoltativo)** Speciifica la porta per Amazon DCV.

Il valore predefinito è `8443`.

```
port = 8443
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

# Sezione `[ebs]`
<a name="ebs-section"></a>

Definisce le impostazioni di configurazione dei volumi Amazon EBS per i volumi montati sul nodo principale e condivisi con i nodi di elaborazione tramite NFS.

Per informazioni su come includere i volumi Amazon EBS nella definizione del cluster, consulta`Sezione `[cluster]``/``ebs_settings``.

Per utilizzare un volume Amazon EBS esistente per lo storage permanente a lungo termine indipendente dal ciclo di vita del cluster, specifica[`ebs_volume_id`](#ebs-volume-id).

Se non lo specifichi[`ebs_volume_id`](#ebs-volume-id), AWS ParallelCluster crea il volume EBS dalle `[ebs]` impostazioni al momento della creazione del cluster ed elimina il volume e i dati quando il cluster viene eliminato.

Per ulteriori informazioni, consulta [Procedure consigliate: spostare un cluster a una nuova AWS ParallelCluster versione secondaria o patch](best-practices.md#best-practices-cluster-upgrades).

Il formato è. `[ebs ebs-name]` *ebs-name*deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

```
[ebs custom1]
shared_dir = vol1
ebs_snapshot_id = snap-xxxxx
volume_type = io1
volume_iops = 200
...

[ebs custom2]
shared_dir = vol2
...

...
```

**Topics**
+ [`shared_dir`](#ebs-shared-dir)
+ [`ebs_kms_key_id`](#ebs-kms-key-id)
+ [`ebs_snapshot_id`](#ebs-snapshot-id)
+ [`ebs_volume_id`](#ebs-volume-id)
+ [`encrypted`](#encrypted)
+ [`volume_iops`](#volume-iops)
+ [`volume_size`](#volume-size)
+ [`volume_throughput`](#volume-throughput)
+ [`volume_type`](#volume-type)

## `shared_dir`
<a name="ebs-shared-dir"></a>

**(Obbligatorio)** Speciifica il percorso in cui è montato il volume Amazon EBS condiviso.

Questo parametro è obbligatorio quando si utilizzano più volumi Amazon EBS.

[Quando usi un volume Amazon EBS, questa opzione sovrascrive [`shared_dir`](cluster-definition.md#cluster-shared-dir) quello specificato nella `[cluster]` sezione.](cluster-definition.md) Nell’esempio seguente, il volume viene montato su `/vol1`.

```
shared_dir = vol1
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="ebs-kms-key-id"></a>

**(Facoltativo)** Specifica una AWS KMS chiave personalizzata da utilizzare per la crittografia.

Questo parametro deve essere utilizzato insieme a `encrypted = true`. Inoltre, deve disporre di un [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) personalizzato.

Per ulteriori informazioni, consulta [Crittografia del disco con una chiave KMS personalizzata](tutorials_04_encrypted_kms_fs.md).

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `ebs_snapshot_id`
<a name="ebs-snapshot-id"></a>

**(Facoltativo)** Definisce l'ID dello snapshot di Amazon EBS se utilizzi uno snapshot come origine per il volume.

Non c'è alcun valore predefinito.

```
ebs_snapshot_id = snap-xxxxx
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `ebs_volume_id`
<a name="ebs-volume-id"></a>

**(Facoltativo)** Definisce l'ID del volume di un volume Amazon EBS esistente da collegare al nodo principale.

Non c'è alcun valore predefinito.

```
ebs_volume_id = vol-xxxxxx
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="encrypted"></a>

**(Facoltativo)** Speciifica se il volume Amazon EBS è crittografato. Nota: *non* utilizzare con snapshot.

Il valore predefinito è `false`.

```
encrypted = false
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="volume-iops"></a>

**(Facoltativo)** Definisce il numero di IOPS e `gp3` il `io1` tipo di `io2` volumi.

Il valore predefinito, i valori supportati e il rapporto tra i valori e `volume_iops` il `volume_size` rapporto variano in base al [`volume_type`](raid-section.md#raid-volume-type) e[`volume_size`](#volume-size).

`volume_type` = `io1`  
Valore predefinito `volume_iops` = 100  
Valori supportati `volume_iops` = 100—64000 †  
`volume_size`Rapporto massimo `volume_iops` = 50 IOPS per ogni GiB. 5000 IOPS richiedono almeno 100 GiB. `volume_size`

`volume_type` = `io2`  
Valore predefinito = 100 `volume_iops`  
Valori supportati `volume_iops` = 100—64000 (256000 per i volumi `io2` Block Express) †  
`volume_size`Rapporto massimo `volume_iops` = 500 IOPS per ogni GiB. 5000 IOPS richiedono almeno 10 GiB. `volume_size`

`volume_type` = `gp3`  
Valore predefinito = 3000 `volume_iops`  
Valori supportati `volume_iops` = 3000-16000  
`volume_size`Rapporto massimo `volume_iops` = 500 IOPS per ogni GiB. 5000 IOPS richiedono almeno 10 GiB. `volume_size`

```
volume_iops = 200
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

† Il numero massimo di IOPS è garantito solo sulle [istanze basate sul sistema Nitro dotate](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) di più di 32.000 IOPS. Altre istanze garantiscono fino a 32.000 IOPS. A meno che non si [modifichi il volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html), i `io1` volumi precedenti potrebbero non raggiungere le massime prestazioni. `io2` I volumi Block Express supportano `volume_iops` valori fino a 256.000. Per ulteriori informazioni, consulta [i volumi `io2` Block Express (in anteprima)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) nella *Amazon EC2 User Guide*.

## `volume_size`
<a name="volume-size"></a>

**(Facoltativo)** Specificate la dimensione del volume da creare, in GiB (se non state usando un'istantanea).

Il valore predefinito e i valori supportati variano di. [`volume_type`](#volume-type)

`volume_type` = `standard`  
Impostazione predefinita `volume_size` = 20 GiB  
Valori supportati `volume_size` = 1—1024 GiB

`volume_type`=`gp2`,, e `io1` `io2` `gp3`  
Impostazione predefinita `volume_size` = 20 GiB  
Valori supportati `volume_size` = 1—16384 GiB

`volume_type``sc1`= e `st1`  
Impostazione predefinita `volume_size` = 500 GiB  
Valori supportati `volume_size` = 500-16384 GiB

```
volume_size = 20
```

**Nota**  
Prima della AWS ParallelCluster versione 2.10.1, il valore predefinito per tutti i tipi di volume era 20 GiB.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="volume-throughput"></a>

**(Facoltativo)** Definisce la velocità effettiva per i tipi di `gp3` volume, in MiB/s.

Il valore predefinito è `125`.

Valori supportati `volume_throughput` = 125-1000 MiB/s

Il rapporto tra a non `volume_iops` può essere superiore `volume_throughput` a 0,25. Il throughput massimo di 1000 MiB/s richiede che l'`volume_iops`impostazione sia almeno 4000.

```
volume_throughput = 1000
```

**Nota**  
Il supporto per `volume_throughput` è stato aggiunto nella AWS ParallelCluster versione 2.10.1.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="volume-type"></a>

**(Facoltativo)** Speciifica il [tipo di volume Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) del volume che desideri avviare.

Le opzioni valide sono i seguenti tipi di volume:

`gp2`, `gp3`  
SSD per uso generico

`io1`, `io2`  
Provisioned IOPS SSD

`st1`  
HDD ottimizzato per la velocità di trasmissione

`sc1`  
Cold HDD

`standard`  
Magnetico di precedente generazione

Per ulteriori informazioni, consulta i [tipi di volume di Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) nella *Amazon EC2 User Guide*.

Il valore predefinito è `gp2`.

```
volume_type = io2
```

**Nota**  
Support per `gp3` ed `io2` è stato aggiunto nella AWS ParallelCluster versione 2.10.1.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

# Sezione `[efs]`
<a name="efs-section"></a>

Definisce le impostazioni di configurazione per Amazon EFS montato sui nodi principali e di calcolo. Per ulteriori informazioni, [CreateFileSystem](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html)consulta *Amazon EFS API Reference*.

Per informazioni su come includere i file system Amazon EFS nella definizione del cluster, consulta`Sezione `[cluster]``/``efs_settings``.

Per utilizzare un file system Amazon EFS esistente per lo storage permanente a lungo termine indipendente dal ciclo di vita del cluster, specifica[`efs_fs_id`](#efs-efs-fs-id).

Se non lo specifichi[`efs_fs_id`](#efs-efs-fs-id), AWS ParallelCluster crea il file system Amazon EFS dalle `[efs]` impostazioni al momento della creazione del cluster ed elimina il file system e i dati quando il cluster viene eliminato.

Per ulteriori informazioni, consulta [Procedure consigliate: spostare un cluster a una nuova AWS ParallelCluster versione secondaria o patch](best-practices.md#best-practices-cluster-upgrades).

Il formato è`[efs efs-name]`. *efs-name*deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

```
[efs customfs]
shared_dir = efs
encrypted = false
performance_mode = generalPurpose
```

**Topics**
+ [`efs_fs_id`](#efs-efs-fs-id)
+ [`efs_kms_key_id`](#efs-efs-kms-key-id)
+ [`encrypted`](#efs-encrypted)
+ [`performance_mode`](#efs-performance-mode)
+ [`provisioned_throughput`](#efs-provisioned-throughput)
+ [`shared_dir`](#efs-shared-dir)
+ [`throughput_mode`](#efs-throughput-mode)

## `efs_fs_id`
<a name="efs-efs-fs-id"></a>

**(Facoltativo)** Definisce l'ID del file system Amazon EFS per un file system esistente.

La specifica di questa opzione annulla tutte le altre opzioni di Amazon EFS ad eccezione di. [`shared_dir`](cluster-definition.md#cluster-shared-dir)

Se imposti questa opzione, supporta solo i seguenti tipi di file system:
+ File system che non hanno una destinazione di montaggio nella zona di disponibilità dello stack.
+ File system con una destinazione di montaggio esistente nella zona di disponibilità dello stack da cui è consentito il traffico NFS in entrata e in uscita da. `0.0.0.0/0`

La verifica dell'integrità per la convalida di [`efs_fs_id`](#efs-efs-fs-id) richiede le autorizzazioni seguenti per il ruolo IAM:
+ `elasticfilesystem:DescribeMountTargets`
+ `elasticfilesystem:DescribeMountTargetSecurityGroups`
+ `ec2:DescribeSubnets`
+ `ec2:DescribeSecurityGroups`
+ `ec2:DescribeNetworkInterfaceAttribute`

Per evitare errori, aggiungi queste autorizzazioni al ruolo IAM o imposta `sanity_check = false`.

**Importante**  
Quando si imposta una destinazione di montaggio da cui è consentito il traffico NFS in entrata e in uscita`0.0.0.0/0`, il file system viene esposto alle richieste di montaggio NFS provenienti da qualsiasi punto della zona di disponibilità del target di montaggio. AWS non consiglia di creare un target di montaggio nella zona di disponibilità dello stack. Invece, lascia che AWS gestisca questo passaggio. Se desideri avere un target di montaggio nella zona di disponibilità dello stack, prendi in considerazione l'utilizzo di un gruppo di sicurezza personalizzato fornendo un'[`vpc_security_group_id`](vpc-section.md#vpc-security-group-id)opzione nella [`[vpc]`sezione](vpc-section.md). Quindi, aggiungi quel gruppo di sicurezza alla destinazione di montaggio e disattivalo `sanity_check` per creare il cluster.

Non c'è alcun valore predefinito.

```
efs_fs_id = fs-12345
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `efs_kms_key_id`
<a name="efs-efs-kms-key-id"></a>

**(Facoltativo)** Identifica la AWS Key Management Service (AWS KMS) chiave gestita dal cliente da utilizzare per proteggere il file system crittografato. Se è impostata, [`encrypted`](#efs-encrypted) deve essere `true`. Corrisponde al [KmsKeyId](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-KmsKeyId)parametro nell'*Amazon EFS API Reference*.

Non c'è alcun valore predefinito.

```
efs_kms_key_id = 1234abcd-12ab-34cd-56ef-1234567890ab
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="efs-encrypted"></a>

**(Facoltativo)** Indica se il file system è crittografato. Corrisponde al parametro [Encrypted](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-Encrypted) nell'*Amazon EFS API Reference*.

Il valore predefinito è `false`.

```
encrypted = true
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `performance_mode`
<a name="efs-performance-mode"></a>

**(Facoltativo)** Definisce la modalità di prestazioni del file system. Corrisponde al [PerformanceMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-PerformanceMode)parametro nell'*Amazon EFS API Reference*.

Le opzioni valide sono i seguenti valori:
+ `generalPurpose`
+ `maxIO`

 Entrambi i valori distinguono tra maiuscole e minuscole.

Consigliamo la Modalità performance `generalPurpose` per la maggior parte dei file system.

I file system che utilizzano la Modalità performance `maxIO` sono in grado di scalare a livelli più elevati di throughput aggregato e operazioni al secondo. Tuttavia, esiste un compromesso tra latenze leggermente superiori per la maggior parte delle operazioni sui file.

Dopo la creazione del file system, questo parametro non può essere modificato.

Il valore predefinito è `generalPurpose`.

```
performance_mode = generalPurpose
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `provisioned_throughput`
<a name="efs-provisioned-throughput"></a>

**(Facoltativo)** Definisce la velocità effettiva assegnata al file system, misurata in MiB/s. Corrisponde al [ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps)parametro nell'*Amazon EFS API Reference*.

Se si utilizza questo parametro, è necessario impostare [`throughput_mode`](#efs-throughput-mode) su `provisioned`.

La quota di throughput è di `1024` MiB/s. Per richiedere un aumento delle quote, contattare Supporto.

Il valore minimo è `0.0` MiB/s.

```
provisioned_throughput = 1024
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `shared_dir`
<a name="efs-shared-dir"></a>

**(Obbligatorio)** Definisce il punto di montaggio di Amazon EFS sui nodi principali e di calcolo.

Questo parametro è obbligatorio. La sezione Amazon EFS viene utilizzata solo se [`shared_dir`](cluster-definition.md#cluster-shared-dir) specificata.

Non utilizzare `NONE` or `/NONE` come directory condivisa.

L'esempio seguente monta Amazon EFS su`/efs`.

```
shared_dir = efs
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `throughput_mode`
<a name="efs-throughput-mode"></a>

**(Facoltativo)** Definisce la modalità di trasmissione del file system. Corrisponde al [ThroughputMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-ThroughputMode)parametro nell'*Amazon EFS API Reference*.

Le opzioni valide sono i seguenti valori:
+ `bursting`
+ `provisioned`

Il valore predefinito è `bursting`.

```
throughput_mode = provisioned
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

# Sezione `[fsx]`
<a name="fsx-section"></a>

Definisce le impostazioni di configurazione per un file system allegato FSx for Lustre. Per ulteriori informazioni, consulta [Amazon FSx CreateFileSystem](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html) nell'*Amazon FSx API Reference*.

Se [`base_os`](cluster-definition.md#base-os) è supportato il formato is `alinux2` `centos7``ubuntu1804`,`ubuntu2004`, o, FSx for Lustre.

Quando si utilizza Amazon Linux, il kernel deve essere `4.14.104-78.84.amzn1.x86_64` o una versione successiva. Per istruzioni, consulta [Installazione del client lustre nella Guida](https://docs.aws.amazon.com/fsx/latest/LustreGuide/install-lustre-client.html) per l'*utente di Amazon FSx for Lustre*.

**Nota**  
FSx for Lustre non è attualmente supportato quando viene utilizzato `awsbatch` come scheduler.

**Nota**  
Il supporto FSx per Lustre on `centos8` è stato rimosso nella AWS ParallelCluster versione 2.10.4. Il supporto FSx per Lustre on `ubuntu2004` è stato aggiunto nella AWS ParallelCluster versione 2.11.0. Il supporto FSx per Lustre on `centos8` è stato aggiunto nella AWS ParallelCluster versione 2.10.0. Support FSx for Lustre on `alinux2``ubuntu1604`, ed `ubuntu1804` è stato aggiunto nella AWS ParallelCluster versione 2.6.0. Il supporto FSx per Lustre on `centos7` è stato aggiunto nella AWS ParallelCluster versione 2.4.0.

Se si utilizza un file system esistente, deve essere associato a un gruppo di sicurezza che consenta il traffico TCP in entrata alla porta `988`. L'impostazione dell'origine `0.0.0.0/0` su una regola del gruppo di sicurezza fornisce l'accesso del client da tutti gli intervalli IP all'interno del gruppo di sicurezza VPC per il protocollo e l'intervallo di porte per quella regola. Per limitare ulteriormente l'accesso ai file system, consigliamo di utilizzare fonti più restrittive per le regole del gruppo di sicurezza. Ad esempio, puoi utilizzare intervalli CIDR, indirizzi IP o gruppi di sicurezza più specifici. IDs Questa operazione viene eseguita automaticamente quando non si utilizza [`vpc_security_group_id`](vpc-section.md#vpc-security-group-id).

Per utilizzare un FSx file system Amazon esistente per lo storage permanente a lungo termine indipendente dal ciclo di vita del cluster, specifica[`fsx_fs_id`](#fsx-fs-id).

Se non lo specifichi[`fsx_fs_id`](#fsx-fs-id), AWS ParallelCluster crea il file system FSx for Lustre dalle `[fsx]` impostazioni al momento della creazione del cluster ed elimina il file system e i dati quando il cluster viene eliminato.

Per ulteriori informazioni, consulta [Procedure consigliate: spostare un cluster a una nuova AWS ParallelCluster versione secondaria o patch](best-practices.md#best-practices-cluster-upgrades).

Il formato è. `[fsx fsx-name]` *fsx-name*deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

```
[fsx fs]
shared_dir = /fsx
fsx_fs_id = fs-073c3803dca3e28a6
```

Per creare e configurare un nuovo file system, utilizza i parametri seguenti:

```
[fsx fs]
shared_dir = /fsx
storage_capacity = 3600
imported_file_chunk_size = 1024
export_path = s3://bucket/folder
import_path = s3://bucket
weekly_maintenance_start_time = 1:00:00
```

**Topics**
+ [`auto_import_policy`](#fsx-auto-import-policy)
+ [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)
+ [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)
+ [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time)
+ [`data_compression_type`](#fsx-data-compression-type)
+ [`deployment_type`](#fsx-deployment-type)
+ [`drive_cache_type`](#fsx-drive-cache-type)
+ [`export_path`](#fsx-export-path)
+ [`fsx_backup_id`](#fsx-backup-id)
+ [`fsx_fs_id`](#fsx-fs-id)
+ [`fsx_kms_key_id`](#fsx-kms-key-id)
+ [`import_path`](#fsx-import-path)
+ [`imported_file_chunk_size`](#fsx-imported-file-chunk-size)
+ [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)
+ [`shared_dir`](#fsx-shared-dir)
+ [`storage_capacity`](#fsx-storage-capacity)
+ [`storage_type`](#fsx-storage-type)
+ [`weekly_maintenance_start_time`](#fsx-weekly-maintenance-start-time)

## `auto_import_policy`
<a name="fsx-auto-import-policy"></a>

**(Facoltativo)** Specifica la politica di importazione automatica per riflettere le modifiche nel bucket S3 utilizzato per creare il file system for Lustre. FSx Di seguito sono riportati i valori possibili:

`NEW`  
FSx for Lustre importa automaticamente gli elenchi di directory di tutti i nuovi oggetti aggiunti al bucket S3 collegato che attualmente non esistono nel file system for Lustre. FSx 

`NEW_CHANGED`  
FSx for Lustre importa automaticamente gli elenchi di file e directory di tutti i nuovi oggetti aggiunti al bucket S3 e di tutti gli oggetti esistenti che vengono modificati nel bucket S3. 

Ciò corrisponde alla proprietà. [AutoImportPolicy](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-autoimportpolicy) Per ulteriori informazioni, consulta [Importa automaticamente gli aggiornamenti dal tuo bucket S3 nella Guida](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html) per l'utente di *Amazon FSx for Lustre*. Quando viene specificato il [`auto_import_policy`](#fsx-auto-import-policy) parametro, [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time), e i [`fsx_backup_id`](#fsx-backup-id) parametri non devono essere specificati.

Se l'`auto_import_policy`impostazione non è specificata, le importazioni automatiche sono disabilitate. FSx for Lustre aggiorna solo gli elenchi di file e directory dal bucket S3 collegato quando viene creato il file system.

```
auto_import_policy = NEW_CHANGED
```

**Nota**  
Il supporto per [`auto_import_policy`](#fsx-auto-import-policy) è stato aggiunto nella AWS ParallelCluster versione 2.10.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `automatic_backup_retention_days`
<a name="fsx-automatic-backup-retention-days"></a>

**(Facoltativo)** Specificate il numero di giorni in cui conservare i backup automatici. È valido solo per l'uso con i tipi di `PERSISTENT_1` distribuzione. Quando viene specificato il [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) parametro, [`auto_import_policy`](#fsx-auto-import-policy) [`export_path`](#fsx-export-path)[`import_path`](#fsx-import-path), e [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) i parametri non devono essere specificati. Corrisponde alla [AutomaticBackupRetentionDays](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-automaticbackupretentiondays)proprietà.

Il valore predefinito è 0. Questa impostazione disabilita i backup automatici. I valori possibili sono numeri interi compresi tra 0 e 35, inclusi.

```
automatic_backup_retention_days = 35
```

**Nota**  
Il supporto per [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) è stato aggiunto nella AWS ParallelCluster versione 2.8.0.

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `copy_tags_to_backups`
<a name="fsx-copy-tags-to-backups"></a>

**(Facoltativo)** Specifica se i tag per il filesystem vengono copiati nei backup. È valido solo per l'uso con i tipi di distribuzione. `PERSISTENT_1` Quando il [`copy_tags_to_backups`](#fsx-copy-tags-to-backups) parametro viene specificato, [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) deve essere specificato con un valore maggiore di 0 e i [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) parametri[`auto_import_policy`](#fsx-auto-import-policy), [`export_path`](#fsx-export-path)[`import_path`](#fsx-import-path), e non devono essere specificati. Corrisponde alla [CopyTagsToBackups](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-copytagstobackups)proprietà.

Il valore predefinito è `false`.

```
copy_tags_to_backups = true
```

**Nota**  
Il supporto per [`copy_tags_to_backups`](#fsx-copy-tags-to-backups) è stato aggiunto nella AWS ParallelCluster versione 2.8.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `daily_automatic_backup_start_time`
<a name="fsx-daily-automatic-backup-start-time"></a>

**(Facoltativo)** Specificate l'ora del giorno (UTC) in cui avviare i backup automatici. È valido solo per l'uso con `PERSISTENT_1` i tipi di distribuzione. Quando il [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) parametro viene specificato, [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) deve essere specificato con un valore maggiore di 0 e i [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) parametri[`auto_import_policy`](#fsx-auto-import-policy), [`export_path`](#fsx-export-path)[`import_path`](#fsx-import-path), e non devono essere specificati. Corrisponde alla [DailyAutomaticBackupStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-dailyautomaticbackupstarttime)proprietà.

Il formato è`HH:MM`, dove `HH` è l'ora del giorno con il numero zero (0-23) e `MM` il minuto dell'ora con zero punti. Ad esempio, 1:03 UTC è il seguente.

```
daily_automatic_backup_start_time = 01:03
```

Il valore predefinito è un intervallo di tempo casuale compreso tra e. `00:00` `23:59`

**Nota**  
Il supporto per [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) è stato aggiunto nella AWS ParallelCluster versione 2.8.0.

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `data_compression_type`
<a name="fsx-data-compression-type"></a>

**(Facoltativo)** Specificate il tipo di compressione dei FSx dati for Lustre. Corrisponde alla proprietà. [DataCompressionType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-datacompressiontype) Per ulteriori informazioni, consulta [FSx la sezione relativa alla compressione dei dati Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html) nella *Amazon FSx for Lustre User Guide*.

L'unico valore valido è `LZ4`. Per disabilitare la compressione dei dati, rimuovi il [`data_compression_type`](#fsx-data-compression-type)parametro.

```
data_compression_type = LZ4
```

**Nota**  
Il supporto per [`data_compression_type`](#fsx-data-compression-type) è stato aggiunto nella AWS ParallelCluster versione 2.11.0.

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `deployment_type`
<a name="fsx-deployment-type"></a>

**(Facoltativo)** Specificate il tipo di distribuzione FSx di Lustre. Corrisponde alla proprietà. [DeploymentType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-deploymenttype) Per ulteriori informazioni, consulta FSx le [opzioni di distribuzione di Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) nella *Amazon FSx for Lustre User Guide*. Scegli un tipo di implementazione scratch per l'archiviazione temporanea e l'elaborazione a breve termine dei dati. `SCRATCH_2`è l'ultima generazione di file system scratch. Offre un throughput di burst più elevato rispetto al throughput di base e la crittografia dei dati in transito.

I valori validi sono `SCRATCH_1`, `SCRATCH_2` e `PERSISTENT_1`.

`SCRATCH_1`  
Il tipo di distribuzione predefinito per Lustre. FSx Con questo tipo di distribuzione, l'impostazione [`storage_capacity`](#fsx-storage-capacity) ha valori possibili pari a 1200, 2400 e qualsiasi multiplo di 3600. Il supporto per `SCRATCH_1` è stato aggiunto nella AWS ParallelCluster versione 2.4.0.

`SCRATCH_2`  
L'ultima generazione di file system scratch. Supporta un throughput fino a sei volte superiore a quello di base per carichi di lavoro con picchi di lavoro. Supporta inoltre la crittografia in transito dei dati per i tipi di istanze supportati, se supportati. Regioni AWS Per ulteriori informazioni, [consulta Encrypting data in transito](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html) nella *Amazon FSx for Lustre User Guide*. Con questo tipo di distribuzione, l'impostazione [`storage_capacity`](#fsx-storage-capacity) ha valori possibili pari a 1200 e qualsiasi multiplo di 2400. Il supporto per `SCRATCH_2` è stato aggiunto nella AWS ParallelCluster versione 2.6.0.

`PERSISTENT_1`  
Progettato per uno storage a lungo termine. I file server sono a disponibilità elevata e i dati vengono replicati all'interno della zona di disponibilità dei file system AWS . Supporta la crittografia in transito dei dati per i tipi di istanze supportati. Con questo tipo di distribuzione, l'impostazione [`storage_capacity`](#fsx-storage-capacity) ha valori possibili pari a 1200 e qualsiasi multiplo di 2400. Il supporto per `PERSISTENT_1` è stato aggiunto nella AWS ParallelCluster versione 2.6.0.

Il valore predefinito è `SCRATCH_1`.

```
deployment_type = SCRATCH_2
```

**Nota**  
Il supporto per [`deployment_type`](#fsx-deployment-type) è stato aggiunto nella AWS ParallelCluster versione 2.6.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `drive_cache_type`
<a name="fsx-drive-cache-type"></a>

**(Facoltativo)** Speciifica che il file system dispone di una cache per unità SSD. Questo può essere impostato solo se l'[`storage_type`](#fsx-storage-type)impostazione è impostata su. `HDD` Corrisponde alla [DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype)proprietà. Per ulteriori informazioni, consulta FSx le [opzioni di distribuzione di Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) nella *Amazon FSx for Lustre User Guide*.

L'unico valore valido è `READ`. Per disabilitare la cache dell'unità SSD, non specificare l'impostazione. `drive_cache_type`

```
drive_cache_type = READ
```

**Nota**  
Il supporto per [`drive_cache_type`](#fsx-drive-cache-type) è stato aggiunto nella AWS ParallelCluster versione 2.10.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `export_path`
<a name="fsx-export-path"></a>

**(Facoltativo)** Speciifica il percorso Amazon S3 in cui viene esportata la radice del file system. Quando viene specificato il [`export_path`](#fsx-export-path) parametro, [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time), e i [`fsx_backup_id`](#fsx-backup-id) parametri non devono essere specificati. Corrisponde alla [ExportPath](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-exportpath)proprietà. I dati e i metadati dei file non vengono esportati automaticamente in. `export_path` Per informazioni sull'esportazione di dati e metadati, consulta [Esportazione delle modifiche al data repository nella Guida per l'utente](https://docs.aws.amazon.com/fsx/latest/LustreGuide/export-changed-data-meta-dra.html) di *Amazon FSx for Lustre*.

Il valore predefinito è `s3://import-bucket/FSxLustre[creation-timestamp]`, dove `import-bucket` è il bucket fornito nel parametro [`import_path`](#fsx-import-path).

```
export_path = s3://bucket/folder
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `fsx_backup_id`
<a name="fsx-backup-id"></a>

**(Facoltativo)** Speciifica l'ID del backup da utilizzare per ripristinare il file system da un backup esistente. Quando viene specificato il [`fsx_backup_id`](#fsx-backup-id) parametro,,[`auto_import_policy`](#fsx-auto-import-policy),[`deployment_type`](#fsx-deployment-type),[`export_path`](#fsx-export-path), [`fsx_kms_key_id`](#fsx-kms-key-id) [`import_path`](#fsx-import-path) [`imported_file_chunk_size`](#fsx-imported-file-chunk-size)[`storage_capacity`](#fsx-storage-capacity), e [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) i parametri non devono essere specificati. Questi parametri vengono letti dal backup. Inoltre, i [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) parametri [`auto_import_policy`](#fsx-auto-import-policy)[`export_path`](#fsx-export-path),[`import_path`](#fsx-import-path), e non devono essere specificati.

Corrisponde alla [BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid)proprietà.

```
fsx_backup_id = backup-fedcba98
```

**Nota**  
Il supporto per [`fsx_backup_id`](#fsx-backup-id) è stato aggiunto nella AWS ParallelCluster versione 2.8.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `fsx_fs_id`
<a name="fsx-fs-id"></a>

**(Facoltativo)** Allega un file system esistente FSx per Lustre.

Se viene specificata questa opzione, vengono utilizzate solo le [`fsx_fs_id`](#fsx-fs-id) impostazioni [`shared_dir`](#fsx-shared-dir) e nella [`[fsx]`sezione](#fsx-section) e tutte le altre impostazioni della [`[fsx]`sezione](#fsx-section) vengono ignorate.

```
fsx_fs_id = fs-073c3803dca3e28a6
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `fsx_kms_key_id`
<a name="fsx-kms-key-id"></a>

**(Facoltativo)** Specificate l'ID della chiave AWS Key Management Service (AWS KMS) gestita dal cliente.

Questa chiave viene utilizzata per crittografare i dati memorizzati su disco su un file system.

Questo deve essere usato con un [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) personalizzato. Per ulteriori informazioni, consulta [Crittografia del disco con una chiave KMS personalizzata](tutorials_04_encrypted_kms_fs.md). Corrisponde al [KmsKeyId](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html#FSx-CreateFileSystem-request-KmsKeyId)parametro nell'*Amazon FSx API Reference*.

```
fsx_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

**Nota**  
Il supporto per [`fsx_kms_key_id`](#fsx-kms-key-id) è stato aggiunto nella AWS ParallelCluster versione 2.6.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `import_path`
<a name="fsx-import-path"></a>

**(Facoltativo)** Specifica il bucket S3 da cui caricare i dati nel file system e funge da bucket di esportazione. Per ulteriori informazioni, consulta [`export_path`](#fsx-export-path). Se si specifica il [`import_path`](#fsx-import-path) parametro, non è necessario specificare [`fsx_backup_id`](#fsx-backup-id) i parametri [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time),, e. Corrisponde al [ImportPath](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystemLustreConfiguration.html#FSx-Type-CreateFileSystemLustreConfiguration-ImportPath)parametro nell'*Amazon FSx API Reference*.

L'importazione viene implementata a livello di creazione del cluster. Per ulteriori informazioni, consulta [Importazione di dati dal tuo repository di dati nella Guida](https://docs.aws.amazon.com/fsx/latest/LustreGuide/importing-files.html) per l'utente di *Amazon FSx for Lustre*. Durante l'importazione, vengono importati solo i metadati dei file (nome, proprietà, timestamp e autorizzazioni). I dati del file non vengono importati dal bucket S3 fino al primo accesso al file. Per informazioni sul precaricamento del contenuto dei file, consulta [Precaricamento dei file nel file system nella Guida per l'utente](https://docs.aws.amazon.com/fsx/latest/LustreGuide/preload-file-contents-hsm-dra.html) di *Amazon FSx for Lustre*.

Se non viene fornito un valore, il file system è vuoto.

```
import_path =  s3://bucket
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `imported_file_chunk_size`
<a name="fsx-imported-file-chunk-size"></a>

**(Facoltativo)** Determina il numero di stripe e la quantità massima di dati per ogni file (in MiB) archiviato su un singolo disco fisico per i file importati da un archivio di dati (utilizzando). [`import_path`](#fsx-import-path) Il numero massimo di dischi su cui un singolo file può essere distribuito è limitato al numero totale di dischi che compongono il file system. Quando viene specificato il [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) parametro, [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time), e i [`fsx_backup_id`](#fsx-backup-id) parametri non devono essere specificati. Corrisponde alla [ImportedFileChunkSize](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-importedfilechunksize)proprietà.

La dimensione predefinita del blocco è `1024` (1 GiB) e può arrivare fino a 512.000 MiB (500 GiB). Gli oggetti Amazon S3 hanno una dimensione massima di 5 TB.

```
imported_file_chunk_size = 1024
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `per_unit_storage_throughput`
<a name="fsx-per-unit-storage-throughput"></a>

**( Obbligatorio per i tipi di distribuzione `PERSISTENT_1`)** Per il tipo di distribuzione [`deployment_type`](#fsx-deployment-type)` = PERSISTENT_1`, viene descritto il throughput effettivo di lettura e scrittura per ogni tebibyte (TiB) di archiviazione, in MB/S/Tib. La capacità di throughput del file system viene calcolata moltiplicando la capacità di storage del ﬁle system (TiB) per [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) (of) [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) produce 120 MB/s di throughput MB/s/TiB). For a 2.4 TiB ﬁle system, provisioning 50 MB/s/TiB del ﬁle system. Si paga per la quantità di throughput fornita. Corrisponde alla proprietà. [PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput)

I valori possibili dipendono dal valore dell'[`storage_type`](#fsx-storage-type)impostazione.

`storage\$1type = SSD`  
I valori possibili sono 50, 100, 200.

`storage\$1type = HDD`  
I valori possibili sono 12, 40.

```
per_unit_storage_throughput = 200
```

**Nota**  
Il supporto per [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) è stato aggiunto nella AWS ParallelCluster versione 2.6.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="fsx-shared-dir"></a>

**(Obbligatorio)** Definisce il punto di montaggio per il file system FSx for Lustre sui nodi di testa e di calcolo.

Non utilizzare `NONE` or `/NONE` come directory condivisa.

L'esempio seguente monta il file system in `/fsx`.

```
shared_dir = /fsx
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `storage_capacity`
<a name="fsx-storage-capacity"></a>

**(Obbligatorio)** Specifica la capacità di storage del file system in GiB. Corrisponde alla [StorageCapacity](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagecapacity)proprietà.

I valori possibili della capacità di storage variano in base all'impostazione [`deployment_type`](#fsx-deployment-type).

`SCRATCH_1`  
I valori possibili sono 1200, 2400 e qualsiasi multiplo di 3600.

`SCRATCH_2`  
I valori possibili sono 1200 e qualsiasi multiplo di 2400.

`PERSISTENT_1`  
I valori possibili variano in base ai valori di altre impostazioni.    
`storage\$1type = SSD`  
I valori possibili sono 1200 e qualsiasi multiplo di 2400.  
`storage\$1type = HDD`  
I valori possibili variano in base all'impostazione dell'[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)impostazione.    
`per\$1unit\$1storage\$1throughput = 12`  
I valori possibili sono qualsiasi multiplo di 6000.  
`per\$1unit\$1storage\$1throughput = 40`  
I valori possibili sono qualsiasi multiplo di 1800.

```
storage_capacity = 7200
```

**Nota**  
Per le AWS ParallelCluster versioni 2.5.0 e 2.5.1, [`storage_capacity`](#fsx-storage-capacity) supportavano i valori possibili di 1200, 2400 e qualsiasi multiplo di 3600. Per le versioni precedenti alla AWS ParallelCluster versione 2.5.0, [`storage_capacity`](#fsx-storage-capacity) aveva una dimensione minima di 3600.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `storage_type`
<a name="fsx-storage-type"></a>

**(Facoltativo)** Specificate il tipo di archiviazione del file system. Corrisponde alla [StorageType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagetype)proprietà. I valori possibili sono `SSD` e `HDD`. Il valore di default è `SSD`.

Il tipo di archiviazione modifica i valori possibili di altre impostazioni.

`storage_type = SSD`   
Speciifica un tipo di archiviazione su unità a stato solido (SSD).  
`storage_type = SSD`modifica i valori possibili di diverse altre impostazioni.    
[`drive_cache_type`](#fsx-drive-cache-type)  
Questa impostazione non può essere specificata.  
[`deployment_type`](#fsx-deployment-type)  
Questa impostazione può essere impostata su `SCRATCH_1``SCRATCH_2`, o`PERSISTENT_1`.  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
Questa impostazione deve essere specificata se [`deployment_type`](#fsx-deployment-type) è impostato su `PERSISTENT_1`. I valori possibili sono 50, 100 o 200.  
[`storage_capacity`](#fsx-storage-capacity)  
Questa impostazione deve essere specificata. I valori possibili variano in base a[`deployment_type`](#fsx-deployment-type).    
`deployment_type = SCRATCH_1`  
[`storage_capacity`](#fsx-storage-capacity)può essere 1200, 2400 o qualsiasi multiplo di 3600.  
`deployment_type = SCRATCH_2` o `deployment_type = PERSISTENT_1`  
[`storage_capacity`](#fsx-storage-capacity)può essere 1200 o un multiplo di 2400.

`storage_type = HDD`  
Speciifica un tipo di archiviazione su disco rigido (HDD).  
`storage_type = HDD`modifica i valori possibili di altre impostazioni.    
[`drive_cache_type`](#fsx-drive-cache-type)  
Questa impostazione può essere specificata.  
[`deployment_type`](#fsx-deployment-type)  
Questa impostazione deve essere impostata su`PERSISTENT_1`.  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
Questa impostazione deve essere specificata. I valori possibili sono 12 o 40.  
[`storage_capacity`](#fsx-storage-capacity)  
Questa impostazione deve essere specificata. I valori possibili variano in base all'[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)impostazione.    
`storage_capacity = 12`  
[`storage_capacity`](#fsx-storage-capacity)può essere un multiplo qualsiasi di 6000.  
`storage_capacity = 40`  
[`storage_capacity`](#fsx-storage-capacity)può essere un multiplo qualsiasi di 1800.

```
storage_type = SSD
```

**Nota**  
Il supporto per l'[`storage_type`](#fsx-storage-type)impostazione è stato aggiunto nella AWS ParallelCluster versione 2.10.0.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `weekly_maintenance_start_time`
<a name="fsx-weekly-maintenance-start-time"></a>

**(Opzionale)** Specifica un orario prescelto per eseguire la manutenzione settimanale, nel fuso orario UTC. Corrisponde alla proprietà. [WeeklyMaintenanceStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-weeklymaintenancestarttime)

Il formato è [giorno della settimana]: [ora del giorno]: [minuto dell'ora]. Ad esempio, il lunedì a mezzanotte è il seguente.

```
weekly_maintenance_start_time = 1:00:00
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

# Sezione `[queue]`
<a name="queue-section"></a>

Definisce le impostazioni di configurazione per una singola coda. [`[queue]`le sezioni](#queue-section) sono supportate solo quando [`scheduler`](cluster-definition.md#scheduler) è impostata su. `slurm`

Il formato è`[queue <queue-name>]`. *queue-name*deve iniziare con una lettera minuscola, non contenere più di 30 caratteri e contenere solo lettere minuscole, numeri e trattini (-).

```
[queue q1]
compute_resource_settings = i1,i2
placement_group = DYNAMIC
enable_efa = true
disable_hyperthreading = false
compute_type = spot
```

**Nota**  
Il supporto per la [`[queue]`sezione](#queue-section) è stato aggiunto nella AWS ParallelCluster versione 2.9.0.

**Topics**
+ [`compute_resource_settings`](#queue-compute-resource-settings)
+ [`compute_type`](#queue-compute-type)
+ [`disable_hyperthreading`](#queue-disable-hyperthreading)
+ [`enable_efa`](#queue-enable-efa)
+ [`enable_efa_gdr`](#queue-enable-efa-gdr)
+ [`placement_group`](#queue-placement-group)

## `compute_resource_settings`
<a name="queue-compute-resource-settings"></a>

**(Obbligatorio)** Identifica le [`[compute_resource]`sezioni contenenti le](compute-resource-section.md) configurazioni delle risorse di calcolo per questa coda. I nomi delle sezioni devono iniziare con una lettera, contenere non più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

[Sono supportate fino a tre (3) [`[compute_resource]`sezioni](compute-resource-section.md) per ogni sezione. `[queue]`](#queue-section)

Ad esempio, l'impostazione seguente specifica le sezioni che iniziano `[compute_resource cr1]` e `[compute_resource cr2]` vengono utilizzate.

```
compute_resource_settings = cr1, cr2
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `compute_type`
<a name="queue-compute-type"></a>

**(Facoltativo)** Definisce il tipo di istanze da avviare per questa coda. Questa impostazione sostituisce l'impostazione [`cluster_type`](cluster-definition.md#cluster-type).

Opzioni valide sono: `ondemand` e `spot`.

Il valore predefinito è `ondemand`.

Per ulteriori informazioni sulle istanze Spot, consulta [Utilizzo di Istanze spot](spot.md).

**Nota**  
L'utilizzo delle istanze Spot richiede che il ruolo `AWSServiceRoleForEC2Spot` collegato al servizio esista nell'account. Per creare questo ruolo nel tuo account utilizzando AWS CLI, esegui il seguente comando:  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Per ulteriori informazioni, consulta il [ruolo collegato ai servizi per le richieste di istanze Spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) nella *Amazon EC2 User Guide*.

L'esempio seguente utilizza i SpotInstances nodi di calcolo in questa coda.

```
compute_type = spot
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `disable_hyperthreading`
<a name="queue-disable-hyperthreading"></a>

**(Facoltativo)** Disattiva l'hyperthreading sui nodi di questa coda. Non tutti i tipi di istanza possono disabilitare l'hyper-threading. *Per un elenco dei tipi di istanza che supportano la disabilitazione dell'hyperthreading, consulta Core [e thread della CPU per ogni core di CPU per tipo di istanza nella](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) Amazon User Guide. EC2 * Se l'[`disable_hyperthreading`](cluster-definition.md#disable-hyperthreading)impostazione nella [`[cluster]`sezione](cluster-definition.md) è definita, questa impostazione non può essere definita.

Il valore predefinito è `false`.

```
disable_hyperthreading = true
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa`
<a name="queue-enable-efa"></a>

**(Facoltativo)** Se impostato su`true`, specifica che Elastic Fabric Adapter (EFA) è abilitato per i nodi di questa coda. Per visualizzare l'elenco delle EC2 istanze che supportano EFA, consulta [Tipi di istanze supportati](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) nella *Amazon EC2 User Guide for Linux* Instances. Se l'[`enable_efa`](cluster-definition.md#enable-efa)impostazione nella [`[cluster]`sezione](cluster-definition.md) è definita, questa impostazione non può essere definita. Un gruppo di collocazione cluster deve essere utilizzato per ridurre al minimo le latenze tra le istanze. Per ulteriori informazioni, consultare [`placement`](cluster-definition.md#placement) e [`placement_group`](cluster-definition.md#placement-group).

```
enable_efa = true
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa_gdr`
<a name="queue-enable-efa-gdr"></a>

**(Facoltativo)** A partire dalla AWS ParallelCluster versione 2.11.3, questa impostazione non ha alcun effetto. Il supporto Elastic Fabric Adapter (EFA) per GPUDirect RDMA (accesso diretto remoto alla memoria) è abilitato per i nodi di elaborazione ed è sempre abilitato se è supportato dal tipo di istanza.

**Nota**  
AWS ParallelCluster versione da 2.10.0 a 2.11.2: If`true`, specifica che Elastic Fabric Adapter GPUDirect (EFA) RDMA (accesso diretto remoto alla memoria) è abilitato per i nodi di questa coda. L'impostazione di questo valore `true` richiede che l'[`enable_efa`](#queue-enable-efa)impostazione sia impostata su `true` .EFA GPUDirect RDMA è supportata dai seguenti tipi di istanza () su questi sistemi operativi (,, o`p4d.24xlarge`). `alinux2` `centos7` `ubuntu1804` `ubuntu2004` Se l'[`enable_efa_gdr`](cluster-definition.md#enable-efa-gdr)impostazione nella [`[cluster]`sezione](cluster-definition.md) è definita, questa impostazione non può essere definita. Un gruppo di collocazione cluster deve essere utilizzato per ridurre al minimo le latenze tra le istanze. Per ulteriori informazioni, consultare [`placement`](cluster-definition.md#placement) e [`placement_group`](cluster-definition.md#placement-group).

Il valore predefinito è `false`.

```
enable_efa_gdr = true
```

**Nota**  
Il supporto per `enable_efa_gdr` è stato aggiunto nella AWS ParallelCluster versione 2.10.0.

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `placement_group`
<a name="queue-placement-group"></a>

**(Facoltativo)** Se presente, definisce il gruppo di posizionamento per questa coda. Questa impostazione sostituisce l'impostazione [`placement_group`](cluster-definition.md#placement-group).

Le opzioni valide sono i seguenti valori:
+ `DYNAMIC`
+ Un nome di gruppo di collocamento di EC2 cluster Amazon esistente

Se impostato su`DYNAMIC`, un gruppo di posizionamento univoco per questa coda viene creato ed eliminato come parte dello stack del cluster.

Per ulteriori informazioni sui gruppi di collocamento, consulta la sezione [Gruppi di collocamento](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) nella *Amazon EC2 User Guide*. Se lo stesso gruppo di collocamento viene utilizzato per diversi tipi di istanze, è più probabile che la richiesta non riesca a causa di un errore di capacità insufficiente. Per ulteriori informazioni, consulta la sezione [Capacità insufficiente delle istanze](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) nella *Amazon EC2 User Guide*.

Non c'è alcun valore predefinito.

Non tutti i tipi di istanza supportano i gruppi di collocazione cluster. Ad esempio, `t2.micro` non supporta i gruppi di posizionamento dei cluster. Per informazioni sull'elenco dei tipi di istanze che supportano i gruppi di posizionamento dei cluster, consulta [le regole e le limitazioni dei gruppi di posizionamento dei cluster](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) nella *Amazon EC2 User Guide*. Consulta [Gruppi di collocamento e problemi relativi al lancio delle istanze](troubleshooting.md#placement-groups-and-instance-launch-issues) per i suggerimenti relativi all'utilizzo dei gruppi di collocamento.

```
placement_group = DYNAMIC
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

# Sezione `[raid]`
<a name="raid-section"></a>

Definisce le impostazioni di configurazione per un array RAID creato da diversi volumi Amazon EBS identici. L'unità RAID è montata sul nodo principale ed esportata in nodi di calcolo con NFS.

Il formato è. `[raid raid-name]` *raid-name*deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

```
[raid rs]
shared_dir = raid
raid_type = 1
num_of_raid_volumes = 2
encrypted = true
```

**Topics**
+ [`shared_dir`](#raid-shared-dir)
+ [`ebs_kms_key_id`](#raid-ebs_kms_key_id)
+ [`encrypted`](#raid-encrypted)
+ [`num_of_raid_volumes`](#num-of-raid-volumes)
+ [`raid_type`](#raid-type)
+ [`volume_iops`](#raid-volume-iops)
+ [`volume_size`](#raid-volume-size)
+ [`volume_throughput`](#raid-volume-throughput)
+ [`volume_type`](#raid-volume-type)

## `shared_dir`
<a name="raid-shared-dir"></a>

**(Obbligatorio)** Definisce il punto di montaggio per l'array RAID sui nodi di testa e di calcolo.

L'unità RAID viene creata solo se questo parametro è specificato.

Non utilizzare `NONE` or `/NONE` come directory condivisa.

L'esempio seguente monta l’array in `/raid`.

```
shared_dir = raid
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="raid-ebs_kms_key_id"></a>

**(Facoltativo)** Specifica una AWS KMS chiave personalizzata da utilizzare per la crittografia.

Questo parametro deve essere utilizzato insieme a `encrypted = true` e deve avere un [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) personalizzato.

Per ulteriori informazioni, consulta [Crittografia del disco con una chiave KMS personalizzata](tutorials_04_encrypted_kms_fs.md).

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="raid-encrypted"></a>

**(Facoltativo)** Speciifica se il file system è crittografato.

Il valore predefinito è `false`.

```
encrypted = false
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `num_of_raid_volumes`
<a name="num-of-raid-volumes"></a>

**(Facoltativo)** Definisce il numero di volumi Amazon EBS da cui assemblare l'array RAID.

Il numero minimo di volumi è. `2`

Il numero massimo di volumi è`5`.

Il valore predefinito è `2`.

```
num_of_raid_volumes = 2
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `raid_type`
<a name="raid-type"></a>

**(Obbligatorio)** Definisce il tipo di RAID per l'array RAID.

L'unità RAID viene creata solo se questo parametro è specificato.

Le opzioni valide sono i seguenti valori:
+ `0`
+ `1`

Per ulteriori informazioni sui tipi di RAID, consulta le [informazioni RAID](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/raid-config.html) nella *Amazon EC2 User Guide*.

L'esempio seguente crea un array `0` RAID 0:

```
raid_type = 0
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="raid-volume-iops"></a>

**(Facoltativo)** Definisce il numero di IOPS e `io2` il `gp3` tipo di volumi. `io1`

Il valore predefinito, i valori supportati e il `volume_size` rapporto `volume_iops` di rapporto variano in base a [`volume_type`](#raid-volume-type) e[`volume_size`](#raid-volume-size).

`volume_type` = `io1`  
Valore predefinito `volume_iops` = 100  
Valori supportati `volume_iops` = 100—64000 †  
`volume_size`Rapporto massimo `volume_iops` = 50 IOPS per GiB. 5000 IOPS richiedono almeno 100 GiB. `volume_size`

`volume_type` = `io2`  
Valore predefinito = 100 `volume_iops`  
Valori supportati `volume_iops` = 100—64000 (256000 per i volumi `io2` Block Express) †  
`volume_size`Rapporto massimo `volume_iops` = 500 IOPS per GiB. 5000 IOPS richiedono almeno 10 GiB. `volume_size`

`volume_type` = `gp3`  
Valore predefinito = 3000 `volume_iops`  
Valori supportati `volume_iops` = 3000-16000  
`volume_size`Rapporto massimo `volume_iops` = 500 IOPS per GiB. 5000 IOPS richiedono almeno 10 GiB. `volume_size`

```
volume_iops = 3000
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

† Il numero massimo di IOPS è garantito solo sulle [istanze basate sul sistema Nitro dotate](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) di più di 32.000 IOPS. Altre istanze garantiscono fino a 32.000 IOPS. `io1`I volumi più vecchi potrebbero non raggiungere le massime prestazioni a meno che non si [modifichi](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html) il volume. `io2` I volumi Block Express supportano `volume_iops` valori fino a 256000. Per ulteriori informazioni, consulta [i volumi `io2` Block Express (in anteprima)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) nella *Amazon EC2 User Guide*.

## `volume_size`
<a name="raid-volume-size"></a>

**(Facoltativo)** Definisce la dimensione del volume da creare, in GiB.

Il valore predefinito e i valori supportati variano di[`volume_type`](#raid-volume-type).

`volume_type` = `standard`  
Impostazione predefinita `volume_size` = 20 GiB  
Valori supportati `volume_size` = 1—1024 GiB

`volume_type`=`gp2`,, e `io1` `io2` `gp3`  
Impostazione predefinita `volume_size` = 20 GiB  
Valori supportati `volume_size` = 1—16384 GiB

`volume_type``sc1`= e `st1`  
Impostazione predefinita `volume_size` = 500 GiB  
Valori supportati `volume_size` = 500-16384 GiB

```
volume_size = 20
```

**Nota**  
Prima della AWS ParallelCluster versione 2.10.1, il valore predefinito per tutti i tipi di volume era 20 GiB.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="raid-volume-throughput"></a>

**(Facoltativo)** Definisce la velocità effettiva per i tipi di `gp3` volume, in MiB/s.

Il valore predefinito è `125`.

Valori supportati `volume_throughput` = 125-1000 MiB/s

Il rapporto tra a non `volume_iops` può essere superiore `volume_throughput` a 0,25. Il throughput massimo di 1000 MiB/s richiede che l'`volume_iops`impostazione sia almeno 4000.

```
volume_throughput = 1000
```

**Nota**  
Il supporto per `volume_throughput` è stato aggiunto nella AWS ParallelCluster versione 2.10.1.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="raid-volume-type"></a>

**(Facoltativo)** Definisce il tipo di volume da creare.

Le opzioni valide sono i seguenti valori:

`gp2`, `gp3`  
SSD per uso generico

`io1`, `io2`  
Provisioned IOPS SSD

`st1`  
HDD ottimizzato per la velocità di trasmissione

`sc1`  
Cold HDD

`standard`  
Magnetico di precedente generazione

Per ulteriori informazioni, consulta i [tipi di volume di Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) nella *Amazon EC2 User Guide*.

Il valore predefinito è `gp2`.

```
volume_type = io2
```

**Nota**  
Support per `gp3` ed `io2` è stato aggiunto nella AWS ParallelCluster versione 2.10.1.

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

# Sezione `[scaling]`
<a name="scaling-section"></a>

**Topics**
+ [`scaledown_idletime`](#scaledown-idletime)

Specifica le impostazioni che definiscono il modo in cui vengono dimensionati i nodi di calcolo.

Il formato è`[scaling scaling-name]`. *scaling-name*deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

```
[scaling custom]
scaledown_idletime = 10
```

## `scaledown_idletime`
<a name="scaledown-idletime"></a>

**(Facoltativo)** Specifica la quantità di tempo in minuti senza un lavoro, dopo la quale il nodo di calcolo termina.

Questo parametro non viene utilizzato se `awsbatch` è lo scheduler.

Il valore predefinito è `10`.

```
scaledown_idletime = 10
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

# Sezione `[vpc]`
<a name="vpc-section"></a>

Speciifica le impostazioni di configurazione di Amazon VPC. Per ulteriori informazioni su VPCs, consulta [Cos'è Amazon VPC](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html)? e [le migliori pratiche di sicurezza per il tuo VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-best-practices.html) nella Amazon *VPC* User Guide.

Il formato è. `[vpc vpc-name]` *vpc-name*deve iniziare con una lettera, non contenere più di 30 caratteri e contenere solo lettere, numeri, trattini (-) e caratteri di sottolineatura (\$1).

```
[vpc public]
vpc_id = vpc-xxxxxx
master_subnet_id = subnet-xxxxxx
```

**Topics**
+ [`additional_sg`](#additional-sg)
+ [`compute_subnet_cidr`](#compute-subnet-cidr)
+ [`compute_subnet_id`](#compute-subnet-id)
+ [`master_subnet_id`](#master-subnet-id)
+ [`ssh_from`](#ssh-from)
+ [`use_public_ips`](#use-public-ips)
+ [`vpc_id`](#vpc-id)
+ [`vpc_security_group_id`](#vpc-security-group-id)

## `additional_sg`
<a name="additional-sg"></a>

**(Facoltativo)** Fornisce un ID del gruppo di sicurezza Amazon VPC aggiuntivo per tutte le istanze.

Non c'è alcun valore predefinito.

```
additional_sg = sg-xxxxxx
```

## `compute_subnet_cidr`
<a name="compute-subnet-cidr"></a>

**(Facoltativo) Specifica** un blocco CIDR (Classless Inter-Domain Routing). Utilizzate questo parametro se desiderate creare una sottorete di calcolo AWS ParallelCluster .

```
compute_subnet_cidr = 10.0.100.0/24
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `compute_subnet_id`
<a name="compute-subnet-id"></a>

**(Facoltativo)** Specificate l'ID di una sottorete esistente in cui effettuare il provisioning dei nodi di calcolo.

Se non specificato, [`compute_subnet_id`](#compute-subnet-id) utilizza il valore di [`master_subnet_id`](#master-subnet-id).

Se la sottorete è privata, è necessario configurare NAT per l'accesso Web.

```
compute_subnet_id = subnet-xxxxxx
```

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `master_subnet_id`
<a name="master-subnet-id"></a>

**(Obbligatorio)** Specificate l'ID di una sottorete esistente in cui effettuare il provisioning del nodo principale.

```
master_subnet_id = subnet-xxxxxx
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `ssh_from`
<a name="ssh-from"></a>

**(Facoltativo)** Specificate un intervallo IP in formato CIDR da cui consentire l'accesso SSH.

Questo parametro viene utilizzato solo quando si crea il gruppo di sicurezza. AWS ParallelCluster 

Il valore predefinito è `0.0.0.0/0`.

```
ssh_from = 0.0.0.0/0
```

[Politica di aggiornamento: questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-setting-supported)

## `use_public_ips`
<a name="use-public-ips"></a>

**(Facoltativo)** Definisce se assegnare indirizzi IP pubblici alle istanze di calcolo.

Se impostato su`true`, un indirizzo IP elastico è associato al nodo principale.

Se impostato su`false`, il nodo principale ha un IP pubblico (o meno) in base al valore del parametro di configurazione della sottorete «Auto-assign Public IP».

Per esempi, consulta [Configurazione di rete](networking.md).

Il valore predefinito è `true`.

```
use_public_ips = true
```

**Importante**  
Per impostazione predefinita, tutti Account AWS sono limitati a cinque (5) indirizzi IP elastici per ciascuno. Regione AWS Per ulteriori informazioni, consulta il [limite di indirizzi IP elastici](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/elastic-ip-addresses-eip.html#using-instance-addressing-limit) nella *Amazon EC2 User Guide*.

[Politica di aggiornamento: la flotta di elaborazione deve essere interrotta affinché questa impostazione possa essere modificata per un aggiornamento.](using-pcluster-update.md#update-policy-compute-fleet)

## `vpc_id`
<a name="vpc-id"></a>

**(Obbligatorio)** Speciifica l'ID dell'Amazon VPC in cui effettuare il provisioning del cluster.

```
vpc_id = vpc-xxxxxx
```

[Politica di aggiornamento: se questa impostazione viene modificata, l'aggiornamento non è consentito.](using-pcluster-update.md#update-policy-fail)

## `vpc_security_group_id`
<a name="vpc-security-group-id"></a>

**(Facoltativo)** Speciifica l'uso di un gruppo di sicurezza esistente per tutte le istanze.

Non c'è alcun valore predefinito.

```
vpc_security_group_id = sg-xxxxxx
```

Il gruppo di sicurezza creato da AWS ParallelCluster consente l'accesso SSH utilizzando la porta 22 dagli indirizzi specificati nell'[`ssh_from`](#ssh-from)impostazione o tutti IPv4 gli indirizzi (`0.0.0.0/0`) se l'[`ssh_from`](#ssh-from)impostazione non è specificata. Se Amazon DCV è abilitato, il gruppo di sicurezza consente l'accesso ad Amazon DCV utilizzando la porta 8443 (o qualsiasi altra cosa specificata dall'[`port`](dcv-section.md#dcv-section-port)impostazione) dagli indirizzi specificati nell'[`access_from`](dcv-section.md#dcv-section-access-from)impostazione o tutti IPv4 gli indirizzi (`0.0.0.0/0`) se l'[`access_from`](dcv-section.md#dcv-section-access-from)impostazione non è specificata.

**avvertimento**  
Puoi modificare il valore di questo parametro e aggiornare il cluster se [`[cluster]`[`fsx_settings`](cluster-definition.md#fsx-settings)](cluster-definition.md)non è specificato o entrambi `fsx_settings` e se è specificato un file system esterno esistente FSx per Lustre in. [`fsx-fs-id`[`[fsx fs]`](fsx-section.md)](fsx-section.md#fsx-fs-id)  
Non è possibile modificare il valore di questo parametro se un file system AWS ParallelCluster managed FSx for Lustre è specificato in `fsx_settings` and. `[fsx fs]`

[Politica di aggiornamento: se i file system AWS ParallelCluster gestiti di Amazon FSx for Lustre non sono specificati nella configurazione, questa impostazione può essere modificata durante un aggiornamento.](using-pcluster-update.md#update-policy-no-managed-fsx-lustre)

# Esempi
<a name="examples"></a>

Le seguenti configurazioni di esempio illustrano le AWS ParallelCluster configurazioni utilizzando Slurm, Torquee AWS Batch pianificatori.

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso di SGE oppure Torque pianificatori.

**Contents**
+ [Slurm Workload Manager (`slurm`)](#example.slurm)
+ [Son of Grid Engine `sge`() e Torque Resource Manager (`torque`)](#example.torque)
+ [AWS Batch (`awsbatch`)](#example.awsbatch)

## Slurm Workload Manager (`slurm`)
<a name="example.slurm"></a>

L'esempio seguente consente di avviare un cluster con il pianificatore `slurm`. La configurazione di esempio avvia 1 cluster con 2 code di lavoro. La prima coda`spot`, inizialmente ha 2 istanze `t3.micro` Spot disponibili. Può scalare fino a un massimo di 10 istanze e ridurlo fino a un minimo di 1 istanza quando nessun lavoro è stato eseguito per 10 minuti (regolabile utilizzando l'[`scaledown_idletime`](scaling-section.md#scaledown-idletime)impostazione). La seconda coda`ondemand`, inizia senza istanze e può essere scalata fino a un massimo di 5 `t3.micro` istanze On-Demand.

```
[global]
update_check = true
sanity_check = true
cluster_template = slurm

[aws]
aws_region_name = <your Regione AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster slurm]
key_name = <your EC2 keypair name>
base_os = alinux2                   # optional, defaults to alinux2
scheduler = slurm
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
queue_settings = spot,ondemand

[queue spot]
compute_resource_settings = spot_i1
compute_type = spot                 # optional, defaults to ondemand

[compute_resource spot_i1]
instance_type = t3.micro
min_count = 1                       # optional, defaults to 0
initial_count = 2                   # optional, defaults to 0

[queue ondemand]
compute_resource_settings = ondemand_i1

[compute_resource ondemand_i1]
instance_type = t3.micro
max_count = 5                       # optional, defaults to 10
```

## Son of Grid Engine `sge`() e Torque Resource Manager (`torque`)
<a name="example.torque"></a>

**Nota**  
Questo esempio si applica solo alle AWS ParallelCluster versioni fino alla versione 2.11.4 inclusa. A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso di SGE oppure Torque pianificatori.

L'esempio seguente avvia un cluster con lo scheduler `torque` or`sge`. Per utilizzare SGE, passare `scheduler = torque` a. `scheduler = sge` La configurazione di esempio consente un massimo di 5 nodi simultanei e viene ridotta a due quando nessun processo è stato eseguito per 10 minuti.

```
[global]
update_check = true
sanity_check = true
cluster_template = torque

[aws]
aws_region_name = <your Regione AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster torque]
key_name = <your EC2 keypair name>but they aren't eligible for future updates
base_os = alinux2                   # optional, defaults to alinux2
scheduler = torque                  # optional, defaults to sge
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
initial_queue_size = 2              # optional, defaults to 0
maintain_initial_size = true        # optional, defaults to false
max_queue_size = 5                  # optional, defaults to 10
```

**Nota**  
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso di SGE oppure Torque pianificatori. Se utilizzi queste versioni, puoi continuare a usarle o risolvere i problemi di supporto forniti dai team AWS di assistenza e AWS supporto.

## AWS Batch (`awsbatch`)
<a name="example.awsbatch"></a>

L'esempio seguente consente di avviare un cluster con il pianificatore `awsbatch`. È impostato per selezionare il tipo di istanza migliore in base alle esigenze in termini di risorse lavorative.

La configurazione di esempio consente un massimo di 40 v CPUs simultanee e si riduce a zero quando nessun processo viene eseguito per 10 minuti (regolabile utilizzando l'[`scaledown_idletime`](scaling-section.md#scaledown-idletime)impostazione).

```
[global]
update_check = true
sanity_check = true
cluster_template = awsbatch

[aws]
aws_region_name = <your Regione AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster awsbatch]
scheduler = awsbatch
compute_instance_type = optimal # optional, defaults to optimal
min_vcpus = 0                   # optional, defaults to 0
desired_vcpus = 0               # optional, defaults to 4
max_vcpus = 40                  # optional, defaults to 20
base_os = alinux2               # optional, defaults to alinux2, controls the base_os of
                                # the head node and the docker image for the compute fleet
key_name = <your EC2 keypair name>
vpc_settings = public
```