

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Configuração
<a name="configuration"></a>

Por padrão, AWS ParallelCluster usa o `~/.parallelcluster/config` arquivo para todos os parâmetros de configuração. Você pode especificar um arquivo de configuração personalizado usando a opção da linha de comando `-c` ou `--config`, ou a variável de ambiente `AWS_PCLUSTER_CONFIG_FILE`.

Um exemplo de arquivo de configuração é instalado AWS ParallelCluster no diretório Python em. `site-packages/aws-parallelcluster/examples/config` O arquivo de configuração de exemplo também está disponível em GitHub, em[https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config).

Versão AWS ParallelCluster 2 atual: 2.11.9.

**Topics**
+ [Layout](#layout)
+ [Seção `[global]`](global.md)
+ [Seção `[aws]`](aws.md)
+ [Seção `[aliases]`](aliases.md)
+ [Seção `[cluster]`](cluster-definition.md)
+ [Seção `[compute_resource]`](compute-resource-section.md)
+ [Seção `[cw_log]`](cw-log-section.md)
+ [Seção `[dashboard]`](dashboard-section.md)
+ [Seção `[dcv]`](dcv-section.md)
+ [Seção `[ebs]`](ebs-section.md)
+ [Seção `[efs]`](efs-section.md)
+ [Seção `[fsx]`](fsx-section.md)
+ [Seção `[queue]`](queue-section.md)
+ [Seção `[raid]`](raid-section.md)
+ [Seção `[scaling]`](scaling-section.md)
+ [Seção `[vpc]`](vpc-section.md)
+ [Exemplos](examples.md)

## Layout
<a name="layout"></a>

Uma AWS ParallelCluster configuração é definida em várias seções.

As seções a seguir são obrigatórias: [`[global]` seção](global.md) e [`[aws]` seção](aws.md).

Também é preciso incluir no mínimo uma [`[cluster]` seção](cluster-definition.md) e uma sessão [`[vpc]`](vpc-section.md).

Uma seção começa com o nome da seção entre colchetes, seguido por parâmetros e pela configuração.

```
[global]
cluster_template = default
update_check = true
sanity_check = true
```

# Seção `[global]`
<a name="global"></a>

Especifica opções de configuração globais relacionadas a `pcluster`.

```
[global]
```

**Topics**
+ [`cluster_template`](#cluster-template)
+ [`update_check`](#update-check)
+ [`sanity_check`](#sanity-check)

## `cluster_template`
<a name="cluster-template"></a>

Define o nome da seção do `cluster` que será usada por padrão para o cluster. Para obter mais informações sobre seções de `cluster`, consulte [seção do `[cluster]`](cluster-definition.md). O nome do cluster deve começar com uma letra, conter, no máximo, 60 caracteres e conter apenas letras, números e hifens (-).

Por exemplo, a configuração a seguir especifica que a seção que começa com `[cluster default]` é usada por padrão.

```
cluster_template = default
```

[Política de atualização: essa configuração não é analisada durante uma atualização.](using-pcluster-update.md#update-policy-setting-ignored)

## `update_check`
<a name="update-check"></a>

**(Opcional)** Verifica se há atualizações para o `pcluster`.

O valor padrão é `true`.

```
update_check = true
```

[Política de atualização: essa configuração não é analisada durante uma atualização.](using-pcluster-update.md#update-policy-setting-ignored)

## `sanity_check`
<a name="sanity-check"></a>

**(Opcional)** Tenta validar a configuração dos recursos que estão definidos nos parâmetros do cluster.

O valor padrão é `true`.

**Atenção**  
Se `sanity_check` estiver definido como `false`, verificações importantes serão ignoradas. Isso pode fazer com que sua configuração não funcione conforme o esperado.

```
sanity_check = true
```

**nota**  
Antes da AWS ParallelCluster versão 2.5.0, o [`sanity_check`](#sanity-check) padrão era. `false`

[Política de atualização: essa configuração não é analisada durante uma atualização.](using-pcluster-update.md#update-policy-setting-ignored)

# Seção `[aws]`
<a name="aws"></a>

**(Opcional)** Usado para selecionar Região da AWS o.

A criação do cluster usa essa ordem de prioridade para selecionar o Região da AWS para um novo cluster:

1. `-r`ou `--region` parâmetro para[`pcluster create`](pluster.create.md).

1. Variável de ambiente `AWS_DEFAULT_REGION`.

1. `aws_region_name`configuração na `[aws]` seção do arquivo de AWS ParallelCluster configuração (o local padrão é`~/.parallelcluster/config`.) Esse é o local atualizado pelo comando [`pcluster configure`](pcluster.configure.md).

1. `region`configuração na `[default]` seção do arquivo de AWS CLI configuração (`~/.aws/config`.)

**nota**  
Antes da AWS ParallelCluster versão 2.10.0, essas configurações eram necessárias e aplicadas a todos os clusters.

Para armazenar credenciais, você pode usar o ambiente, as funções do IAM para a Amazon ou o EC2 [AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html), em vez de salvar as credenciais no AWS ParallelCluster arquivo de configuração.

```
[aws]
aws_region_name = Region
```

[Política de atualização: essa configuração não é analisada durante uma atualização.](using-pcluster-update.md#update-policy-setting-ignored)

# Seção `[aliases]`
<a name="aliases"></a>

**Topics**

Especifica aliases e permite personalizar o comando `ssh`.

Observe as seguintes configurações padrão:
+ `CFN_USER` está definido como o nome de usuário padrão do SO
+ `MASTER_IP` é definido como o endereço IP do nó principal
+ `ARGS` é definido para quaisquer argumentos que o usuário forneça após *`pcluster ssh cluster_name`*

```
[aliases]
# This is the aliases section, you can configure
# ssh alias here
ssh = ssh {CFN_USER}@{MASTER_IP} {ARGS}
```

[Política de atualização: essa configuração não é analisada durante uma atualização.](using-pcluster-update.md#update-policy-setting-ignored)

# Seção `[cluster]`
<a name="cluster-definition"></a>

Define um modelo de cluster que pode ser usado para criar um cluster. Um arquivo de configuração pode conter várias seções `[cluster]`.

O mesmo modelo de cluster pode ser usado para criar vários clusters.

O formato é `[cluster cluster-template-name]`. A [seção `[cluster]`](#cluster-definition) nomeada pela configuração [`cluster_template`](global.md#cluster-template) na [seção `[global]`](global.md) é usada por padrão, mas pode ser substituída na linha de comando [`pcluster`](pcluster.md).

*cluster-template-name*deve começar com uma letra, conter no máximo 30 caracteres e conter somente letras, números, hífens (-) e sublinhados (\$1).

```
[cluster default]
```

**Topics**
+ [`additional_cfn_template`](#additional-cfn-template)
+ [`additional_iam_policies`](#additional-iam-policies)
+ [`base_os`](#base-os)
+ [`cluster_resource_bucket`](#cluster-resource-bucket-section)
+ [`cluster_type`](#cluster-type)
+ [`compute_instance_type`](#compute-instance-type)
+ [`compute_root_volume_size`](#compute-root-volume-size)
+ [`custom_ami`](#custom-ami-section)
+ [`cw_log_settings`](#cw-log-settings)
+ [`dashboard_settings`](#dashboard-settings)
+ [`dcv_settings`](#dcv-settings)
+ [`desired_vcpus`](#desired-vcpus)
+ [`disable_cluster_dns`](#disable-cluster-dns-settings)
+ [`disable_hyperthreading`](#disable-hyperthreading)
+ [`ebs_settings`](#ebs-settings)
+ [`ec2_iam_role`](#ec2-iam-role)
+ [`efs_settings`](#efs-settings)
+ [`enable_efa`](#enable-efa)
+ [`enable_efa_gdr`](#enable-efa-gdr)
+ [`enable_intel_hpc_platform`](#enable-intel-hpc-platform)
+ [`encrypted_ephemeral`](#encrypted-ephemeral)
+ [`ephemeral_dir`](#ephemeral-dir)
+ [`extra_json`](#extra-json)
+ [`fsx_settings`](#fsx-settings)
+ [`iam_lambda_role`](#iam-lambda-role)
+ [`initial_queue_size`](#configuration-initial-queue-size)
+ [`key_name`](#key-name)
+ [`maintain_initial_size`](#maintain-initial-size)
+ [`master_instance_type`](#master-instance-type)
+ [`master_root_volume_size`](#master-root-volume-size)
+ [`max_queue_size`](#configuration-max-queue-size)
+ [`max_vcpus`](#max-vcpus)
+ [`min_vcpus`](#min-vcpus)
+ [`placement`](#placement)
+ [`placement_group`](#placement-group)
+ [`post_install`](#post-install)
+ [`post_install_args`](#post-install-args)
+ [`pre_install`](#pre-install)
+ [`pre_install_args`](#pre-install-args)
+ [`proxy_server`](#proxy-server)
+ [`queue_settings`](#queue-settings)
+ [`raid_settings`](#raid-settings)
+ [`s3_read_resource`](#s3-read-resource)
+ [`s3_read_write_resource`](#s3-read-write-resource)
+ [`scaling_settings`](#scaling-settings)
+ [`scheduler`](#scheduler)
+ [`shared_dir`](#cluster-shared-dir)
+ [`spot_bid_percentage`](#spot-bid-percentage)
+ [`spot_price`](#spot-price)
+ [`tags`](#tags)
+ [`template_url`](#template-url)
+ [`vpc_settings`](#vpc-settings)

## `additional_cfn_template`
<a name="additional-cfn-template"></a>

**(Opcional)** Define um AWS CloudFormation modelo adicional a ser executado junto com o cluster. Esse modelo adicional é usado para a criação de recursos que existem fora do cluster, mas que fazem parte do ciclo de vida do cluster.

Esse valor deve ser um URL HTTP para um modelo público, com todos os parâmetros fornecidos.

Não há valor padrão.

```
additional_cfn_template = https://<bucket-name>.s3.amazonaws.com/my-cfn-template.yaml
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `additional_iam_policies`
<a name="additional-iam-policies"></a>

**(Opcional)** Especifica uma lista de nomes de recursos da Amazon (ARNs) de políticas do IAM para o Amazon EC2. Essa lista é anexada à função raiz usada no cluster, além das permissões exigidas pelo AWS ParallelCluster separadas por vírgulas. O nome da política do IAM e seu ARN são diferentes. Os nomes não podem ser usados como um argumento para `additional_iam_policies`.

Se sua intenção é adicionar políticas extras às configurações padrão dos nós do cluster, recomendamos que você transmita as políticas adicionais personalizadas do IAM com a configuração `additional_iam_policies` em vez de usar as configurações [`ec2_iam_role`](#ec2-iam-role) para incluir suas políticas de EC2 específicas. Isso ocorre porque `additional_iam_policies` são adicionados às permissões padrão AWS ParallelCluster exigidas. Um [`ec2_iam_role`](#ec2-iam-role) existente deve incluir todas as permissões necessárias. No entanto, como as permissões necessárias geralmente mudam de uma versão para outra à medida que os recursos são adicionados, um [`ec2_iam_role`](#ec2-iam-role) pode se tornar obsoleto.

Não há valor padrão.

```
additional_iam_policies = arn:aws:iam::123456789012:policy/CustomEC2Policy
```

**nota**  
O suporte para [`additional_iam_policies`](#additional-iam-policies) foi adicionado ao AWS ParallelCluster versão 2.5.0.

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `base_os`
<a name="base-os"></a>

**(Obrigatório)** Especifica qual tipo de SO é usado no cluster.

As opções disponíveis são:
+ `alinux2`
+ `centos7`
+ `ubuntu1804`
+ `ubuntu2004`

**nota**  
Somente para instâncias AWS baseadas em Graviton `alinux2``ubuntu1804`, ou `ubuntu2004` são compatíveis.

**nota**  
Support for `centos8` removido na AWS ParallelCluster versão 2.11.4. O suporte para `ubuntu2004` foi adicionado e o suporte para `alinux` e `ubuntu1604` foi removido na versão 2.11.0 do AWS ParallelCluster . O suporte para `centos8` foi adicionado e o suporte para `centos6` foi removido na AWS ParallelCluster versão 2.10.0. O suporte para `alinux2` foi adicionado ao AWS ParallelCluster versão 2.6.0. O suporte para `ubuntu1804` foi adicionado e o suporte para `ubuntu1404` foi removido no AWS ParallelCluster versão 2.5.0.

Além dos específicos Regiões da AWS mencionados na tabela a seguir, que não são compatíveis`centos7`. Todas as outras regiões AWS comerciais oferecem suporte a todos os sistemas operacionais a seguir.


| Partição (Regiões da AWS) | `alinux2` | `centos7` | `ubuntu1804` e `ubuntu2004` | 
| --- | --- | --- | --- | 
| Comercial (tudo Regiões da AWS não mencionado especificamente) | Verdadeiro | Verdadeiro | Verdadeiro | 
| AWS GovCloud (Leste dos EUA) (us-gov-east-1) | Verdadeiro | Falso | Verdadeiro | 
| AWS GovCloud (Oeste dos EUA) (us-gov-west-1) | Verdadeiro | Falso | Verdadeiro | 
| China (Pequim) (cn-north-1) | Verdadeiro | Falso | Verdadeiro | 
| China (Ningxia) (cn-northwest-1) | Verdadeiro | Falso | Verdadeiro | 

**nota**  
O parâmetro [`base_os`](#base-os) também determina o nome de usuário que é usado para fazer login no cluster.
+ `centos7`: `centos` 
+ `ubuntu1804` e `ubuntu2004`: `ubuntu` 
+ `alinux2`: `ec2-user` 

**nota**  
Antes da AWS ParallelCluster versão 2.7.0, o [`base_os`](#base-os) parâmetro era opcional e o padrão era. `alinux` A partir do AWS ParallelCluster versão 2.7.0, o parâmetro [`base_os`](#base-os) é obrigatório.

**nota**  
Se o parâmetro [`scheduler`](#scheduler) for `awsbatch`, somente `alinux2` será aceito.

```
base_os = alinux2
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `cluster_resource_bucket`
<a name="cluster-resource-bucket-section"></a>

**(Opcional)** Especifica o nome do bucket do Amazon S3 usado para hospedar recursos que são gerados quando o cluster é criado. O bucket deve ter o versionamento ativado. Para obter mais informações, consulte [Usando versionamento](https://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html) no *Guia do usuário do Amazon Simple Storage Service*. Esse bucket pode ser usado para vários clusters. O bucket do deve estar na mesma região que o cluster.

Se esse parâmetro não for especificado, um novo bucket será criado quando o cluster for criado. O novo bucket tem o nome de `parallelcluster-random_string`. Nesse nome, *random\$1string* é uma sequência aleatória de caracteres alfanuméricos. Todos os recursos do cluster são armazenados nesse bucket em um caminho com o formulário`bucket_name/resource_directory`. `resource_directory`tem o formulário`stack_name-random_string`, onde *stack\$1name* está o nome de uma das CloudFormation pilhas usadas por AWS ParallelCluster. O valor de *bucket\$1name* pode ser encontrado no `ResourcesS3Bucket` valor na saída da `parallelcluster-clustername` pilha. O valor de *resource\$1directory* pode ser encontrado no valor da `ArtifactS3RootDirectory` saída da mesma pilha.

O valor padrão é `parallelcluster-random_string`.

```
cluster_resource_bucket = amzn-s3-demo-bucket
```

**nota**  
Support for [`cluster_resource_bucket`](#cluster-resource-bucket-section) adicionado na AWS ParallelCluster versão 2.10.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida. A atualização dessa configuração não pode ser forçada.](using-pcluster-update.md#update-policy-read-only-resource-bucket)

## `cluster_type`
<a name="cluster-type"></a>

**(Opcional)** Define o tipo de cluster a ser executado. Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser substituída pelas configurações [`compute_type`](queue-section.md#queue-compute-type) nas [seções`[queue]`](queue-section.md).

As opções válidas são `ondemand` e `spot`.

O valor padrão é `ondemand`.

Para obter mais informações sobre instâncias spot, consulte [Trabalho com Instâncias spot](spot.md).

**nota**  
O uso de Instâncias spot exige que a função `AWSServiceRoleForEC2Spot` vinculada ao serviço exista na sua conta. Para criar essa função na sua conta usando o AWS CLI, execute o seguinte comando:  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Para ter mais informações, consulte [Função vinculada ao serviço para solicitações de instâncias spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) no *Guia do usuário do Amazon EC2*.

```
cluster_type = ondemand
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_instance_type`
<a name="compute-instance-type"></a>

**(Opcional)** Define o tipo de instância do Amazon EC2 que é usado para os nós de computação em cluster. A arquitetura do tipo de instância deve ser a mesma usada para a configuração [`master_instance_type`](#master-instance-type). Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser substituída pelas configurações [`instance_type`](compute-resource-section.md#compute-resource-instance-type) nas [seções`[compute_resource]`](compute-resource-section.md).

Se você estiver usando o `awsbatch` agendador, consulte a criação de ambientes de computação na AWS Batch interface do usuário para ver uma lista dos tipos de instância compatíveis.

O padrão é `t2.micro`, `optimal` quando o programador for `awsbatch`.

```
compute_instance_type = t2.micro
```

**nota**  
Support para instâncias AWS baseadas em Graviton (incluindo `C6g` instâncias `A1` e) foi adicionado na AWS ParallelCluster versão 2.8.0.

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_root_volume_size`
<a name="compute-root-volume-size"></a>

**(Opcional)** Especifica o tamanho do volume ComputeFleet raiz em gibibytes (GiB). A AMI deve oferecer suporte para `growroot`.

O valor padrão é `35`.

**nota**  
Para AWS ParallelCluster versões entre 2.5.0 e 2.10.4, o padrão era 25. Antes da AWS ParallelCluster versão 2.5.0, o padrão era 20.

```
compute_root_volume_size = 35
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `custom_ami`
<a name="custom-ami-section"></a>

**(Opcional)** [Especifica a ID de uma AMI personalizada a ser usada nos nós principais e de computação, em vez da publicação padrão. AMIs](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/amis.txt) Para acessar mais informações, consulte [Modificar uma AMI do](tutorials_02_ami_customization.md#modify-an-aws-parallelcluster-ami) ou [Crie uma AWS ParallelCluster AMI personalizada](tutorials_02_ami_customization.md#build-a-custom-aws-parallelcluster-ami).

Não há valor padrão.

```
custom_ami = ami-00d4efc81188687a0
```

Se a AMI personalizada exigir permissões adicionais para seu lançamento, essas permissões deverão ser adicionadas às políticas do usuário e do nó principal.

Por exemplo, se uma AMI personalizada tiver um snapshot criptografado associado a ela, as seguintes políticas adicionais serão necessárias nas políticas do usuário e do nó principal:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```

------

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `cw_log_settings`
<a name="cw-log-settings"></a>

**(Opcional)** Identifica a `[cw_log]` seção com a configuração de CloudWatch registros. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para mais informações, consulte a [seção `[cw_log]`](cw-log-section.md), [CloudWatch Painel da Amazon](cloudwatch-dashboard.md), e [Integração com Amazon CloudWatch Logs](cloudwatch-logs.md).

Por exemplo, a configuração a seguir especifica que a seção que começa `[cw_log custom-cw]` é usada para a configuração de CloudWatch registros.

```
cw_log_settings = custom-cw
```

**nota**  
Support for [`cw_log_settings`](#cw-log-settings) adicionado na AWS ParallelCluster versão 2.6.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `dashboard_settings`
<a name="dashboard-settings"></a>

**(Opcional)** Identifica a `[dashboard]` seção com a configuração do CloudWatch painel. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[dashboard]`](dashboard-section.md).

Por exemplo, a configuração a seguir especifica que a seção que começa `[dashboard custom-dashboard` é usada para a configuração do CloudWatch painel.

```
dashboard_settings = custom-dashboard
```

**nota**  
Support for [`dashboard_settings`](#dashboard-settings) adicionado na AWS ParallelCluster versão 2.10.0.

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `dcv_settings`
<a name="dcv-settings"></a>

**(Opcional)** Identifica a seção `[dcv]` com a configuração do Amazon DCV. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[dcv]`](dcv-section.md).

Por exemplo, a configuração a seguir especifica que a seção que inicia `[dcv custom-dcv]` é usada para a configuração do Amazon DCV.

```
dcv_settings = custom-dcv
```

**nota**  
Em instâncias AWS baseadas em Graviton, o Amazon DCV só é compatível com. `alinux2`

**nota**  
Support for [`dcv_settings`](#dcv-settings) adicionado na AWS ParallelCluster versão 2.5.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `desired_vcpus`
<a name="desired-vcpus"></a>

**(Opcional)** Especifica o número desejado de v CPUs no ambiente computacional. Usador apenas se o programador for `awsbatch`.

O valor padrão é `4`.

```
desired_vcpus = 4
```

[Política de atualização: essa configuração não é analisada durante uma atualização.](using-pcluster-update.md#update-policy-setting-ignored)

## `disable_cluster_dns`
<a name="disable-cluster-dns-settings"></a>

**(Opcional)** Especifica se as entradas de DNS do cluster não devem ser criadas. Por padrão, AWS ParallelCluster cria uma zona hospedada do Route 53. Se `disable_cluster_dns` estiver definido como `true`, a zona hospedada não será criada.

O valor padrão é `false`.

```
disable_cluster_dns = true
```

**Atenção**  
É necessário um sistema de resolução de nomes para que o cluster funcione adequadamente. Se `disable_cluster_dns` estiver definido como `true`, um sistema adicional de resolução de nomes também deverá ser fornecido.

**Importante**  
[`disable_cluster_dns`](#disable-cluster-dns-settings)= só `true` é suportado se a configuração [`queue_settings`](#queue-settings) for especificada.

**nota**  
Support for [`disable_cluster_dns`](#disable-cluster-dns-settings) adicionado na AWS ParallelCluster versão 2.9.1.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `disable_hyperthreading`
<a name="disable-hyperthreading"></a>

**(Opcional)** Desabilita o hyperthreading nos nós principais e de computação. Nem todos os tipos de instância podem desabilitar o hyperthreading. Para ver quais tipos de instância permitem desabilitar o hyperthreading, consulte a seção sobre [núcleos e threads de CPU para cada núcleo de CPU por tipo de instância](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) no *Guia do usuário do Amazon EC2*. Se a configuração [`queue_settings`](#queue-settings) for definida, essa configuração poderá ser definida ou as configurações [`disable_hyperthreading`](queue-section.md#queue-disable-hyperthreading) nas [seções `[queue]`](queue-section.md) poderão ser definidas.

O valor padrão é `false`.

```
disable_hyperthreading = true
```

**nota**  
[`disable_hyperthreading`](#disable-hyperthreading) afeta apenas o nó principal quando `scheduler = awsbatch`.

**nota**  
O suporte para [`disable_hyperthreading`](#disable-hyperthreading) foi adicionado ao AWS ParallelCluster versão 2.5.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `ebs_settings`
<a name="ebs-settings"></a>

**(Opcional)** Identifica as seções `[ebs]` com os volumes do Amazon EBS que estão montados no nó principal. Ao usar vários volumes do Amazon EBS, insira esses parâmetros em uma lista com cada um separado por uma vírgula. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Há suporte para até cinco (5) volumes adicionais do Amazon EBS.

Para obter mais informações, consulte a [seção `[ebs]`](ebs-section.md).

Por exemplo, a seguinte configuração especifica que as seções que começam com `[ebs custom1]` e `[ebs custom2]` são usados para os volumes do Amazon EBS.

```
ebs_settings = custom1, custom2
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `ec2_iam_role`
<a name="ec2-iam-role"></a>

**(Opcional)** Define o nome de um perfil do IAM existente para o Amazon EC2 que é anexada a todas as instâncias do cluster. Um nome de função do IAM e seu Amazon Resource Name (ARN) são diferentes. ARNs não pode ser usado como argumento para`ec2_iam_role`.

Se essa opção for especificada, a configuração [`additional_iam_policies`](#additional-iam-policies) será ignorada. Se sua intenção é adicionar políticas extras às configurações padrão dos nós do cluster, recomendamos que você transmita as políticas adicionais personalizadas do IAM com a configuração [`additional_iam_policies`](#additional-iam-policies) em vez de usar as configurações `ec2_iam_role`.

Se essa opção não for especificada, a função padrão AWS ParallelCluster do IAM para o Amazon EC2 será usada. Para obter mais informações, consulte [AWS Identity and Access Management funções em AWS ParallelCluster](iam.md).

Não há valor padrão.

```
ec2_iam_role = ParallelClusterInstanceRole
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `efs_settings`
<a name="efs-settings"></a>

**(Opcional)** Especifica as configurações relacionadas ao sistema de arquivos do Amazon EFS. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[efs]`](efs-section.md).

Por exemplo, a seguinte configuração especifica que a seção que começa com `[efs customfs]` é usada para a configuração do sistema de arquivos do Amazon EFS.

```
efs_settings = customfs
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `enable_efa`
<a name="enable-efa"></a>

**(Opcional)** Se estiver presente, especificará que o Elastic Fabric Adapter (EFA) está habilitado para os nós de computação. Para visualizar uma lista de tipos de instâncias do EC2 compatíveis com EFAs, consulte [Tipos de instância compatíveis](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) no *Guia do usuário do Amazon EC2 para instâncias do Linux*. Para obter mais informações, consulte [Elastic Fabric Adapter](efa.md). Se a configuração [`queue_settings`](#queue-settings) for definida, essa configuração poderá ser definida ou as configurações [`enable_efa`](queue-section.md#queue-enable-efa) na [seção `[queue]`](queue-section.md) poderão ser definidas. Um placement group de cluster deve ser usado para minimizar latências entre instâncias. Para obter mais informações, consulte [`placement`](#placement) e [`placement_group`](#placement-group).

```
enable_efa = compute
```

**nota**  
O suporte para EFA em instâncias Graviton2 baseadas em ARM foi adicionado na versão 2.10.1. AWS ParallelCluster 

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `enable_efa_gdr`
<a name="enable-efa-gdr"></a>

**(Opcional)** A partir da AWS ParallelCluster versão 2.11.3, essa configuração não tem efeito. O suporte do Elastic Fabric Adapter (EFA) para GPUDirect RDMA (acesso direto remoto à memória) está sempre ativado se for suportado pelo tipo de instância e pelo sistema operacional.

**nota**  
AWS ParallelCluster versão 2.10.0 a 2.11.2: Se`compute`, especifica que o suporte do Elastic Fabric Adapter (EFA) GPUDirect para RDMA (acesso direto remoto à memória) está habilitado para os nós de computação. Definir essa configuração como `compute` requer que a configuração [`enable_efa`](#enable-efa) seja definida como `compute`. O suporte do EFA para GPUDirect RDMA é suportado por tipos de instância específicos (`p4d.24xlarge`) em sistemas operacionais específicos ([`base_os`](#base-os)é`alinux2`, `centos7``ubuntu1804`, ou`ubuntu2004`). Se a configuração [`queue_settings`](#queue-settings) for definida, essa configuração poderá ser definida ou as configurações [`enable_efa_gdr`](queue-section.md#queue-enable-efa-gdr) nas [seções `[queue]`](queue-section.md) poderão ser definidas. Um placement group de cluster deve ser usado para minimizar latências entre instâncias. Para obter mais informações, consulte [`placement`](#placement) e [`placement_group`](#placement-group).

```
enable_efa_gdr = compute
```

**nota**  
Support for `enable_efa_gdr` adicionado na AWS ParallelCluster versão 2.10.0.

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_intel_hpc_platform`
<a name="enable-intel-hpc-platform"></a>

**(Opcional)** Se estiver presente, indica que o [Contrato de licença de usuário final](https://software.intel.com/en-us/articles/end-user-license-agreement) do Intel Parallel Studio é aceito. Isso faz com que o Intel Parallel Studio seja instalado no nó principal e compartilhado com os nós de computação. Isso adiciona vários minutos ao tempo que o nó principal leva para ser inicializado. A configuração [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) só é compatível com CentOS 7 ([`base_os`](#base-os)` = centos7`).

O valor padrão é `false`.

```
enable_intel_hpc_platform = true
```

**nota**  
O [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) parâmetro não é compatível com instâncias AWS baseadas em Graviton.

**nota**  
O suporte para [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) foi adicionado ao AWS ParallelCluster versão 2.5.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `encrypted_ephemeral`
<a name="encrypted-ephemeral"></a>

**(Opcional)** Criptografa os volumes de armazenamento de instâncias efêmeros com chaves na memória não recuperáveis usando LUKS (Linux Unified Key Setup).

Para obter mais informações, consulte [https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md](https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md).

O valor padrão é `false`.

```
encrypted_ephemeral = true
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `ephemeral_dir`
<a name="ephemeral-dir"></a>

**(Opcional)** Define o caminho onde volumes de armazenamento de instâncias são montados, caso sejam usados.

O valor padrão é `/scratch`.

```
ephemeral_dir = /scratch
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `extra_json`
<a name="extra-json"></a>

**(Opcional)** Define o JSON extra que é mesclado no. Chef `dna.json`. Para obter mais informações, consulte [Criação de uma AWS ParallelCluster AMI personalizada](tutorials_02_ami_customization.md).

O valor padrão é `{}`.

```
extra_json = {}
```

**nota**  
A partir da AWS ParallelCluster versão 2.6.1, a maioria das receitas de instalação são ignoradas por padrão ao iniciar os nós para melhorar os tempos de inicialização. Para executar todas as fórmulas de instalação para uma melhor compatibilidade com versões anteriores em detrimento dos tempos de inicialização, adicione `"skip_install_recipes" : "no"` à chave `cluster` na configuração [`extra_json`](#extra-json). Por exemplo:  

```
extra_json = { "cluster" : { "skip_install_recipes" : "no" } }
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `fsx_settings`
<a name="fsx-settings"></a>

**(Opcional)** Especifica a seção que define a configuração do FSx Lustre. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[fsx]`](fsx-section.md).

Por exemplo, a configuração a seguir especifica que a seção que começa `[fsx fs]` é usada FSx para a configuração for Lustre.

```
fsx_settings = fs
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `iam_lambda_role`
<a name="iam-lambda-role"></a>

**(Opcional)** Define o nome de uma função de AWS Lambda execução existente. Esta função está vinculada a todas as funções do Lambda no cluster. Para obter mais informações, consulte [perfil do IAM para execução do AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/lambda-intro-execution-role.html) no *Guia do desenvolvedor do AWS Lambda *.

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.

Um nome de função do IAM e seu Amazon Resource Name (ARN) são diferentes. ARNs não pode ser usado como argumento para`iam_lambda_role`. Se ambos [`ec2_iam_role`](#ec2-iam-role) e `iam_lambda_role` forem definidos e se [`scheduler`](#scheduler) for `sge`, `slurm` ou `torque`, não haverá funções criadas. Se [`scheduler`](#scheduler) for `awsbatch`, então haverá funções criadas durante [`pcluster start`](pcluster.start.md). Para obter exemplos de políticas, consulte [`ParallelClusterLambdaPolicy` usando SGE, Slurm ou Torque](iam.md#parallelcluster-lambda-policy) e [`ParallelClusterLambdaPolicy` usando `awsbatch`](iam.md#parallelcluster-lambda-policy-batch).

Não há valor padrão.

```
iam_lambda_role = ParallelClusterLambdaRole
```

**nota**  
Support for `iam_lambda_role` adicionado na AWS ParallelCluster versão 2.10.1.

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `initial_queue_size`
<a name="configuration-initial-queue-size"></a>

**(Opcional)** Define o número inicial de instâncias do Amazon EC2 a serem executadas como nós de computação no cluster. Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser removida e substituída pelas configurações [`initial_count`](compute-resource-section.md#compute-resource-initial-count) nas [seções `[compute_resource]`](compute-resource-section.md).

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.

Essa configuração é aplicável apenas para programadores tradicionais (SGE, Slurm e Torque). Se a configuração [`maintain_initial_size`](#maintain-initial-size) for `true`, a configuração [`initial_queue_size`](#configuration-initial-queue-size) deverá ser pelo menos uma (1).

Se o programador for `awsbatch`, use [`min_vcpus`](#min-vcpus) em vez disso.

O padrão é `2`.

```
initial_queue_size = 2
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `key_name`
<a name="key-name"></a>

**(Opcional)** Nomeia um par de chaves do Amazon EC2 existente para habilitar o acesso SSH às instâncias.

```
key_name = mykey
```

**nota**  
Antes da AWS ParallelCluster versão 2.11.0, `key_name` era uma configuração obrigatória.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `maintain_initial_size`
<a name="maintain-initial-size"></a>

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.

**(Opcional)** Mantém o tamanho inicial do grupo do Auto Scaling para programadores tradicionais (SGE, Slurm, e Torque).

Se o programador for `awsbatch`, use [`desired_vcpus`](#desired-vcpus) em vez disso.

Essa configuração é um sinalizador booliano. Se definido como `true`, o grupo di Auto Scaling nunca terá menos membros do que o valor de [`initial_queue_size`](#configuration-initial-queue-size), e o valor de [`initial_queue_size`](#configuration-initial-queue-size) deve ser um (1) ou maior. O cluster ainda pode aumentar até o valor de [`max_queue_size`](#configuration-max-queue-size). Se `cluster_type = spot`, o grupo do Auto Scaling pode ter instâncias interrompidas, e o tamanho pode cair para menos de [`initial_queue_size`](#configuration-initial-queue-size).

Se for definido como `false`, o grupo do Auto Scaling poderá ser reduzido para zero (0) membros a fim de impedir que os recursos fiquem ociosos quando não forem necessários.

Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser removida e substituída pelas configurações [`initial_count`](compute-resource-section.md#compute-resource-initial-count) e [`min_count`](compute-resource-section.md#compute-resource-min-count) nas [seções `[compute_resource]`](compute-resource-section.md).

O padrão é `false`.

```
maintain_initial_size = false
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `master_instance_type`
<a name="master-instance-type"></a>

**(Opcional)** Define o tipo de instância do Amazon EC2 que é usado para o nó principal. A arquitetura do tipo de instância deve ser a mesma usada para a configuração [`compute_instance_type`](#compute-instance-type).

Se Regiões da AWS tiver um nível gratuito, o padrão é o tipo de instância de nível gratuito (`t2.micro`ou`t3.micro`). Se Regiões da AWS não tiver um nível gratuito, o padrão é. `t3.micro` Para obter mais informações sobre o nível AWS gratuito, consulte [Nível AWS gratuito FAQs](https://aws.amazon.com/free/free-tier-faqs/).

```
master_instance_type = t2.micro
```

**nota**  
Antes da AWS ParallelCluster versão 2.10.1, o padrão era in all. `t2.micro` Regiões da AWS Na AWS ParallelCluster versão 2.10.0, o `p4d.24xlarge` não tinha suporte para o nó principal. Support para instâncias AWS baseadas em Graviton (como `A1` e`C6g`) foi adicionado na AWS ParallelCluster versão 2.8.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `master_root_volume_size`
<a name="master-root-volume-size"></a>

**(Opcional)** Especifica o tamanho do volume raiz do nó principal em gibibytes (GiB). A AMI deve oferecer suporte para `growroot`.

O valor padrão é `35`.

**nota**  
Para AWS ParallelCluster versões entre 2.5.0 e 2.10.4, o padrão era 25. Antes da AWS ParallelCluster versão 2.5.0, o padrão era 20.

```
master_root_volume_size = 35
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `max_queue_size`
<a name="configuration-max-queue-size"></a>

**(Opcional)** Define o número máximo de instâncias do Amazon EC2 que podem ser executadas no cluster. Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser removida e substituída pelas configurações [`max_count`](compute-resource-section.md#compute-resource-max-count) nas [seções `[compute_resource]`](compute-resource-section.md).

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.

Essa configuração é aplicável apenas para programadores tradicionais (SGE, Slurm e Torque).

Se o programador for `awsbatch`, use [`max_vcpus`](#max-vcpus) em vez disso.

O padrão é `10`.

```
max_queue_size = 10
```

Política de atualização: essa configuração pode ser alterada durante uma atualização, mas a frota computacional deve ser interrompida se o valor for reduzido. Caso contrário, os nós existentes poderão ser encerrados.

## `max_vcpus`
<a name="max-vcpus"></a>

**(Opcional)** Especifica o número máximo de v CPUs no ambiente computacional. Usador apenas se o programador for `awsbatch`.

O valor padrão é `20`.

```
max_vcpus = 20
```

[Política de atualização: essa configuração não pode ser diminuída durante uma atualização.](using-pcluster-update.md#update-policy-no-decrease)

## `min_vcpus`
<a name="min-vcpus"></a>

**(Opcional)** Mantém o tamanho inicial do grupo do Auto Scaling para o programador `awsbatch`.

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.

Se o programador for SGE, Slurm ou Torque, use [`maintain_initial_size`](#maintain-initial-size) em vez disso.

O ambiente de computação nunca terá menos membros do que o valor de [`min_vcpus`](#min-vcpus).

O padrão é `0`.

```
min_vcpus = 0
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `placement`
<a name="placement"></a>

**(Opcional)** Define a lógica de grupo de posicionamento de cluster, permitindo que todo o cluster ou somente as instâncias de computação usem o grupo de posicionamento de cluster.

Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser removida e substituída pelas configurações [`placement_group`](queue-section.md#queue-placement-group) para cada uma das [seções de `[queue]`](queue-section.md). Se o mesmo grupo de posicionamento for usado para diferentes tipos de instância, é mais provável que a solicitação falhe devido a um erro de capacidade insuficiente. Para ter mais informações, consulte [Capacidade insuficiente da instância](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) no *Guia do usuário do Amazon EC2*. Várias filas só podem compartilhar um grupo de posicionamento se ele for criado com antecedência e configurado na configuração [`placement_group`](queue-section.md#queue-placement-group) de cada fila. Se cada [seção `[queue]`](queue-section.md) definir uma configuração [`placement_group`](queue-section.md#queue-placement-group), o nó principal não poderá estar no grupo de posicionamento de uma fila.

As opções válidas são `cluster` ou `compute`.

Esse parâmetro não é usado quando o programador for `awsbatch`.

O valor padrão é `compute`.

```
placement = compute
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `placement_group`
<a name="placement-group"></a>

**(Opcional)** Define o grupo de posicionamento de cluster. Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser removida e substituída pelas configurações [`placement_group`](queue-section.md#queue-placement-group) nas [seções `[queue]`](queue-section.md).

As opções válidas são as seguintes:
+ `DYNAMIC`
+ Um nome do grupo com posicionamento em cluster do Amazon EC2

Quando definido como `DYNAMIC`, um placement group exclusivo será criado e excluído como parte da pilha do cluster.

Esse parâmetro não é usado quando o programador for `awsbatch`.

Para ter mais informações sobre grupos de posicionamento, consulte [Grupos de posicionamento](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) no *Guia do usuário do Amazon EC2*. Se o mesmo grupo de posicionamento for usado para diferentes tipos de instância, é mais provável que a solicitação falhe devido a um erro de capacidade insuficiente. Para ter mais informações, consulte [Capacidade insuficiente da instância](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) no *Guia do usuário do Amazon EC2*.

Não há valor padrão.

Nem todos os tipos de instância oferecem suporte para placement groups de cluster. Por exemplo, o tipo de instância padrão de `t3.micro` não oferece suporte para grupos de posicionamento de cluster. Para ter informações sobre a lista de tipos de instância que oferecem suporte a grupos de posicionamento de cluster, consulte as [regras e limitações para grupos de posicionamento de cluster](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) no *Guia do usuário do Amazon EC2*. Consulte [Grupos de posicionamento e problemas de execução de instâncias](troubleshooting.md#placement-groups-and-instance-launch-issues) para obter dicas ao trabalhar com placement groups.

```
placement_group = DYNAMIC
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `post_install`
<a name="post-install"></a>

**(Opcional)** Especifica a URL de um script de pós-instalação que é executado após a conclusão de todas as ações de bootstrap do nó. Para obter mais informações, consulte [Ações de bootstrap personalizadas](pre_post_install.md).

Ao usar o `awsbatch` como o programador, o script de pós-instalação será executado somente no nó principal.

O formato do parâmetro pode ser `http://hostname/path/to/script.sh` ou `s3://bucket-name/path/to/script.sh`.

Não há valor padrão.

```
post_install = s3://<bucket-name>/my-post-install-script.sh
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `post_install_args`
<a name="post-install-args"></a>

**(Opcional)** Especifica uma lista de argumentos entre aspas a serem enviados ao script de pós-instalação.

Não há valor padrão.

```
post_install_args = "argument-1 argument-2"
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install`
<a name="pre-install"></a>

**(Opcional)** Especifica a URL de um script de pré-instalação que é executado antes do início de qualquer ação de bootstrap de implantação do nó. Para obter mais informações, consulte [Ações de bootstrap personalizadas](pre_post_install.md).

Ao usar o `awsbatch` como o programador, o script de pré-instalação será executado somente no nó principal.

O formato do parâmetro pode ser `http://hostname/path/to/script.sh` ou `s3://bucket-name/path/to/script.sh`.

Não há valor padrão.

```
pre_install = s3://bucket-name/my-pre-install-script.sh
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install_args`
<a name="pre-install-args"></a>

**(Opcional)** Especifica uma lista de argumentos entre aspas a serem enviados ao script de pré-instalação.

Não há valor padrão.

```
pre_install_args = "argument-3 argument-4"
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `proxy_server`
<a name="proxy-server"></a>

**(Opcional)** Define um servidor de proxy HTTP ou HTTPS, normalmente `http://x.x.x.x:8080`.

Não há valor padrão.

```
proxy_server = http://10.11.12.13:8080
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `queue_settings`
<a name="queue-settings"></a>

**(Opcional)** [Especifica que o cluster usa filas em vez de uma frota computacional homogênea e quais `[queue]` seções são usadas.](queue-section.md) A primeira [seção `[queue]`](queue-section.md) listada é a fila padrão do programador. Os nomes da seção `queue` deve começar com uma letra minúscula, conter no máximo 30 caracteres e conter apenas letras minúsculas, números e hifens (-).

**Importante**  
[`queue_settings`](#queue-settings) só é compatível quando [`scheduler`](#scheduler) está definido para `slurm`. As configurações [`cluster_type`](#cluster-type), [`compute_instance_type`](#compute-instance-type), [`initial_queue_size`](#configuration-initial-queue-size), [`maintain_initial_size`](#maintain-initial-size), [`max_queue_size`](#configuration-max-queue-size), [`placement`](#placement), [`placement_group`](#placement-group), e [`spot_price`](#spot-price) não devem ser especificadas. As configurações [`disable_hyperthreading`](#disable-hyperthreading) e [`enable_efa`](#enable-efa) podem ser especificadas na [seção `[cluster]`](#cluster-definition) ou nas [seções`[queue]`](queue-section.md), mas não em ambas.

São suportadas até cinco (5) [seções `[queue]`](queue-section.md).

Para obter mais informações, consulte a [seção `[queue]`](queue-section.md).

Por exemplo, a seguinte configuração especifica que as seções que começam com `[queue q1]` e `[queue q2]` são usados.

```
queue_settings = q1, q2
```

**nota**  
Support for [`queue_settings`](#queue-settings) adicionado na AWS ParallelCluster versão 2.9.0.

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `raid_settings`
<a name="raid-settings"></a>

**(Opcional)** Identifica a seção `[raid]` com a configuração de RAID de volume do Amazon EBS. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[raid]`](raid-section.md).

Por exemplo, a configuração a seguir especifica que a seção que começa com `[raid rs]` seja usada para a configuração do Auto Scaling.

```
raid_settings = rs
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `s3_read_resource`
<a name="s3-read-resource"></a>

**(Opcional)** Especifica um recurso do Amazon S3 ao AWS ParallelCluster qual os nós recebem acesso somente de leitura.

Por exemplo, `arn:aws:s3:::my_corporate_bucket*` fornece acesso somente de leitura ao *my\$1corporate\$1bucket* bucket e aos objetos no bucket.

Consulte [trabalhar com o Amazon S3](s3_resources.md) para obter detalhes sobre o formato.

Não há valor padrão.

```
s3_read_resource = arn:aws:s3:::my_corporate_bucket*
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `s3_read_write_resource`
<a name="s3-read-write-resource"></a>

**(Opcional)** Especifica um recurso do Amazon S3 ao AWS ParallelCluster qual os nós têm acesso read/write concedido.

Por exemplo, `arn:aws:s3:::my_corporate_bucket/Development/*` fornece read/write acesso a todos os objetos na `Development` pasta do *my\$1corporate\$1bucket* bucket.

Consulte [trabalhar com o Amazon S3](s3_resources.md) para obter detalhes sobre o formato.

Não há valor padrão.

```
s3_read_write_resource = arn:aws:s3:::my_corporate_bucket/*
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `scaling_settings`
<a name="scaling-settings"></a>

Identifica a seção `[scaling]` com a configuração do Auto Scaling. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[scaling]`](scaling-section.md).

Por exemplo, a configuração a seguir especifica que a seção que começa com `[scaling custom]` seja usada para a configuração do Auto Scaling.

```
scaling_settings = custom
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `scheduler`
<a name="scheduler"></a>

**(Obrigatório)** Define o programador do cluster.

As opções válidas são as seguintes:

`awsbatch`  
AWS Batch  
Para obter mais informações sobre o programador `awsbatch`, consulte [configuração de redes](networking.md#awsbatch-networking) e [AWS Batch (`awsbatch`)](awsbatchcli.md).

`sge`  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.
Son of Grid Engine (SGE)

`slurm`  
Slurm Workload Manager (Slurm)

`torque`  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.
Torque Resource Manager (Torque)

**nota**  
Antes da AWS ParallelCluster versão 2.7.0, o `scheduler` parâmetro era opcional e o padrão era. `sge` A partir da AWS ParallelCluster versão 2.7.0, o `scheduler` parâmetro é obrigatório.

```
scheduler = slurm
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="cluster-shared-dir"></a>

**(Opcional)** Define o caminho onde o volume compartilhado do Amazon EBS é montado.

Não use esta opção com vários volumes do Amazon EBS. Em vez disso, forneça valores de [`shared_dir`](#cluster-shared-dir) em cada [seção `[ebs]`](ebs-section.md).

Consulte a [seção `[ebs]`](ebs-section.md) para obter detalhes sobre como trabalhar com vários volumes do Amazon EBS.

O valor padrão é `/shared`.

O exemplo a seguir mostra um volume compartilhado do Amazon EBS montado em `/myshared`.

```
shared_dir = myshared
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `spot_bid_percentage`
<a name="spot-bid-percentage"></a>

**(Opcional)** Define a porcentagem sob demanda usada para calcular o preço spot máximo para o ComputeFleet, quando `awsbatch` é o programador.

Se não for especificado, o preço de mercado spot atual será selecionado, limitado ao preço sob demanda.

```
spot_bid_percentage = 85
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `spot_price`
<a name="spot-price"></a>

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.

**(Opcional)** Define o preço spot máximo para ComputeFleet os programadores tradicionais (SGE,Slurm, eTorque). Usado somente quando a configuração [`cluster_type`](#cluster-type) está definida como `spot`. Se você não especificar um valor, será cobrado o preço spot, limitado ao preço sob demanda. Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser removida e substituída pelas configurações [`spot_price`](compute-resource-section.md#compute-resource-spot-price) nas [seções `[compute_resource]`](compute-resource-section.md).

Se o programador for `awsbatch`, use [spot\$1bid\$1percentage](#spot-bid-percentage) em vez disso.

Para obter ajuda para encontrar uma instância spot que atenda às suas necessidades, consulte o [Spot Instance Advisor](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

**nota**  
Na AWS ParallelCluster versão 2.5.0, se for especificada, `cluster_type = spot` mas [`spot_price`](#spot-price) não for especificada, a instância será iniciada em caso de ComputeFleet falha. Isso foi corrigido na AWS ParallelCluster versão 2.5.1.

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `tags`
<a name="tags"></a>

**(Opcional)** Define as tags a serem usadas por CloudFormation.

Se as tags da linha de comando estiverem especificadas por *--tags*, elas são mescladas com as tags de configuração.

As tags da linha de comando substituem as tags de configuração que têm a mesma chave.

As tags são formatadas por JSON. Não use aspas fora das chaves.

Para obter mais informações, consulte [tipos de tags de recurso do CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) no *Guia de usuário do AWS CloudFormation *.

```
tags = {"key" : "value", "key2" : "value2"}
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

**nota**  
A política de atualização não suportou a alteração da configuração `tags` para AWS ParallelCluster versão 2.8.0 até a versão 2.9.1.  
Para as versões 2.10.0 até a versão 2.11.7, a política de atualização listada que suportava a alteração da configuração `tags` não é precisa. Não há suporte para uma atualização de cluster ao modificar essa configuração.

## `template_url`
<a name="template-url"></a>

**(Opcional)** Define o caminho para o AWS CloudFormation modelo usado para criar o cluster.

Atualiza o uso do modelo que foi usado originalmente para criar a pilha.

O padrão é `https://aws_region_name-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version.cfn.json`.

**Atenção**  
Este é um parâmetro avançado. Qualquer alteração nessa configuração é feita por sua conta e risco.

```
template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json
```

[Política de atualização: essa configuração não é analisada durante uma atualização.](using-pcluster-update.md#update-policy-setting-ignored)

## `vpc_settings`
<a name="vpc-settings"></a>

**(Obrigatório)** Identifica a seção `[vpc]` com a configuração da Amazon VPC na qual o cluster é implantado. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[vpc]`](vpc-section.md).

Por exemplo, a configuração a seguir especifica que a seção que começa com `[vpc public]` é usada para a configuração do Amazon VPC.

```
vpc_settings = public
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

# Seção `[compute_resource]`
<a name="compute-resource-section"></a>

Define as configurações de um recurso computacional. [`[compute_resource]`As seções](#compute-resource-section) são referenciadas pela configuração [`compute_resource_settings`](queue-section.md#queue-compute-resource-settings) na [`[queue]`seção](queue-section.md). [`[compute_resource]`As seções](#compute-resource-section) só são suportadas quando [`scheduler`](cluster-definition.md#scheduler) está definido como `slurm`.

O formato é`[compute_resource <compute-resource-name>]`. *compute-resource-name*deve começar com uma letra, conter no máximo 30 caracteres e conter somente letras, números, hífens (-) e sublinhados (\$1).

```
[compute_resource cr1]
instance_type = c5.xlarge
min_count = 0
initial_count = 2
max_count = 10
spot_price = 0.5
```

**nota**  
Support para a [`[compute_resource]`seção](#compute-resource-section) foi adicionado na AWS ParallelCluster versão 2.9.0.

**Topics**
+ [`initial_count`](#compute-resource-initial-count)
+ [`instance_type`](#compute-resource-instance-type)
+ [`max_count`](#compute-resource-max-count)
+ [`min_count`](#compute-resource-min-count)
+ [`spot_price`](#compute-resource-spot-price)

## `initial_count`
<a name="compute-resource-initial-count"></a>

**(Opcional)** Define o número inicial de EC2 instâncias da Amazon a serem executadas para esse recurso computacional. A criação do cluster não é concluída até que pelo menos tantos nós tenham sido lançados no recurso computacional. Se a configuração [`compute_type`](queue-section.md#queue-compute-type) da fila for `spot` e não houver instâncias spot suficientes disponíveis, a criação do cluster poderá expirar e falhar. Qualquer contagem maior do que a configuração [`min_count`](#compute-resource-min-count) é a capacidade dinâmica sujeita à configuração [`scaledown_idletime`](scaling-section.md#scaledown-idletime). Essa configuração substitui a configuração [`initial_queue_size`](cluster-definition.md#configuration-initial-queue-size).

O padrão é `0`.

```
initial_count = 2
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `instance_type`
<a name="compute-resource-instance-type"></a>

**(Obrigatório)** Define o tipo de EC2 instância da Amazon que é usado para esse recurso computacional. A arquitetura do tipo de instância deve ser a mesma usada para a configuração [`master_instance_type`](cluster-definition.md#master-instance-type). A configuração `instance_type` deve ser exclusiva para cada [`[compute_resource]`seção](#compute-resource-section) referenciada por uma [`[queue]`seção](queue-section.md). Essa configuração substitui a configuração [`compute_instance_type`](cluster-definition.md#compute-instance-type).

```
instance_type = t2.micro
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `max_count`
<a name="compute-resource-max-count"></a>

**(Opcional)** Define o número máximo de EC2 instâncias da Amazon que podem ser executadas nesse recurso computacional. Qualquer contagem maior do que a configuração [`initial_count`](#compute-resource-initial-count) é iniciada no modo de desligamento. Essa configuração substitui a configuração [`max_queue_size`](cluster-definition.md#configuration-max-queue-size).

O padrão é `10`.

```
max_count = 10
```

[Política de atualização: reduzir o tamanho de uma fila abaixo do número atual de nós exige que a frota de computação seja interrompida primeiro.](using-pcluster-update.md#update-policy-max-count)

**nota**  
A política de atualização não suportou a alteração da `max_count` configuração até que a frota computacional fosse interrompida da AWS ParallelCluster versão 2.0.0 até a versão 2.9.1.

## `min_count`
<a name="compute-resource-min-count"></a>

**(Opcional)** Define o número mínimo de EC2 instâncias da Amazon que podem ser executadas nesse recurso computacional. Esses nós são todos de capacidade estática. A criação do cluster não é concluída até que pelo menos esse número de nós tenham sido lançados no recurso computacional.

O padrão é `0`.

```
min_count = 1
```

[Política de atualização: reduzir o número de nós estáticos na fila exige que a frota de computação seja interrompida primeiro.](using-pcluster-update.md#update-policy-min-count)

**nota**  
A política de atualização não suportou a alteração da `min_count` configuração até que a frota computacional fosse interrompida da AWS ParallelCluster versão 2.0.0 até a versão 2.9.1.

## `spot_price`
<a name="compute-resource-spot-price"></a>

**(Opcional)** Define o preço máximo de spot para esse recurso computacional. Usado somente quando a configuração [`compute_type`](queue-section.md#queue-compute-type) da fila que contém esses recursos computacionais está definida como `spot`. Essa configuração substitui a configuração [`spot_price`](cluster-definition.md#spot-price).

Se você não especificar um valor, será cobrado o preço spot, limitado ao preço sob demanda.

Para obter ajuda para encontrar uma instância spot que atenda às suas necessidades, consulte o [Spot Instance Advisor](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

# Seção `[cw_log]`
<a name="cw-log-section"></a>

Define as configurações para CloudWatch Logs.

O formato é`[cw_log cw-log-name]`. *cw-log-name*deve começar com uma letra, conter no máximo 30 caracteres e conter somente letras, números, hífens (-) e sublinhados (\$1).

```
[cw_log custom-cw-log]
enable = true
retention_days = 14
```

Para ter mais informações, consulte [Integração com Amazon CloudWatch Logs](cloudwatch-logs.md), [CloudWatch Painel da Amazon](cloudwatch-dashboard.md) e [Integração com Amazon CloudWatch Logs](cloudwatch-logs.md).

**nota**  
Support for `cw_log` adicionado na AWS ParallelCluster versão 2.6.0.

## `enable`
<a name="cw-log-section-enable"></a>

 **(Opcional)** Indica se CloudWatch os registros estão habilitados.

O valor padrão é `true`. Use `false` para desativar CloudWatch os registros.

O exemplo a seguir ativa CloudWatch os registros.

```
enable = true
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `retention_days`
<a name="cw-log-section-retention-days"></a>

 **(Opcional)** Indica por quantos dias o CloudWatch Logs retém eventos de registro individuais.

O valor padrão é `14`. Os valores compatíveis são 1, 3, 5, 7, 14, 30, 60, 90, 120, 150, 180, 365, 400, 545, 731, 1827 e 3653.

O exemplo a seguir configura os CloudWatch registros para reter eventos de registro por 30 dias.

```
retention_days = 30
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

# Seção `[dashboard]`
<a name="dashboard-section"></a>

Define as configurações do CloudWatch painel.

O formato é`[dashboard dashboard-name]`. *dashboard-name*deve começar com uma letra, conter no máximo 30 caracteres e conter somente letras, números, hífens (-) e sublinhados (\$1).

```
[dashboard custom-dashboard]
enable = true
```

**nota**  
Support for `dashboard` adicionado na AWS ParallelCluster versão 2.10.0.

## `enable`
<a name="dashboard-section-enable"></a>

 **(Opcional)** Indica se o CloudWatch painel está ativado.

O valor padrão é `true`. Use `false` para desativar o CloudWatch painel.

O exemplo a seguir ativa o CloudWatch painel.

```
enable = true
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

# Seção `[dcv]`
<a name="dcv-section"></a>

Define as configurações para o servidor Amazon DCV em execução no nó principal.

Para criar e configurar um servidor Amazon DCV, especifique o cluster [`dcv_settings`](cluster-definition.md#dcv-settings) com o nome definido na seção `dcv` e defina [`enable`](#dcv-section-enable) como `master`, e [`base_os`](cluster-definition.md#base-os) como `alinux2`, `centos7`, `ubuntu1804` ou `ubuntu2004`. Se o nó principal for uma instância ARM, defina [`base_os`](cluster-definition.md#base-os) como `alinux2`, `centos7` ou `ubuntu1804`.

O formato é`[dcv dcv-name]`. *dcv-name*deve começar com uma letra, conter no máximo 30 caracteres e conter somente letras, números, hífens (-) e sublinhados (\$1).

```
[dcv custom-dcv]
enable = master
port = 8443
access_from = 0.0.0.0/0
```

Para obter mais informações, consulte [Conecte-se ao nó principal por meio do Amazon DCV](dcv.md).

**Importante**  
Por padrão, a porta Amazon DCV configurada por AWS ParallelCluster está aberta para todos os IPv4 endereços. Contudo, a conexão a uma porta do Amazon DCV só será possível se você tiver o URL da sessão Amazon DCV e se conectar à sessão Amazon DCV dentro de 30 segundos após o retorno do URL pelo `pcluster dcv connect`. Use a configuração [`access_from`](#dcv-section-access-from) para restringir ainda mais o acesso à porta do Amazon DCV com um intervalo IP no formato CIDR e use a configuração [`port`](#dcv-section-port) para definir uma porta alternativa.

**nota**  
Suporte para a [seção `[dcv]`](#dcv-section) no `centos8` foi removido no AWS ParallelCluster versão 2.10.4. Support para a [`[dcv]`seção](#dcv-section) on `centos8` foi adicionado na AWS ParallelCluster versão 2.10.0. Support para a [`[dcv]`seção](#dcv-section) sobre instâncias AWS baseadas em Graviton foi adicionado na AWS ParallelCluster versão 2.9.0. Support para a [`[dcv]`seção](#dcv-section) on `alinux2` e `ubuntu1804` foi adicionado na AWS ParallelCluster versão 2.6.0. Support para a [`[dcv]`seção](#dcv-section) on `centos7` foi adicionado na AWS ParallelCluster versão 2.5.0.

## `access_from`
<a name="dcv-section-access-from"></a>

 **(Opcional, recomendado)** Especifica o intervalo de IP no formato CIDR para conexões com o Amazon DCV. Essa configuração é usada somente ao AWS ParallelCluster criar o grupo de segurança.

O valor padrão é `0.0.0.0/0` e permite o acesso a partir de qualquer endereço de Internet.

```
access_from = 0.0.0.0/0
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `enable`
<a name="dcv-section-enable"></a>

 **(Obrigatório)** Indica se o Amazon DCV está habilitado no nó principal. Para habilitar o Amazon DCV no nó principal e configurar a regra de grupo de segurança necessária, defina a configuração `enable` como `master`.

O exemplo a seguir habilita o Amazon DCV no nó principal.

```
enable = master
```

**nota**  
O Amazon DCV gera automaticamente um certificado autoassinado, que é utilizado para proteger o tráfego entre o cliente Amazon DCV e o servidor Amazon DCV em execução no nó principal. Para configurar seu próprio certificado, consulte [Certificado HTTPS do Amazon DCV](dcv.md#dcv-certificate).

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `port`
<a name="dcv-section-port"></a>

 **(Opcional)** Especifica a porta para o Amazon DCV.

O valor padrão é `8443`.

```
port = 8443
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

# Seção `[ebs]`
<a name="ebs-section"></a>

Define as definições de configuração de volume do Amazon EBS para os volumes que são montados no nó de cabeçalho e compartilhados pelo NFS com os nós de computação.

Para saber como incluir volumes do Amazon EBS em sua definição de cluster, consulte `Seção `[cluster]`` / ``ebs_settings``.

Para usar um volume existente do Amazon EBS para armazenamento permanente de longo prazo que seja independente do ciclo de vida do cluster, especifique [`ebs_volume_id`](#ebs-volume-id).

Se você não especificar[`ebs_volume_id`](#ebs-volume-id), AWS ParallelCluster cria o volume do EBS a partir das `[ebs]` configurações ao criar o cluster e exclui o volume e os dados quando o cluster é excluído.

Para obter mais informações, consulte [Melhores práticas: mover um cluster para uma nova versão AWS ParallelCluster secundária ou de patch](best-practices.md#best-practices-cluster-upgrades).

O formato é`[ebs ebs-name]`. *ebs-name*deve começar com uma letra, conter no máximo 30 caracteres e conter somente letras, números, hífens (-) e sublinhados (\$1).

```
[ebs custom1]
shared_dir = vol1
ebs_snapshot_id = snap-xxxxx
volume_type = io1
volume_iops = 200
...

[ebs custom2]
shared_dir = vol2
...

...
```

**Topics**
+ [`shared_dir`](#ebs-shared-dir)
+ [`ebs_kms_key_id`](#ebs-kms-key-id)
+ [`ebs_snapshot_id`](#ebs-snapshot-id)
+ [`ebs_volume_id`](#ebs-volume-id)
+ [`encrypted`](#encrypted)
+ [`volume_iops`](#volume-iops)
+ [`volume_size`](#volume-size)
+ [`volume_throughput`](#volume-throughput)
+ [`volume_type`](#volume-type)

## `shared_dir`
<a name="ebs-shared-dir"></a>

**(Obrigatório)** Especifica o caminho em que o volume compartilhado do Amazon EBS é montado.

Esse parâmetro é obrigatório ao usar vários volumes do Amazon EBS.

Ao usar um volume do Amazon EBS, essa opção substitui o [[`shared_dir`](cluster-definition.md#cluster-shared-dir) que está especificado na seção `[cluster]`.](cluster-definition.md) No exemplo a seguir, o volume é montado em `/vol1`.

```
shared_dir = vol1
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="ebs-kms-key-id"></a>

**(Opcional)** Especifica uma AWS KMS chave personalizada a ser usada para criptografia.

Esse parâmetro deve ser usado em conjunto com `encrypted = true`. Também deve ter uma [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) personalizada.

Para obter mais informações, consulte [Criptografia de disco com uma chave do KMS personalizada](tutorials_04_encrypted_kms_fs.md).

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `ebs_snapshot_id`
<a name="ebs-snapshot-id"></a>

**(Opcional)** Define o ID do snapshot do Amazon EBS, caso esteja usando um snapshot como a origem do volume.

Não há valor padrão.

```
ebs_snapshot_id = snap-xxxxx
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `ebs_volume_id`
<a name="ebs-volume-id"></a>

**(Opcional)** Define o ID do volume de um volume do Amazon EBS existente a ser anexado ao nó principal.

Não há valor padrão.

```
ebs_volume_id = vol-xxxxxx
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="encrypted"></a>

**(Opcional)** Especifica se um volume do Amazon EBS é criptografado. Observação: *Não* use com snapshots.

O valor padrão é `false`.

```
encrypted = false
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="volume-iops"></a>

**(Opcional)** Define o número de IOPS para os volumes do tipo `io1`, `io2`, e `gp3`.

O valor padrão, os valores suportados e a proporção do `volume_iops` para `volume_size` variam de acordo com [`volume_type`](raid-section.md#raid-volume-type) e [`volume_size`](#volume-size).

`volume_type` = `io1`  
Padrão `volume_iops` = 100  
Valores suportados `volume_iops` = 100–64000 †  
Proporção máxima de `volume_iops` para `volume_size` = 50 IOPS para cada GiB. 5000 IOPS exigem um `volume_size` de pelo menos 100 GiB.

`volume_type` = `io2`  
Padrão `volume_iops` = 100  
Valores suportados `volume_iops` = 100–64000 (256000 para volumes do `io2` Block Express) †  
Proporção máxima de `volume_iops` para `volume_size` = 500 IOPS para cada GiB. 5000 IOPS exigem um `volume_size` de pelo menos 10 GiB.

`volume_type` = `gp3`  
Padrão `volume_iops` = 3000  
Valores suportados `volume_iops` = 3000–16000  
Proporção máxima de `volume_iops` para `volume_size` = 500 IOPS para cada GiB. 5000 IOPS exigem um `volume_size` de pelo menos 10 GiB.

```
volume_iops = 200
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

† O número máximo de IOPS é garantido somente em [instâncias criadas no Nitro System](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) provisionadas com mais de 32.000 IOPS. Outras instâncias garantem até 32.000 IOPS. A menos que você [modifique o volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html), os volumes de `io1` mais antigos podem não atingir o desempenho total. `io2` Os volumes do Block Express oferecem suporte a valores `volume_iops` de até 256.000. Para obter mais informações, consulte [Volumes do `io2` Block Express (em versão prévia)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) no *Guia EC2 do usuário da Amazon*.

## `volume_size`
<a name="volume-size"></a>

**(Opcional)** Especifica o tamanho do volume a ser criado em GiB (caso não esteja usando um snapshot).

O valor padrão e os valores suportados variam de acordo com o [`volume_type`](#volume-type).

`volume_type` = `standard`  
Padrão `volume_size` = 20 GiB  
Valores suportados `volume_size` = 1–1024 GiB

`volume_type` = `gp2`, `io1`, `io2`, e `gp3`  
Padrão `volume_size` = 20 GiB  
Valores suportados `volume_size` = 1–16384 GiB

`volume_type` = `sc1` e `st1`  
Padrão `volume_size` = 500 GiB  
Valores suportados `volume_size` = 500–16384 GiB

```
volume_size = 20
```

**nota**  
Antes da AWS ParallelCluster versão 2.10.1, o valor padrão para todos os tipos de volume era de 20 GiB.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="volume-throughput"></a>

**(Opcional)** Define o throughput para tipos de volume `gp3`, em MiB/s.

O valor padrão é `125`.

Valores suportados `volume_throughput` = 125–1000 MiB/s

A proporção de `volume_throughput` para `volume_iops` não pode ser superior a 0,25. O throughput máximo de 1000 MiB/s exige que a configuração `volume_iops` seja de pelo menos 4000.

```
volume_throughput = 1000
```

**nota**  
Support for `volume_throughput` adicionado na AWS ParallelCluster versão 2.10.1.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="volume-type"></a>

**(Opcional)** Especifica [o tipo de volume do Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) do volume que você deseja executar.

As opções válidas são os seguintes tipos de volume:

`gp2`, `gp3`  
SSD de uso geral

`io1`, `io2`  
Provisioned IOPS SSD

`st1`  
HDD otimizado para throughput

`sc1`  
Disco rígido frio

`standard`  
Geração magnética anterior

Para obter mais informações, consulte os [tipos de volume do Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) no *Guia do EC2 usuário da Amazon*.

O valor padrão é `gp2`.

```
volume_type = io2
```

**nota**  
Support `gp3` e `io2` foi adicionado na AWS ParallelCluster versão 2.10.1.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

# Seção `[efs]`
<a name="efs-section"></a>

Define a configuração para o Amazon EFS que está montado nos nós principal e de computação. Para obter mais informações, consulte [CreateFileSystem](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html)a *Referência da API do Amazon EFS*.

Para saber como incluir sistemas de arquivos do Amazon EFS em sua definição de cluster, consulte `Seção `[cluster]`` / ``efs_settings``.

Para usar um sistema de arquivos existente do Amazon EFS para armazenamento permanente de longo prazo que seja independente do ciclo de vida do cluster, especifique [`efs_fs_id`](#efs-efs-fs-id).

Se você não especificar[`efs_fs_id`](#efs-efs-fs-id), AWS ParallelCluster cria o sistema de arquivos Amazon EFS a partir das `[efs]` configurações ao criar o cluster e exclui o sistema de arquivos e os dados quando o cluster é excluído.

Para obter mais informações, consulte [Melhores práticas: mover um cluster para uma nova versão AWS ParallelCluster secundária ou de patch](best-practices.md#best-practices-cluster-upgrades).

O formato é`[efs efs-name]`. *efs-name*deve começar com uma letra, conter no máximo 30 caracteres e conter somente letras, números, hífens (-) e sublinhados (\$1).

```
[efs customfs]
shared_dir = efs
encrypted = false
performance_mode = generalPurpose
```

**Topics**
+ [`efs_fs_id`](#efs-efs-fs-id)
+ [`efs_kms_key_id`](#efs-efs-kms-key-id)
+ [`encrypted`](#efs-encrypted)
+ [`performance_mode`](#efs-performance-mode)
+ [`provisioned_throughput`](#efs-provisioned-throughput)
+ [`shared_dir`](#efs-shared-dir)
+ [`throughput_mode`](#efs-throughput-mode)

## `efs_fs_id`
<a name="efs-efs-fs-id"></a>

**(Opcional)** Define o ID do sistema de arquivos do Amazon EFS para um sistema de arquivos existente.

Especificar essa opção invalida todas as outras opções do Amazon EFS, exceto [`shared_dir`](cluster-definition.md#cluster-shared-dir).

Se você definir essa opção, serão compatíveis apenas os seguintes sistemas de arquivos:
+ Sistemas de arquivos que não tenham um destino de montagem na zona de disponibilidade da pilha.
+ Sistemas de arquivos que têm um destino de montagem existente na zona de disponibilidade da pilha, com o tráfego de entrada e saída do NFS permitidos a partir de `0.0.0.0/0`.

A verificação de sanidade para validar o [`efs_fs_id`](#efs-efs-fs-id) requer a função do IAM para ter as seguintes permissões:
+ `elasticfilesystem:DescribeMountTargets`
+ `elasticfilesystem:DescribeMountTargetSecurityGroups`
+ `ec2:DescribeSubnets`
+ `ec2:DescribeSecurityGroups`
+ `ec2:DescribeNetworkInterfaceAttribute`

Para evitar erros, é necessário adicionar essas permissões à função do IAM ou definir `sanity_check = false`.

**Importante**  
Quando você define um destino de montagem com tráfego NFS de entrada e saída permitido`0.0.0.0/0`, ele expõe o sistema de arquivos às solicitações de montagem do NFS de qualquer lugar na Zona de Disponibilidade do destino de montagem. AWS não recomenda criar um alvo de montagem na zona de disponibilidade da pilha. Em vez disso, vamos AWS lidar com essa etapa. Caso deseje ter um destino de montagem na zona de disponibilidade da pilha, considere o uso de um grupo de segurança personalizado, fornecendo uma opção [`vpc_security_group_id`](vpc-section.md#vpc-security-group-id) na [seção `[vpc]`](vpc-section.md). Depois, adicione o grupo de segurança ao destino de montagem e desative `sanity_check` para criar o cluster.

Não há valor padrão.

```
efs_fs_id = fs-12345
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `efs_kms_key_id`
<a name="efs-efs-kms-key-id"></a>

**(Opcional)** Identifica a chave AWS Key Management Service (AWS KMS) gerenciada pelo cliente a ser usada para proteger o sistema de arquivos criptografados. Se isso estiver definido, a [`encrypted`](#efs-encrypted) configuração deverá ser definida como `true`. Isso corresponde ao [KmsKeyId](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-KmsKeyId)parâmetro na *Referência da API do Amazon EFS*.

Não há valor padrão.

```
efs_kms_key_id = 1234abcd-12ab-34cd-56ef-1234567890ab
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="efs-encrypted"></a>

**(Opcional)** Indica se o sistema de arquivos está criptografado. Isso corresponde ao parâmetro [Encrypted](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-Encrypted) na *Referência de API do Amazon EFS*.

O valor padrão é `false`.

```
encrypted = true
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `performance_mode`
<a name="efs-performance-mode"></a>

**(Opcional)** Define o modo de desempenho do sistema de arquivos. Isso corresponde ao [PerformanceMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-PerformanceMode)parâmetro na *Referência da API do Amazon EFS*.

As opções válidas são as seguintes:
+ `generalPurpose`
+ `maxIO`

 Ambos os valores diferenciam maiúsculas de minúsculas.

Recomendamos o modo de desempenho `generalPurpose` para a maioria dos sistemas de arquivos.

Os sistemas de arquivos que usam o modo de desempenho `maxIO` podem ser dimensionados para níveis superiores de throughput e operações por segundo agregadas. No entanto, há um compromisso com latências um pouco mais altas para a maioria das operações de arquivo.

Esse parâmetro não poderá ser alterado depois que o sistema de arquivos for criado.

O valor padrão é `generalPurpose`.

```
performance_mode = generalPurpose
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `provisioned_throughput`
<a name="efs-provisioned-throughput"></a>

**(Opcional)** Define o throughput provisionado do sistema de arquivos, medido em MiB/s. Isso corresponde ao [ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps)parâmetro na *Referência da API do Amazon EFS*.

Se você usar esse parâmetro, deverá definir [`throughput_mode`](#efs-throughput-mode) como `provisioned`.

A quota do throughput é de `1024` MiB/s. Para solicitar um aumento na cota, entre em contato com o Suporte.

O valor mínimo é `0.0` MiB/s

```
provisioned_throughput = 1024
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `shared_dir`
<a name="efs-shared-dir"></a>

**(Obrigatório)** Define o ponto de montagem do Amazon EFS nos nós principal e de computação.

Esse parâmetro é obrigatório. A seção do Amazon EFS só é usada se [`shared_dir`](cluster-definition.md#cluster-shared-dir) for especificado.

Não use `NONE` ou `/NONE` como o diretório compartilhado.

O exemplo a seguir monta o Amazon EFS no `/efs`.

```
shared_dir = efs
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `throughput_mode`
<a name="efs-throughput-mode"></a>

**(Opcional)** Define o modo de throughput do sistema de arquivos. Isso corresponde ao [ThroughputMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-ThroughputMode)parâmetro na *Referência da API do Amazon EFS*.

As opções válidas são as seguintes:
+ `bursting`
+ `provisioned`

O valor padrão é `bursting`.

```
throughput_mode = provisioned
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

# Seção `[fsx]`
<a name="fsx-section"></a>

Define as configurações de um sistema de arquivos FSx anexado ao Lustre. Para obter mais informações, consulte [Amazon FSx CreateFileSystem](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html) na *Amazon FSx API Reference*.

Se for [`base_os`](cluster-definition.md#base-os) suportado o é `alinux2` `centos7``ubuntu1804`,, ou`ubuntu2004`, FSx for Lustre.

Ao usar o Amazon Linux, o kernel deve ser `4.14.104-78.84.amzn1.x86_64` ou uma versão posterior. Para obter instruções, consulte [Instalação do cliente lustre no Guia](https://docs.aws.amazon.com/fsx/latest/LustreGuide/install-lustre-client.html) do *usuário do Amazon FSx for Lustre.*

**nota**  
FSx O for Lustre atualmente não é suportado quando usado `awsbatch` como agendador.

**nota**  
O suporte FSx para Lustre on `centos8` foi removido na AWS ParallelCluster versão 2.10.4. Support FSx for Lustre on `ubuntu2004` foi adicionado na AWS ParallelCluster versão 2.11.0. Support FSx for Lustre on `centos8` foi adicionado na AWS ParallelCluster versão 2.10.0. Support FSx for Lustre on`alinux2`,`ubuntu1604`, e `ubuntu1804` foi adicionado na AWS ParallelCluster versão 2.6.0. Support FSx for Lustre on `centos7` foi adicionado na AWS ParallelCluster versão 2.4.0.

Se estiver usando um sistema de arquivos existente, ele deve ser associado a um grupo de segurança que permita o tráfego de entrada do TCP à porta `988`. Definir a origem como `0.0.0.0/0` em uma regra de grupo de segurança fornece acesso ao cliente de todos os intervalos de IP no grupo de segurança da VPC para o protocolo e o intervalo de portas dessa regra. Para limitar ainda mais o acesso aos seus sistemas de arquivos, recomendamos o uso de fontes mais restritivas para suas regras de grupo de segurança. Por exemplo, você pode usar intervalos CIDR, endereços IP ou grupos IDs de segurança mais específicos. Isso será feito automaticamente quando não estiver usando [`vpc_security_group_id`](vpc-section.md#vpc-security-group-id).

Para usar um sistema de FSx arquivos existente da Amazon para armazenamento permanente de longo prazo que seja independente do ciclo de vida do cluster, especifique[`fsx_fs_id`](#fsx-fs-id).

Se você não especificar[`fsx_fs_id`](#fsx-fs-id), AWS ParallelCluster cria o sistema de arquivos FSx for Lustre a partir das `[fsx]` configurações ao criar o cluster e exclui o sistema de arquivos e os dados quando o cluster for excluído.

Para obter mais informações, consulte [Melhores práticas: mover um cluster para uma nova versão AWS ParallelCluster secundária ou de patch](best-practices.md#best-practices-cluster-upgrades).

O formato é`[fsx fsx-name]`. *fsx-name*deve começar com uma letra, conter no máximo 30 caracteres e conter somente letras, números, hífens (-) e sublinhados (\$1).

```
[fsx fs]
shared_dir = /fsx
fsx_fs_id = fs-073c3803dca3e28a6
```

Para criar e configurar um novo sistema de arquivos, use os seguintes parâmetros:

```
[fsx fs]
shared_dir = /fsx
storage_capacity = 3600
imported_file_chunk_size = 1024
export_path = s3://bucket/folder
import_path = s3://bucket
weekly_maintenance_start_time = 1:00:00
```

**Topics**
+ [`auto_import_policy`](#fsx-auto-import-policy)
+ [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)
+ [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)
+ [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time)
+ [`data_compression_type`](#fsx-data-compression-type)
+ [`deployment_type`](#fsx-deployment-type)
+ [`drive_cache_type`](#fsx-drive-cache-type)
+ [`export_path`](#fsx-export-path)
+ [`fsx_backup_id`](#fsx-backup-id)
+ [`fsx_fs_id`](#fsx-fs-id)
+ [`fsx_kms_key_id`](#fsx-kms-key-id)
+ [`import_path`](#fsx-import-path)
+ [`imported_file_chunk_size`](#fsx-imported-file-chunk-size)
+ [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)
+ [`shared_dir`](#fsx-shared-dir)
+ [`storage_capacity`](#fsx-storage-capacity)
+ [`storage_type`](#fsx-storage-type)
+ [`weekly_maintenance_start_time`](#fsx-weekly-maintenance-start-time)

## `auto_import_policy`
<a name="fsx-auto-import-policy"></a>

**(Opcional)** Especifica a política de importação automática para refletir as alterações no bucket do S3 usado para criar o sistema de arquivos FSx for Lustre. Os valores possíveis são os seguintes:

`NEW`  
FSx for Lustre importa automaticamente listagens de diretórios de quaisquer novos objetos adicionados ao bucket S3 vinculado que não existam atualmente no sistema de arquivos FSx for Lustre. 

`NEW_CHANGED`  
FSx for Lustre importa automaticamente as listagens de arquivos e diretórios de todos os novos objetos adicionados ao bucket do S3 e de quaisquer objetos existentes que sejam alterados no bucket do S3. 

Isso corresponde à [AutoImportPolicy](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-autoimportpolicy)propriedade. Para obter mais informações, consulte [Importar atualizações automaticamente do seu bucket do S3 no Guia](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html) do *usuário do Amazon FSx for Lustre.* Quando o parâmetro [`auto_import_policy`](#fsx-auto-import-policy) é especificado, os parâmetros [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days), [`copy_tags_to_backups`](#fsx-copy-tags-to-backups), [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time), e [`fsx_backup_id`](#fsx-backup-id) não devem ser especificados.

Se a `auto_import_policy` configuração não for especificada, as importações automáticas serão desativadas. FSx for Lustre somente atualiza as listagens de arquivos e diretórios do bucket S3 vinculado quando o sistema de arquivos é criado.

```
auto_import_policy = NEW_CHANGED
```

**nota**  
Support for [`auto_import_policy`](#fsx-auto-import-policy) adicionado na AWS ParallelCluster versão 2.10.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `automatic_backup_retention_days`
<a name="fsx-automatic-backup-retention-days"></a>

**(Opcional)** Especifica o número de dias em que os backups automáticos serão retidos. Válido somente para uso com tipos de implantação `PERSISTENT_1`. Quando o parâmetro [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) é especificado, os parâmetros [`auto_import_policy`](#fsx-auto-import-policy), [`export_path`](#fsx-export-path), [`import_path`](#fsx-import-path), e [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) não devem ser especificados. Isso corresponde à [AutomaticBackupRetentionDays](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-automaticbackupretentiondays)propriedade.

O valor padrão é 0. Esta opção desabilita os backups automáticos. Os valores possíveis são números inteiros entre 0 e 35, inclusive.

```
automatic_backup_retention_days = 35
```

**nota**  
O suporte para [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) foi adicionado ao AWS ParallelCluster versão 2.8.0.

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `copy_tags_to_backups`
<a name="fsx-copy-tags-to-backups"></a>

**(Opcional)** Especifica se as tags do sistema de arquivos são copiadas para os backups. Válido somente para uso com tipos de implantação `PERSISTENT_1`. Quando o parâmetro [`copy_tags_to_backups`](#fsx-copy-tags-to-backups) é especificado, o [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) deve ser especificado com um valor maior que 0 e os parâmetros [`auto_import_policy`](#fsx-auto-import-policy), [`export_path`](#fsx-export-path), [`import_path`](#fsx-import-path) e [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) não devem ser especificados. Isso corresponde à [CopyTagsToBackups](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-copytagstobackups)propriedade.

O valor padrão é `false`.

```
copy_tags_to_backups = true
```

**nota**  
Support for [`copy_tags_to_backups`](#fsx-copy-tags-to-backups) adicionado na AWS ParallelCluster versão 2.8.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `daily_automatic_backup_start_time`
<a name="fsx-daily-automatic-backup-start-time"></a>

**(Opcional)** Especifica a hora do dia (UTC) para iniciar os backups automáticos. Válido somente para uso com tipos de implantação `PERSISTENT_1`. Quando o parâmetro [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) é especificado, o [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) deve ser especificado com um valor maior que 0 e os parâmetros [`auto_import_policy`](#fsx-auto-import-policy), [`export_path`](#fsx-export-path), [`import_path`](#fsx-import-path) e [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) não devem ser especificados. Isso corresponde à [DailyAutomaticBackupStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-dailyautomaticbackupstarttime)propriedade.

O formato é `HH:MM`, onde `HH` é a hora do dia preenchida com zeros (0-23) e `MM` é o minuto da hora preenchido com zeros. Por exemplo, 1:03 da manhã UTC é o seguinte.

```
daily_automatic_backup_start_time = 01:03
```

O valor padrão é um tempo randomizado entre `00:00` e `23:59`.

**nota**  
O suporte para [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) foi adicionado ao AWS ParallelCluster versão 2.8.0.

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `data_compression_type`
<a name="fsx-data-compression-type"></a>

**(Opcional)** Especifica o tipo de compactação de dados FSx para Lustre. Isso corresponde à [DataCompressionType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-datacompressiontype)propriedade. Para obter mais informações, consulte a [compactação FSx de dados do Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html) no Guia do *usuário do Amazon FSx for Lustre.*

O único valor válido é `LZ4`. Para desabilitar a compactação de dados, remova o parâmetro [`data_compression_type`](#fsx-data-compression-type).

```
data_compression_type = LZ4
```

**nota**  
Support for [`data_compression_type`](#fsx-data-compression-type) adicionado na AWS ParallelCluster versão 2.11.0.

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `deployment_type`
<a name="fsx-deployment-type"></a>

**(Opcional)** Especifica o tipo FSx de implantação do Lustre. Isso corresponde à [DeploymentType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-deploymenttype)propriedade. Para obter mais informações, consulte as [opções FSx de implantação do Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) no Guia do *usuário do Amazon FSx for Lustre.* Escolha um tipo de implantação temporária para armazenamento temporário e processamento de dados em curto prazo. O `SCRATCH_2` é a última geração de sistemas de arquivos transitórios. Ele oferece um throughput de intermitência mais alto que o throughput basal e criptografia de dados em trânsito.

Os valores válidos são `SCRATCH_1`, `SCRATCH_2` e `PERSISTENT_1`.

`SCRATCH_1`  
O tipo de implantação padrão FSx para o Lustre. Com esse tipo de implantação, a configuração [`storage_capacity`](#fsx-storage-capacity) tem valores possíveis de 1200, 2400 e qualquer múltiplo de 3600. Support for `SCRATCH_1` adicionado na AWS ParallelCluster versão 2.4.0.

`SCRATCH_2`  
A última geração de sistemas de arquivos transitórios. Suporta até seis vezes o throughput basal para workloads com picos. Ele também oferece suporte à criptografia de dados em trânsito para tipos de instância compatíveis em Regiões da AWS suportadas. Para obter mais informações, consulte [Criptografar dados em trânsito no](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html) Guia do *usuário do Amazon FSx for Lustre.* Com esse tipo de implantação, a configuração [`storage_capacity`](#fsx-storage-capacity) tem valores possíveis de 1200 e qualquer múltiplo de 2400. O suporte para `SCRATCH_2` foi adicionado ao AWS ParallelCluster versão 2.6.0.

`PERSISTENT_1`  
Projetada para armazenamento de longo prazo. Os servidores de arquivos são altamente disponíveis e os dados são replicados automaticamente dentro da zona de disponibilidade da AWS do sistema de arquivos. Oferece suporte à criptografia de dados em trânsito para tipos de instância suportadas. Com esse tipo de implantação, a configuração [`storage_capacity`](#fsx-storage-capacity) tem valores possíveis de 1200 e qualquer múltiplo de 2400. Support for `PERSISTENT_1` adicionado na AWS ParallelCluster versão 2.6.0.

O valor padrão é `SCRATCH_1`.

```
deployment_type = SCRATCH_2
```

**nota**  
Support for [`deployment_type`](#fsx-deployment-type) adicionado na AWS ParallelCluster versão 2.6.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `drive_cache_type`
<a name="fsx-drive-cache-type"></a>

**(Opcional)** Especifica que o sistema de arquivos tem um cache de unidade SSD. Se isso estiver definido, a configuração [`storage_type`](#fsx-storage-type) deverá ser definida como `HDD`. Isso corresponde à [DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype)propriedade. Para obter mais informações, consulte as [opções FSx de implantação do Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) no Guia do *usuário do Amazon FSx for Lustre.*

O único valor válido é `READ`. Para desabilitar o cache da unidade SSD, não especifique a configuração `drive_cache_type`.

```
drive_cache_type = READ
```

**nota**  
Support for [`drive_cache_type`](#fsx-drive-cache-type) adicionado na AWS ParallelCluster versão 2.10.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `export_path`
<a name="fsx-export-path"></a>

**(Opcional)** Especifica o caminho do Amazon S3 para onde a raiz do sistema de arquivos é exportada. Quando o parâmetro [`export_path`](#fsx-export-path) é especificado, os parâmetros [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days), [`copy_tags_to_backups`](#fsx-copy-tags-to-backups), [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time), e [`fsx_backup_id`](#fsx-backup-id) não devem ser especificados. Isso corresponde à [ExportPath](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-exportpath)propriedade. Os dados e metadados dos arquivos não são exportados automaticamente para o `export_path`. Para obter informações sobre a exportação de dados e metadados, consulte [Exportação de alterações no repositório de dados no Guia do](https://docs.aws.amazon.com/fsx/latest/LustreGuide/export-changed-data-meta-dra.html) usuário do *Amazon FSx for* Lustre.

O valor padrão é `s3://import-bucket/FSxLustre[creation-timestamp]`, em que `import-bucket` é o bucket fornecido no parâmetro [`import_path`](#fsx-import-path).

```
export_path = s3://bucket/folder
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `fsx_backup_id`
<a name="fsx-backup-id"></a>

**(Opcional)** Especifica o ID do backup a ser usado para restaurar o sistema de arquivos a partir de um backup existente. Quando o parâmetro [`fsx_backup_id`](#fsx-backup-id) é especificado, os parâmetros [`auto_import_policy`](#fsx-auto-import-policy), [`deployment_type`](#fsx-deployment-type), [`export_path`](#fsx-export-path), [`fsx_kms_key_id`](#fsx-kms-key-id), [`import_path`](#fsx-import-path), [`imported_file_chunk_size`](#fsx-imported-file-chunk-size), [`storage_capacity`](#fsx-storage-capacity) e [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) não devem ser especificados. Esses parâmetros são lidos do backup. Além disso os parâmetros [`auto_import_policy`](#fsx-auto-import-policy), [`export_path`](#fsx-export-path), [`import_path`](#fsx-import-path) e [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) não devem ser especificados.

Isso corresponde à [BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid)propriedade.

```
fsx_backup_id = backup-fedcba98
```

**nota**  
Support for [`fsx_backup_id`](#fsx-backup-id) adicionado na AWS ParallelCluster versão 2.8.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `fsx_fs_id`
<a name="fsx-fs-id"></a>

**(Opcional)** Anexa um sistema de arquivos existente FSx para Lustre.

Se essa opção for especificada, somente as configurações [`shared_dir`](#fsx-shared-dir) e [`fsx_fs_id`](#fsx-fs-id) da [seção `[fsx]`](#fsx-section) serão usadas e todas as outras configurações da [seção `[fsx]`](#fsx-section) serão ignoradas.

```
fsx_fs_id = fs-073c3803dca3e28a6
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `fsx_kms_key_id`
<a name="fsx-kms-key-id"></a>

**(Opcional)** Especifica o ID da chave da sua AWS Key Management Service (AWS KMS) chave gerenciada pelo cliente.

Essa chave é usada para criptografar os dados no sistema de arquivos em repouso.

Isso deve ser usado com uma [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) personalizada. Para obter mais informações, consulte [Criptografia de disco com uma chave do KMS personalizada](tutorials_04_encrypted_kms_fs.md). Isso corresponde ao [KmsKeyId](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html#FSx-CreateFileSystem-request-KmsKeyId)parâmetro na *Amazon FSx API Reference*.

```
fsx_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

**nota**  
Support for [`fsx_kms_key_id`](#fsx-kms-key-id) adicionado na AWS ParallelCluster versão 2.6.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `import_path`
<a name="fsx-import-path"></a>

**(Opcional)** Especifica o bucket do S3 do qual serão carregados os dados no sistema de arquivos e que servirá como bucket de exportação. Para obter mais informações, consulte [`export_path`](#fsx-export-path). Se você especificar o parâmetro [`import_path`](#fsx-import-path), os parâmetros [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days), [`copy_tags_to_backups`](#fsx-copy-tags-to-backups), [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time), e [`fsx_backup_id`](#fsx-backup-id) não devem ser especificados. Isso corresponde ao [ImportPath](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystemLustreConfiguration.html#FSx-Type-CreateFileSystemLustreConfiguration-ImportPath)parâmetro na *Amazon FSx API Reference*.

A importação ocorre na criação do cluster. Para obter mais informações, consulte [Importação de dados do seu repositório de dados no Guia](https://docs.aws.amazon.com/fsx/latest/LustreGuide/importing-files.html) do usuário do *Amazon FSx for Lustre.* Na importação, somente os metadados do arquivo (nome, propriedade, registro de data e hora e permissões) são importados. Os dados do arquivo não são importados do bucket do S3 até que o arquivo seja acessado pela primeira vez. Para obter informações sobre o pré-carregamento do conteúdo do arquivo, consulte [Pré-carregamento de arquivos em seu sistema de arquivos no Guia do usuário do](https://docs.aws.amazon.com/fsx/latest/LustreGuide/preload-file-contents-hsm-dra.html) *Amazon FSx for Lustre.*

Se um valor não for fornecido, o sistema de arquivos ficará vazio.

```
import_path =  s3://bucket
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `imported_file_chunk_size`
<a name="fsx-imported-file-chunk-size"></a>

**(Opcional)** Determina a contagem de stripe e a quantidade máxima de dados para cada arquivo (em MiB) armazenados em um único disco físico, para arquivos que são importados de um repositório de dados (usando [`import_path`](#fsx-import-path)). O número máximo de discos nos quais um único arquivo pode ser distribuído é limitado pelo número total de discos que compõem o sistema de arquivos. Quando o parâmetro [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) é especificado, os parâmetros [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days), [`copy_tags_to_backups`](#fsx-copy-tags-to-backups), [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time), e [`fsx_backup_id`](#fsx-backup-id) não devem ser especificados. Isso corresponde à [ImportedFileChunkSize](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-importedfilechunksize)propriedade.

O tamanho de bloco padrão é `1024` (1 GiB) e pode chegar a 512.000 MiB (500 GiB). Os objetos do Amazon S3 têm um tamanho máximo de 5 TB.

```
imported_file_chunk_size = 1024
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `per_unit_storage_throughput`
<a name="fsx-per-unit-storage-throughput"></a>

**(Necessário para tipos de implantação `PERSISTENT_1`)** Para o tipo de implantação [`deployment_type`](#fsx-deployment-type)` = PERSISTENT_1`, descreve a quantidade de throughput de leitura e gravação para cada 1 tebibyte (TiB) de armazenamento, em MB/s/TiB. A capacidade de taxa de transferência do sistema de arquivos é calculada multiplicando a capacidade de armazenamento do sistema de arquivos (TiB) pela [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) (de) [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) produz 120 MB/s de taxa de transferência do sistema MB/s/TiB). For a 2.4 TiB ﬁle system, provisioning 50 MB/s/TiB de arquivos. Você paga pela quantidade de throughput que provisiona. Isso corresponde à [PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput)propriedade.

Os valores possíveis dependem do valor da configuração [`storage_type`](#fsx-storage-type).

`storage\$1type = SSD`  
Os valores possíveis são 50, 100, 200.

`storage\$1type = HDD`  
Os valores possíveis são 12, 40.

```
per_unit_storage_throughput = 200
```

**nota**  
O suporte para [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) foi adicionado ao AWS ParallelCluster versão 2.6.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="fsx-shared-dir"></a>

**(Obrigatório)** Define o ponto de montagem do sistema de arquivos FSx for Lustre na cabeça e nos nós de computação.

Não use `NONE` ou `/NONE` como o diretório compartilhado.

O exemplo a seguir monta o sistema de arquivos em `/fsx`.

```
shared_dir = /fsx
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `storage_capacity`
<a name="fsx-storage-capacity"></a>

**(Obrigatório)** Especifica a capacidade de armazenamento do sistema de arquivos, em GiB. Isso corresponde à [StorageCapacity](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagecapacity)propriedade.

Os valores possíveis da capacidade de armazenamento variam de acordo com a configuração [`deployment_type`](#fsx-deployment-type).

`SCRATCH_1`  
Os valores possíveis são 1200, 2400 e qualquer múltiplo de 3600.

`SCRATCH_2`  
Os valores possíveis são 1200 e qualquer múltiplo de 2400.

`PERSISTENT_1`  
Os valores possíveis variam de acordo com os valores de outras configurações.    
`storage\$1type = SSD`  
Os valores possíveis são 1200 e qualquer múltiplo de 2400.  
`storage\$1type = HDD`  
Os valores possíveis variam de acordo com definição da configuração [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput).    
`per\$1unit\$1storage\$1throughput = 12`  
Os valores possíveis são qualquer múltiplo de 6000.  
`per\$1unit\$1storage\$1throughput = 40`  
Os valores possíveis são qualquer múltiplo de 1800.

```
storage_capacity = 7200
```

**nota**  
Para as AWS ParallelCluster versões 2.5.0 e 2.5.1, [`storage_capacity`](#fsx-storage-capacity) suportou valores possíveis de 1200, 2400 e qualquer múltiplo de 3600. Para versões anteriores à AWS ParallelCluster versão 2.5.0, [`storage_capacity`](#fsx-storage-capacity) tinha um tamanho mínimo de 3600.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `storage_type`
<a name="fsx-storage-type"></a>

**(Opcional)** Especifica o tipo de armazenamento do sistema de arquivos. Isso corresponde à [StorageType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagetype)propriedade. Os valores possíveis são `SSD` e `HDD`. O padrão é `SSD`.

O tipo de armazenamento altera os valores possíveis de outras configurações.

`storage_type = SSD`   
Especifica o tipo de armazenamento em unidade de estado sólido (SSD).  
`storage_type = SSD` altera os valores possíveis de várias outras configurações.    
[`drive_cache_type`](#fsx-drive-cache-type)  
Essa configuração pode ser especificada.  
[`deployment_type`](#fsx-deployment-type)  
Essa configuração pode ser definida como `SCRATCH_1`, `SCRATCH_2`, ou`PERSISTENT_1`.  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
Essa configuração deve ser especificada se [`deployment_type`](#fsx-deployment-type) for definida como `PERSISTENT_1`. Os valores possíveis são 50, 100, ou 200.  
[`storage_capacity`](#fsx-storage-capacity)  
Essa configuração deve ser especificada. Os valores possíveis variam de acordo com [`deployment_type`](#fsx-deployment-type).    
`deployment_type = SCRATCH_1`  
[`storage_capacity`](#fsx-storage-capacity) pode ser 1200, 2400 ou qualquer múltiplo de 3600.  
`deployment_type = SCRATCH_2` ou `deployment_type = PERSISTENT_1`  
[`storage_capacity`](#fsx-storage-capacity) pode ser 1200 ou qualquer múltiplo de 2400.

`storage_type = HDD`  
Especifica o tipo de armazenamento em unidade de disco rígido (HDD).  
`storage_type = HDD` altera os valores possíveis de várias outras configurações.    
[`drive_cache_type`](#fsx-drive-cache-type)  
Essa configuração pode ser especificada.  
[`deployment_type`](#fsx-deployment-type)  
Essa configuração deve ser definida como `PERSISTENT_1`.  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
Essa configuração deve ser especificada. Os valores possíveis são 12, ou 40.  
[`storage_capacity`](#fsx-storage-capacity)  
Essa configuração deve ser especificada. Os valores possíveis variam de acordo com a configuração [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput).    
`storage_capacity = 12`  
[`storage_capacity`](#fsx-storage-capacity) pode ser qualquer múltiplo de 6000.  
`storage_capacity = 40`  
[`storage_capacity`](#fsx-storage-capacity) pode ser qualquer múltiplo de 1800.

```
storage_type = SSD
```

**nota**  
O suporte para a configuração [`storage_type`](#fsx-storage-type) foi adicionado no AWS ParallelCluster versão 2.10.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `weekly_maintenance_start_time`
<a name="fsx-weekly-maintenance-start-time"></a>

**(Opcional)** Especifica um tempo preferencial para executar a manutenção semanal, no fuso horário UTC. Isso corresponde à [WeeklyMaintenanceStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-weeklymaintenancestarttime)propriedade.

O formato é [dia da semana]:[hora do dia]:[minuto da hora]. Por exemplo, segunda-feira à meia-noite é o seguinte.

```
weekly_maintenance_start_time = 1:00:00
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

# Seção `[queue]`
<a name="queue-section"></a>

Define as configurações para uma única fila. [As seções `[queue]`](#queue-section) só são suportadas quando [`scheduler`](cluster-definition.md#scheduler) está definido como `slurm`.

O formato é`[queue <queue-name>]`. *queue-name*deve começar com uma letra minúscula, conter no máximo 30 caracteres e conter somente letras minúsculas, números e hífens (-).

```
[queue q1]
compute_resource_settings = i1,i2
placement_group = DYNAMIC
enable_efa = true
disable_hyperthreading = false
compute_type = spot
```

**nota**  
Support para a [`[queue]`seção](#queue-section) foi adicionado na AWS ParallelCluster versão 2.9.0.

**Topics**
+ [`compute_resource_settings`](#queue-compute-resource-settings)
+ [`compute_type`](#queue-compute-type)
+ [`disable_hyperthreading`](#queue-disable-hyperthreading)
+ [`enable_efa`](#queue-enable-efa)
+ [`enable_efa_gdr`](#queue-enable-efa-gdr)
+ [`placement_group`](#queue-placement-group)

## `compute_resource_settings`
<a name="queue-compute-resource-settings"></a>

**(Obrigatório)** Identifica as [seções de `[compute_resource]`](compute-resource-section.md) que contêm as configurações dos recursos computacionais dessa fila. Os nomes das seções devem começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Até três (3) [seções de `[compute_resource]`](compute-resource-section.md) são suportadas para cada [seção de `[queue]`](#queue-section).

Por exemplo, a seguinte configuração especifica que as seções que começam com `[compute_resource cr1]` e `[compute_resource cr2]` são usados.

```
compute_resource_settings = cr1, cr2
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `compute_type`
<a name="queue-compute-type"></a>

**(Opcional)** Define o tipo de instâncias a serem executadas para essa fila. Essa configuração substitui a configuração [`cluster_type`](cluster-definition.md#cluster-type).

As opções válidas são `ondemand` e `spot`.

O valor padrão é `ondemand`.

Para obter mais informações sobre instâncias spot, consulte [Trabalho com Instâncias spot](spot.md).

**nota**  
O uso de Instâncias spot exige que a função `AWSServiceRoleForEC2Spot` vinculada ao serviço exista na sua conta. Para criar essa função na sua conta usando o AWS CLI, execute o seguinte comando:  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Para obter mais informações, consulte [Função vinculada ao serviço para solicitações de instâncias spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) no Guia * EC2 do usuário da Amazon*.

O exemplo a seguir usa SpotInstances os nós de computação nessa fila.

```
compute_type = spot
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `disable_hyperthreading`
<a name="queue-disable-hyperthreading"></a>

**(Opcional)** Desabilita o hyperthreading nos nós dessa fila. Nem todos os tipos de instância podem desabilitar o hyperthreading. Para obter uma lista de tipos de instância que suportam a desativação do hyperthreading, consulte [Núcleos e threads de CPU para cada núcleo de CPU por tipo de instância no Guia](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) do usuário da *Amazon EC2 *. Se a configuração [`disable_hyperthreading`](cluster-definition.md#disable-hyperthreading) na [seção do `[cluster]`](cluster-definition.md) estiver definida, essa configuração não poderá ser definida.

O valor padrão é `false`.

```
disable_hyperthreading = true
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa`
<a name="queue-enable-efa"></a>

**(Opcional)** Se for definida como `true`, especifica que o Elastic Fabric Adapter (EFA) está habilitado para os nós desta fila. Para ver a lista de EC2 instâncias que oferecem suporte ao EFA, consulte [Tipos de instância compatíveis](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) no *Guia do EC2 usuário da Amazon para instâncias Linux*. Se a configuração [`enable_efa`](cluster-definition.md#enable-efa) na [seção do `[cluster]`](cluster-definition.md) estiver definida, essa configuração não poderá ser definida. Um placement group de cluster deve ser usado para minimizar latências entre instâncias. Para obter mais informações, consulte [`placement`](cluster-definition.md#placement) e [`placement_group`](cluster-definition.md#placement-group).

```
enable_efa = true
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa_gdr`
<a name="queue-enable-efa-gdr"></a>

**(Opcional)** A partir da AWS ParallelCluster versão 2.11.3, essa configuração não tem efeito. O suporte do Elastic Fabric Adapter (EFA) para GPUDirect RDMA (acesso direto remoto à memória) está habilitado para os nós de computação e está sempre ativado se for suportado pelo tipo de instância.

**nota**  
AWS ParallelCluster versão 2.10.0 a 2.11.2: Se`true`, especifica que o Elastic Fabric Adapter GPUDirect (EFA) RDMA (acesso direto remoto à memória) está habilitado para os nós nessa fila. Definir isso `true` exige que a [`enable_efa`](#queue-enable-efa) configuração seja definida como `true` .EFA GPUDirect RDMA é compatível com os seguintes tipos de instância (`p4d.24xlarge`) nesses sistemas operacionais (`alinux2`, `centos7``ubuntu1804`, ou). `ubuntu2004` Se a configuração [`enable_efa_gdr`](cluster-definition.md#enable-efa-gdr) na [seção do `[cluster]`](cluster-definition.md) estiver definida, essa configuração não poderá ser definida. Um placement group de cluster deve ser usado para minimizar latências entre instâncias. Para obter mais informações, consulte [`placement`](cluster-definition.md#placement) e [`placement_group`](cluster-definition.md#placement-group).

O valor padrão é `false`.

```
enable_efa_gdr = true
```

**nota**  
Support for `enable_efa_gdr` adicionado na AWS ParallelCluster versão 2.10.0.

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `placement_group`
<a name="queue-placement-group"></a>

**(Opcional)** Se presente, define o grupo de posicionamento dessa fila. Essa configuração substitui a configuração [`placement_group`](cluster-definition.md#placement-group).

As opções válidas são as seguintes:
+ `DYNAMIC`
+ Um nome de grupo de posicionamento de EC2 clusters existente da Amazon

Quando definido como `DYNAMIC`, um grupo de posicionamento exclusivo será criado e excluído como parte da pilha do cluster.

Para obter mais informações sobre grupos de posicionamento, consulte [Grupos de posicionamento](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) no *Guia EC2 do usuário da Amazon*. Se o mesmo grupo de posicionamento for usado para diferentes tipos de instância, é mais provável que a solicitação falhe devido a um erro de capacidade insuficiente. Para obter mais informações, consulte [Capacidade de instância insuficiente](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) no *Guia EC2 do usuário da Amazon*.

Não há valor padrão.

Nem todos os tipos de instância oferecem suporte para placement groups de cluster. Por exemplo, o tipo de instância padrão de `t2.micro` não oferece suporte para grupos de posicionamento de cluster. Para obter informações sobre a lista de tipos de instância que oferecem suporte a grupos de posicionamento de [clusters, consulte Regras e limitações de grupos de posicionamento](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) de clusters no *Guia EC2 do usuário da Amazon*. Consulte [Grupos de posicionamento e problemas de execução de instâncias](troubleshooting.md#placement-groups-and-instance-launch-issues) para obter dicas ao trabalhar com placement groups.

```
placement_group = DYNAMIC
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

# Seção `[raid]`
<a name="raid-section"></a>

Define as definições de configuração para uma matriz RAID que é criada a partir de vários volumes idênticos do Amazon EBS. O disco RAID é montado no nó principal e é exportado para os nós de computação com o NFS.

O formato é`[raid raid-name]`. *raid-name*deve começar com uma letra, conter no máximo 30 caracteres e conter somente letras, números, hífens (-) e sublinhados (\$1).

```
[raid rs]
shared_dir = raid
raid_type = 1
num_of_raid_volumes = 2
encrypted = true
```

**Topics**
+ [`shared_dir`](#raid-shared-dir)
+ [`ebs_kms_key_id`](#raid-ebs_kms_key_id)
+ [`encrypted`](#raid-encrypted)
+ [`num_of_raid_volumes`](#num-of-raid-volumes)
+ [`raid_type`](#raid-type)
+ [`volume_iops`](#raid-volume-iops)
+ [`volume_size`](#raid-volume-size)
+ [`volume_throughput`](#raid-volume-throughput)
+ [`volume_type`](#raid-volume-type)

## `shared_dir`
<a name="raid-shared-dir"></a>

**(Obrigatório)** Define o ponto de montagem para a matriz RAID nos nós principal e de computação.

A unidade RAID só é criada se esse parâmetro for especificado.

Não use `NONE` ou `/NONE` como o diretório compartilhado.

O exemplo a seguir monta a matriz em `/raid`.

```
shared_dir = raid
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="raid-ebs_kms_key_id"></a>

**(Opcional)** Especifica uma AWS KMS chave personalizada a ser usada para criptografia.

Esse parâmetro deve ser usado em conjunto com `encrypted = true` e deve ter um [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) personalizado.

Para obter mais informações, consulte [Criptografia de disco com uma chave do KMS personalizada](tutorials_04_encrypted_kms_fs.md).

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="raid-encrypted"></a>

**(Opcional)** Especifica se o sistema de arquivos está criptografado.

O valor padrão é `false`.

```
encrypted = false
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `num_of_raid_volumes`
<a name="num-of-raid-volumes"></a>

**(Opcional)** Define o número de volumes do Amazon EBS a partir dos quais montar a matriz RAID.

Número mínimo de volumes = `2`.

Número máximo de volumes = `5`.

O valor padrão é `2`.

```
num_of_raid_volumes = 2
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `raid_type`
<a name="raid-type"></a>

**(Obrigatório)** Define o tipo de RAID para a matriz RAID.

A unidade RAID só é criada se esse parâmetro for especificado.

As opções válidas são as seguintes:
+ `0`
+ `1`

Para obter mais informações sobre os tipos de RAID, consulte as [informações de RAID](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/raid-config.html) no Guia * EC2 do usuário da Amazon*.

O exemplo a seguir cria uma matriz RAID `0`:

```
raid_type = 0
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="raid-volume-iops"></a>

**(Opcional)** Define o número de IOPS para os volumes do tipo `io1`, `io2`, e `gp3`.

O valor padrão, os valores suportados e a proporção do `volume_iops` para `volume_size` variam de acordo com [`volume_type`](#raid-volume-type) e [`volume_size`](#raid-volume-size).

`volume_type` = `io1`  
Padrão `volume_iops` = 100  
Valores suportados `volume_iops` = 100–64000 †  
Proporção máxima de `volume_iops` para `volume_size` = 50 IOPS por GiB. 5000 IOPS exigem um `volume_size` de pelo menos 100 GiB.

`volume_type` = `io2`  
Padrão `volume_iops` = 100  
Valores suportados `volume_iops` = 100–64000 (256000 para volumes do `io2` Block Express) †  
Proporção máxima de `volume_iops` para `volume_size` = 500 IOPS por GiB. 5000 IOPS exigem um `volume_size` de pelo menos 10 GiB.

`volume_type` = `gp3`  
Padrão `volume_iops` = 3000  
Valores suportados `volume_iops` = 3000–16000  
Proporção máxima de `volume_iops` para `volume_size` = 500 IOPS por GiB. 5000 IOPS exigem um `volume_size` de pelo menos 10 GiB.

```
volume_iops = 3000
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

† O número máximo de IOPS é garantido somente em [instâncias criadas no Nitro System](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) provisionadas com mais de 32.000 IOPS. Outras instâncias garantem até 32.000 IOPS. Os volumes de `io1` mais antigos podem não atingir o desempenho total, a menos que você [modifique o volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html). `io2` Os volumes do Block Express oferecem suporte a valores `volume_iops` de até 256000. Para obter mais informações, consulte [Volumes do `io2` Block Express (em versão prévia)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) no *Guia EC2 do usuário da Amazon*.

## `volume_size`
<a name="raid-volume-size"></a>

**(Opcional)** Define o tamanho do volume a ser criado, em GiB.

O valor padrão e os valores suportados variam de acordo com o [`volume_type`](#raid-volume-type).

`volume_type` = `standard`  
Padrão `volume_size` = 20 GiB  
Valores suportados `volume_size` = 1–1024 GiB

`volume_type` = `gp2`, `io1`, `io2`, e `gp3`  
Padrão `volume_size` = 20 GiB  
Valores suportados `volume_size` = 1–16384 GiB

`volume_type` = `sc1` e `st1`  
Padrão `volume_size` = 500 GiB  
Valores suportados `volume_size` = 500–16384 GiB

```
volume_size = 20
```

**nota**  
Antes da AWS ParallelCluster versão 2.10.1, o valor padrão para todos os tipos de volume era de 20 GiB.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="raid-volume-throughput"></a>

**(Opcional)** Define o throughput para tipos de volume `gp3`, em MiB/s.

O valor padrão é `125`.

Valores suportados `volume_throughput` = 125–1000 MiB/s

A proporção de `volume_throughput` para `volume_iops` não pode ser superior a 0,25. O throughput máximo de 1000 MiB/s exige que a configuração `volume_iops` seja de pelo menos 4000.

```
volume_throughput = 1000
```

**nota**  
Support for `volume_throughput` adicionado na AWS ParallelCluster versão 2.10.1.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="raid-volume-type"></a>

**(Opcional)** Define o tipo de volume a ser criado.

As opções válidas são as seguintes:

`gp2`, `gp3`  
General purpose SSD

`io1`, `io2`  
Provisioned IOPS SSD

`st1`  
HDD otimizado para throughput

`sc1`  
Disco rígido frio

`standard`  
Geração magnética anterior

Para obter mais informações, consulte os [tipos de volume do Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) no *Guia do EC2 usuário da Amazon*.

O valor padrão é `gp2`.

```
volume_type = io2
```

**nota**  
Support `gp3` e `io2` foi adicionado na AWS ParallelCluster versão 2.10.1.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

# Seção `[scaling]`
<a name="scaling-section"></a>

**Topics**
+ [`scaledown_idletime`](#scaledown-idletime)

Especifica configurações que definem como dimensionar os nós de computação.

O formato é`[scaling scaling-name]`. *scaling-name*deve começar com uma letra, conter no máximo 30 caracteres e conter somente letras, números, hífens (-) e sublinhados (\$1).

```
[scaling custom]
scaledown_idletime = 10
```

## `scaledown_idletime`
<a name="scaledown-idletime"></a>

**(Opcional)** Especifica a quantidade de tempo em minutos sem uma tarefa, após a qual o nó de computação será encerrado.

Esse parâmetro não é usado se `awsbatch` for o programador.

O valor padrão é `10`.

```
scaledown_idletime = 10
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

# Seção `[vpc]`
<a name="vpc-section"></a>

Especifica as configurações do Amazon VPC. Para obter mais informações sobre VPCs, consulte [O que é Amazon VPC](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html)? e [as melhores práticas de segurança para sua VPC no Guia](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-best-practices.html) do usuário da Amazon *VPC*.

O formato é`[vpc vpc-name]`. *vpc-name*deve começar com uma letra, conter no máximo 30 caracteres e conter somente letras, números, hífens (-) e sublinhados (\$1).

```
[vpc public]
vpc_id = vpc-xxxxxx
master_subnet_id = subnet-xxxxxx
```

**Topics**
+ [`additional_sg`](#additional-sg)
+ [`compute_subnet_cidr`](#compute-subnet-cidr)
+ [`compute_subnet_id`](#compute-subnet-id)
+ [`master_subnet_id`](#master-subnet-id)
+ [`ssh_from`](#ssh-from)
+ [`use_public_ips`](#use-public-ips)
+ [`vpc_id`](#vpc-id)
+ [`vpc_security_group_id`](#vpc-security-group-id)

## `additional_sg`
<a name="additional-sg"></a>

**(Opcional)** Fornece um grupo de segurança da Amazon VPC adicional para todas as instâncias.

Não há valor padrão.

```
additional_sg = sg-xxxxxx
```

## `compute_subnet_cidr`
<a name="compute-subnet-cidr"></a>

**(Opcional)** Especifica um bloco de Encaminhamento Entre Domínios Sem Classificação (CIDR). Use esse parâmetro se quiser AWS ParallelCluster criar uma sub-rede de computação.

```
compute_subnet_cidr = 10.0.100.0/24
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `compute_subnet_id`
<a name="compute-subnet-id"></a>

**(Opcional)** Especifica o ID de uma sub-rede existente na qual os nós de computação serão provisionados.

Se não for especificado, [`compute_subnet_id`](#compute-subnet-id) usará o valor de [`master_subnet_id`](#master-subnet-id).

Se a sub-rede for privada, é necessário configurar o NAT para acesso à web.

```
compute_subnet_id = subnet-xxxxxx
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `master_subnet_id`
<a name="master-subnet-id"></a>

**(Obrigatório)** Especifica o ID de uma sub-rede existente na qual o servidor provisiona o nó principal.

```
master_subnet_id = subnet-xxxxxx
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `ssh_from`
<a name="ssh-from"></a>

**(Opcional)** Especifica o intervalo de IP formatado em CIDR a partir do qual será permitido o acesso SSH.

Esse parâmetro é usado somente ao AWS ParallelCluster criar o grupo de segurança.

O valor padrão é `0.0.0.0/0`.

```
ssh_from = 0.0.0.0/0
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `use_public_ips`
<a name="use-public-ips"></a>

**(Opcional)** Define se deseja atribuir endereços IP públicos a instâncias de computação.

Se definido como `true`, um endereço IP elástico é associado ao nó principal.

Se definido como `false`, o nó principal terá um IP público (ou não) de acordo com o valor do parâmetro de configuração da sub-rede "Atribuir IP público automaticamente".

Para obter exemplos, consulte a [configuração de redes](networking.md).

O valor padrão é `true`.

```
use_public_ips = true
```

**Importante**  
Por padrão, todos Contas da AWS estão limitados a cinco (5) endereços IP elásticos para cada um Região da AWS. Para obter mais informações, consulte [Limite de endereço IP elástico](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/elastic-ip-addresses-eip.html#using-instance-addressing-limit) no *Guia EC2 do usuário da Amazon*.

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `vpc_id`
<a name="vpc-id"></a>

**(Obrigatório)** Especifica o ID do Amazon VPC onde o cluster deve ser provisionado.

```
vpc_id = vpc-xxxxxx
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `vpc_security_group_id`
<a name="vpc-security-group-id"></a>

**(Opcional)** Especifica o uso de um grupo de segurança para todas as instâncias.

Não há valor padrão.

```
vpc_security_group_id = sg-xxxxxx
```

O grupo de segurança criado por AWS ParallelCluster permite acesso SSH usando a porta 22 dos endereços especificados na [`ssh_from`](#ssh-from) configuração ou todos os IPv4 endereços (`0.0.0.0/0`) se a [`ssh_from`](#ssh-from) configuração não for especificada. Se o Amazon DCV estiver ativado, o grupo de segurança permitirá o acesso ao Amazon DCV usando a porta 8443 (ou qualquer outra especificação da [`port`](dcv-section.md#dcv-section-port) configuração) a partir dos endereços especificados na [`access_from`](dcv-section.md#dcv-section-access-from) configuração ou de todos os IPv4 endereços (`0.0.0.0/0`) se a [`access_from`](dcv-section.md#dcv-section-access-from) configuração não for especificada.

**Atenção**  
Você pode alterar o valor desse parâmetro e atualizar o cluster se [`[cluster]`[`fsx_settings`](cluster-definition.md#fsx-settings)](cluster-definition.md)não for especificado ou ambos `fsx_settings` e se um sistema de arquivos externo existente FSx para Lustre estiver especificado [`fsx-fs-id`](fsx-section.md#fsx-fs-id)em [`[fsx fs]`](fsx-section.md).  
Você não pode alterar o valor desse parâmetro se um sistema de arquivos AWS ParallelCluster gerenciado FSx para Lustre estiver especificado em `fsx_settings` e. `[fsx fs]`

[Política de atualização: se os sistemas de arquivos AWS ParallelCluster gerenciados do Amazon FSx for Lustre não estiverem especificados na configuração, essa configuração poderá ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-no-managed-fsx-lustre)

# Exemplos
<a name="examples"></a>

Os exemplos de configurações a seguir demonstram AWS ParallelCluster configurações usando Slurm, Torquee AWS Batch agendadores.

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não suporta o uso de SGE or Torque agendadores.

**Contents**
+ [Slurm Workload Manager (`slurm`)](#example.slurm)
+ [Son of Grid Engine (`sge`) e Torque Resource Manager (`torque`)](#example.torque)
+ [AWS Batch (`awsbatch`)](#example.awsbatch)

## Slurm Workload Manager (`slurm`)
<a name="example.slurm"></a>

O exemplo a seguir executa um cluster com o programador `slurm`. O exemplo de configuração inicia 1 cluster com 2 filas de trabalhos. A primeira fila, `spot`, tem inicialmente duas instâncias spot `t3.micro` disponíveis. Ele pode ser expandido até um máximo de 10 instâncias e reduzido para um mínimo de 1 instância quando nenhum trabalho for executado por 10 minutos (ajustável usando a configuração [`scaledown_idletime`](scaling-section.md#scaledown-idletime)). A segunda fila, `ondemand`, começa sem instâncias e pode ser escalada até um máximo de 5 instâncias `t3.micro` sob demanda.

```
[global]
update_check = true
sanity_check = true
cluster_template = slurm

[aws]
aws_region_name = <your Região da AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster slurm]
key_name = <your EC2 keypair name>
base_os = alinux2                   # optional, defaults to alinux2
scheduler = slurm
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
queue_settings = spot,ondemand

[queue spot]
compute_resource_settings = spot_i1
compute_type = spot                 # optional, defaults to ondemand

[compute_resource spot_i1]
instance_type = t3.micro
min_count = 1                       # optional, defaults to 0
initial_count = 2                   # optional, defaults to 0

[queue ondemand]
compute_resource_settings = ondemand_i1

[compute_resource ondemand_i1]
instance_type = t3.micro
max_count = 5                       # optional, defaults to 10
```

## Son of Grid Engine (`sge`) e Torque Resource Manager (`torque`)
<a name="example.torque"></a>

**nota**  
Este exemplo se aplica somente às AWS ParallelCluster versões até a versão 2.11.4, inclusive. A partir da versão 2.11.5, AWS ParallelCluster não suporta o uso de SGE or Torque agendadores.

O exemplo a seguir executa um cluster com o programador `torque` ou `sge`. Para usar SGE, `scheduler = torque` mude para`scheduler = sge`. O exemplo de configuração a seguir permite um máximo de 5 nós simultâneos e reduz a dois quando nenhuma tarefa for executada por 10 minutos.

```
[global]
update_check = true
sanity_check = true
cluster_template = torque

[aws]
aws_region_name = <your Região da AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster torque]
key_name = <your EC2 keypair name>but they aren't eligible for future updates
base_os = alinux2                   # optional, defaults to alinux2
scheduler = torque                  # optional, defaults to sge
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
initial_queue_size = 2              # optional, defaults to 0
maintain_initial_size = true        # optional, defaults to false
max_queue_size = 5                  # optional, defaults to 10
```

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não suporta o uso de SGE or Torque agendadores. Se você usar essas versões, poderá continuar usando-as ou solucionando problemas de suporte das equipes de AWS serviço e AWS Support.

## AWS Batch (`awsbatch`)
<a name="example.awsbatch"></a>

O exemplo a seguir executa um cluster com o programador `awsbatch`. Ele é definido para escolher o tipo de instância melhor, com base em suas necessidades de recursos de tarefa.

A configuração de exemplo permite um máximo de 40 v CPUs simultâneos e é reduzida para zero quando nenhum trabalho é executado por 10 minutos (ajustável usando a [`scaledown_idletime`](scaling-section.md#scaledown-idletime) configuração).

```
[global]
update_check = true
sanity_check = true
cluster_template = awsbatch

[aws]
aws_region_name = <your Região da AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster awsbatch]
scheduler = awsbatch
compute_instance_type = optimal # optional, defaults to optimal
min_vcpus = 0                   # optional, defaults to 0
desired_vcpus = 0               # optional, defaults to 4
max_vcpus = 40                  # optional, defaults to 20
base_os = alinux2               # optional, defaults to alinux2, controls the base_os of
                                # the head node and the docker image for the compute fleet
key_name = <your EC2 keypair name>
vpc_settings = public
```