

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Seção `[cluster]`
<a name="cluster-definition"></a>

Define um modelo de cluster que pode ser usado para criar um cluster. Um arquivo de configuração pode conter várias seções `[cluster]`.

O mesmo modelo de cluster pode ser usado para criar vários clusters.

O formato é `[cluster cluster-template-name]`. A [seção `[cluster]`](#cluster-definition) nomeada pela configuração [`cluster_template`](global.md#cluster-template) na [seção `[global]`](global.md) é usada por padrão, mas pode ser substituída na linha de comando [`pcluster`](pcluster.md).

*cluster-template-name*deve começar com uma letra, conter no máximo 30 caracteres e conter somente letras, números, hífens (-) e sublinhados (\$1).

```
[cluster default]
```

**Topics**
+ [`additional_cfn_template`](#additional-cfn-template)
+ [`additional_iam_policies`](#additional-iam-policies)
+ [`base_os`](#base-os)
+ [`cluster_resource_bucket`](#cluster-resource-bucket-section)
+ [`cluster_type`](#cluster-type)
+ [`compute_instance_type`](#compute-instance-type)
+ [`compute_root_volume_size`](#compute-root-volume-size)
+ [`custom_ami`](#custom-ami-section)
+ [`cw_log_settings`](#cw-log-settings)
+ [`dashboard_settings`](#dashboard-settings)
+ [`dcv_settings`](#dcv-settings)
+ [`desired_vcpus`](#desired-vcpus)
+ [`disable_cluster_dns`](#disable-cluster-dns-settings)
+ [`disable_hyperthreading`](#disable-hyperthreading)
+ [`ebs_settings`](#ebs-settings)
+ [`ec2_iam_role`](#ec2-iam-role)
+ [`efs_settings`](#efs-settings)
+ [`enable_efa`](#enable-efa)
+ [`enable_efa_gdr`](#enable-efa-gdr)
+ [`enable_intel_hpc_platform`](#enable-intel-hpc-platform)
+ [`encrypted_ephemeral`](#encrypted-ephemeral)
+ [`ephemeral_dir`](#ephemeral-dir)
+ [`extra_json`](#extra-json)
+ [`fsx_settings`](#fsx-settings)
+ [`iam_lambda_role`](#iam-lambda-role)
+ [`initial_queue_size`](#configuration-initial-queue-size)
+ [`key_name`](#key-name)
+ [`maintain_initial_size`](#maintain-initial-size)
+ [`master_instance_type`](#master-instance-type)
+ [`master_root_volume_size`](#master-root-volume-size)
+ [`max_queue_size`](#configuration-max-queue-size)
+ [`max_vcpus`](#max-vcpus)
+ [`min_vcpus`](#min-vcpus)
+ [`placement`](#placement)
+ [`placement_group`](#placement-group)
+ [`post_install`](#post-install)
+ [`post_install_args`](#post-install-args)
+ [`pre_install`](#pre-install)
+ [`pre_install_args`](#pre-install-args)
+ [`proxy_server`](#proxy-server)
+ [`queue_settings`](#queue-settings)
+ [`raid_settings`](#raid-settings)
+ [`s3_read_resource`](#s3-read-resource)
+ [`s3_read_write_resource`](#s3-read-write-resource)
+ [`scaling_settings`](#scaling-settings)
+ [`scheduler`](#scheduler)
+ [`shared_dir`](#cluster-shared-dir)
+ [`spot_bid_percentage`](#spot-bid-percentage)
+ [`spot_price`](#spot-price)
+ [`tags`](#tags)
+ [`template_url`](#template-url)
+ [`vpc_settings`](#vpc-settings)

## `additional_cfn_template`
<a name="additional-cfn-template"></a>

**(Opcional)** Define um AWS CloudFormation modelo adicional a ser executado junto com o cluster. Esse modelo adicional é usado para a criação de recursos que existem fora do cluster, mas que fazem parte do ciclo de vida do cluster.

Esse valor deve ser um URL HTTP para um modelo público, com todos os parâmetros fornecidos.

Não há valor padrão.

```
additional_cfn_template = https://<bucket-name>.s3.amazonaws.com/my-cfn-template.yaml
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `additional_iam_policies`
<a name="additional-iam-policies"></a>

**(Opcional)** Especifica uma lista de nomes de recursos da Amazon (ARNs) de políticas do IAM para o Amazon EC2. Essa lista é anexada à função raiz usada no cluster, além das permissões exigidas pelo AWS ParallelCluster separadas por vírgulas. O nome da política do IAM e seu ARN são diferentes. Os nomes não podem ser usados como um argumento para `additional_iam_policies`.

Se sua intenção é adicionar políticas extras às configurações padrão dos nós do cluster, recomendamos que você transmita as políticas adicionais personalizadas do IAM com a configuração `additional_iam_policies` em vez de usar as configurações [`ec2_iam_role`](#ec2-iam-role) para incluir suas políticas de EC2 específicas. Isso ocorre porque `additional_iam_policies` são adicionados às permissões padrão AWS ParallelCluster exigidas. Um [`ec2_iam_role`](#ec2-iam-role) existente deve incluir todas as permissões necessárias. No entanto, como as permissões necessárias geralmente mudam de uma versão para outra à medida que os recursos são adicionados, um [`ec2_iam_role`](#ec2-iam-role) pode se tornar obsoleto.

Não há valor padrão.

```
additional_iam_policies = arn:aws:iam::123456789012:policy/CustomEC2Policy
```

**nota**  
O suporte para [`additional_iam_policies`](#additional-iam-policies) foi adicionado ao AWS ParallelCluster versão 2.5.0.

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `base_os`
<a name="base-os"></a>

**(Obrigatório)** Especifica qual tipo de SO é usado no cluster.

As opções disponíveis são:
+ `alinux2`
+ `centos7`
+ `ubuntu1804`
+ `ubuntu2004`

**nota**  
Somente para instâncias AWS baseadas em Graviton `alinux2``ubuntu1804`, ou `ubuntu2004` são compatíveis.

**nota**  
Support for `centos8` removido na AWS ParallelCluster versão 2.11.4. O suporte para `ubuntu2004` foi adicionado e o suporte para `alinux` e `ubuntu1604` foi removido na versão 2.11.0 do AWS ParallelCluster . O suporte para `centos8` foi adicionado e o suporte para `centos6` foi removido na AWS ParallelCluster versão 2.10.0. O suporte para `alinux2` foi adicionado ao AWS ParallelCluster versão 2.6.0. O suporte para `ubuntu1804` foi adicionado e o suporte para `ubuntu1404` foi removido no AWS ParallelCluster versão 2.5.0.

Além dos específicos Regiões da AWS mencionados na tabela a seguir, que não são compatíveis`centos7`. Todas as outras regiões AWS comerciais oferecem suporte a todos os sistemas operacionais a seguir.


| Partição (Regiões da AWS) | `alinux2` | `centos7` | `ubuntu1804` e `ubuntu2004` | 
| --- | --- | --- | --- | 
| Comercial (tudo Regiões da AWS não mencionado especificamente) | Verdadeiro | Verdadeiro | Verdadeiro | 
| AWS GovCloud (Leste dos EUA) (us-gov-east-1) | Verdadeiro | Falso | Verdadeiro | 
| AWS GovCloud (Oeste dos EUA) (us-gov-west-1) | Verdadeiro | Falso | Verdadeiro | 
| China (Pequim) (cn-north-1) | Verdadeiro | Falso | Verdadeiro | 
| China (Ningxia) (cn-northwest-1) | Verdadeiro | Falso | Verdadeiro | 

**nota**  
O parâmetro [`base_os`](#base-os) também determina o nome de usuário que é usado para fazer login no cluster.
+ `centos7`: `centos` 
+ `ubuntu1804` e `ubuntu2004`: `ubuntu` 
+ `alinux2`: `ec2-user` 

**nota**  
Antes da AWS ParallelCluster versão 2.7.0, o [`base_os`](#base-os) parâmetro era opcional e o padrão era. `alinux` A partir do AWS ParallelCluster versão 2.7.0, o parâmetro [`base_os`](#base-os) é obrigatório.

**nota**  
Se o parâmetro [`scheduler`](#scheduler) for `awsbatch`, somente `alinux2` será aceito.

```
base_os = alinux2
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `cluster_resource_bucket`
<a name="cluster-resource-bucket-section"></a>

**(Opcional)** Especifica o nome do bucket do Amazon S3 usado para hospedar recursos que são gerados quando o cluster é criado. O bucket deve ter o versionamento ativado. Para obter mais informações, consulte [Usando versionamento](https://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html) no *Guia do usuário do Amazon Simple Storage Service*. Esse bucket pode ser usado para vários clusters. O bucket do deve estar na mesma região que o cluster.

Se esse parâmetro não for especificado, um novo bucket será criado quando o cluster for criado. O novo bucket tem o nome de `parallelcluster-random_string`. Nesse nome, *random\$1string* é uma sequência aleatória de caracteres alfanuméricos. Todos os recursos do cluster são armazenados nesse bucket em um caminho com o formulário`bucket_name/resource_directory`. `resource_directory`tem o formulário`stack_name-random_string`, onde *stack\$1name* está o nome de uma das CloudFormation pilhas usadas por AWS ParallelCluster. O valor de *bucket\$1name* pode ser encontrado no `ResourcesS3Bucket` valor na saída da `parallelcluster-clustername` pilha. O valor de *resource\$1directory* pode ser encontrado no valor da `ArtifactS3RootDirectory` saída da mesma pilha.

O valor padrão é `parallelcluster-random_string`.

```
cluster_resource_bucket = amzn-s3-demo-bucket
```

**nota**  
Support for [`cluster_resource_bucket`](#cluster-resource-bucket-section) adicionado na AWS ParallelCluster versão 2.10.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida. A atualização dessa configuração não pode ser forçada.](using-pcluster-update.md#update-policy-read-only-resource-bucket)

## `cluster_type`
<a name="cluster-type"></a>

**(Opcional)** Define o tipo de cluster a ser executado. Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser substituída pelas configurações [`compute_type`](queue-section.md#queue-compute-type) nas [seções`[queue]`](queue-section.md).

As opções válidas são `ondemand` e `spot`.

O valor padrão é `ondemand`.

Para obter mais informações sobre instâncias spot, consulte [Trabalho com Instâncias spot](spot.md).

**nota**  
O uso de Instâncias spot exige que a função `AWSServiceRoleForEC2Spot` vinculada ao serviço exista na sua conta. Para criar essa função na sua conta usando o AWS CLI, execute o seguinte comando:  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Para ter mais informações, consulte [Função vinculada ao serviço para solicitações de instâncias spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) no *Guia do usuário do Amazon EC2*.

```
cluster_type = ondemand
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_instance_type`
<a name="compute-instance-type"></a>

**(Opcional)** Define o tipo de instância do Amazon EC2 que é usado para os nós de computação em cluster. A arquitetura do tipo de instância deve ser a mesma usada para a configuração [`master_instance_type`](#master-instance-type). Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser substituída pelas configurações [`instance_type`](compute-resource-section.md#compute-resource-instance-type) nas [seções`[compute_resource]`](compute-resource-section.md).

Se você estiver usando o `awsbatch` agendador, consulte a criação de ambientes de computação na AWS Batch interface do usuário para ver uma lista dos tipos de instância compatíveis.

O padrão é `t2.micro`, `optimal` quando o programador for `awsbatch`.

```
compute_instance_type = t2.micro
```

**nota**  
Support para instâncias AWS baseadas em Graviton (incluindo `C6g` instâncias `A1` e) foi adicionado na AWS ParallelCluster versão 2.8.0.

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_root_volume_size`
<a name="compute-root-volume-size"></a>

**(Opcional)** Especifica o tamanho do volume ComputeFleet raiz em gibibytes (GiB). A AMI deve oferecer suporte para `growroot`.

O valor padrão é `35`.

**nota**  
Para AWS ParallelCluster versões entre 2.5.0 e 2.10.4, o padrão era 25. Antes da AWS ParallelCluster versão 2.5.0, o padrão era 20.

```
compute_root_volume_size = 35
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `custom_ami`
<a name="custom-ami-section"></a>

**(Opcional)** [Especifica a ID de uma AMI personalizada a ser usada nos nós principais e de computação, em vez da publicação padrão. AMIs](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/amis.txt) Para acessar mais informações, consulte [Modificar uma AMI do](tutorials_02_ami_customization.md#modify-an-aws-parallelcluster-ami) ou [Crie uma AWS ParallelCluster AMI personalizada](tutorials_02_ami_customization.md#build-a-custom-aws-parallelcluster-ami).

Não há valor padrão.

```
custom_ami = ami-00d4efc81188687a0
```

Se a AMI personalizada exigir permissões adicionais para seu lançamento, essas permissões deverão ser adicionadas às políticas do usuário e do nó principal.

Por exemplo, se uma AMI personalizada tiver um snapshot criptografado associado a ela, as seguintes políticas adicionais serão necessárias nas políticas do usuário e do nó principal:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```

------

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `cw_log_settings`
<a name="cw-log-settings"></a>

**(Opcional)** Identifica a `[cw_log]` seção com a configuração de CloudWatch registros. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para mais informações, consulte a [seção `[cw_log]`](cw-log-section.md), [CloudWatch Painel da Amazon](cloudwatch-dashboard.md), e [Integração com Amazon CloudWatch Logs](cloudwatch-logs.md).

Por exemplo, a configuração a seguir especifica que a seção que começa `[cw_log custom-cw]` é usada para a configuração de CloudWatch registros.

```
cw_log_settings = custom-cw
```

**nota**  
Support for [`cw_log_settings`](#cw-log-settings) adicionado na AWS ParallelCluster versão 2.6.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `dashboard_settings`
<a name="dashboard-settings"></a>

**(Opcional)** Identifica a `[dashboard]` seção com a configuração do CloudWatch painel. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[dashboard]`](dashboard-section.md).

Por exemplo, a configuração a seguir especifica que a seção que começa `[dashboard custom-dashboard` é usada para a configuração do CloudWatch painel.

```
dashboard_settings = custom-dashboard
```

**nota**  
Support for [`dashboard_settings`](#dashboard-settings) adicionado na AWS ParallelCluster versão 2.10.0.

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `dcv_settings`
<a name="dcv-settings"></a>

**(Opcional)** Identifica a seção `[dcv]` com a configuração do Amazon DCV. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[dcv]`](dcv-section.md).

Por exemplo, a configuração a seguir especifica que a seção que inicia `[dcv custom-dcv]` é usada para a configuração do Amazon DCV.

```
dcv_settings = custom-dcv
```

**nota**  
Em instâncias AWS baseadas em Graviton, o Amazon DCV só é compatível com. `alinux2`

**nota**  
Support for [`dcv_settings`](#dcv-settings) adicionado na AWS ParallelCluster versão 2.5.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `desired_vcpus`
<a name="desired-vcpus"></a>

**(Opcional)** Especifica o número desejado de v CPUs no ambiente computacional. Usador apenas se o programador for `awsbatch`.

O valor padrão é `4`.

```
desired_vcpus = 4
```

[Política de atualização: essa configuração não é analisada durante uma atualização.](using-pcluster-update.md#update-policy-setting-ignored)

## `disable_cluster_dns`
<a name="disable-cluster-dns-settings"></a>

**(Opcional)** Especifica se as entradas de DNS do cluster não devem ser criadas. Por padrão, AWS ParallelCluster cria uma zona hospedada do Route 53. Se `disable_cluster_dns` estiver definido como `true`, a zona hospedada não será criada.

O valor padrão é `false`.

```
disable_cluster_dns = true
```

**Atenção**  
É necessário um sistema de resolução de nomes para que o cluster funcione adequadamente. Se `disable_cluster_dns` estiver definido como `true`, um sistema adicional de resolução de nomes também deverá ser fornecido.

**Importante**  
[`disable_cluster_dns`](#disable-cluster-dns-settings)= só `true` é suportado se a configuração [`queue_settings`](#queue-settings) for especificada.

**nota**  
Support for [`disable_cluster_dns`](#disable-cluster-dns-settings) adicionado na AWS ParallelCluster versão 2.9.1.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `disable_hyperthreading`
<a name="disable-hyperthreading"></a>

**(Opcional)** Desabilita o hyperthreading nos nós principais e de computação. Nem todos os tipos de instância podem desabilitar o hyperthreading. Para ver quais tipos de instância permitem desabilitar o hyperthreading, consulte a seção sobre [núcleos e threads de CPU para cada núcleo de CPU por tipo de instância](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) no *Guia do usuário do Amazon EC2*. Se a configuração [`queue_settings`](#queue-settings) for definida, essa configuração poderá ser definida ou as configurações [`disable_hyperthreading`](queue-section.md#queue-disable-hyperthreading) nas [seções `[queue]`](queue-section.md) poderão ser definidas.

O valor padrão é `false`.

```
disable_hyperthreading = true
```

**nota**  
[`disable_hyperthreading`](#disable-hyperthreading) afeta apenas o nó principal quando `scheduler = awsbatch`.

**nota**  
O suporte para [`disable_hyperthreading`](#disable-hyperthreading) foi adicionado ao AWS ParallelCluster versão 2.5.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `ebs_settings`
<a name="ebs-settings"></a>

**(Opcional)** Identifica as seções `[ebs]` com os volumes do Amazon EBS que estão montados no nó principal. Ao usar vários volumes do Amazon EBS, insira esses parâmetros em uma lista com cada um separado por uma vírgula. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Há suporte para até cinco (5) volumes adicionais do Amazon EBS.

Para obter mais informações, consulte a [seção `[ebs]`](ebs-section.md).

Por exemplo, a seguinte configuração especifica que as seções que começam com `[ebs custom1]` e `[ebs custom2]` são usados para os volumes do Amazon EBS.

```
ebs_settings = custom1, custom2
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `ec2_iam_role`
<a name="ec2-iam-role"></a>

**(Opcional)** Define o nome de um perfil do IAM existente para o Amazon EC2 que é anexada a todas as instâncias do cluster. Um nome de função do IAM e seu Amazon Resource Name (ARN) são diferentes. ARNs não pode ser usado como argumento para`ec2_iam_role`.

Se essa opção for especificada, a configuração [`additional_iam_policies`](#additional-iam-policies) será ignorada. Se sua intenção é adicionar políticas extras às configurações padrão dos nós do cluster, recomendamos que você transmita as políticas adicionais personalizadas do IAM com a configuração [`additional_iam_policies`](#additional-iam-policies) em vez de usar as configurações `ec2_iam_role`.

Se essa opção não for especificada, a função padrão AWS ParallelCluster do IAM para o Amazon EC2 será usada. Para obter mais informações, consulte [AWS Identity and Access Management funções em AWS ParallelCluster](iam.md).

Não há valor padrão.

```
ec2_iam_role = ParallelClusterInstanceRole
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `efs_settings`
<a name="efs-settings"></a>

**(Opcional)** Especifica as configurações relacionadas ao sistema de arquivos do Amazon EFS. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[efs]`](efs-section.md).

Por exemplo, a seguinte configuração especifica que a seção que começa com `[efs customfs]` é usada para a configuração do sistema de arquivos do Amazon EFS.

```
efs_settings = customfs
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `enable_efa`
<a name="enable-efa"></a>

**(Opcional)** Se estiver presente, especificará que o Elastic Fabric Adapter (EFA) está habilitado para os nós de computação. Para visualizar uma lista de tipos de instâncias do EC2 compatíveis com EFAs, consulte [Tipos de instância compatíveis](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) no *Guia do usuário do Amazon EC2 para instâncias do Linux*. Para obter mais informações, consulte [Elastic Fabric Adapter](efa.md). Se a configuração [`queue_settings`](#queue-settings) for definida, essa configuração poderá ser definida ou as configurações [`enable_efa`](queue-section.md#queue-enable-efa) na [seção `[queue]`](queue-section.md) poderão ser definidas. Um placement group de cluster deve ser usado para minimizar latências entre instâncias. Para obter mais informações, consulte [`placement`](#placement) e [`placement_group`](#placement-group).

```
enable_efa = compute
```

**nota**  
O suporte para EFA em instâncias Graviton2 baseadas em ARM foi adicionado na versão 2.10.1. AWS ParallelCluster 

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `enable_efa_gdr`
<a name="enable-efa-gdr"></a>

**(Opcional)** A partir da AWS ParallelCluster versão 2.11.3, essa configuração não tem efeito. O suporte do Elastic Fabric Adapter (EFA) para GPUDirect RDMA (acesso direto remoto à memória) está sempre ativado se for suportado pelo tipo de instância e pelo sistema operacional.

**nota**  
AWS ParallelCluster versão 2.10.0 a 2.11.2: Se`compute`, especifica que o suporte do Elastic Fabric Adapter (EFA) GPUDirect para RDMA (acesso direto remoto à memória) está habilitado para os nós de computação. Definir essa configuração como `compute` requer que a configuração [`enable_efa`](#enable-efa) seja definida como `compute`. O suporte do EFA para GPUDirect RDMA é suportado por tipos de instância específicos (`p4d.24xlarge`) em sistemas operacionais específicos ([`base_os`](#base-os)é`alinux2`, `centos7``ubuntu1804`, ou`ubuntu2004`). Se a configuração [`queue_settings`](#queue-settings) for definida, essa configuração poderá ser definida ou as configurações [`enable_efa_gdr`](queue-section.md#queue-enable-efa-gdr) nas [seções `[queue]`](queue-section.md) poderão ser definidas. Um placement group de cluster deve ser usado para minimizar latências entre instâncias. Para obter mais informações, consulte [`placement`](#placement) e [`placement_group`](#placement-group).

```
enable_efa_gdr = compute
```

**nota**  
Support for `enable_efa_gdr` adicionado na AWS ParallelCluster versão 2.10.0.

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_intel_hpc_platform`
<a name="enable-intel-hpc-platform"></a>

**(Opcional)** Se estiver presente, indica que o [Contrato de licença de usuário final](https://software.intel.com/en-us/articles/end-user-license-agreement) do Intel Parallel Studio é aceito. Isso faz com que o Intel Parallel Studio seja instalado no nó principal e compartilhado com os nós de computação. Isso adiciona vários minutos ao tempo que o nó principal leva para ser inicializado. A configuração [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) só é compatível com CentOS 7 ([`base_os`](#base-os)` = centos7`).

O valor padrão é `false`.

```
enable_intel_hpc_platform = true
```

**nota**  
O [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) parâmetro não é compatível com instâncias AWS baseadas em Graviton.

**nota**  
O suporte para [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) foi adicionado ao AWS ParallelCluster versão 2.5.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `encrypted_ephemeral`
<a name="encrypted-ephemeral"></a>

**(Opcional)** Criptografa os volumes de armazenamento de instâncias efêmeros com chaves na memória não recuperáveis usando LUKS (Linux Unified Key Setup).

Para obter mais informações, consulte [https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md](https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md).

O valor padrão é `false`.

```
encrypted_ephemeral = true
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `ephemeral_dir`
<a name="ephemeral-dir"></a>

**(Opcional)** Define o caminho onde volumes de armazenamento de instâncias são montados, caso sejam usados.

O valor padrão é `/scratch`.

```
ephemeral_dir = /scratch
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `extra_json`
<a name="extra-json"></a>

**(Opcional)** Define o JSON extra que é mesclado no. Chef `dna.json`. Para obter mais informações, consulte [Criação de uma AWS ParallelCluster AMI personalizada](tutorials_02_ami_customization.md).

O valor padrão é `{}`.

```
extra_json = {}
```

**nota**  
A partir da AWS ParallelCluster versão 2.6.1, a maioria das receitas de instalação são ignoradas por padrão ao iniciar os nós para melhorar os tempos de inicialização. Para executar todas as fórmulas de instalação para uma melhor compatibilidade com versões anteriores em detrimento dos tempos de inicialização, adicione `"skip_install_recipes" : "no"` à chave `cluster` na configuração [`extra_json`](#extra-json). Por exemplo:  

```
extra_json = { "cluster" : { "skip_install_recipes" : "no" } }
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `fsx_settings`
<a name="fsx-settings"></a>

**(Opcional)** Especifica a seção que define a configuração do FSx Lustre. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[fsx]`](fsx-section.md).

Por exemplo, a configuração a seguir especifica que a seção que começa `[fsx fs]` é usada FSx para a configuração for Lustre.

```
fsx_settings = fs
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `iam_lambda_role`
<a name="iam-lambda-role"></a>

**(Opcional)** Define o nome de uma função de AWS Lambda execução existente. Esta função está vinculada a todas as funções do Lambda no cluster. Para obter mais informações, consulte [perfil do IAM para execução do AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/lambda-intro-execution-role.html) no *Guia do desenvolvedor do AWS Lambda *.

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.

Um nome de função do IAM e seu Amazon Resource Name (ARN) são diferentes. ARNs não pode ser usado como argumento para`iam_lambda_role`. Se ambos [`ec2_iam_role`](#ec2-iam-role) e `iam_lambda_role` forem definidos e se [`scheduler`](#scheduler) for `sge`, `slurm` ou `torque`, não haverá funções criadas. Se [`scheduler`](#scheduler) for `awsbatch`, então haverá funções criadas durante [`pcluster start`](pcluster.start.md). Para obter exemplos de políticas, consulte [`ParallelClusterLambdaPolicy` usando SGE, Slurm ou Torque](iam.md#parallelcluster-lambda-policy) e [`ParallelClusterLambdaPolicy` usando `awsbatch`](iam.md#parallelcluster-lambda-policy-batch).

Não há valor padrão.

```
iam_lambda_role = ParallelClusterLambdaRole
```

**nota**  
Support for `iam_lambda_role` adicionado na AWS ParallelCluster versão 2.10.1.

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `initial_queue_size`
<a name="configuration-initial-queue-size"></a>

**(Opcional)** Define o número inicial de instâncias do Amazon EC2 a serem executadas como nós de computação no cluster. Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser removida e substituída pelas configurações [`initial_count`](compute-resource-section.md#compute-resource-initial-count) nas [seções `[compute_resource]`](compute-resource-section.md).

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.

Essa configuração é aplicável apenas para programadores tradicionais (SGE, Slurm e Torque). Se a configuração [`maintain_initial_size`](#maintain-initial-size) for `true`, a configuração [`initial_queue_size`](#configuration-initial-queue-size) deverá ser pelo menos uma (1).

Se o programador for `awsbatch`, use [`min_vcpus`](#min-vcpus) em vez disso.

O padrão é `2`.

```
initial_queue_size = 2
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `key_name`
<a name="key-name"></a>

**(Opcional)** Nomeia um par de chaves do Amazon EC2 existente para habilitar o acesso SSH às instâncias.

```
key_name = mykey
```

**nota**  
Antes da AWS ParallelCluster versão 2.11.0, `key_name` era uma configuração obrigatória.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `maintain_initial_size`
<a name="maintain-initial-size"></a>

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.

**(Opcional)** Mantém o tamanho inicial do grupo do Auto Scaling para programadores tradicionais (SGE, Slurm, e Torque).

Se o programador for `awsbatch`, use [`desired_vcpus`](#desired-vcpus) em vez disso.

Essa configuração é um sinalizador booliano. Se definido como `true`, o grupo di Auto Scaling nunca terá menos membros do que o valor de [`initial_queue_size`](#configuration-initial-queue-size), e o valor de [`initial_queue_size`](#configuration-initial-queue-size) deve ser um (1) ou maior. O cluster ainda pode aumentar até o valor de [`max_queue_size`](#configuration-max-queue-size). Se `cluster_type = spot`, o grupo do Auto Scaling pode ter instâncias interrompidas, e o tamanho pode cair para menos de [`initial_queue_size`](#configuration-initial-queue-size).

Se for definido como `false`, o grupo do Auto Scaling poderá ser reduzido para zero (0) membros a fim de impedir que os recursos fiquem ociosos quando não forem necessários.

Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser removida e substituída pelas configurações [`initial_count`](compute-resource-section.md#compute-resource-initial-count) e [`min_count`](compute-resource-section.md#compute-resource-min-count) nas [seções `[compute_resource]`](compute-resource-section.md).

O padrão é `false`.

```
maintain_initial_size = false
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `master_instance_type`
<a name="master-instance-type"></a>

**(Opcional)** Define o tipo de instância do Amazon EC2 que é usado para o nó principal. A arquitetura do tipo de instância deve ser a mesma usada para a configuração [`compute_instance_type`](#compute-instance-type).

Se Regiões da AWS tiver um nível gratuito, o padrão é o tipo de instância de nível gratuito (`t2.micro`ou`t3.micro`). Se Regiões da AWS não tiver um nível gratuito, o padrão é. `t3.micro` Para obter mais informações sobre o nível AWS gratuito, consulte [Nível AWS gratuito FAQs](https://aws.amazon.com/free/free-tier-faqs/).

```
master_instance_type = t2.micro
```

**nota**  
Antes da AWS ParallelCluster versão 2.10.1, o padrão era in all. `t2.micro` Regiões da AWS Na AWS ParallelCluster versão 2.10.0, o `p4d.24xlarge` não tinha suporte para o nó principal. Support para instâncias AWS baseadas em Graviton (como `A1` e`C6g`) foi adicionado na AWS ParallelCluster versão 2.8.0.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `master_root_volume_size`
<a name="master-root-volume-size"></a>

**(Opcional)** Especifica o tamanho do volume raiz do nó principal em gibibytes (GiB). A AMI deve oferecer suporte para `growroot`.

O valor padrão é `35`.

**nota**  
Para AWS ParallelCluster versões entre 2.5.0 e 2.10.4, o padrão era 25. Antes da AWS ParallelCluster versão 2.5.0, o padrão era 20.

```
master_root_volume_size = 35
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `max_queue_size`
<a name="configuration-max-queue-size"></a>

**(Opcional)** Define o número máximo de instâncias do Amazon EC2 que podem ser executadas no cluster. Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser removida e substituída pelas configurações [`max_count`](compute-resource-section.md#compute-resource-max-count) nas [seções `[compute_resource]`](compute-resource-section.md).

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.

Essa configuração é aplicável apenas para programadores tradicionais (SGE, Slurm e Torque).

Se o programador for `awsbatch`, use [`max_vcpus`](#max-vcpus) em vez disso.

O padrão é `10`.

```
max_queue_size = 10
```

Política de atualização: essa configuração pode ser alterada durante uma atualização, mas a frota computacional deve ser interrompida se o valor for reduzido. Caso contrário, os nós existentes poderão ser encerrados.

## `max_vcpus`
<a name="max-vcpus"></a>

**(Opcional)** Especifica o número máximo de v CPUs no ambiente computacional. Usador apenas se o programador for `awsbatch`.

O valor padrão é `20`.

```
max_vcpus = 20
```

[Política de atualização: essa configuração não pode ser diminuída durante uma atualização.](using-pcluster-update.md#update-policy-no-decrease)

## `min_vcpus`
<a name="min-vcpus"></a>

**(Opcional)** Mantém o tamanho inicial do grupo do Auto Scaling para o programador `awsbatch`.

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.

Se o programador for SGE, Slurm ou Torque, use [`maintain_initial_size`](#maintain-initial-size) em vez disso.

O ambiente de computação nunca terá menos membros do que o valor de [`min_vcpus`](#min-vcpus).

O padrão é `0`.

```
min_vcpus = 0
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `placement`
<a name="placement"></a>

**(Opcional)** Define a lógica de grupo de posicionamento de cluster, permitindo que todo o cluster ou somente as instâncias de computação usem o grupo de posicionamento de cluster.

Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser removida e substituída pelas configurações [`placement_group`](queue-section.md#queue-placement-group) para cada uma das [seções de `[queue]`](queue-section.md). Se o mesmo grupo de posicionamento for usado para diferentes tipos de instância, é mais provável que a solicitação falhe devido a um erro de capacidade insuficiente. Para ter mais informações, consulte [Capacidade insuficiente da instância](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) no *Guia do usuário do Amazon EC2*. Várias filas só podem compartilhar um grupo de posicionamento se ele for criado com antecedência e configurado na configuração [`placement_group`](queue-section.md#queue-placement-group) de cada fila. Se cada [seção `[queue]`](queue-section.md) definir uma configuração [`placement_group`](queue-section.md#queue-placement-group), o nó principal não poderá estar no grupo de posicionamento de uma fila.

As opções válidas são `cluster` ou `compute`.

Esse parâmetro não é usado quando o programador for `awsbatch`.

O valor padrão é `compute`.

```
placement = compute
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `placement_group`
<a name="placement-group"></a>

**(Opcional)** Define o grupo de posicionamento de cluster. Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser removida e substituída pelas configurações [`placement_group`](queue-section.md#queue-placement-group) nas [seções `[queue]`](queue-section.md).

As opções válidas são as seguintes:
+ `DYNAMIC`
+ Um nome do grupo com posicionamento em cluster do Amazon EC2

Quando definido como `DYNAMIC`, um placement group exclusivo será criado e excluído como parte da pilha do cluster.

Esse parâmetro não é usado quando o programador for `awsbatch`.

Para ter mais informações sobre grupos de posicionamento, consulte [Grupos de posicionamento](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) no *Guia do usuário do Amazon EC2*. Se o mesmo grupo de posicionamento for usado para diferentes tipos de instância, é mais provável que a solicitação falhe devido a um erro de capacidade insuficiente. Para ter mais informações, consulte [Capacidade insuficiente da instância](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity) no *Guia do usuário do Amazon EC2*.

Não há valor padrão.

Nem todos os tipos de instância oferecem suporte para placement groups de cluster. Por exemplo, o tipo de instância padrão de `t3.micro` não oferece suporte para grupos de posicionamento de cluster. Para ter informações sobre a lista de tipos de instância que oferecem suporte a grupos de posicionamento de cluster, consulte as [regras e limitações para grupos de posicionamento de cluster](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster) no *Guia do usuário do Amazon EC2*. Consulte [Grupos de posicionamento e problemas de execução de instâncias](troubleshooting.md#placement-groups-and-instance-launch-issues) para obter dicas ao trabalhar com placement groups.

```
placement_group = DYNAMIC
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `post_install`
<a name="post-install"></a>

**(Opcional)** Especifica a URL de um script de pós-instalação que é executado após a conclusão de todas as ações de bootstrap do nó. Para obter mais informações, consulte [Ações de bootstrap personalizadas](pre_post_install.md).

Ao usar o `awsbatch` como o programador, o script de pós-instalação será executado somente no nó principal.

O formato do parâmetro pode ser `http://hostname/path/to/script.sh` ou `s3://bucket-name/path/to/script.sh`.

Não há valor padrão.

```
post_install = s3://<bucket-name>/my-post-install-script.sh
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `post_install_args`
<a name="post-install-args"></a>

**(Opcional)** Especifica uma lista de argumentos entre aspas a serem enviados ao script de pós-instalação.

Não há valor padrão.

```
post_install_args = "argument-1 argument-2"
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install`
<a name="pre-install"></a>

**(Opcional)** Especifica a URL de um script de pré-instalação que é executado antes do início de qualquer ação de bootstrap de implantação do nó. Para obter mais informações, consulte [Ações de bootstrap personalizadas](pre_post_install.md).

Ao usar o `awsbatch` como o programador, o script de pré-instalação será executado somente no nó principal.

O formato do parâmetro pode ser `http://hostname/path/to/script.sh` ou `s3://bucket-name/path/to/script.sh`.

Não há valor padrão.

```
pre_install = s3://bucket-name/my-pre-install-script.sh
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install_args`
<a name="pre-install-args"></a>

**(Opcional)** Especifica uma lista de argumentos entre aspas a serem enviados ao script de pré-instalação.

Não há valor padrão.

```
pre_install_args = "argument-3 argument-4"
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `proxy_server`
<a name="proxy-server"></a>

**(Opcional)** Define um servidor de proxy HTTP ou HTTPS, normalmente `http://x.x.x.x:8080`.

Não há valor padrão.

```
proxy_server = http://10.11.12.13:8080
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `queue_settings`
<a name="queue-settings"></a>

**(Opcional)** [Especifica que o cluster usa filas em vez de uma frota computacional homogênea e quais `[queue]` seções são usadas.](queue-section.md) A primeira [seção `[queue]`](queue-section.md) listada é a fila padrão do programador. Os nomes da seção `queue` deve começar com uma letra minúscula, conter no máximo 30 caracteres e conter apenas letras minúsculas, números e hifens (-).

**Importante**  
[`queue_settings`](#queue-settings) só é compatível quando [`scheduler`](#scheduler) está definido para `slurm`. As configurações [`cluster_type`](#cluster-type), [`compute_instance_type`](#compute-instance-type), [`initial_queue_size`](#configuration-initial-queue-size), [`maintain_initial_size`](#maintain-initial-size), [`max_queue_size`](#configuration-max-queue-size), [`placement`](#placement), [`placement_group`](#placement-group), e [`spot_price`](#spot-price) não devem ser especificadas. As configurações [`disable_hyperthreading`](#disable-hyperthreading) e [`enable_efa`](#enable-efa) podem ser especificadas na [seção `[cluster]`](#cluster-definition) ou nas [seções`[queue]`](queue-section.md), mas não em ambas.

São suportadas até cinco (5) [seções `[queue]`](queue-section.md).

Para obter mais informações, consulte a [seção `[queue]`](queue-section.md).

Por exemplo, a seguinte configuração especifica que as seções que começam com `[queue q1]` e `[queue q2]` são usados.

```
queue_settings = q1, q2
```

**nota**  
Support for [`queue_settings`](#queue-settings) adicionado na AWS ParallelCluster versão 2.9.0.

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update.md#update-policy-compute-fleet)

## `raid_settings`
<a name="raid-settings"></a>

**(Opcional)** Identifica a seção `[raid]` com a configuração de RAID de volume do Amazon EBS. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[raid]`](raid-section.md).

Por exemplo, a configuração a seguir especifica que a seção que começa com `[raid rs]` seja usada para a configuração do Auto Scaling.

```
raid_settings = rs
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `s3_read_resource`
<a name="s3-read-resource"></a>

**(Opcional)** Especifica um recurso do Amazon S3 ao AWS ParallelCluster qual os nós recebem acesso somente de leitura.

Por exemplo, `arn:aws:s3:::my_corporate_bucket*` fornece acesso somente de leitura ao *my\$1corporate\$1bucket* bucket e aos objetos no bucket.

Consulte [trabalhar com o Amazon S3](s3_resources.md) para obter detalhes sobre o formato.

Não há valor padrão.

```
s3_read_resource = arn:aws:s3:::my_corporate_bucket*
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `s3_read_write_resource`
<a name="s3-read-write-resource"></a>

**(Opcional)** Especifica um recurso do Amazon S3 ao AWS ParallelCluster qual os nós têm acesso read/write concedido.

Por exemplo, `arn:aws:s3:::my_corporate_bucket/Development/*` fornece read/write acesso a todos os objetos na `Development` pasta do *my\$1corporate\$1bucket* bucket.

Consulte [trabalhar com o Amazon S3](s3_resources.md) para obter detalhes sobre o formato.

Não há valor padrão.

```
s3_read_write_resource = arn:aws:s3:::my_corporate_bucket/*
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `scaling_settings`
<a name="scaling-settings"></a>

Identifica a seção `[scaling]` com a configuração do Auto Scaling. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[scaling]`](scaling-section.md).

Por exemplo, a configuração a seguir especifica que a seção que começa com `[scaling custom]` seja usada para a configuração do Auto Scaling.

```
scaling_settings = custom
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `scheduler`
<a name="scheduler"></a>

**(Obrigatório)** Define o programador do cluster.

As opções válidas são as seguintes:

`awsbatch`  
AWS Batch  
Para obter mais informações sobre o programador `awsbatch`, consulte [configuração de redes](networking.md#awsbatch-networking) e [AWS Batch (`awsbatch`)](awsbatchcli.md).

`sge`  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.
Son of Grid Engine (SGE)

`slurm`  
Slurm Workload Manager (Slurm)

`torque`  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.
Torque Resource Manager (Torque)

**nota**  
Antes da AWS ParallelCluster versão 2.7.0, o `scheduler` parâmetro era opcional e o padrão era. `sge` A partir da AWS ParallelCluster versão 2.7.0, o `scheduler` parâmetro é obrigatório.

```
scheduler = slurm
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="cluster-shared-dir"></a>

**(Opcional)** Define o caminho onde o volume compartilhado do Amazon EBS é montado.

Não use esta opção com vários volumes do Amazon EBS. Em vez disso, forneça valores de [`shared_dir`](#cluster-shared-dir) em cada [seção `[ebs]`](ebs-section.md).

Consulte a [seção `[ebs]`](ebs-section.md) para obter detalhes sobre como trabalhar com vários volumes do Amazon EBS.

O valor padrão é `/shared`.

O exemplo a seguir mostra um volume compartilhado do Amazon EBS montado em `/myshared`.

```
shared_dir = myshared
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

## `spot_bid_percentage`
<a name="spot-bid-percentage"></a>

**(Opcional)** Define a porcentagem sob demanda usada para calcular o preço spot máximo para o ComputeFleet, quando `awsbatch` é o programador.

Se não for especificado, o preço de mercado spot atual será selecionado, limitado ao preço sob demanda.

```
spot_bid_percentage = 85
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `spot_price`
<a name="spot-price"></a>

**nota**  
A partir da versão 2.11.5, AWS ParallelCluster não oferece suporte ao uso de agendadores SGE ou Torque agendadores.

**(Opcional)** Define o preço spot máximo para ComputeFleet os programadores tradicionais (SGE,Slurm, eTorque). Usado somente quando a configuração [`cluster_type`](#cluster-type) está definida como `spot`. Se você não especificar um valor, será cobrado o preço spot, limitado ao preço sob demanda. Se a configuração [`queue_settings`](#queue-settings) estiver definida, essa configuração deverá ser removida e substituída pelas configurações [`spot_price`](compute-resource-section.md#compute-resource-spot-price) nas [seções `[compute_resource]`](compute-resource-section.md).

Se o programador for `awsbatch`, use [spot\$1bid\$1percentage](#spot-bid-percentage) em vez disso.

Para obter ajuda para encontrar uma instância spot que atenda às suas necessidades, consulte o [Spot Instance Advisor](https://aws.amazon.com/ec2/spot/instance-advisor/).

```
spot_price = 1.50
```

**nota**  
Na AWS ParallelCluster versão 2.5.0, se for especificada, `cluster_type = spot` mas [`spot_price`](#spot-price) não for especificada, a instância será iniciada em caso de ComputeFleet falha. Isso foi corrigido na AWS ParallelCluster versão 2.5.1.

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update.md#update-policy-setting-supported)

## `tags`
<a name="tags"></a>

**(Opcional)** Define as tags a serem usadas por CloudFormation.

Se as tags da linha de comando estiverem especificadas por *--tags*, elas são mescladas com as tags de configuração.

As tags da linha de comando substituem as tags de configuração que têm a mesma chave.

As tags são formatadas por JSON. Não use aspas fora das chaves.

Para obter mais informações, consulte [tipos de tags de recurso do CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) no *Guia de usuário do AWS CloudFormation *.

```
tags = {"key" : "value", "key2" : "value2"}
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)

**nota**  
A política de atualização não suportou a alteração da configuração `tags` para AWS ParallelCluster versão 2.8.0 até a versão 2.9.1.  
Para as versões 2.10.0 até a versão 2.11.7, a política de atualização listada que suportava a alteração da configuração `tags` não é precisa. Não há suporte para uma atualização de cluster ao modificar essa configuração.

## `template_url`
<a name="template-url"></a>

**(Opcional)** Define o caminho para o AWS CloudFormation modelo usado para criar o cluster.

Atualiza o uso do modelo que foi usado originalmente para criar a pilha.

O padrão é `https://aws_region_name-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version.cfn.json`.

**Atenção**  
Este é um parâmetro avançado. Qualquer alteração nessa configuração é feita por sua conta e risco.

```
template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json
```

[Política de atualização: essa configuração não é analisada durante uma atualização.](using-pcluster-update.md#update-policy-setting-ignored)

## `vpc_settings`
<a name="vpc-settings"></a>

**(Obrigatório)** Identifica a seção `[vpc]` com a configuração da Amazon VPC na qual o cluster é implantado. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (\$1).

Para obter mais informações, consulte a [seção `[vpc]`](vpc-section.md).

Por exemplo, a configuração a seguir especifica que a seção que começa com `[vpc public]` é usada para a configuração do Amazon VPC.

```
vpc_settings = public
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update.md#update-policy-fail)