

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Arquivo de configuração do cluster
<a name="cluster-configuration-file-v3"></a>

AWS ParallelCluster a versão 3 usa arquivos de configuração separados para controlar a definição da infraestrutura de cluster e a definição de personalização AMIs. Todos os arquivos de configuração usam arquivos YAML 1.1. As informações detalhadas de cada um desses arquivos de configuração estão vinculadas abaixo. Para alguns exemplos de configurações, consulte [https://github.com/aws/aws- parallelcluster/tree/release-3.0/cli/tests/pcluster/example \$1configs](https://github.com/aws/aws-parallelcluster/tree/release-3.0/cli/tests/pcluster/example_configs).

Esses objetos são usados para a configuração do cluster da AWS ParallelCluster versão 3.

**Topics**
+ [Propriedades do arquivo de configuração do cluster](#cluster-configuration-file-v3.properties)
+ [Seção `Imds`](Imds-cluster-v3.md)
+ [Seção `Image`](Image-v3.md)
+ [Seção `HeadNode`](HeadNode-v3.md)
+ [Seção `Scheduling`](Scheduling-v3.md)
+ [Seção `SharedStorage`](SharedStorage-v3.md)
+ [Seção `Iam`](Iam-v3.md)
+ [Seção `LoginNodes`](LoginNodes-v3.md)
+ [Seção `Monitoring`](Monitoring-v3.md)
+ [Seção `Tags`](Tags-v3.md)
+ [Seção `AdditionalPackages`](AdditionalPackages-v3.md)
+ [Seção `DirectoryService`](DirectoryService-v3.md)
+ [Seção `DeploymentSettings`](DeploymentSettings-cluster-v3.md)

## Propriedades do arquivo de configuração do cluster
<a name="cluster-configuration-file-v3.properties"></a>

`Region` (**Opcional**, `String`)  
Especifica o Região da AWS para o cluster. Por exemplo, .`us-east-2`  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomS3Bucket` (**Opcional**, `String`)  
Especifica o nome de um bucket do Amazon S3 criado em AWS sua conta para armazenar recursos que são usados por seus clusters, como o arquivo de configuração do cluster, e para exportar registros. AWS ParallelCluster mantém um bucket do Amazon S3 em cada AWS região na qual você cria clusters. Por padrão, esses buckets do Amazon S3 são denominados `parallelcluster-hash-v1-DO-NOT-DELETE`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida. Se você forçar a atualização, o novo valor será ignorado e o valor antigo será usado.](using-pcluster-update-cluster-v3.md#update-policy-read-only-resource-bucket-v3)

`AdditionalResources` (**Opcional**, `String`)  
Define um AWS CloudFormation modelo adicional a ser executado junto com o cluster. Esse modelo adicional é usado para a criação de recursos que existem fora do cluster, mas que fazem parte do ciclo de vida do cluster.  
Esse valor deve ser um URL HTTPS para um modelo público, com todos os parâmetros fornecidos.  
Não há valor padrão.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

# Seção `Imds`
<a name="Imds-cluster-v3"></a>

**(Opcional)** Especifica a configuração do serviço de metadados da instância global (IMDS).

```
Imds:
  ImdsSupport: string
```

## Propriedades do `Imds`
<a name="Imds-cluster-v3.properties"></a>

`ImdsSupport` (**Opcional**, `String`)  
Especifica quais versões do IMDS são suportadas nos nós do cluster. Os valores compatíveis são `v1.0` e `v2.0`. O valor padrão é `v2.0`.  
Se `ImdsSupport` estiver definido como`v1.0`, ambos IMDSv1 IMDSv2 são suportados.  
Se `ImdsSupport` estiver definido como`v2.0`, somente IMDSv2 é suportado.  
Para obter mais informações, consulte [Use IMDSv2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html) no *Guia do usuário do Amazon EC2 para instâncias Linux.*  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
A partir da AWS ParallelCluster versão 3.7.0, o valor `ImdsSupport` padrão é. `v2.0` Recomendamos que você `ImdsSupport` defina `v2.0` e IMDSv1 substitua por IMDSv2 em suas chamadas de ações personalizadas.  
O suporte para [`Imds`](#Imds-cluster-v3)/foi [`ImdsSupport`](#yaml-cluster-Imds-ImdsSupport)adicionado com a AWS ParallelCluster versão 3.3.0.

# Seção `Image`
<a name="Image-v3"></a>

**nota**  
Versões não suportadas do oficial AMIs distribuído por AWS ParallelCluster ficarão indisponíveis após 18 meses de inatividade. Essas imagens antigas contêm software desatualizado e não podem receber suporte em caso de problemas. É altamente recomendável migrar para a versão mais recente compatível.

**(Obrigatório)** Define o sistema operacional do cluster.

```
Image:
  Os: string
  CustomAmi: string
```

## Propriedades do `Image`
<a name="Image-v3.properties"></a>

`Os` (**Obrigatório**, `String`)  
Especifica o sistema operacional a ser usado para o cluster. Os valores compatíveis são `alinux2`, `alinux2023`, `ubuntu2404`, `ubuntu2204`, `rhel8`, `rocky8`, `rhel9` e `rocky9`.  
RedHat O Enterprise Linux 8.7 (`rhel8`) é adicionado a partir da AWS ParallelCluster versão 3.6.0.  
Se você configurar seu cluster para usar `rhel`, o custo sob demanda para qualquer tipo de instância será maior do que quando você configura seu cluster para usar outros sistemas operacionais compatíveis. Para obter mais informações sobre preços, consulte [Preços sob demanda](https://aws.amazon.com/ec2/pricing/on-demand) e [Como o Red Hat Enterprise Linux no Amazon EC2 é oferecido e definido seu preço?](https://aws.amazon.com/partners/redhat/faqs/#Pricing_and_Billing).  
RedHat O Enterprise Linux 9 (rhel9) é adicionado a partir da AWS ParallelCluster versão 3.9.0.
Todas as regiões AWS comerciais oferecem suporte a todos os sistemas operacionais a seguir.      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/parallelcluster/latest/ug/Image-v3.html)
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 AWS ParallelCluster O 3.8.0 suporta o Rocky Linux 8, mas o Rocky Linux 8 pré-construído AMIs (para arquiteturas x86 e ARM) não está disponível. AWS ParallelCluster 3.8.0 suporta a criação de clusters com o Rocky Linux 8 usando customização. AMIs Para obter mais informações, consulte[Considerações sobre sistemas operacionais](operating-systems-v3.md#OS-Consideration-v3). AWS ParallelCluster O 3.9.0 suporta o Rocky Linux 9, mas o Rocky Linux 9 pré-construído AMIs (para arquiteturas x86 e ARM) não está disponível. AWS ParallelCluster O 3.9.0 suporta a criação de clusters com o Rocky Linux 9 usando customização. AMIs Para ter mais informações, consulte [Operating System Considerations](operating-systems-v3.md#OS-Consideration-v3).   
 

`CustomAmi` (**Opcional**, `String`)  
Especifica o ID de uma AMI personalizada a ser usada para os nós principal e de computação em vez da AMI padrão. Para obter mais informações, consulte [AWS ParallelCluster Personalização da AMI](custom-ami-v3.md).  
Se a AMI personalizada exigir permissões adicionais para seu lançamento, essas permissões deverão ser adicionadas às políticas do usuário e do nó principal.  
Por exemplo, se uma AMI personalizada tiver um snapshot criptografado associado a ela, as seguintes políticas adicionais serão necessárias nas políticas do usuário e do nó principal:    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Para criar uma AMI personalizada do RedHat Enterprise Linux, você deve configurar o sistema operacional para instalar os pacotes fornecidos pelos repositórios RHUI (AWS):`rhel-<version>-baseos-rhui-rpms`, e. `rhel-<version>-appstream-rhui-rpms` `codeready-builder-for-rhel-<version>-rhui-rpms` Além disso, os repositórios na AMI personalizada devem conter pacotes `kernel-devel` na mesma versão da versão do kernel em execução.  

**Limitações conhecidas:**
+ Somente o RHEL 8.2 e versões posteriores oferecem suporte ao FSx Lustre.
+ A versão 4.18.0-425.3.1.el8 do kernel RHEL 8.7 não suporta o Lustre. FSx 
+ Somente o RHEL 8.4 e versões posteriores oferecem suporte a EFA.
+ AL23 não oferece suporte ao NICE DCV, pois não inclui um ambiente gráfico de desktop, necessário para executar o NICE DCV. Para ter mais informações, consulte a [documentação oficial do NICE DCV](https://docs.aws.amazon.com//dcv/).
Para solucionar problemas de avisos de validação da AMI personalizada, consulte [Solução de problemas de AMI personalizada](troubleshooting-v3-custom-amis.md).  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Seção `HeadNode`
<a name="HeadNode-v3"></a>

**(Obrigatório)** Especifica a configuração do nó principal.

```
HeadNode:
  InstanceType: string
  Networking:
    SubnetId: string
    ElasticIp: string/boolean
    SecurityGroups:
      - string
    AdditionalSecurityGroups:
      - string
    Proxy:
      HttpProxyAddress: string
  DisableSimultaneousMultithreading: boolean
  Ssh:
    KeyName: string
    AllowedIps: string
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
      DeleteOnTermination: boolean
    EphemeralVolume:
      MountDir: string
  SharedStorageType: string
  Dcv:
    Enabled: boolean
    Port: integer
    AllowedIps: string
  CustomActions:
    OnNodeStart:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeConfigured:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeUpdated:
      Sequence:
        - Script: string
          Args: 
            - string
      Script: string
      Args:
        - string
  Iam:
    InstanceRole: string
    InstanceProfile: string
    S3Access:
      - BucketName: string
        EnableWriteAccess: boolean
        KeyName: string
    AdditionalIamPolicies:
      - Policy: string
  Imds:
    Secured: boolean
  Image:
    CustomAmi: string
```

## Propriedades do `HeadNode`
<a name="HeadNode-v3.properties"></a>

`InstanceType`(**Obrigatório**,`String`)  
Especifica o tipo de instância do nó principal.  
Especifica o tipo de instância do Amazon EC2 que é usado para o nó principal. A arquitetura do tipo de instância deve ser a mesma usada para a Slurm [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)configuração AWS Batch [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-AwsBatchQueues-ComputeResources-InstanceTypes)ou.  
AWS ParallelCluster não é compatível com os seguintes tipos de instância para a `HeadNode` configuração.  
+ hpc6id
Se você definir um tipo de instância p4d ou outro tipo de instância que tenha várias interfaces de rede ou uma placa de interface de rede, deverá configurar [`ElasticIp`](#yaml-HeadNode-Networking-ElasticIp)`true`para fornecer acesso público. AWS public só IPs pode ser atribuído a instâncias iniciadas com uma única interface de rede. Nesse caso, recomendamos que você use um [gateway NAT](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html) para fornecer acesso público aos nós de computação do cluster. Para obter mais informações, consulte [Atribuir um IPv4 endereço público durante a execução da instância](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) no *Guia do usuário do Amazon EC2 para instâncias Linux.*  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DisableSimultaneousMultithreading` (**Opcional**, `Boolean`)  
Se`true`, desativa o hyper-threading no nó principal. O valor padrão é `false`.  
Nem todos os tipos de instância podem desativar o hyper-threading. Para obter uma lista de tipos de instância que suportam a desativação do hyperthreading, consulte [Núcleos e threads de CPU para cada núcleo de CPU por tipo de instância](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) no Guia do usuário do *Amazon* EC2.   
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SharedStorageType` (**Opcional**, `String`)  
Especifica o tipo de armazenamento usado para dados compartilhados internamente. Os dados compartilhados internamente incluem dados AWS ParallelCluster usados para gerenciar o cluster e os compartilhados padrão, `/home` se não forem especificados no diretório [Seção `SharedStorage`](SharedStorage-v3.md) as a Mount, para montar um volume compartilhado do sistema de arquivos. Para conferir mais detalhes sobre dados compartilhados internos, consulte [AWS ParallelCluster diretórios internos](directories-v3.md).  
Se for `Ebs`, que é o tipo de armazenamento padrão, o nó principal exportará partes de seu volume raiz como diretórios compartilhados para nós de computação e nós de login usando NFS.  
Se`Efs`, ParallelCluster criará um sistema de arquivos EFS para usar para dados internos compartilhados e. `/home`  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Quando o cluster aumenta a escala horizontalmente, o tipo de armazenamento EBS pode apresentar gargalos de desempenho, pois o nó principal compartilha dados do volume raiz com os nós de computação usando exportações NFS. Usando o EFS, você pode evitar exportações de NFS à medida que seu cluster aumentar a escala horizontalmente e evitar gargalos de desempenho associados a elas. É recomendável escolher o EBS para obter o máximo read/write potencial para arquivos pequenos e processo de instalação. Escolha EFS para escalar.

## `Networking`
<a name="HeadNode-v3-Networking"></a>

**(Obrigatório)** Define a configuração de rede para o nó principal.

```
Networking:
  SubnetId: string
  ElasticIp: string/boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  Proxy:
    HttpProxyAddress: string
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriedades do `Networking`
<a name="HeadNode-v3-Networking.properties"></a>

`SubnetId` (**Obrigatório**, `String`)  
Especifica o ID de uma sub-rede existente na qual o servidor provisiona o nó principal.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ElasticIp` (**Opcional**, `String`)  
Cria ou atribui um endereço IP elástico ao nó principal. Os valores suportados são `true`, `false` ou o ID de um endereço IP elástico existente. O padrão é `false`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SecurityGroups` (**Opcional**, `[String]`)  
Lista de IDs de grupos de segurança do Amazon VPC a serem usados no nó principal. Eles substituem os grupos de segurança AWS ParallelCluster criados se essa propriedade não for incluída.  
Verifique se os grupos de segurança estão configurados corretamente para seus [SharedStorage](SharedStorage-v3.md)sistemas.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AdditionalSecurityGroups` (**Opcional**, `[String]`)  
Lista de IDs adicionais de grupos de segurança do Amazon VPC para usar no nó principal.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Proxy`(**Opcional**)  
Especifica as configurações de proxy para o nó principal.  

```
Proxy:
                            HttpProxyAddress: 
                            string
```  
` HttpProxyAddress` (**Opcional**, `String`)  
Define um servidor de proxy HTTP ou HTTPS, normalmente `https://x.x.x.x:8080`.  
Não há valor padrão.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Ssh`
<a name="HeadNode-v3-Ssh"></a>

**(Opcional)** Define a configuração para acesso SSH ao nó principal.

```
Ssh:
      KeyName: string
      AllowedIps: string
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### Propriedades do `Ssh`
<a name="HeadNode-v3-Ssh.properties"></a>

`KeyName`(**Opcional**,`String`)  
Nomeia um par de chaves existente do Amazon EC2 para habilitar o acesso SSH ao nó principal.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps` (**Opcional**, `String`)  
Especifica o intervalo de IP em formato CIDR ou um ID de lista de prefixos para conexões SSH com o nó principal. O padrão é `0.0.0.0/0`.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `LocalStorage`
<a name="HeadNode-v3-LocalStorage"></a>

**(Opcional)** Define a configuração de armazenamento local para o nó principal.

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
    DeleteOnTermination: boolean
  EphemeralVolume:
    MountDir: string
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriedades do `LocalStorage`
<a name="HeadNode-v3-LocalStorage.properties"></a>

`RootVolume`(**Obrigatório**)  
Especifica o armazenamento do volume raiz para o nó principal.  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
  DeleteOnTermination: boolean
```
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Size` (**Opcional**, `Integer`)  
Especifica o tamanho do volume raiz do nó principal em gibibytes (GiB). O tamanho padrão vem da AMI. Usar um tamanho diferente exige que AMI seja compatível com `growroot`.   
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Encrypted` (**Opcional**, `Boolean`)  
Especifica se o volume raiz está criptografado. O valor padrão é `true`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
` VolumeType` (**Opcional**, `String`)  
Especifica o tipo de [volume do Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html). Os valores compatíveis são `gp2`, `gp3`, `io1`, `io2`, `sc1`, `st1` e `standard`. O valor padrão é `gp3`.  
Para obter mais informações, consulte [Tipos de volume do Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) no *Guia do usuário do Amazon EC2*.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Iops` (**Opcional**, `Integer`)  
Define o número de IOPS para os volumes do tipo `io1`, `io2` e `gp3`.  
O valor padrão, os valores suportados e a proporção do `volume_iops` para `volume_size` variam de acordo com `VolumeType` e `Size`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`VolumeType` = `io1`  
Padrão `Iops` = 100  
Valores suportados `Iops` = 100–64000 †  
Proporção máxima de `Iops` para `Size` = 50 IOPS por GiB. 5000 IOPS exigem um `Size` de pelo menos 100 GiB.  
`VolumeType` = `io2`  
Padrão `Iops` = 100  
Valores suportados `Iops` = 100–64000 (256000 para volumes do `io2` Block Express) †  
Proporção máxima de `Iops` para `Size` = 500 IOPS por GiB. 5000 IOPS exigem um `Size` de pelo menos 10 GiB.  
`VolumeType` = `gp3`  
Padrão `Iops` = 3000  
Valores suportados `Iops` = 3000–16000  
Proporção máxima de `Iops` para `Size` = 500 IOPS por GiB. 5000 IOPS exigem um `Size` de pelo menos 10 GiB.
† O máximo de IOPS é garantido somente em [instâncias criadas no sistema Nitro](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) provisionadas com mais de 32.000 IOPS. Outras instâncias garantem até 32.000 IOPS. `io1`Volumes mais antigos podem não atingir o desempenho total, a menos que você [modifique o volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html). `io2` Os volumes do Block Express oferecem suporte a valores `Iops` de até 256000 em tipos de instância `R5b`. Para ter mais informações, consulte [`io2` Block Express volumes](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) no *Guia do usuário do Amazon EC2*.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Throughput` (**Opcional**, `Integer`)  
Define o throughput para tipos de volume `gp3`, em MiB/s. Isso é válido somente quando `VolumeType` é `gp3`. O valor padrão é `125`. Valores suportados: 125–1000 MiB/s  
A proporção de `Throughput` para `Iops` não pode ser superior a 0,25. A taxa de transferência máxima de 1000 MiB/s exige que a `Iops` configuração seja de pelo menos 4000.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 `DeleteOnTermination` (**Opcional**, `Boolean`)  
Especifica se o volume raiz deve ser excluído quando o nó principal é encerrado. O valor padrão é `true`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EphemeralVolume` (**opcional**)  
Especifica os detalhes de qualquer volume de armazenamento de instâncias. Para obter mais informações, consulte [Volumes de armazenamento de instâncias](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes) no Guia do *usuário do Amazon EC2*.  

```
EphemeralVolume:
  MountDir: string
```
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
 `MountDir` (**Opcional**, `String`)  
Especifica o diretório de montagem para o volume de armazenamento da instância. O padrão é `/scratch`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Dcv`
<a name="HeadNode-v3-Dcv"></a>

**(Opcional)** Define as configurações do servidor Amazon DCV que é executado no nó principal.

Para obter mais informações, consulte [Conectar-se aos nós principais e de login por meio do Amazon DCV](dcv-v3.md).

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```

**Importante**  
Por padrão, a porta Amazon DCV configurada por AWS ParallelCluster está aberta a todos os IPv4 endereços. Contudo, a conexão a uma porta do Amazon DCV só será possível se você tiver o URL da sessão Amazon DCV e se conectar à sessão Amazon DCV dentro de 30 segundos após o retorno do URL pelo `pcluster dcv-connect`. Use a configuração `AllowedIps` para restringir ainda mais o acesso à porta do Amazon DCV com um intervalo IP no formato CIDR e use a configuração `Port` para definir uma porta alternativa.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriedades do `Dcv`
<a name="HeadNode-v3-Dcv.properties"></a>

`Enabled`(**Obrigatório**,`Boolean`)  
Especifica se o Amazon DCV está habilitado no nó principal. O valor padrão é `false`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
O Amazon DCV gera automaticamente um certificado autoassinado que é usado para proteger o tráfego entre o cliente Amazon DCV e o servidor Amazon DCV executado no nó principal. Para configurar seu próprio certificado, consulte [Certificado HTTPS do Amazon DCV](dcv-v3.md#dcv-v3-certificate).

`Port`(**Opcional**,`Integer`)  
Especifica a porta para o Amazon DCV. O valor padrão é `8443`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps` (**Opcional, Recomendado**, `String`)  
Especifica o intervalo de IP formatado em CIDR para conexões com o Amazon DCV. Essa configuração é usada somente ao AWS ParallelCluster criar o grupo de segurança. O valor padrão é `0.0.0.0/0` e permite o acesso a partir de qualquer endereço de Internet.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `CustomActions`
<a name="HeadNode-v3-CustomActions"></a>

**(Opcional)** Especifica scripts personalizados para execução no nó principal.

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args: 
      - string
```

### Propriedades do `CustomActions`
<a name="HeadNode-v3-CustomActions.properties"></a>

`OnNodeStart` (**opcional**)  
Especifica um único script ou uma sequência de scripts a serem executados no nó principal antes que qualquer ação de bootstrap de implantação do nó seja iniciada. Para obter mais informações, consulte [Ações de bootstrap personalizadas](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opcional**)  
Lista de scripts a serem executados. AWS ParallelCluster executa os scripts na mesma ordem em que estão listados no arquivo de configuração, começando com o primeiro.    
 `Script` (**Obrigatório**, `String`)  
Especifica o arquivo a ser usado. O caminho do arquivo pode começar com `https://` ou `s3://`.  
 `Args` (**Opcional**, `[String]`)  
Lista de argumentos a serem transmitidos para o script.  
 `Script` (**Obrigatório**, `String`)  
Especifica o arquivo a ser usado para um único script. O caminho do arquivo pode começar com `https://` ou `s3://`.  
`Args` (**Opcional**, `[String]`)  
Lista de argumentos a serem transmitidos para o script.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeConfigured` (**opcional**)  
Especifica um único script ou uma sequência de scripts a serem executados no nó principal após a conclusão das ações de bootstrap do nó. Para obter mais informações, consulte [Ações de bootstrap personalizadas](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opcional**)  
Especifica a lista de scripts a serem executados.    
 `Script` (**Obrigatório**, `String`)  
Especifica o arquivo a ser usado. O caminho do arquivo pode começar com `https://` ou `s3://`.  
 `Args` (**Opcional**, `[String]`)  
Lista de argumentos a serem transmitidos para o script.  
 `Script` (**Obrigatório**, `String`)  
Especifica o arquivo a ser usado para um único script. O caminho do arquivo pode começar com `https://` ou `s3://`.  
 `Args` (**Opcional**, `[String]`)  
Lista de argumentos a serem transmitidos para o script.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeUpdated` (**opcional**)  
Especifica um único script ou uma sequência de scripts a serem executados no nó principal após a conclusão das ações de atualização do nó. Para obter mais informações, consulte [Ações de bootstrap personalizadas](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opcional**)  
Especifica a lista de scripts a serem executados.    
 `Script` (**Obrigatório**, `String`)  
Especifica o arquivo a ser usado. O caminho do arquivo pode começar com `https://` ou `s3://`.  
 `Args` (**Opcional**, `[String]`)  
Lista de argumentos a serem transmitidos para o script.  
 `Script` (**Obrigatório**, `String`)  
Especifica o arquivo a ser usado para um único script. O caminho do arquivo pode começar com `https://` ou `s3://`.  
 `Args` (**Opcional**, `[String]`)  
Lista de argumentos a serem transmitidos para o script.
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`OnNodeUpdated`é adicionado a partir de AWS ParallelCluster 3.4.0.  
`Sequence`é adicionado a partir da AWS ParallelCluster versão 3.6.0. Ao especificar`Sequence`, você pode listar vários scripts para uma ação personalizada. AWS ParallelCluster continua oferecendo suporte à configuração de uma ação personalizada com um único script, sem incluir`Sequence`.  
AWS ParallelCluster não suporta a inclusão de um único script e `Sequence` da mesma ação personalizada.

## `Iam`
<a name="HeadNode-v3-Iam"></a>

**(Opcional)** Especifica uma função de instância ou um perfil de instância a ser usado no nó principal para substituir a função de instância padrão ou o perfil de instância do cluster.

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### Propriedades do `Iam`
<a name="HeadNode-v3-Iam.properties"></a>

`InstanceProfile` (**Opcional**, `String`)  
Especifica um perfil de instância para substituir o perfil padrão da instância do nó principal. Não é possível especificar ambos `InstanceProfile` e `InstanceRole`. O formato é `arn:Partition:iam::Account:instance-profile/InstanceProfileName`.  
Se isso for especificado, as configurações `S3Access` e `AdditionalIamPolicies` não poderão ser especificadas.  
Recomendamos que você especifique uma ou ambas configurações `S3Access` e `AdditionalIamPolicies`, pois os recursos adicionados ao AWS ParallelCluster geralmente exigem novas permissões.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`InstanceRole` (**Opcional**, `String`)  
Especifica uma função de instância para substituir o a função padrão da instância do nó principal. Não é possível especificar ambos `InstanceProfile` e `InstanceRole`. O formato é `arn:Partition:iam::Account:role/RoleName`.  
Se isso for especificado, as configurações `S3Access` e `AdditionalIamPolicies` não poderão ser especificadas.  
Recomendamos que você especifique uma ou ambas configurações `S3Access` e `AdditionalIamPolicies`, pois os recursos adicionados ao AWS ParallelCluster geralmente exigem novas permissões.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `S3Access`
<a name="HeadNode-v3-Iam-S3Access.properties"></a>

`S3Access` (**opcional**)  
Especifica um bucket. Isso é usado para gerar políticas para conceder o acesso especificado ao bucket.  
Se isso for especificado, as configurações `InstanceProfile` e `InstanceRole` não poderão ser especificadas.  
Recomendamos que você especifique uma ou ambas configurações `S3Access` e `AdditionalIamPolicies`, pois os recursos adicionados ao AWS ParallelCluster geralmente exigem novas permissões.  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`BucketName` (**Obrigatório**, `String`)  
O nome do bucket do .  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`KeyName` (**Opcional**, `String`)  
A chave para o bucket. O valor padrão é "`*`".  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
` EnableWriteAccess` (**Opcional**, `Boolean`)  
Indica se o acesso de gravação está habilitado para o bucket. O valor padrão é `false`.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `AdditionalIamPolicies`
<a name="HeadNode-v3-Iam-AdditionalIamPolicies.properties"></a>

`AdditionalIamPolicies` (**opcional**)  
Especifica uma lista de nomes de recursos da Amazon (ARNs) de políticas do IAM para o Amazon EC2. Essa lista é anexada à função raiz usada para o nó principal, além das permissões exigidas pelo AWS ParallelCluster.  
O nome da política do IAM e seu ARN são diferentes. Os nomes não podem ser usados.  
Se isso for especificado, as configurações `InstanceProfile` e `InstanceRole` não poderão ser especificadas.  
Recomendamos usar `AdditionalIamPolicies` porque `AdditionalIamPolicies` são adicionadas às permissões exigidas pelo AWS ParallelCluster , e `InstanceRole` deve incluir todas as permissões necessárias. As permissões necessárias muitas vezes são alteradas entre as versões à medida que recursos são adicionados.  
Não há valor padrão.  

```
AdditionalIamPolicies:
  - Policy: string
```
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
` Policy` (**Opcional**, `[String]`)  
Lista de políticas do IAM.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Imds`
<a name="HeadNode-v3-Imds"></a>

**(Opcional)** Especifica as propriedades do serviço de metadados da instância (IMDS). Para obter mais informações, consulte [Como funciona o serviço de metadados de instância versão 2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html#instance-metadata-v2-how-it-works) no Guia do usuário do *Amazon EC2*.

```
Imds:
    Secured: boolean
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriedades do `Imds`
<a name="HeadNode-v3-Imds.properties"></a>

`Secured` (**Opcional**, `Boolean`)  
Se `true`, restringe o acesso ao IMDS do nó principal (e às credenciais do perfil da instância) a um subconjunto de superusuários.  
Se `false`, cada usuário no nó principal tem acesso ao IMDS do nó principal.  

Os seguintes usuários têm permissão para acessar o IMDS do nó principal:
+ usuário-raiz
+ usuário administrativo do cluster (`pc-cluster-admin` por padrão)
+ usuário padrão específico do sistema operacional (`ec2-user`no Amazon Linux 2 e RedHat, e `ubuntu` no Ubuntu 18.04).
O padrão é `true`.  
Os `default` usuários são responsáveis por garantir que um cluster tenha as permissões necessárias para interagir com AWS os recursos. Se você desabilitar `default` o acesso do usuário ao IMDS, não AWS ParallelCluster conseguirá gerenciar os nós de computação e deixará de funcionar. Não desative o acesso do usuário `default` ao IMDS.  
Quando um usuário recebe acesso ao IMDS do nó principal, ele pode usar as permissões incluídas no [perfil da instância do nó principal](iam-roles-in-parallelcluster-v3.md). Por exemplo, eles podem usar essas permissões para iniciar instâncias do Amazon EC2 ou para ler a senha de um domínio do AD que o cluster está configurado para usar para autenticação.  
Para restringir o acesso ao IMDS, AWS ParallelCluster gerencia uma cadeia de`iptables`.  
Os usuários do cluster com acesso `sudo` podem ativar ou desativar seletivamente o acesso ao IMDS do nó principal para outros usuários individuais, incluindo usuários `default`, executando o comando:  

```
$ sudo /opt/parallelcluster/scripts/imds/imds-access.sh --allow <USERNAME>
```
Você pode desativar o acesso do usuário ao IMDS com a opção `--deny` desse comando.  
Se você desabilitar inadvertidamente o acesso do usuário `default` ao IMDS, poderá restaurar a permissão usando a opção `--allow`.  
Qualquer personalização de regras `iptables` ou `ip6tables` pode interferir no mecanismo usado para restringir o acesso ao IMDS no nó principal.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Image`
<a name="HeadNode-v3-Image"></a>

**(Opcional)** Define uma imagem personalizada para o nó principal.

```
Image:
     CustomAmi: string
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriedades do `Image`
<a name="HeadNode-v3-Image.properties"></a>

`CustomAmi` (**Opcional**, `String`)  
Especifica o ID de uma AMI personalizada a ser usada para o nó principal em vez da AMI padrão. Para obter mais informações, consulte [AWS ParallelCluster Personalização da AMI](custom-ami-v3.md).  
Se a AMI personalizada exigir permissões adicionais para seu lançamento, essas permissões deverão ser adicionadas às políticas do usuário e do nó principal.  
Por exemplo, se uma AMI personalizada tiver um snapshot criptografado associado a ela, as seguintes políticas adicionais serão necessárias nas políticas do usuário e do nó principal:    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Para solucionar problemas de avisos de validação da AMI personalizada, consulte [Solução de problemas de AMI personalizada](troubleshooting-v3-custom-amis.md).  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Seção `Scheduling`
<a name="Scheduling-v3"></a>

**(Obrigatório)** Define o programador de trabalhos usado no cluster e as instâncias de computação que o programador de trabalhos gerencia. Você pode usar o AWS Batch agendador Slurm ou. Cada um oferece suporte a um conjunto diferente de configurações e propriedades.

**Topics**
+ [Propriedades do `Scheduling`](#Scheduling-v3.properties)
+ [`AwsBatchQueues`](#Scheduling-v3-AwsBatchQueues)
+ [`SlurmQueues`](#Scheduling-v3-SlurmQueues)
+ [`SlurmSettings`](#Scheduling-v3-SlurmSettings)

```
Scheduling:
  Scheduler: slurm
  ScalingStrategy: string    
  SlurmSettings:
    MungeKeySecretArn: string        
    ScaledownIdletime: integer    
    QueueUpdateStrategy: string
    EnableMemoryBasedScheduling: boolean
    CustomSlurmSettings: [dict]
    CustomSlurmSettingsIncludeFile: string
    Database:
      Uri: string
      UserName: string
      PasswordSecretArn: string
      DatabaseName: string    
    ExternalSlurmdbd: boolean
      Host: string
      Port: integer  
    Dns:
      DisableManagedDns: boolean
      HostedZoneId: string
      UseEc2Hostnames: boolean  
  SlurmQueues:
    - Name: string  
      ComputeSettings:
        LocalStorage:
          RootVolume:
            Size: integer
            Encrypted: boolean
            VolumeType: string
            Iops: integer
            Throughput: integer
          EphemeralVolume:
            MountDir: string
      CapacityReservationTarget:
        CapacityReservationId: string
        CapacityReservationResourceGroupArn: string
      CapacityType: string
      AllocationStrategy: string
      JobExclusiveAllocation: boolean
      CustomSlurmSettings: dict
      Tags:
        - Key: string
          Value: string
      HealthChecks:
        Gpu:
          Enabled: boolean
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
        PlacementGroup:
          Enabled: boolean
          Id: string
          Name: string
        Proxy:
          HttpProxyAddress: string
      ComputeResources:
        - Name: string
          InstanceType: string
          Instances:
            - InstanceType: string
          MinCount: integer
          MaxCount: integer
          DynamicNodePriority: integer
          StaticNodePriority: integer
          SpotPrice: float
          DisableSimultaneousMultithreading: boolean
          SchedulableMemory: integer
          HealthChecks:
            Gpu:
              Enabled: boolean
          Efa:
            Enabled: boolean
            GdrSupport: boolean          
          CapacityReservationTarget:
            CapacityReservationId: string
            CapacityReservationResourceGroupArn: string
          Networking:   
            PlacementGroup:
              Enabled: boolean
              Name: string
          CustomSlurmSettings: dict
          Tags:
            - Key: string
              Value: string
          LaunchTemplateOverrides:
            LaunchTemplateId: string
            Version: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceProfile: string
        InstanceRole: string
        S3Access:
          - BucketName: string
            EnableWriteAccess: boolean
            KeyName: string
        AdditionalIamPolicies:
          - Policy: string
      Image:
        CustomAmi: string
```

```
Scheduling:
  Scheduler: awsbatch
  AwsBatchQueues:
    - Name: string
      CapacityType: string
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
        - Name: string
          InstanceTypes:
            - string
          MinvCpus: integer
          DesiredvCpus: integer
          MaxvCpus: integer
          SpotBidPercentage: float
```

## Propriedades do `Scheduling`
<a name="Scheduling-v3.properties"></a>

**`Scheduler` (**Obrigatório**, `String`)**  
Especifica o tipo de programador usado. Os valores compatíveis são `slurm` e `awsbatch`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`awsbatch` suporta apenas o sistema operacional `alinux2` e a plataforma `x86_64`.

**`ScalingStrategy` (**Opcional**, `String`)**  
Permite que você escolha como os nós dinâmicos do Slurm aumentam a escala verticalmente. Os valores compatíveis são `all-or-nothing`, `greedy-all-or-nothing` e `best-effort`. O valor padrão é `all-or-nothing`.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
A estratégia de dimensionamento se aplica apenas aos nós que serão retomados pelo Slurm, não aos nós que já estão em execução.
+ `all-or-nothing`Essa estratégia segue estritamente uma all-or-nothing-approach, com o objetivo de evitar instâncias ociosas no final do processo de escalabilidade. Ele opera em uma all-or-nothing base, o que significa que ele se expande completamente ou não cresce. Esteja ciente de que pode haver custos adicionais devido a instâncias lançadas temporariamente, quando os trabalhos exigem mais de 500 nós ou abrangem vários recursos computacionais. Essa estratégia tem o menor throughput entre as três estratégias de escalabilidade possíveis. O tempo de escalabilidade depende do número de trabalhos enviados por execução do programa de currículo Slurm. Além disso, você não pode escalar muito além do limite padrão da conta de RunInstances recursos por execução, que é de 1000 instâncias por padrão. Mais informações estão disponíveis na documentação de controle de utilização da [API do Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/throttling.html)
+ `greedy-all-or-nothing `Semelhante à all-or-nothing estratégia, ela visa evitar instâncias ociosas após o escalonamento. Essa estratégia permite a superescalabilidade temporária durante o processo de escalabilidade para obter uma taxa de transferência maior do que a all-or-nothing abordagem, mas também vem com o mesmo limite de escalabilidade de 1.000 instâncias de acordo com o limite da conta de recursos. RunInstances 
+ `best-effort `: essa estratégia prioriza throughput, mesmo que isso signifique que algumas instâncias possam ficar inativas no final do processo de escalabilidade. Ele tenta alocar quantos nós forem solicitados pelos trabalhos, mas existe a possibilidade de não atender a solicitação inteira. Diferentemente das outras estratégias, a abordagem de melhor esforço pode acumular mais instâncias do que o RunInstances limite padrão, ao custo de ter recursos ociosos ao longo das várias execuções do processo de escalabilidade.

Cada estratégia é projetada para atender às diferentes necessidades de escalabilidade, permitindo que você selecione uma que atenda aos seus requisitos e restrições específicos.

## `AwsBatchQueues`
<a name="Scheduling-v3-AwsBatchQueues"></a>

**(Opcional)** As configurações da AWS Batch fila. Somente uma fila é suportada. Se [`Scheduler`](#yaml-Scheduling-Scheduler) estiver definido como `awsbatch`, essa seção é obrigatória. Para obter mais informações sobre o programador `awsbatch`, consulte [configuração de redes](network-configuration-v3-batch.md) e [Usando o agendador AWS Batch (`awsbatch`) com AWS ParallelCluster](awsbatchcli-v3.md).

```
AwsBatchQueues:
  - Name: string
    CapacityType: string
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
      - Name: string
        InstanceTypes:
          - string
        MinvCpus: integer
        DesiredvCpus: integer
        MaxvCpus: integer
        SpotBidPercentage: float
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### Propriedades do `AwsBatchQueues`
<a name="Scheduling-v3-AwsBatchQueues.properties"></a>

**`Name` (**Obrigatório**, `String`)**  
O nome da AWS Batch fila.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityType` (**Opcional**, `String`)**  
O tipo de recursos computacionais que a AWS Batch fila usa. Os valores compatíveis são `ONDEMAND`, `SPOT` ou `CAPACITY_BLOCK`. O valor padrão é `ONDEMAND`.  
Se você definir `CapacityType` como `SPOT`, sua conta deverá conter uma função vinculada ao serviço `AWSServiceRoleForEC2Spot`. Você pode criar essa função usando o AWS CLI comando a seguir.  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Para ter mais informações, consulte [Função vinculada ao serviço para solicitações de instâncias spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) no *Guia do usuário do Amazon EC2 para instâncias do Linux*.
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### `Networking`
<a name="Scheduling-v3-AwsBatchQueues-Networking"></a>

**(Obrigatório)** Define a configuração de rede para a AWS Batch fila.

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```

##### Propriedades do `Networking`
<a name="Scheduling-v3-AwsBatchQueues-Networking.properties"></a>

**`SubnetIds` (**Obrigatório**, `[String]`)**  
Especifica o ID de uma sub-rede existente para provisionar a AWS Batch fila. No momento, somente uma sub-rede é compatível.  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`AssignPublicIp` (**Opcional**, `String`)**  
Cria ou atribui um endereço IP público aos nós na AWS Batch fila. Os valores compatíveis são `true` e `false`. O padrão depende da sub-rede que você especificou.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups` (**Opcional**, `[String]`)**  
Lista de grupos de segurança que a AWS Batch fila usa. Se você não especificar grupos de segurança, AWS ParallelCluster cria novos grupos de segurança.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups` (**Opcional**, `[String]`)**  
Lista de grupos de segurança que a AWS Batch fila usa.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

#### `ComputeResources`
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources"></a>

**(Obrigatório)** Define a ComputeResources configuração da AWS Batch fila.

```
ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
  - Name: string
    InstanceTypes:
      - string
    MinvCpus: integer
    DesiredvCpus: integer
    MaxvCpus: integer
    SpotBidPercentage: float
```

##### Propriedades do `ComputeResources`
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources.properties"></a>

**`Name` (**Obrigatório**, `String`)**  
O nome do ambiente de computação da AWS Batch fila.  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceTypes` (**Obrigatório**, `[String]`)**  
A matriz de tipos AWS Batch de instância do ambiente computacional. Todos os tipos de instância devem usar a arquitetura `x86_64`.  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MinvCpus` (**Opcional**, `Integer`)**  
O número mínimo VCPUs que um ambiente AWS Batch computacional pode usar.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`DesiredVcpus` (**Opcional**, `Integer`)**  
O número desejado de VCPUs no ambiente AWS Batch computacional. AWS Batch ajusta esse valor entre `MinvCpus` e `MaxvCpus` com base na demanda na fila de trabalhos.  
[Política de atualização: essa configuração não é analisada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

**`MaxvCpus` (**Opcional**, `Integer`)**  
O número máximo de VCPUs para o ambiente AWS Batch computacional. Você não pode definir isso para um valor menor que o `DesiredVcpus`.  
[Política de atualização: essa configuração não pode ser diminuída durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-no-decrease-v3)

**`SpotBidPercentage` (**Opcional**, `Float`)**  
A porcentagem máxima que o preço On-Demand para esse tipo de instância que uma instância spot do Amazon EC2 pode atingir antes que as instâncias sejam iniciadas. O valor padrão é `100` (100%). O intervalo compatível é `1`-`100`.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmQueues`
<a name="Scheduling-v3-SlurmQueues"></a>

**(Opcional)** Configurações para a fila Slurm. Se [`Scheduler`](#yaml-Scheduling-Scheduler) estiver definido como `slurm`, essa seção é obrigatória.

```
SlurmQueues:
  - Name: string
    ComputeSettings:
      LocalStorage:
        RootVolume:
          Size: integer
          Encrypted: boolean
          VolumeType: string
          Iops: integer
          Throughput: integer
        EphemeralVolume:
          MountDir: string
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    CapacityType: string
    AllocationStrategy: string
    JobExclusiveAllocation: boolean
    CustomSlurmSettings: dict
    Tags:
      - Key: string
        Value: string
    HealthChecks:
      Gpu:
        Enabled: boolean
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
      PlacementGroup:
        Enabled: boolean
        Id: string
        Name: string
      Proxy:
        HttpProxyAddress: string
    ComputeResources:
      - Name: string
        InstanceType: string
        Instances:
          - InstanceType: string        
        MinCount: integer
        MaxCount: integer
        DynamicNodePriority: integer
        StaticNodePriority: integer
        SpotPrice: float
        DisableSimultaneousMultithreading: boolean
        SchedulableMemory: integer
        HealthChecks:
          Gpu:
            Enabled: boolean
        Efa:
          Enabled: boolean
          GdrSupport: boolean    
        CapacityReservationTarget:
          CapacityReservationId: string
          CapacityReservationResourceGroupArn: string     
        Networking:   
          PlacementGroup:
            Enabled: boolean
            Name: string
        CustomSlurmSettings: dict
        Tags:
          - Key: string
            Value: string
        LaunchTemplateOverrides:
          LaunchTemplateId: string
          Version: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string        
        Script: string
        Args:
          - string
    Iam:
      InstanceProfile: string
      InstanceRole: string
      S3Access:
        - BucketName: string
          EnableWriteAccess: boolean
          KeyName: string
      AdditionalIamPolicies:
        - Policy: string
    Image:
      CustomAmi: string
```

[Política de atualização: para essa configuração de valores de lista, um novo valor pode ser adicionado durante uma atualização ou a frota de computação deve ser interrompida ao remover um valor existente.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

### Propriedades do `SlurmQueues`
<a name="Scheduling-v3-SlurmQueues.properties"></a>

**`Name` (**Obrigatório**, `String`)**  
O nome da fila do Slurm.  
O tamanho do cluster pode mudar durante uma atualização. Para ter mais informações, consulte [Cluster capacity size and update](slurm-workload-manager-v3.md).
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityReservationTarget`**  
`CapacityReservationTarget`é adicionado com a AWS ParallelCluster versão 3.3.0.

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
Especifica a reserva de capacidade sob demanda para os recursos de computação da fila.    
**`CapacityReservationId` (**Opcional**, `String`)**  
O ID da reserva de capacidade existente a ser direcionada para os recursos de computação da fila. O ID pode se referir a uma [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) ou a um [Bloco de Capacidade para ML](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html).  
A reserva deve usar a mesma plataforma que a instância usa. Por exemplo, se suas instâncias são executadas em `rhel8`, sua reserva de capacidade deve ser executada na plataforma Red Hat Enterprise Linux. Para obter mais informações, consulte [Plataformas compatíveis](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html#capacity-reservations-platforms) no *Guia do usuário do Amazon EC2 para instâncias do Linux*.  
Se você incluir [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) na configuração do cluster, deverá excluir essa configuração de nível de fila da configuração `CapacityReservationId`.
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`CapacityReservationResourceGroupArn` (**Opcional**, `String`)**  
O nome do recurso da Amazon (ARN) do grupo de recursos que serve como o grupo de reservas de capacidade vinculadas ao serviço para os recursos de computação da fila. AWS ParallelCluster identifica e usa a reserva de capacidade mais adequada do grupo de recursos com base nas seguintes condições:  
+ Se `PlacementGroup` estiver habilitado em [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)ou [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster seleciona um grupo de recursos que tem como alvo o tipo de instância e `PlacementGroup` para um recurso computacional, se o recurso computacional existir.

  `PlacementGroup` precisa ter como alvo um dos tipos de instância definidos em [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources).
+ Se `PlacementGroup` não estiver habilitado em [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)ou [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster seleciona um grupo de recursos que tem como alvo somente o tipo de instância de um recurso computacional, se o recurso computacional existir.
O grupo de recursos deve ter pelo menos um ODCR para cada tipo de instância reservado em uma zona de disponibilidade em todos os recursos de computação e zonas de disponibilidade da fila. Para obter mais informações, consulte [Iniciar instâncias com Reservas de Capacidade Sob Demanda (ODCR)](launch-instances-odcr-v3.md).  
Para obter mais informações sobre os requisitos de configuração de várias sub-redes, consulte [`Networking`](#Scheduling-v3-SlurmQueues-Networking) / [`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).  
Várias zonas de disponibilidade foram adicionadas na AWS ParallelCluster versão 3.4.0.
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityType` (**Opcional**, `String`)**  
Os tipos de recursos de computação que a fila Slurm usa. Os valores compatíveis são `ONDEMAND`, `SPOT` ou `CAPACITY_BLOCK`. O valor padrão é `ONDEMAND`.  
Se você definir `CapacityType` para `SPOT`, sua conta deverá conter uma função vinculada ao serviço `AWSServiceRoleForEC2Spot`. Você pode usar o AWS CLI comando a seguir para criar essa função.  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Para ter mais informações, consulte [Função vinculada ao serviço para solicitações de instâncias spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) no *Guia do usuário do Amazon EC2 para instâncias do Linux*.
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AllocationStrategy` (**Opcional**, `String`)**  
Especifique a estratégia de alocação para todos os recursos de computação definidos em [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).  
Valores válidos: `lowest-price` \$1 `capacity-optimized` \$1 `price-capacity-optimized` \$1 `prioritized` \$1 `capacity-optimized-prioritized`       
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/parallelcluster/latest/ug/Scheduling-v3.html)
Padrão: `lowest-price`    
**`lowest-price`**  
+ Se você usar `CapacityType = ONDEMAND`, o Amazon EC2 Fleet usará o preço para determinar o pedido e iniciará as instâncias de menor preço primeiro.
+ Se você usar `CapacityType = SPOT`, o Amazon EC2 Fleet iniciará instâncias do grupo de instâncias Spot de menor preço que tiver capacidade disponível. Se um pool ficar sem capacidade antes de atingir a capacidade necessária, o Amazon EC2 Fleet atenderá à sua solicitação lançando instâncias para você. Em particular, o Amazon EC2 Fleet inicia instâncias do grupo de instâncias Spot de menor preço que tem capacidade disponível. O Amazon EC2 Fleet pode iniciar instâncias Spot de vários grupos diferentes.
+ Se você definir `CapacityType = CAPACITY_BLOCK`, não haverá estratégias de alocação, portanto o parâmetro `AllocationStrategy` não poderá ser configurado.  
**`capacity-optimized`**  
+ Se você definir `CapacityType = ONDEMAND`, `capacity-optimized` não ficará disponível.
+ Se você definir `CapacityType = SPOT`, o Amazon EC2 Fleet iniciará instâncias de grupos de instâncias spot com capacidade ideal para o número de instâncias a serem iniciadas.  
**`price-capacity-optimized`**  
+ Se você definir `CapacityType = ONDEMAND`, `capacity-optimized` não ficará disponível.
+ Se você definir `CapacityType = SPOT`, o Amazon EC2 Fleet identificará os grupos com maior disponibilidade de capacidade para o número de instâncias que estão sendo iniciadas. Isso significa que solicitaremos instâncias spot dos grupos que acreditamos terem a menor probabilidade de interrupção a curto prazo. O Amazon EC2 Fleet então solicita instâncias spot do grupo com o menor preço.  
**`prioritized`**  
+ Se você definir`CapacityType = ONDEMAND`, a frota do Amazon EC2 honra a ordem prioritária que AWS ParallelCluster se aplica às LaunchTemplate substituições quando várias sub-redes são especificadas. AWS ParallelCluster deriva a substituição da posição `priority` da sub-rede de destino, `SlurmQueues/Networking/SubnetIds` com a primeira sub-rede recebendo a maior prioridade. As prioridades são definidas AWS ParallelCluster em ordem decrescente de`SlurmQueues/Networking/SubnetIds`, com a primeira SubnetId tendo a prioridade mais alta e a última SubnetID tendo a menor prioridade. 
+ Se você definir `CapacityType = SPOT`, `prioritized` não ficará disponível.  
**`capacity-optimized-prioritized`**  
+ Se você definir `CapacityType = ONDEMAND`, `capacity-optimized-prioritized` não ficará disponível.
+ Se você definir`CapacityType = SPOT`, o Amazon EC2 Fleet otimiza primeiro a capacidade e depois aplica, com base no melhor esforço, a ordem de prioridade atribuída às substituições. AWS ParallelCluster LaunchTemplate As prioridades são definidas AWS ParallelCluster em ordem decrescente de`SlurmQueues/Networking/SubnetIds`, com a primeira SubnetId tendo a prioridade mais alta e a última SubnetID tendo a menor prioridade. Todas as substituições direcionadas à mesma sub-rede recebem o mesmo valor de prioridade.
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`AllocationStrategy` é suportado a partir do AWS ParallelCluster versão 3.3.0.  
**Novo na versão 3.14.0**: `prioritized` (para On-Demand) e `capacity-optimized-prioritized` (para Spot).

**`JobExclusiveAllocation` (**Opcional**, `String`)**  
Se definido como `true`, o sinalizador `OverSubscribe` de partição Slurm será definido como `EXCLUSIVE`. Quando `OverSubscribe`=`EXCLUSIVE`, os trabalhos na partição têm acesso exclusivo a todos os nós alocados. Para obter mais informações, consulte [EXCLUSIVE](https://slurm.schedmd.com/slurm.conf.html#OPT_EXCLUSIVE) na documentação do Slurm.  
Valores válidos: `true` \$1 `false`  
Padrão: `false`  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`JobExclusiveAllocation` é suportado a partir do AWS ParallelCluster versão 3.7.0.

**`CustomSlurmSettings` (**Opcional**, `Dict`)**  
Define as configurações personalizadas da partição (fila) Slurm.  
Especifica um dicionário de pares de valores-chave de parâmetros de configuração personalizados Slurm que se aplicam às filas (partições).  
Cada par de valores-chave separado, como `Param1: Value1`, é adicionado separadamente ao final da linha de configuração da partição Slurm no formato `Param1=Value1`.  
Você só pode especificar parâmetros de configuração Slurm que não estejam listados como negados em `CustomSlurmSettings`. Para obter mais informações sobre parâmetros de configuração negados do Slurm, consulte [Listado na lista de negação Slurm parâmetros de configuração para `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3).  
AWS ParallelCluster só verifica se um parâmetro está em uma lista de negação. AWS ParallelCluster não valida a sintaxe ou a Slurm semântica do parâmetro de configuração personalizado. É sua responsabilidade validar seus parâmetros de Slurm configuração personalizados. Parâmetros de configuração personalizados do Slurm inválidos podem causar falhas no daemon do Slurm que podem levar a falhas na criação e atualização do cluster.  
Para obter mais informações sobre como especificar parâmetros Slurm de configuração personalizados com AWS ParallelCluster, consulte[Slurm personalização de configuração](slurm-configuration-settings-v3.md).  
Para obter mais informações sobre os parâmetros de configuração Slurm, consulte [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) na documentação do Slurm.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings` é suportado a partir do AWS ParallelCluster versão 3.6.0.

**`Tags` (**Opcional**, [String])**  
Uma lista de pares de tag com chave-valor. As tags [`ComputeResource`](#yaml-Scheduling-SlurmQueues-ComputeResources-Tags) substituem as tags duplicadas especificadas em [Seção `Tags`](Tags-v3.md) ou em`SlurmQueues` / `Tags`.    
**`Key` (**Opcional**, `String`)**  
A chave de tags.  
**`Value` (**Opcional**, `String`)**  
O valor da tag.
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks` (**opcional**)**  
Especifica as verificações de integridade do nó de computação em todos os recursos computacionais na fila.    
`Gpu` (**opcional**)  
Especifica as verificações de integridade dos recursos de computação em uma fila.  
AWS ParallelCluster não suporta`HealthChecks`/`Gpu`em nós que usam sistemas operacionais `alinux2` ARM. Essas plataformas não são compatíveis com o [NVIDIA Data Center GPU Manager (DCGM)](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions).  
Não é recomendável ativar as verificações de integridade da GPU ao usar tipos de instância cujo tamanho total de memória da GPU seja maior que 327680 MiB.  
`Enabled` (**Opcional**, `Boolean`)  
Se AWS ParallelCluster realiza verificações de integridade da GPU nos nós de computação. O padrão é `false`.

**Comportamento de verificação de integridade de `Gpu`**
+ Se `Gpu` / `Enabled` estiver definido como `true`, AWS ParallelCluster executa verificações de integridade da GPU nos recursos de computação na fila.
+ A verificação de integridade `Gpu` realiza verificações de integridade da GPU nos recursos de computação para evitar o envio de trabalhos em nós com uma GPU degradada.
+ Se um nó de computação falhar em uma verificação de integridade do `Gpu`, o estado do nó de computação mudará para `DRAIN`. Novos trabalhos não começam nesse nó. Os trabalhos existentes são executados até a conclusão. Depois que todos os trabalhos em execução forem concluídos, o nó de computação será encerrado se for um nó dinâmico e será substituído se for um nó estático.
+ A duração da verificação de `Gpu` integridade depende do tipo de instância selecionada, do número de unidades GPUs na instância, da memória total da GPU e do número de destinos da verificação de `Gpu` integridade (equivalente ao número de destinos da GPU do trabalho). Por exemplo, em um p4d.24xlarge, a duração típica é de 3 minutos.
+ Se a verificação de integridade do `Gpu` for executada em uma instância sem suporte, ela será encerrada e o trabalho será executado no nó de computação. Por exemplo, se uma instância não tiver uma GPU, ou se uma instância tiver uma GPU, mas não for uma GPU NVIDIA, a verificação de integridade será encerrada e o trabalho será executado no nó de computação. Somente a NVIDIA GPUs é compatível.
+ A verificação de integridade `Gpu` usa a ferramenta `dcgmi` para realizar verificações de integridade em um nó e segue as seguintes etapas: 

  Quando a verificação de integridade `Gpu` começa em um nó:

  1. Ele detecta se os serviços `nvidia-dcgm` e `nvidia-fabricmanager` estão em execução.

  1. Se esses serviços não estiverem em execução, a verificação de integridade `Gpu` os iniciará.

  1. Ele detecta se o modo de persistência está ativado.

  1. Se o modo de persistência não estiver ativado, a verificação de integridade `Gpu` o ativará.

  Ao final da verificação de saúde, a verificação de integridade `Gpu` restaura esses serviços e recursos ao estado inicial.
+ Se o trabalho for atribuído a um conjunto específico de nós GPUs, a verificação de `Gpu` integridade será executada somente nesse conjunto específico. Caso contrário, a verificação de `Gpu` integridade será executada GPUs em tudo no nó.
+ Se um nó de computação receber duas ou mais solicitações de verificação de integridade `Gpu` ao mesmo tempo, somente a primeira verificação de integridade será executada e as outras serão ignoradas. Esse também é o caso das verificações de saúde desse nó de destino GPUs. Você pode verificar os arquivos de log para obter informações adicionais sobre essa situação.
+ O log de verificação de integridade de um nó de computação específico está disponível no arquivo `/var/log/parallelcluster/slurm_health_check.log`. O arquivo está disponível na Amazon CloudWatch, no grupo de CloudWatch logs do cluster, onde você pode encontrar:
  + Detalhes sobre a ação executada pela verificação de integridade `Gpu`, incluindo a ativação e desativação de serviços e o modo de persistência.
  + O identificador da GPU, o ID serial e o UUID.
  + A saída da verificação de integridade.
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`é suportado a partir da AWS ParallelCluster versão 3.6.0.

#### `Networking`
<a name="Scheduling-v3-SlurmQueues-Networking"></a>

**(Obrigatório)** Define a configuração de rede para a fila do Slurm.

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  PlacementGroup:
    Enabled: boolean
    Id: string
    Name: string
  Proxy:
    HttpProxyAddress: string
```

[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### Propriedades do `Networking`
<a name="Scheduling-v3-SlurmQueues-Networking.properties"></a>

**`SubnetIds` (**Obrigatório**, `[String]`)**  
A IDs das sub-redes existentes nas quais você provisiona a Slurm fila.  
Se você configurar os tipos de instância em [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) / [`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType), só poderá definir uma sub-rede.  
Se você configurar os tipos de instância em [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) / [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances), poderá definir uma única sub-rede ou várias sub-redes.  
Se você usa várias sub-redes, todas as sub-redes definidas para uma fila devem estar na mesma VPC, com cada sub-rede em uma zona de disponibilidade (AZ) separada.  
Por exemplo, suponha que você defina subnet-1 e subnet-2 para sua fila.  
`subnet-1` e `subnet-2` não podem ambas estar no AZ-1.  
`subnet-1` pode estar em AZ-1 e `subnet-2` pode estar em AZ-2.  
Se você configurar somente um tipo de instância e quiser usar várias sub-redes, defina seu tipo de instância em `Instances` vez de `InstanceType`.  
Por exemplo, defina `ComputeResources` / `Instances` / `InstanceType`=`instance.type` em vez de `ComputeResources` / `InstanceType`=`instance.type`.  
O Elastic Fabric Adapter (EFA) não é compatível com diferentes zonas de disponibilidade.
O uso de várias zonas de disponibilidade pode causar aumentos na latência da rede de armazenamento e custos adicionais de transferência de dados entre AZ. Por exemplo, isso pode ocorrer quando uma instância acessa o armazenamento de arquivos localizado em uma AZ diferente. Para obter mais informações, consulte [Transferência de dados dentro da mesma Região da AWS](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer_within_the_same_AWS_Region).  

**Atualizações de cluster para mudar do uso de uma única sub-rede para várias sub-redes:**
+ Suponha que a definição de sub-rede de um cluster seja definida com uma única sub-rede e um sistema de arquivos AWS ParallelCluster gerenciado FSx para Lustre. Então, você não pode atualizar esse cluster diretamente com uma definição de ID de sub-rede atualizada. Para fazer a atualização do cluster, você deve primeiro alterar o sistema de arquivos gerenciado para um sistema de arquivos externo. Para obter mais informações, consulte [Converta armazenamento AWS ParallelCluster gerenciado em armazenamento externo](shared-storage-conversion-v3.md).
+ Suponha que a definição de sub-rede de um cluster seja definida com uma única sub-rede e um sistema de arquivos externo do Amazon EFS se os destinos de montagem do EFS não existirem para todas as várias sub-redes definidas AZs para serem adicionadas. Então, você não pode atualizar esse cluster diretamente com uma definição de ID de sub-rede atualizada. Para atualizar o cluster ou criar um cluster, você deve primeiro criar todos os destinos de montagem para todos os AZs das várias sub-redes definidas.

**Zonas de disponibilidade e reservas de capacidade de cluster definidas em [CapacityReservationResourceGroupArn](#yaml-Scheduling-SlurmQueues-CapacityReservationResourceGroupArn):**
+ Você não pode criar um cluster se não houver sobreposição entre o conjunto de tipos de instância e zonas de disponibilidade cobertas pelo grupo de recursos de reserva de capacidade definido e o conjunto de tipos de instância e zonas de disponibilidade definidos para a fila.
+ Você pode criar um cluster se houver uma sobreposição parcial entre o conjunto de tipos de instância e zonas de disponibilidade cobertos pelo grupo de recursos de reserva de capacidade definido e o conjunto de tipos de instância e zonas de disponibilidade definidos para a fila. AWS ParallelCluster envia uma mensagem de aviso sobre a sobreposição parcial desse caso.
+ Para obter mais informações, consulte [Iniciar instâncias com Reservas de Capacidade Sob Demanda (ODCR)](launch-instances-odcr-v3.md).
Várias zonas de disponibilidade foram adicionadas na AWS ParallelCluster versão 3.4.0.
Esse aviso se aplica a todas as AWS ParallelCluster versões 3.x.y anteriores à versão 3.3.1. AWS ParallelCluster a versão 3.3.1 não será afetada se esse parâmetro for alterado.  
Para AWS ParallelCluster 3 versões anteriores à versão 3.3.1:  
Se você alterar esse parâmetro e atualizar um cluster, isso criará um novo sistema de arquivos gerenciado FSx para Lustre e excluirá o sistema de arquivos gerenciado FSx para Lustre existente sem preservar os dados existentes. Isso resulta em perda de dados. Antes de continuar, certifique-se de fazer backup dos dados do sistema de arquivos existente FSx do Lustre se quiser preservar os dados. Para obter mais informações, consulte [Trabalhando com backups](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) no *Guia do FSx usuário do Lustre*.
Se um novo valor de sub-rede for adicionado, [Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
Se um valor de sub-rede for removido, [Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AssignPublicIp` (**Opcional**, `String`)**  
Cria ou atribui um endereço IP público aos nós na fila do Slurm. Os valores compatíveis são `true` e `false`. A sub-rede que você especifica determina o valor padrão. Uma sub-rede com IPs padrão público para atribuição de endereços IP públicos.  
Se você definir um tipo de hpc6id instância p4d ou, ou outro tipo de instância que tenha várias interfaces de rede ou uma placa de interface de rede, [`ElasticIp`](HeadNode-v3.md#yaml-HeadNode-Networking-ElasticIp)defina [`HeadNode`[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)](HeadNode-v3.md)//como `true` para fornecer acesso público. AWS public só IPs pode ser atribuído a instâncias iniciadas com uma única interface de rede. Nesse caso, recomendamos que você use um [gateway NAT](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html) para fornecer acesso público aos nós de computação do cluster. Neste caso, defina `AssignPublicIp` para `false`. Para obter mais informações sobre endereços IP, consulte [Atribuir um IPv4 endereço público durante a execução da instância](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) no *Guia do usuário do Amazon EC2 para instâncias Linux.*  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups` (**Opcional**, `[String]`)**  
Uma lista de grupos de segurança a usar para a fila Slurm. Se nenhum grupo de segurança for especificado, AWS ParallelCluster cria grupos de segurança para você.  
Verifique se os grupos de segurança estão configurados corretamente para seus [SharedStorage](SharedStorage-v3.md)sistemas.  
Este aviso se aplica a todos os 3. *x*. *y* AWS ParallelCluster versões anteriores à versão 3.3.0. AWS ParallelCluster a versão 3.3.0 não será afetada se esse parâmetro for alterado.  
Para AWS ParallelCluster 3 versões anteriores à versão 3.3.0:  
Se você alterar esse parâmetro e atualizar um cluster, isso criará um novo sistema de arquivos gerenciado FSx para Lustre e excluirá o sistema de arquivos gerenciado FSx para Lustre existente sem preservar os dados existentes. Isso resulta em perda de dados. Certifique-se de fazer backup dos dados do sistema de arquivos existente FSx do Lustre se quiser preservar os dados. Para obter mais informações, consulte [Trabalhando com backups](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) no *Guia do FSx usuário do Lustre*.
Se você habilitar o [Efa](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa) para suas instâncias de computação, certifique-se de que suas instâncias habilitadas para EFA sejam membros de um grupo de segurança que permita todo o tráfego de entrada e saída para si.
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups` (**Opcional**, `[String]`)**  
Uma lista adicional de grupos de segurança a usar para a fila Slurm.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`PlacementGroup` (**opcional**)**  
Especifica as configurações do grupo de posicionamento para a fila Slurm.  

```
PlacementGroup:
  Enabled: boolean
  Id: string
  Name: string
```
[Política de atualização: todos os nós de computação devem ser interrompidos para a exclusão de um grupo de posicionamento gerenciado. A frota de computação deve ser interrompida ou QueueUpdateStrategy deve ser configurada para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`Enabled` (**Opcional**, `Boolean`)**  
Indica se um grupo de posicionamento é usado para a fila Slurm. O padrão é `false`.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Id` (**Opcional**, `String`)**  
O ID do grupo de posicionamento de um grupo de posicionamento de cluster existente que a Slurm fila usa. Certifique-se de fornecer o *ID* do grupo de colocação e *não o nome*.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name` (**Opcional**, `String`)**  
O nome do grupo de posicionamento de um grupo de posicionamento de cluster existente que a fila Slurm usa. Certifique-se de fornecer o *nome* do grupo de posicionamento e *não o ID*.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ Se `PlacementGroup` / `Enabled` for definido como `true`, sem um `Name` ou `Id` definido, cada recurso de computação receberá seu próprio grupo de posicionamento gerenciado, a menos que [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) / [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking) / [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking-PlacementGroup) seja definido para substituir essa configuração.
+ A partir da AWS ParallelCluster versão 3.3.0, [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)foi adicionado como alternativa preferencial para [`SlurmQueues`](#Scheduling-v3-SlurmQueues)//[`Networking`[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)](#Scheduling-v3-SlurmQueues-Networking)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id).

  [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) / [`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id) e [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) / [`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name) são equivalentes. Você pode usar qualquer um.

   Se você incluir [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)e [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name), AWS ParallelCluster falhará. É preciso escolher um ou outro.

  Você não precisa atualizar seu cluster para usar [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) / [`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name).
+ Ao usar uma reserva de bloco de capacidade, uma restrição de grupo de posicionamento não deve ser definida, pois erros de capacidade insuficientes podem ocorrer devido a restrições de posicionamento fora da reserva, mesmo que a reserva de capacidade tenha capacidade restante.

**`Proxy` (**opcional**)**  
Especifica as configurações de proxy para o a fila Slurm.  

```
Proxy:
  HttpProxyAddress: string
```
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`HttpProxyAddress` (**Opcional**, `String`)**  
Define um servidor proxy HTTP ou HTTPS para a fila Slurm. Normalmente, é `https://x.x.x.x:8080`.  
Não há valor padrão.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `Image`
<a name="Scheduling-v3-SlurmQueues-Image"></a>

**(Opcional)** Especifica a imagem a ser usada na fila Slurm. Para usar a mesma AMI em todos os nós, use a [CustomAmi](Image-v3.md#yaml-Image-CustomAmi)configuração na [`Image`seção](Image-v3.md).

```
Image:
  CustomAmi: string
```

[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### Propriedades do `Image`
<a name="Scheduling-v3-SlurmQueues-Image.properties"></a>

**`CustomAmi` (**Opcional**, `String`)**  
A AMI a ser usada para a Slurm fila em vez da padrão AMIs. Você pode usar o comando pcluster CLI para ver uma lista dos padrões. AMIs  
A AMI deve ser baseada no mesmo sistema operacional usado pelo nó principal.

```
pcluster list-official-images
```
Se a AMI personalizada exigir permissões adicionais para sua execução, você deverá adicionar essas permissões à política do nó principal.  
Por exemplo, se uma AMI personalizada tiver um snapshot criptografado associado a ela, as seguintes políticas adicionais serão necessárias nas políticas do usuário e do nó principal.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Para solucionar problemas de avisos de validação da AMI personalizada, consulte [Solução de problemas de AMI personalizada](troubleshooting-v3-custom-amis.md).  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeResources`
<a name="Scheduling-v3-SlurmQueues-ComputeResources"></a>

**(Obrigatório)** Define a configuração `ComputeResources` para a fila Slurm.

**nota**  
O tamanho do cluster pode mudar durante uma atualização. Para obter mais informações, consulte [Tamanho e atualização da capacidade do cluster](slurm-workload-manager-v3.md).
Novos recursos computacionais só podem ser adicionados ao cluster se forem implantados em sub-redes pertencentes aos blocos CIDR que existem quando o cluster é criado.

```
ComputeResources:
  - Name: string
    InstanceType: string
    Instances:
      - InstanceType: string    
    MinCount: integer
    MaxCount: integer
    DynamicNodePriority: integer
    StaticNodePriority: integer
    SpotPrice: float
    DisableSimultaneousMultithreading: boolean
    SchedulableMemory: integer
    HealthChecks:
      Gpu:    
        Enabled: boolean
    Efa:
      Enabled: boolean
      GdrSupport: boolean
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    Networking:   
      PlacementGroup:
        Enabled: boolean
        Name: string
    CustomSlurmSettings: dict   
    Tags:
      - Key: string
        Value: string
    LaunchTemplateOverrides:
      LaunchTemplateId: string
      Version: string
```

[Política de atualização: para essa configuração de valores de lista, um novo valor pode ser adicionado durante uma atualização ou a frota de computação deve ser interrompida ao remover um valor existente.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

##### Propriedades do `ComputeResources`
<a name="Scheduling-v3-SlurmQueues-ComputeResources.properties"></a>

**`Name` (**Obrigatório**, `String`)**  
O nome do ambiente de computação da fila do Slurm. O nome do pode ter até 25 caracteres.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`InstanceType` (**Obrigatório**, `String`)**  
O tipo de instância usado nesse recurso de computação Slurm. Todos os tipos de instância em um cluster devem usar a mesma arquitetura de processador. As instâncias podem usar a arquitetura `x86_64` ou `arm64`.  
A configuração do cluster deve definir uma [InstanceType](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)ou duas [Instâncias](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances). Se ambos estiverem definidos, AWS ParallelCluster falhará.  
Ao definir `InstanceType`, você não pode definir várias sub-redes. Se você configurar somente um tipo de instância e quiser usar várias sub-redes, defina seu tipo de instância em `Instances` em vez de `InstanceType`. Para obter mais informações, consulte [`Networking`](#Scheduling-v3-SlurmQueues-Networking) / [`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).  
Se você definir um tipo de hpc6id instância p4d ou, ou outro tipo de instância que tenha várias interfaces de rede ou uma placa de interface de rede, deverá executar as instâncias de computação na sub-rede privada, conforme descrito em. [AWS ParallelCluster usando duas sub-redes](network-configuration-v3-two-subnets.md) AWS public só IPs pode ser atribuído a instâncias que são iniciadas com uma única interface de rede. Para obter mais informações, consulte [Atribuir um IPv4 endereço público durante a execução da instância](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) no *Guia do usuário do Amazon EC2 para instâncias Linux.*  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`Instances`(**Obrigatório**)**  
Especifica a lista de tipos de instância para um recurso de computação. Para especificar a estratégia de alocação para a lista de tipos de instância, consulte [`AllocationStrategy`](#yaml-Scheduling-SlurmQueues-AllocationStrategy).  
A configuração do cluster deve definir [`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType) ou [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances). Se ambos estiverem definidos, AWS ParallelCluster falhará.  
Para obter mais informações, consulte [Alocação a vários tipos de instância com o Slurm](slurm-multiple-instance-allocation-v3.md).  

```
`Instances`:
   - `InstanceType`: string
```
[A partir da AWS ParallelCluster versão 3.7.0, `EnableMemoryBasedScheduling` pode ser ativado se você configurar vários tipos de instância em Instâncias.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)  
Para AWS ParallelCluster as versões 3.2.0 a 3.6. *x*, não `EnableMemoryBasedScheduling` pode ser ativado se você configurar vários tipos de instância em [Instâncias](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).
[Política de atualização: para essa configuração de valores de lista, um novo valor pode ser adicionado durante uma atualização ou a frota de computação deve ser interrompida ao remover um valor existente.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)    
**`InstanceType` (**Obrigatório**, `String`)**  
O tipo de instância usado nesse recurso de computação Slurm. Todos os tipos de instância em um cluster devem usar a mesma arquitetura de processador, seja `x86_64` ou `arm64`.  
Os tipos de instância listados em [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) devem ter:  
+ O mesmo número de v ouCPUs, se [`DisableSimultaneousMultithreading`](#yaml-Scheduling-SlurmQueues-ComputeResources-DisableSimultaneousMultithreading)estiver definido como`true`, o mesmo número de núcleos.
+ O mesmo número de aceleradores dos mesmos fabricantes.
+ Compatível com EFA, se [`Efa`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa) / [`Enabled`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa-Enabled) definido como `true`.
Os tipos de instância listados em [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) devem ter:  
+ Quantidade diferente de memória.

  Nesse caso, a memória mínima deve ser definida como um recurso consumível Slurm.
**nota**  
[A partir da AWS ParallelCluster versão 3.7.0, `EnableMemoryBasedScheduling` pode ser ativado se você configurar vários tipos de instância em Instâncias.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)  
Para AWS ParallelCluster as versões 3.2.0 a 3.6. *x*, não `EnableMemoryBasedScheduling` pode ser ativado se você configurar vários tipos de instância em [Instâncias](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).
+ Placas de rede diferentes.

  Nesse caso, o número de interfaces de rede configuradas para o recurso computacional é definido pelo tipo de instância com o menor número de placas de rede.
+ Largura de banda da rede diferente.
+ Tamanho diferente do armazenamento de instâncias.
Se você definir um tipo de hpc6id instância p4d ou, ou outro tipo de instância que tenha várias interfaces de rede ou uma placa de interface de rede, deverá executar as instâncias de computação na sub-rede privada, conforme descrito em. [AWS ParallelCluster usando duas sub-redes](network-configuration-v3-two-subnets.md) AWS public só IPs pode ser atribuído a instâncias iniciadas com uma única interface de rede. Para obter mais informações, consulte [Atribuir um IPv4 endereço público durante a execução da instância](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) no *Guia do usuário do Amazon EC2 para instâncias Linux.*  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)
`Instances`é suportado a partir da AWS ParallelCluster versão 3.3.0.

**`MinCount` (**Opcional**, `Integer`)**  
O número mínimo de instâncias que o recurso de computação Slurm usa. O padrão é 0.  
O tamanho do cluster pode mudar durante uma atualização. Para ter mais informações, consulte [Cluster capacity size and update](slurm-workload-manager-v3.md).
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MaxCount` (**Opcional**, `Integer`)**  
O número máximo de instâncias que o recurso de computação Slurm usa. O padrão é 10.  
Quando você usa`CapacityType = CAPACITY_BLOCK`, `MaxCount` deve ser igual `MinCount` e maior que 0, porque todas as instâncias que fazem parte da reserva do Bloco de Capacidade são gerenciadas como nós estáticos.  
No momento da criação do cluster, o nó principal aguarda que todos os nós estáticos estejam prontos antes de sinalizar o sucesso da criação do cluster. No entanto, quando você usa`CapacityType = CAPACITY_BLOCK`, os nós que fazem parte dos recursos computacionais associados aos blocos de capacidade não serão considerados para essa verificação. O cluster será criado mesmo que nem todos os Blocos de Capacidade configurados estejam ativos.  
O tamanho do cluster pode mudar durante uma atualização. Para ter mais informações, consulte [Cluster capacity size and update](slurm-workload-manager-v3.md).
 

**`DynamicNodePriority` (**Opcional**, `Integer`)**  
A prioridade dos nós dinâmicos em um recurso de computação em fila. A prioridade é mapeada para o parâmetro de configuração [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight) do nó do Slurm para os nós dinâmicos do recurso de computação. O valor padrão é `1000`.  
Slurm prioriza primeiro os nós com os valores de `Weight` mais baixos.  
O uso de muitos valores `Weight` diferentes em uma partição Slurm (fila) pode diminuir a taxa de agendamento de trabalhos na fila.  
Nas AWS ParallelCluster versões anteriores à versão 3.7.0, os nós estáticos e dinâmicos receberam o mesmo peso padrão de. `1` Nesse caso, Slurm pode priorizar nós dinâmicos ociosos sobre nós estáticos ociosos devido ao esquema de nomenclatura para nós estáticos e dinâmicos. Quando tudo estiver igual, o Slurm programa os nós em ordem alfabética por nome.
`DynamicNodePriority`é adicionado na AWS ParallelCluster versão 3.7.0.
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`StaticNodePriority` (**Opcional**, `Integer`)**  
A prioridade dos nós dinâmicos em um recurso de computação em fila. A prioridade é mapeada para o parâmetro de configuração [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight) do nó do Slurm para os nós estáticos do recurso de computação. O valor padrão é `1`.  
Slurm prioriza primeiro os nós com os valores de `Weight` mais baixos.  
O uso de muitos valores `Weight` diferentes em uma partição Slurm (fila) pode diminuir a taxa de agendamento de trabalhos na fila.
`StaticNodePriority`é adicionado na AWS ParallelCluster versão 3.7.0.
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`SpotPrice` (**Opcional**, `Float`)**  
O preço máximo pago por uma instância Spot do Amazon EC2 antes de qualquer instância ser iniciada. O valor padrão é o preço sob demanda.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`DisableSimultaneousMultithreading` (**Opcional**, `Boolean`)**  
Se `true`, o multithreading nos nós da fila Slurm estiver desativado. O valor padrão é `false`.  
Nem todos os tipos de instância podem desativar o multithreading. Para ver quais tipos de instância permitem desabilitar o multithreading, consulte a seção sobre [núcleos e threads de CPU para cada núcleo de CPU por tipo de instância](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) no *Guia do usuário do Amazon EC2*.   
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`SchedulableMemory` (**Opcional**, `Integer`)**  
A quantidade de memória em MiB configurada no parâmetro `RealMemory` do Slurm para os nós de computação de um recurso de computação. Esse valor é o limite superior da memória do nó disponível para trabalhos quando [`SlurmSettings`](#Scheduling-v3-SlurmSettings) / [`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling) está habilitado. O valor padrão é 95 por cento da memória listada nos [tipos de instância do Amazon EC2](https://aws.amazon.com/ec2/instance-types) e retornada pela API do Amazon EC2. [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html) Certifique-se de converter valores fornecidos em GiB em MiB.  
Valores com suporte: `1-EC2Memory`  
`EC2Memory`é a memória (em MiB) listada nos tipos de [instância do Amazon EC2](https://aws.amazon.com/ec2/instance-types) e retornada pela API do Amazon EC2. [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html) Certifique-se de converter valores fornecidos em GiB em MiB.  
Essa opção é mais relevante quando [`SlurmSettings`](#Scheduling-v3-SlurmSettings) / [`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling) está habilitada. Para obter mais informações, consulte [Slurm agendamento baseado em memória](slurm-mem-based-scheduling-v3.md).  
`SchedulableMemory` é suportado a partir do AWS ParallelCluster versão 3.2.0.  
A partir da versão 3.2.0, por padrão, AWS ParallelCluster configura os `RealMemory` nós de Slurm computação em 95% da memória que é retornada pela API do Amazon EC2. `DescribeInstanceTypes` Essa configuração é independente do valor de `EnableMemoryBasedScheduling`.
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks` (**opcional**)**  
Especifica as verificações de integridade em um recurso de computação.    
`Gpu` (**opcional**)  
Especifica as verificações de integridade em um recurso de computação.    
`Enabled` (**Opcional**, `Boolean`)  
Se AWS ParallelCluster realiza verificações de integridade da GPU na computação de um recurso em uma fila. O padrão é `false`.  
AWS ParallelCluster não suporta`HealthChecks`/`Gpu`em nós que usam sistemas operacionais `alinux2` ARM. Essas plataformas não são compatíveis com o [NVIDIA Data Center GPU Manager (DCGM)](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions).

**Comportamento de verificação de integridade de `Gpu`**
+ Se`Gpu`/`Enabled`estiver definido como`true`, AWS ParallelCluster executa verificações de integridade da GPU em um recurso computacional.
+ A verificação de integridade do `Gpu` realiza verificações de integridade em um recurso de computação para evitar o envio de trabalhos em nós com uma GPU degradada.
+ Se um nó de computação falhar em uma verificação de integridade do `Gpu`, o estado do nó de computação mudará para `DRAIN`. Novos trabalhos não começam nesse nó. Os trabalhos existentes são executados até a conclusão. Depois que todos os trabalhos em execução forem concluídos, o nó de computação será encerrado se for um nó dinâmico e será substituído se for um nó estático.
+ A duração da verificação de `Gpu` saúde depende do tipo de instância selecionada, do número de alvos GPUs na instância e do número de alvos de verificação de `Gpu` saúde (equivalente ao número de destinos da GPU do trabalho). Para uma instância com 8 GPUs, a duração típica é inferior a 3 minutos.
+ Se a verificação de integridade do `Gpu` for executada em uma instância sem suporte, ela será encerrada e o trabalho será executado no nó de computação. Por exemplo, se uma instância não tiver uma GPU, ou se uma instância tiver uma GPU, mas não for uma GPU NVIDIA, a verificação de integridade será encerrada e o trabalho será executado no nó de computação. Somente a NVIDIA GPUs é compatível.
+ A verificação de integridade `Gpu` usa a ferramenta `dcgmi` para realizar verificações de integridade em um nó e segue as seguintes etapas: 

  Quando a verificação de integridade `Gpu` começa em um nó:

  1. Ele detecta se os serviços `nvidia-dcgm` e `nvidia-fabricmanager` estão em execução.

  1. Se esses serviços não estiverem em execução, a verificação de integridade `Gpu` os iniciará.

  1. Ele detecta se o modo de persistência está ativado.

  1. Se o modo de persistência não estiver ativado, a verificação de integridade `Gpu` o ativará.

  Ao final da verificação de saúde, a verificação de integridade `Gpu` restaura esses serviços e recursos ao estado inicial.
+ Se o trabalho for atribuído a um conjunto específico de nós GPUs, a verificação de `Gpu` integridade será executada somente nesse conjunto específico. Caso contrário, a verificação de `Gpu` integridade será executada GPUs em tudo no nó.
+ Se um nó de computação receber duas ou mais solicitações de verificação de integridade `Gpu` ao mesmo tempo, somente a primeira verificação de integridade será executada e as outras serão ignoradas. Esse também é o caso das verificações de saúde direcionadas ao nó GPUs. Você pode verificar os arquivos de log para obter informações adicionais sobre essa situação.
+ O log de verificação de integridade de um nó de computação específico está disponível no arquivo `/var/log/parallelcluster/slurm_health_check.log`. Esse arquivo está disponível na Amazon CloudWatch, no grupo de CloudWatch logs do cluster, onde você pode encontrar:
  + Detalhes sobre a ação executada pela verificação de integridade `Gpu`, incluindo a ativação e desativação de serviços e o modo de persistência.
  + O identificador da GPU, o ID serial e o UUID.
  + A saída da verificação de integridade.
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`é suportado a partir da AWS ParallelCluster versão 3.6.0.

**`Efa` (**opcional**)**  
Especifica as configurações do Elastic Fabric Adapter (EFA) para os nós na fila Slurm.  

```
Efa:
  Enabled: boolean
  GdrSupport: boolean
```
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Enabled` (**Opcional**, `Boolean`)**  
Especifica que o Elastic Fabric Adapter (EFA) está ativado. Para visualizar a lista de instâncias do Amazon EC2 compatíveis com EFAs, consulte [Tipos de instância compatíveis](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) no *Guia do usuário do Amazon EC2 para instâncias do Linux*. Para obter mais informações, consulte [Elastic Fabric Adapter](efa-v3.md). Recomendamos que você use um cluster [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`Networking`](#Scheduling-v3-SlurmQueues-Networking) / [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) para minimizar as latências entre as instâncias.  
O valor padrão é `false`.  
O Elastic Fabric Adapter (EFA) não é compatível com diferentes zonas de disponibilidade. Para obter mais informações, consulte [SubnetIds](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).
Se você estiver definindo um grupo de segurança personalizado em [SecurityGroups](#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups), certifique-se de que suas instâncias habilitadas para EFA sejam membros de um grupo de segurança que permite todo o tráfego de entrada e saída para si mesmo.
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`GdrSupport` (**Opcional**, `Boolean`)**  
**(Opcional)** A partir do AWS ParallelCluster versão 3.0.2, essa configuração não tem efeito. O suporte do Elastic Fabric Adapter (EFA) para GPUDirect RDMA (acesso direto remoto à memória) está sempre ativado se for suportado pelo tipo de instância do recurso Slurm computacional e do sistema operacional.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityReservationTarget`**  

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
Especifica a reserva de capacidade sob demanda para usar com os recursos de computação da fila.    
**`CapacityReservationId` (**Opcional**, `String`)**  
O ID da reserva de capacidade existente a ser direcionada para os recursos de computação da fila. O ID pode se referir a uma [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) ou a um [Bloco de Capacidade para ML](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html).  
Quando esse parâmetro for especificado no nível do recurso computacional, InstanceType for opcional, ele será automaticamente recuperado da reserva.  
**`CapacityReservationResourceGroupArn` (**Opcional**, `String`)**  
Indica o nome do recurso da Amazon (ARN) do grupo de recursos que serve como o grupo de reservas de capacidade vinculadas ao serviço do recurso de computação. AWS ParallelCluster identifica e usa a reserva de capacidade mais adequada ao grupo. O grupo de recursos deve ter pelo menos um ODCR para cada tipo de instância listado para o recurso de computação. Para obter mais informações, consulte [Iniciar instâncias com Reservas de Capacidade Sob Demanda (ODCR)](launch-instances-odcr-v3.md).  
+ Se `PlacementGroup` estiver habilitado em [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)ou [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster seleciona um grupo de recursos que tem como alvo o tipo de instância e `PlacementGroup` um recurso computacional, se ele existir.

  `PlacementGroup` precisa ter como alvo um dos tipos de instância definidos em [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources).
+ Se `PlacementGroup` não estiver habilitado em [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)ou [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster seleciona um grupo de recursos que tem como alvo somente o tipo de instância de um recurso computacional, se ele existir.
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`CapacityReservationTarget` é adicionado com o AWS ParallelCluster versão 3.3.0.

**`Networking`**  

```
Networking:   
  PlacementGroup:
    Enabled: boolean
    Name: string
```
[Política de atualização: todos os nós de computação devem ser interrompidos para a exclusão de um grupo de posicionamento gerenciado. A frota de computação deve ser interrompida ou QueueUpdateStrategy deve ser configurada para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`PlacementGroup` (**opcional**)**  
Especifica as configurações do grupo de posicionamento para o recurso de computação.    
**`Enabled` (**Opcional**, `Boolean`)**  
Indica se um grupo de posicionamento é usado para o recurso de computação.  
+ Se definido como `true`, sem um `Name` definido, esse recurso de computação receberá seu próprio grupo de posicionamento gerenciado, independentemente da configuração [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`Networking`](#Scheduling-v3-SlurmQueues-Networking) / [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup).
+ Se definido como `true`, sem um `Name` definido, esse recurso de computação receberá seu próprio grupo de posicionamento nomeado, independentemente das configurações `SlurmQueues` / `Networking` / `PlacementGroup`.
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name` (**Opcional**, `String`)**  
O nome do grupo de posicionamento de um grupo de posicionamento de cluster existente usado pelo recurso de computação.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ Se `PlacementGroup` / `Enabled` e `Name` não estiverem definidos, seus respectivos valores serão padronizados para as configurações [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`Networking`](#Scheduling-v3-SlurmQueues-Networking) / [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup).
+ Ao usar uma reserva de bloco de capacidade, uma restrição de grupo de posicionamento não deve ser definida, pois erros de capacidade insuficientes podem ocorrer devido a restrições de posicionamento fora da reserva, mesmo que a reserva de capacidade tenha capacidade restante.
+ `ComputeResources`/`Networking`/`PlacementGroup`é adicionado com a AWS ParallelCluster versão 3.3.0.

**`CustomSlurmSettings` (**Opcional**, `Dict`)**  
**(Opcional)** Define as configurações personalizadas do nó Slurm (recurso de computação).  
Especifica um dicionário de pares de valores-chave de parâmetros de configuração Slurm personalizados que se aplicam aos nós Slurm (recursos de computação).  
Cada par de valores-chave separado, como `Param1: Value1`, é adicionado separadamente ao final da linha de configuração do nó Slurm no formato `Param1=Value1`.  
Você só pode especificar parâmetros de configuração Slurm que não estejam listados como negados em `CustomSlurmSettings`. Para obter mais informações sobre parâmetros de configuração negados do Slurm, consulte [Listado na lista de negação Slurm parâmetros de configuração para `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3).  
AWS ParallelCluster só verifica se um parâmetro está em uma lista de negação. AWS ParallelCluster não valida a sintaxe ou a Slurm semântica do parâmetro de configuração personalizado. É sua responsabilidade validar seus parâmetros de Slurm configuração personalizados. Parâmetros de configuração personalizados do Slurm inválidos podem causar falhas no daemon do Slurm que podem levar a falhas na criação e atualização do cluster.  
Para obter mais informações sobre como especificar parâmetros Slurm de configuração personalizados com AWS ParallelCluster, consulte[Slurm personalização de configuração](slurm-configuration-settings-v3.md).  
Para obter mais informações sobre os parâmetros de configuração Slurm, consulte [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) na documentação do Slurm.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings` é suportado a partir do AWS ParallelCluster versão 3.6.0.

**`Tags` (**Opcional**, [String])**  
Uma lista de pares de tag com chave-valor. As tags `ComputeResource` substituem as tags duplicadas especificadas em [Seção `Tags`](Tags-v3.md) ou [`SlurmQueues`](#yaml-Scheduling-SlurmQueues-Tags) / `Tags`.    
**`Key` (**Opcional**, `String`)**  
A chave de tags.  
**`Value` (**Opcional**, `String`)**  
O valor da tag.
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LaunchTemplateOverrides` (**opcional**)**  
`LaunchTemplateOverrides`é adicionado com a AWS ParallelCluster versão 3.15.0.
Especifica um modelo de execução para substituir o modelo de execução padrão AWS ParallelCluster criado para o recurso computacional. O modelo de lançamento deve conter somente substituições de interfaces de rede. AWS ParallelCluster valida o modelo de lançamento e evita a substituição de outros parâmetros. Para obter mais informações sobre como usar essa substituição, consulte[Personalize as interfaces de rede de nós de computação com substituições de modelos de lançamento](tutorial-network-customization-v3.md).  

```
LaunchTemplateOverrides:
  LaunchTemplateId: string
  Version: string
```  
**`LaunchTemplateId` (**Obrigatório**, `String`)**  
O ID do modelo de execução.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Version` (**Obrigatório**, `String`)**  
O número da versão do modelo de execução.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeSettings`
<a name="Scheduling-v3-SlurmQueues-ComputeSettings"></a>

**(Obrigatório)** Define a configuração `ComputeSettings` para a fila Slurm.

##### Propriedades do `ComputeSettings`
<a name="Scheduling-v3-SlurmQueues-ComputeSettings.properties"></a>

Especifica as propriedades `ComputeSettings` dos nós na fila Slurm.

```
ComputeSettings:
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
     EphemeralVolume:
      MountDir: string
```

[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LocalStorage` (**opcional**)**  
Especifica as propriedades `LocalStorage` dos nós na fila Slurm.  

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
  EphemeralVolume:
    MountDir: string
```
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`RootVolume` (**opcional**)**  
Especifica os detalhes do volume raiz dos nós na fila Slurm.  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
```
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Size` (**Opcional**, `Integer`)**  
Especifica o tamanho do volume raiz em gibibytes (GiB) para os nós na fila Slurm. O tamanho padrão vem da AMI. Usar um tamanho diferente exige que AMI seja compatível com `growroot`.   
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Encrypted` (**Opcional**, `Boolean`)**  
Se `true`, o volume raiz dos nós na fila Slurm ficam criptografados. O valor padrão é `true`.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`VolumeType` (**Opcional**, `String`)**  
Especifica o [tipo de volume do Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) dos nós na fila Slurm. Os valores compatíveis são `gp2`, `gp3`, `io1`, `io2`, `sc1`, `st1` e `standard`. O valor padrão é `gp3`.  
Para obter mais informações, consulte [Tipos de volume do Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) no *Guia do usuário do Amazon EC2*.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Iops` (**Opcional**, `Boolean`)**  
Define o número de IOPS para os volumes do tipo `io1`, `io2` e `gp3`.  
O valor padrão, os valores suportados e a proporção do `volume_iops` para `volume_size` variam de acordo com `VolumeType` e `Size`.    
**`VolumeType` = `io1`**  
Padrão `Iops` = 100  
Valores suportados `Iops` = 100–64000 †  
Proporção máxima de `volume_iops` para `volume_size` = 50 IOPS por GiB. 5000 IOPS exigem um `volume_size` de pelo menos 100 GiB.  
**`VolumeType` = `io2`**  
Padrão `Iops` = 100  
Valores suportados `Iops` = 100–64000 (256000 para volumes do `io2` Block Express) †  
Proporção máxima de `Iops` para `Size` = 500 IOPS por GiB. 5000 IOPS exigem um `Size` de pelo menos 10 GiB.  
**`VolumeType` = `gp3`**  
Padrão `Iops` = 3000  
Valores `Iops` suportados = 3000–16000 †  
Relação de `Iops` máxima `Size` = 500 IOPS por GiB para volumes com IOPS maior que 3000.
† O número máximo de IOPS é garantido somente em [instâncias criadas no Nitro System](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) que também são provisionadas com mais de 32.000 IOPS. Outras instâncias podem ter até 32.000 IOPS. Os volumes de `io1` mais antigos podem não atingir o desempenho total, a menos que você [modifique o volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html). `io2` Os volumes do Block Express oferecem suporte a valores `volume_iops` de até 256000 em tipos de instância `R5b`. Para ter mais informações, consulte [`io2` Block Express volumes](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) no *Guia do usuário do Amazon EC2*.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Throughput` (**Opcional**, `Integer`)**  
Define o throughput para tipos de volume `gp3`, em MiB/s. Isso é válido somente quando `VolumeType` é `gp3`. O valor padrão é `125`. Valores suportados: 125–1000 MiB/s  
A proporção de `Throughput` para `Iops` não pode ser superior a 0,25. A taxa de transferência máxima de 1000 MiB/s exige que a `Iops` configuração seja de pelo menos 4000.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`EphemeralVolume` (**Opcional**, `Boolean`)**  
Especifica as configurações do volume efêmero. O volume efêmero é criado combinando todos os volumes de armazenamento de instâncias em um único volume lógico formatado com o sistema de arquivos `ext4`. O padrão é `/scratch`. Se o tipo de instância não tiver volumes de armazenamento de instâncias, nenhum volume efêmero será criado. Para obter mais informações, consulte [Volumes de armazenamento de instâncias](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes), no *Guia do Usuário do Amazon EC2*.  

```
EphemeralVolume:
  MountDir: string
```
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`MountDir` (**Opcional**, `String`)**  
O diretório de montagem do volume efêmero de cada nó na fila do Slurm.   
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `CustomActions`
<a name="Scheduling-v3-SlurmQueues-CustomActions"></a>

**(Opcional)** Especifica scripts personalizados a serem executados nos nós da fila Slurm.

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```

[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### Propriedades do `CustomActions`
<a name="Scheduling-v3-SlurmQueues-CustomActions.properties"></a>

**`OnNodeStart` (**Opcional**, `String`)**  
Especifica uma sequência de scripts ou um único script a ser executado nos nós da fila Slurm antes que qualquer ação de bootstrap de implantação do nó seja iniciada. AWS ParallelCluster não suporta a inclusão de um único script e `Sequence` da mesma ação personalizada. Para obter mais informações, consulte [Ações de bootstrap personalizadas](custom-bootstrap-actions-v3.md).    
**`Sequence` (**opcional**)**  
Lista de scripts a serem executados.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script` (**Obrigatório**, `String`)**  
O arquivo a ser usado. O caminho do arquivo pode começar com `https://` ou `s3://`.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args` (**Opcional**, `[String]`)**  
Lista de argumentos a serem transmitidos para o script.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script` (**Obrigatório**, `String`)**  
O arquivo a ser usado para um único script. O caminho do arquivo pode começar com `https://` ou `s3://`.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args` (**Opcional**, `[String]`)**  
Lista de argumentos a serem transmitidos para o único script.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`OnNodeConfigured` (**Opcional**, `String`)**  
Especifica uma sequência de scripts ou um único script a ser executado nos nós da fila Slurm após a conclusão de todas as ações de bootstrap do nó. AWS ParallelCluster não suporta a inclusão de um único script e `Sequence` da mesma ação personalizada. Para obter mais informações, consulte [Ações de bootstrap personalizadas](custom-bootstrap-actions-v3.md).    
**`Sequence` (**opcional**)**  
Lista de scripts a serem executados.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script` (**Obrigatório**, `String`)**  
O arquivo a ser usado. O caminho do arquivo pode começar com `https://` ou `s3://`.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args` (**Opcional**, `[String]`)**  
Lista de argumentos a serem transmitidos para o script.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script` (**Obrigatório**, `String`)**  
O arquivo a ser usado para um único script. O caminho do arquivo pode começar com `https://` ou `s3://`.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args` (**Opcional**, `[String]`)**  
Lista de argumentos a serem transmitidos para o script.  
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[Política de atualização: a frota de computação deve ser interrompida ou QueueUpdateStrategy para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`Sequence`é adicionado a partir da AWS ParallelCluster versão 3.6.0. Ao especificar`Sequence`, você pode listar vários scripts para uma ação personalizada. AWS ParallelCluster continua oferecendo suporte à configuração de uma ação personalizada com um único script, sem incluir`Sequence`.  
AWS ParallelCluster não suporta a inclusão de um único script e `Sequence` da mesma ação personalizada.

#### `Iam`
<a name="Scheduling-v3-SlurmQueues-Iam"></a>

**(Opcional)** Define as configurações opcionais do IAM para a fila Slurm.

```
Iam:
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
  InstanceProfile: string
  InstanceRole: string
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

##### Propriedades do `Iam`
<a name="Scheduling-v3-SlurmQueues-Iam.properties"></a>

**`InstanceProfile` (**Opcional**, `String`)**  
Especifica um perfil de instância para substituir a função de instância padrão ou o perfil de instância da fila Slurm. Não é possível especificar ambos `InstanceProfile` e `InstanceRole`. O formato é `arn:${Partition}:iam::${Account}:instance-profile/${InstanceProfileName}`.  
Se isso for especificado, as configurações `S3Access` e `AdditionalIamPolicies` não poderão ser especificadas.  
Recomendamos que você especifique uma ou ambas configurações `S3Access` e `AdditionalIamPolicies`, pois os recursos adicionados ao AWS ParallelCluster geralmente exigem novas permissões.  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceRole` (**Opcional**, `String`)**  
Especifica um perfil de instância para substituir a função de instância padrão ou o perfil de instância da fila Slurm. Não é possível especificar ambos `InstanceProfile` e `InstanceRole`. O formato é `arn:${Partition}:iam::${Account}:role/${RoleName}`.  
Se isso for especificado, as configurações `S3Access` e `AdditionalIamPolicies` não poderão ser especificadas.  
Recomendamos que você especifique uma ou ambas configurações `S3Access` e `AdditionalIamPolicies`, pois os recursos adicionados ao AWS ParallelCluster geralmente exigem novas permissões.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`S3Access` (**opcional**)**  
Especifica um bucket para a fila Slurm. Isso é usado para gerar políticas para conceder o acesso especificado ao bucket na fila Slurm.  
Se isso for especificado, as configurações `InstanceProfile` e `InstanceRole` não poderão ser especificadas.  
Recomendamos que você especifique uma ou ambas configurações `S3Access` e `AdditionalIamPolicies`, pois os recursos adicionados ao AWS ParallelCluster geralmente exigem novas permissões.  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`BucketName` (**Obrigatório**, `String`)**  
O nome do bucket do .  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`KeyName` (**Opcional**, `String`)**  
A chave para o bucket. O valor padrão é `*`.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`EnableWriteAccess` (**Opcional**, `Boolean`)**  
Indica se o acesso de gravação está habilitado para o bucket.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalIamPolicies` (**opcional**)**  
Especifica uma lista de nomes de recursos da Amazon (ARNs) de políticas do IAM para o Amazon EC2. Essa lista é anexada à função raiz usada para a Slurm fila, além das permissões exigidas pelo AWS ParallelCluster.  
O nome da política do IAM e seu ARN são diferentes. Os nomes não podem ser usados.  
Se isso for especificado, as configurações `InstanceProfile` e `InstanceRole` não poderão ser especificadas.  
Recomendamos usar `AdditionalIamPolicies` porque `AdditionalIamPolicies` são adicionadas às permissões exigidas pelo AWS ParallelCluster , e `InstanceRole` deve incluir todas as permissões necessárias. As permissões necessárias muitas vezes são alteradas entre as versões à medida que recursos são adicionados.  
Não há valor padrão.  

```
AdditionalIamPolicies:
  - Policy: string
```
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`Policy` (**Obrigatório**, `[String]`)**  
Lista de políticas do IAM.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmSettings`
<a name="Scheduling-v3-SlurmSettings"></a>

**(Opcional)** Define as configurações para Slurm que se aplicam a todo o cluster.

```
SlurmSettings:
  ScaledownIdletime: integer
  QueueUpdateStrategy: string
  EnableMemoryBasedScheduling: boolean
  CustomSlurmSettings: [dict] 
  CustomSlurmSettingsIncludeFile: string
  Database:
    Uri: string
    UserName: string
    PasswordSecretArn: string
  ExternalSlurmdbd:
    Host: string
    Port: integer
  Dns:
    DisableManagedDns: boolean
    HostedZoneId: string
    UseEc2Hostnames: boolean
```

### Propriedades do `SlurmSettings`
<a name="Scheduling-v3-SlurmSettings.properties"></a>

**`ScaledownIdletime` (**Opcional**, `Integer`)**  
Define por quanto tempo (em minutos) não há trabalho e o nó do Slurm que é encerrado.  
O valor padrão é `10`.  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MungeKeySecretArn` (**Opcional**, `String`)**  
 O Amazon Resource Name (ARN) do segredo em texto simples do Secrets AWS Manager que contém a chave munge codificada em base64 para ser usada no cluster. Slurm Esta chave munge será usada para autenticar chamadas RPC entre comandos do cliente Slurm e daemons Slurm atuando como servidores remotos. Se não MungeKeySecretArn for fornecido, AWS ParallelCluster gerará uma chave munge aleatória para o cluster.  
`MungeKeySecretArn` é compatível a partir do AWS ParallelCluster versão 3.8.0.
Se o MungeKeySecretArn for adicionado recentemente a um cluster existente, não ParallelCluster restaurará a chave munge anterior no caso de uma reversão ou ao remover posteriormente o. MungeKeySecretArn Em vez disso, uma nova chave munge aleatória será gerada.
Se o AWS ParallelCluster usuário tiver permissão para acessar [ DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html)esse recurso secreto específico, MungeKeySecretArn é validado. MungeKeySecretArn é válido se:  
+ O segredo especificado existe e
+ O segredo é texto simples e contém uma string codificada em base64 válida e
+ A chave binária munge decodificada tem um tamanho entre 256 e 8.192 bits.
Se a política do IAM do usuário do pcluster não incluir DescribeSecret, ela não MungeKeySecretArn será validada e uma mensagem de aviso será exibida. Para obter mais informações, consulte [Política básica de usuário `pcluster` do AWS ParallelCluster](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Quando você atualiza MungeKeySecretArn, a frota computacional e todos os nós de login devem ser interrompidos.  
Se o valor secreto no ARN secreto for modificado enquanto o ARN permanecer o mesmo, o cluster não será atualizado automaticamente com a nova chave munge. Para usar a nova chave de munge do ARN secreto, você deve interromper a frota de computação e os nós de login e, em seguida, executar o comando a seguir no nó principal.  
`sudo /opt/parallelcluster/scripts/slurm/update_munge_key.sh`  
Depois de executar o comando, você pode retomar a frota de computação e os nós de login: os nós de computação e login recém-provisionados começarão automaticamente a usar a nova chave munge.  
Para gerar uma chave munge personalizada codificada em base64, você pode usar o [utilitário mungekey](https://github.com/dun/munge/wiki/Man-8-mungekey) distribuído com o software munge e depois codificá-la usando o utilitário base64 geralmente disponível em seu sistema operacional. Como alternativa, você pode usar bash (defina o parâmetro bs entre 32 e 1024)  
`dd if=/dev/random bs=128 count=1 2>/dev/null | base64 -w 0`  
ou Python da seguinte forma:  

```
import random
import os
import base64

# key length in bytes
key_length=128

base64.b64encode(os.urandom(key_length)).decode("utf-8")
```
[Política de atualização: a frota de computação e os nós de login devem ser interrompidos para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md)

**`QueueUpdateStrategy` (**Opcional**, `String`)**  
Especifica a estratégia de substituição para os parâmetros da seção [`SlurmQueues`](#Scheduling-v3-SlurmQueues) que têm a seguinte política de atualização:  
[Política de atualização: a frota de computação deve ser interrompida ou `QueueUpdateStrategy` para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
O valor `QueueUpdateStrategy` é usado somente quando um processo de atualização do cluster é iniciado.  
Valores válidos: `COMPUTE_FLEET_STOP` \$1 `DRAIN` \$1 `TERMINATE`  
Valor padrão: `COMPUTE_FLEET_STOP`    
**`DRAIN`**  
Os nós em filas com valores de parâmetros alterados são definidos como `DRAINING`. Os nós nesse estado não aceitam novos trabalhos e os trabalhos em execução continuam sendo concluídos.  
Depois que um nó se torna `idle` (`DRAINED`), um nó é substituído se o nó for estático e o nó será encerrado se o nó for dinâmico. Outros nós em outras filas sem valores de parâmetros alterados não são afetados.  
O tempo que essa estratégia precisa para substituir todos os nós da fila por valores de parâmetros alterados depende da workload em execução.  
**`COMPUTE_FLEET_STOP`**  
O valor padrão do parâmetro é `QueueUpdateStrategy`. Com essa configuração, a atualização dos parâmetros na [`SlurmQueues`](#Scheduling-v3-SlurmQueues) seção exige que você [interrompa a frota de computação](pcluster.update-compute-fleet-v3.md) antes de realizar uma atualização do cluster:  

```
$ pcluster update-compute-fleet --status STOP_REQUESTED
```  
**`TERMINATE`**  
Em filas com valores de parâmetros alterados, os trabalhos em execução são encerrados e os nós são desligados imediatamente.  
Os nós estáticos são substituídos e os nós dinâmicos são encerrados.  
Outros nós em outras filas sem valores de parâmetros alterados não são afetados.
[Política de atualização: essa configuração não é analisada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)  
`QueueUpdateStrategy` é suportado a partir do AWS ParallelCluster versão 3.2.0.

**`EnableMemoryBasedScheduling` (**Opcional**, `Boolean`)**  
Se `true`, o agendamento baseado em memória estiver habilitado em Slurm. Para obter mais informações, consulte [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) / [`SchedulableMemory`](#yaml-Scheduling-SlurmQueues-ComputeResources-SchedulableMemory).  
O valor padrão é `false`.  
A ativação do agendamento baseado em memória afeta a maneira como o programador Slurm lida com tarefas e alocação de nós.  
Para obter mais informações, consulte [Slurm agendamento baseado em memória](slurm-mem-based-scheduling-v3.md).
`EnableMemoryBasedScheduling` é suportado a partir do AWS ParallelCluster versão 3.2.0.
[A partir da AWS ParallelCluster versão 3.7.0, `EnableMemoryBasedScheduling` pode ser ativado se você configurar vários tipos de instância em Instâncias.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)  
Para AWS ParallelCluster as versões 3.2.0 a 3.6. *x*, não `EnableMemoryBasedScheduling` pode ser ativado se você configurar vários tipos de instância em [Instâncias](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances).
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`CustomSlurmSettings` (**Opcional**, `[Dict]`)**  
Define as configurações de Slurm personalizadas que se aplicam a todo o cluster.  
Especifica uma lista de dicionários de configuração de pares de valores-chave Slurm a serem anexados ao final do arquivo `slurm.conf` que é gerado pelo AWS ParallelCluster .  
Cada dicionário na lista aparece como uma linha separada adicionada ao arquivo de configuração Slurm. Você pode especificar parâmetros simples ou complexos.  
Parâmetros simples consistem em um único par de chaves, conforme mostrado nos exemplos a seguir:  

```
 - Param1: 100
 - Param2: "SubParam1,SubParam2=SubValue2"
```
Exemplo renderizado na configuração Slurm:  

```
Param1=100
Param2=SubParam1,SubParam2=SubValue2
```
Os parâmetros de configuração complexos do Slurm consistem em vários pares de valores-chave separados por espaço, conforme mostrado nos exemplos a seguir:  

```
 - NodeName: test-nodes[1-10]
   CPUs: 4
   RealMemory: 4196
   ... # other node settings
 - NodeSet: test-nodeset
   Nodes: test-nodes[1-10]
   ... # other nodeset settings
 - PartitionName: test-partition
   Nodes: test-nodeset
   ... # other partition settings
```
Exemplo, renderizado na configuração Slurm:  

```
NodeName=test-nodes[1-10] CPUs=4 RealMemory=4196 ... # other node settings
NodeSet=test-nodeset Nodes=test-nodes[1-10] ... # other nodeset settings
PartitionName=test-partition Nodes=test-nodeset ... # other partition settings
```
Os nós personalizados do Slurm não devem conter os padrões `-st-` ou `-dy-` em seus nomes. Esses padrões são reservados para nós gerenciados pelo AWS ParallelCluster.
Se você especificar parâmetros de configuração Slurm personalizados em `CustomSlurmSettings`, não deverá especificar parâmetros de configuração Slurm personalizados para `CustomSlurmSettingsIncludeFile`.  
Você só pode especificar parâmetros de configuração Slurm que não estejam listados como negados em `CustomSlurmSettings`. Para obter mais informações sobre parâmetros de configuração negados do Slurm, consulte [Listado na lista de negação Slurm parâmetros de configuração para `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3).  
AWS ParallelCluster só verifica se um parâmetro está em uma lista de negação. AWS ParallelCluster não valida a sintaxe ou a Slurm semântica do parâmetro de configuração personalizado. É sua responsabilidade validar seus parâmetros de Slurm configuração personalizados. Parâmetros de configuração personalizados do Slurm inválidos podem causar falhas no daemon do Slurm que podem levar a falhas na criação e atualização do cluster.  
Para obter mais informações sobre como especificar parâmetros Slurm de configuração personalizados com AWS ParallelCluster, consulte[Slurm personalização de configuração](slurm-configuration-settings-v3.md).  
Para obter mais informações sobre os parâmetros de configuração Slurm, consulte [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) na documentação do Slurm.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings` é suportado a partir do AWS ParallelCluster versão 3.6.0.

**`CustomSlurmSettingsIncludeFile` (**Opcional**, `String`)**  
Define as configurações de Slurm personalizadas que se aplicam a todo o cluster.  
Especifica o arquivo Slurm personalizado que consiste em parâmetros de configuração Slurm personalizados a serem anexados ao final do arquivo `slurm.conf` que é gerado pelo AWS ParallelCluster .  
Você deve incluir o caminho para o arquivo. O caminho do arquivo pode começar com `https://` ou `s3://`.  
Se você especificar parâmetros de configuração Slurm personalizados para `CustomSlurmSettingsIncludeFile`, você não deverá especificar parâmetros de configuração Slurm personalizados para `CustomSlurmSettings`.  
Os nós personalizados do Slurm não devem conter os padrões `-st-` ou `-dy-` em seus nomes. Esses padrões são reservados para nós gerenciados pelo AWS ParallelCluster.
Você só pode especificar parâmetros de configuração Slurm que não estejam listados como negados em `CustomSlurmSettingsIncludeFile`. Para obter mais informações sobre parâmetros de configuração negados do Slurm, consulte [Listado na lista de negação Slurm parâmetros de configuração para `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3).  
AWS ParallelCluster só verifica se um parâmetro está em uma lista de negação. AWS ParallelCluster não valida a sintaxe ou a Slurm semântica do parâmetro de configuração personalizado. É sua responsabilidade validar seus parâmetros de Slurm configuração personalizados. Parâmetros de configuração personalizados do Slurm inválidos podem causar falhas no daemon do Slurm que podem levar a falhas na criação e atualização do cluster.  
Para obter mais informações sobre como especificar parâmetros Slurm de configuração personalizados com AWS ParallelCluster, consulte[Slurm personalização de configuração](slurm-configuration-settings-v3.md).  
Para obter mais informações sobre os parâmetros de configuração Slurm, consulte [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) na documentação do Slurm.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings` é suportado a partir do AWS ParallelCluster versão 3.6.0.

### `Database`
<a name="Scheduling-v3-SlurmSettings-Database"></a>

**(Opcional)** Define as configurações para ativar a contabilidade de Slurm no cluster. Para obter mais informações, consulte [Slurmcontabilidade com AWS ParallelCluster](slurm-accounting-v3.md).

```
Database:
   Uri: string
   UserName: string
   PasswordSecretArn: string
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### Propriedades do `Database`
<a name="Scheduling-v3-SlurmSettings-Database.properties"></a>

**`Uri` (**Obrigatório**, `String`)**  
O endereço do servidor de banco de dados usado como back-end para a contabilidade Slurm. Esse URI deve ser formatado como `host:port` e não deve conter um esquema, como `mysql://`. O host pode ser um endereço IP ou um nome DNS que pode ser resolvido pelo nó principal. Se uma porta não for fornecida, AWS ParallelCluster usa a porta MySQL padrão 3306.  
AWS ParallelCluster inicializa o banco de dados Slurm contábil no cluster e deve acessar o banco de dados.  
O banco de dados deve estar acessível antes que o seguinte ocorra:  
+ Um cluster é criado.
+ A contabilidade de Slurm é habilitada com uma atualização de cluster.
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`UserName` (**Obrigatório**, `String`)**  
A identidade usada por Slurm para se conectar ao banco de dados, gravar logs contábeis e realizar consultas. O usuário deve ter as permissões de leitura e gravação no banco de dados.  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`PasswordSecretArn` (**Obrigatório**, `String`)**  
O Amazon Resource Name (ARN) do AWS Secrets Manager segredo que contém a senha em texto `UserName` simples. Essa senha é usada junto com a contabilidade `UserName` a Slurm para autenticar no servidor de banco de dados.  
+ Ao criar um segredo usando o AWS Secrets Manager console, certifique-se de selecionar “Outro tipo de segredo”, selecionar texto simples e incluir apenas o texto da senha no segredo.
+ Você não pode usar o caractere '\$1' na senha do banco de dados, pois o Slurm não o suporta no slurmdbd.conf.
+ Para obter mais informações sobre como usar AWS Secrets Manager para criar um segredo, consulte [Criar um AWS Secrets Manager segredo](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret).
Se o usuário tiver a permissão para [DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html), `PasswordSecretArn` é validado. `PasswordSecretArn` é válido se o segredo especificado existir. Se a política do IAM do usuário não incluir `DescribeSecret`, `PasswordSecretArn` não for validada e uma mensagem de aviso será exibida. Para obter mais informações, consulte [Política básica de usuário `pcluster` do AWS ParallelCluster](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Quando você atualiza `PasswordSecretArn`, a frota de computação deve ser interrompida. Se o valor secreto mudar e o ARN secreto não mudar, o cluster não será atualizado automaticamente com a nova senha do banco de dados. Para atualizar o cluster para o novo valor secreto, você deve executar o comando a seguir de dentro do nó principal depois que a frota de computação for interrompida.  

```
$ sudo /opt/parallelcluster/scripts/slurm/update_slurm_database_password.sh
```
Recomendamos que você altere a senha do banco de dados somente quando a frota de computação for interrompida para evitar a perda de dados contábeis.
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`DatabaseName` (**Opcional**, `String`)**  
Nome do banco de dados no servidor de banco de dados (definido pelo parâmetro Uri) a ser usado para contabilidade do Slurm.  
O nome do banco de dados pode conter letras minúsculas, números e sublinhados. O nome não pode ter mais de 64 caracteres.  
Esse parâmetro mapeia para o parâmetro `StorageLoc` [slurmdbd.conf](https://slurm.schedmd.com/slurmdbd.conf.html#OPT_StorageLoc).  
Se não `DatabaseName` for fornecido, ParallelCluster usará o nome do cluster para definir um valor para`StorageLoc`.  
A atualização do `DatabaseName` é permitida, com as seguintes considerações:  
+ Se um banco de dados com um nome ainda DatabaseName não existir no servidor de banco de dados, o slurmdbd o criará. Será sua responsabilidade reconfigurar o novo banco de dados conforme necessário (por exemplo, adicionar as entidades contábeis — clusters, contas, usuários QOSs, associações etc.).
+ Se um banco de dados com um nome DatabaseName já existir no servidor de banco de dados, o slurmdbd o usará para a Slurm funcionalidade de contabilidade.
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**nota**  
`Database` é adicionado a partir da versão 3.3.0.

### ExternalSlurmdbd
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd"></a>

**(Opcional)** Define as configurações para ativar a contabilidade do Slurm com um servidor slurmdbd externo. Para obter mais informações, consulte [Slurmcontabilidade com AWS ParallelCluster](slurm-accounting-v3.md).

```
ExternalSlurmdbd:
  Host: string
  Port: integer
```

#### Propriedades do `ExternalSlurmdbd`
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd.properties"></a>

** `Host` (**Obrigatório**, `String`)**  
O endereço para o servidor slurmdbd externo para contabilidade Slurm. O host pode ser um endereço IP ou um nome DNS que pode ser resolvido pelo nó principal.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

** `Port` (**Opcional**, `Integer`)**  
A porta que o serviço slurmdbd escuta. O valor padrão é `6819`.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Dns`
<a name="Scheduling-v3-SlurmSettings-Dns"></a>

**(Opcional)** Define as configurações para Slurm que se aplicam a todo o cluster.

```
Dns:
  DisableManagedDns: boolean
  HostedZoneId: string
  UseEc2Hostnames: boolean
```

#### Propriedades do `Dns`
<a name="Scheduling-v3-SlurmSettings-Dns.properties"></a>

**`DisableManagedDns` (**Opcional**, `Boolean`)**  
Se `true`, as entradas de DNS do cluster não forem criadas e os nomes dos nós Slurm não puderem ser resolvidos.  
Por padrão, AWS ParallelCluster cria uma zona hospedada do Route 53 na qual os nós são registrados quando iniciados. O valor padrão é `false`. Se `DisableManagedDns` estiver definido como`true`, a zona hospedada não será criada por AWS ParallelCluster.  
Para saber como usar essa configuração para implantar clusters em sub-redes sem acesso à Internet, consulte [AWS ParallelCluster em uma única sub-rede sem acesso à Internet](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md).  
É necessário um sistema de resolução de nomes para que o cluster funcione adequadamente. Se `DisableManagedDns` estiver definido como `true`, você deverá fornecer um sistema de resolução de nomes. Para usar o DNS padrão do Amazon EC2, defina `UseEc2Hostnames` como `true`. Como alternativa, configure seu próprio resolvedor de DNS e certifique-se de que os nomes dos nós sejam registrados quando as instâncias forem iniciadas. Por exemplo, você pode fazer isso configurando [`CustomActions`](#Scheduling-v3-SlurmQueues-CustomActions) / [`OnNodeStart`](#yaml-Scheduling-SlurmQueues-CustomActions-OnNodeStart).
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`HostedZoneId` (**Opcional**, `String`)**  
Define uma ID de zona hospedada personalizada do Route 53 a ser usada na resolução de nomes DNS para o cluster. Quando fornecido, AWS ParallelCluster registra os nós do cluster na zona hospedada especificada e não cria uma zona hospedada gerenciada.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`UseEc2Hostnames` (**Opcional**, `Boolean`)**  
Se `true`, os nós de computação do cluster são configurados com o nome de host EC2 padrão. O `NodeHostName` do Slurm também é atualizado com essas informações. O padrão é `false`.  
Para saber como usar essa configuração para implantar clusters em sub-redes sem acesso à Internet, consulte [AWS ParallelCluster em uma única sub-rede sem acesso à Internet](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md).  
**Esta nota não é relevante a partir do AWS ParallelCluster versão 3.3.0.**  
Para versões AWS ParallelCluster compatíveis anteriores à 3.3.0:  
Quando `UseEc2Hostnames` definido como`true`, o arquivo de configuração do Slurm é definido com os scripts AWS ParallelCluster `prolog` e`epilog`:  
+ O `prolog` é executado para adicionar informações sobre nós ao `/etc/hosts` nos nós de computação quando cada trabalho é alocado.
+ O `epilog` é executado para limpar o conteúdo escrito pelo `prolog`.
Para adicionar scripts personalizados `prolog` ou `epilog`, adicione-os às pastas `/opt/slurm/etc/pcluster/prolog.d/` ou `/opt/slurm/etc/pcluster/epilog.d/`, respectivamente.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Seção `SharedStorage`
<a name="SharedStorage-v3"></a>

**(Opcional)** As configurações de armazenamento compartilhado do cluster.

AWS ParallelCluster [suporta o uso do [Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AmazonEBS.html), [FSx para ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/what-is-fsx-ontap.html) e [FSx para volumes de armazenamento compartilhado OpenZFS](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/what-is-fsx.html), Amazon [EFS](https://docs.aws.amazon.com/efs/latest/ug/whatisefs.html) e [FSx para sistemas de arquivos de armazenamento compartilhado Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html) ou caches de arquivos.](https://docs.aws.amazon.com/fsx/latest/FileCacheGuide/what-is.html)

Na seção `SharedStorage`, você pode definir armazenamento externo ou gerenciado:
+ O **armazenamento externo** se refere a um volume ou sistema de arquivos existente que você gerencia. AWS ParallelCluster não o cria nem o exclui.
+ **AWS ParallelCluster armazenamento gerenciado** se refere a um volume ou sistema de arquivos AWS ParallelCluster criado e que pode ser excluído.

Para obter [cotas de armazenamento compartilhado](shared-storage-quotas-v3.md) e obter mais informações sobre como configurar seu armazenamento compartilhado, consulte [Armazenamento compartilhado](shared-storage-quotas-integration-v3.md) *Usando AWS ParallelCluster*.

**nota**  
Se AWS Batch for usado como um programador, FSx o Lustre só estará disponível no nó principal do cluster.

```
SharedStorage:
  - MountDir: string
    Name: string
    StorageType: Ebs
    EbsSettings:
      VolumeType: string
      Iops: integer
      Size: integer
      Encrypted: boolean
      KmsKeyId: string
      SnapshotId: string
      Throughput: integer
      VolumeId: string
      DeletionPolicy: string
      Raid:
        Type: string
        NumberOfVolumes: integer
  - MountDir: string
    Name: string
    StorageType: Efs
    EfsSettings:
      Encrypted: boolean
      KmsKeyId: string
      EncryptionInTransit: boolean
      IamAuthorization: boolean
      PerformanceMode: string
      ThroughputMode: string
      ProvisionedThroughput: integer
      FileSystemId: string
      DeletionPolicy: string
      AccessPointId: string
  - MountDir: string
    Name: string
    StorageType: FsxLustre
    FsxLustreSettings:
      StorageCapacity: integer
      DeploymentType: string
      ImportedFileChunkSize: integer
      DataCompressionType: string
      ExportPath: string
      ImportPath: string
      WeeklyMaintenanceStartTime: string
      AutomaticBackupRetentionDays: integer
      CopyTagsToBackups: boolean
      DailyAutomaticBackupStartTime: string
      PerUnitStorageThroughput: integer
      BackupId: string
      KmsKeyId: string
      FileSystemId: string
      AutoImportPolicy: string
      DriveCacheType: string
      StorageType: string
      DeletionPolicy: string
      DataRepositoryAssociations:
      - Name: string
        BatchImportMetaDataOnCreate: boolean
        DataRepositoryPath: string
        FileSystemPath: string
        ImportedFileChunkSize: integer
        AutoExportPolicy: string
        AutoImportPolicy: string
  - MountDir: string
    Name: string
    StorageType: FsxOntap
    FsxOntapSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FsxOpenZfs
    FsxOpenZfsSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FileCache
    FileCacheSettings:
      FileCacheId: string
```

## Políticas de atualização do `SharedStorage`
<a name="SharedStorage-v3.update-policies"></a>
+ Para managed/external EBS, EFS gerenciado e FSx Lustre gerenciado, a política de atualização é [Política de atualização: para essa configuração de valores de lista, a frota de computação deve ser interrompida ou QueueUpdateStrategy deve ser configurada para agregar um novo valor; a frota de computação deve ser interrompida ao remover um valor existente.](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)
+ Para EFS, FSx Lustre, FSx ONTAP FSx OpenZfs e File Cache externos, a política de atualização é, [Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## Propriedades do `SharedStorage`
<a name="SharedStorage-v3.properties"></a>

`MountDir` (**Obrigatório**, `String`)  
O caminho para o local em que o armazenamento compartilhado está montado.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Name` (**Obrigatório**, `String`)  
O nome do armazenamento compartilhado. Use esse nome ao atualizar as configurações.  
Se você especificar armazenamento compartilhado AWS ParallelCluster gerenciado e alterar o valor para`Name`, o armazenamento compartilhado gerenciado e os dados existentes serão excluídos e um novo armazenamento compartilhado gerenciado será criado. Alterar o valor de `Name` com uma atualização de cluster equivale a substituir o armazenamento compartilhado gerenciado existente por um novo. Certifique-se de fazer backup de seus dados antes de alterá-los `Name` se precisar reter os dados do armazenamento compartilhado existente.
[Política de atualização: para essa configuração de valores de lista, a frota de computação deve ser interrompida ou QueueUpdateStrategy deve ser configurada para agregar um novo valor; a frota de computação deve ser interrompida ao remover um valor existente.](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)

`StorageType` (**Obrigatório**, `String`)  
O tipo do armazenamento compartilhado. Os valores compatíveis são `Ebs`, `Efs`, `FsxLustre`, `FsxOntap` e `FsxOpenZfs`.  
Para obter mais informações, consulte [`FsxLustreSettings`](#SharedStorage-v3-FsxLustreSettings), [`FsxOntapSettings`](#SharedStorage-v3-FsxOntapSettings) e [`FsxOpenZfsSettings`](#SharedStorage-v3-FsxOpenZfsSettings).  
Se você usa AWS Batch como programador, FSx o Lustre só está disponível no nó principal do cluster.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EbsSettings`
<a name="SharedStorage-v3-EbsSettings"></a>

**(Opcional)** As configurações de um volume do Amazon EBS.

```
EbsSettings:
  VolumeType: string
  Iops: integer
  Size: integer
  Encrypted: boolean
  KmsKeyId: string
  SnapshotId: string
  VolumeId: string
  Throughput: integer
  DeletionPolicy: string
  Raid:
    Type: string
    NumberOfVolumes: integer
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriedades do `EbsSettings`
<a name="SharedStorage-v3-EbsSettings.properties"></a>

Quando definido como`Delete`, um volume gerenciado, com seus dados, é excluído se o cluster for excluído ou se o volume for removido com uma atualização do cluster. [DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy) 

Para obter mais informações, consulte [Armazenamento compartilhado](shared-storage-quotas-integration-v3.md) em *Como usar o AWS ParallelCluster*.

`VolumeType` (**Opcional**, `String`)  
Especifica o [tipo de volume do Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html). Os valores compatíveis são `gp2`, `gp3`, `io1`, `io2`, `sc1`, `st1` e `standard`. O valor padrão é `gp3`.  
Para obter mais informações, consulte [Tipos de volume do Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) no *Guia do usuário do Amazon EC2*.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Iops` (**Opcional**, `Integer`)  
Define o número de IOPS para os volumes do tipo `io1`, `io2` e `gp3`.  
O valor padrão, os valores suportados e a proporção do `volume_iops` para `volume_size` variam de acordo com `VolumeType` e `Size`.    
`VolumeType` = `io1`  
Padrão `Iops` = 100  
Valores suportados `Iops` = 100–64000 †  
Proporção máxima de `volume_iops` para `volume_size` = 50 IOPS para cada GiB. 5000 IOPS exigem um `volume_size` de pelo menos 100 GiB.  
`VolumeType` = `io2`  
Padrão `Iops` = 100  
Valores suportados `Iops` = 100–64000 (256000 para volumes do `io2` Block Express) †  
Proporção máxima de `Iops` para `Size` = 500 IOPS para cada GiB. 5000 IOPS exigem um `Size` de pelo menos 10 GiB.  
`VolumeType` = `gp3`  
Padrão `Iops` = 3000  
Valores suportados `Iops` = 3000–16000  
Proporção máxima de `Iops` para `Size` = 500 IOPS para cada GiB. 5000 IOPS exigem um `Size` de pelo menos 10 GiB.
† O número máximo de IOPS é garantido somente em [instâncias criadas no Nitro System](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) provisionadas com mais de 32.000 IOPS. Outras instâncias garantem até 32.000 IOPS. A menos que você [modifique o volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html), os volumes de `io1` mais antigos podem não atingir o desempenho total. `io2` Os volumes do Block Express oferecem suporte a valores `volume_iops` de até 256000 em tipos de instância `R5b`. Para ter mais informações, consulte [`io2` Block Express volumes](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) no *Guia do usuário do Amazon EC2*.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Size` (**Opcional**, `Integer`)  
Especifica o tamanho do volume raiz em gibibytes (GiB). O valor padrão é 35.   
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Encrypted` (**Opcional**, `Boolean`)  
Especifica se o volume está criptografado. O valor padrão é `true`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId` (**Opcional**, `String`)  
Especifica uma AWS KMS chave personalizada a ser usada para criptografia. Essa configuração requer que a configuração `Encrypted` seja definida como `true`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SnapshotId` (**Opcional**, `String`)  
Especifica o ID do snapshot do Amazon EBS, caso esteja usando um snapshot como a origem do volume.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`VolumeId` (**Opcional**, `String`)  
Especifica o ID de volume do Amazon EBS. Quando isso é especificado para uma instância `EbsSettings`, somente o parâmetro `MountDir` também pode ser especificado.  
O volume deve ser criado na mesma zona de disponibilidade do `HeadNode`.  
Várias zonas de disponibilidade foram adicionadas na AWS ParallelCluster versão 3.4.0.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Throughput` (**Opcional**, `Integer`)  
A taxa de transferência, MiB/s para provisionar um volume, com um máximo de 1.000 MiB/s.  
Isso é válido somente quando `VolumeType` é `gp3`. O intervalo compatível é de 125 a 1000, com um valor padrão de 125.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DeletionPolicy` (**Opcional**, `String`)  
Especifica se o volume deve ser retido, excluído ou capturado quando o cluster é excluído ou o volume é removido. Os valores suportados são `Delete`, `Retain` e `Snapshot`. O valor padrão é `Delete`.  
Quando [DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy)definido como`Delete`, um volume gerenciado, com seus dados, é excluído se o cluster for excluído ou se o volume for removido com uma atualização do cluster.  
Para obter mais informações, consulte [Armazenamento compartilhado](shared-storage-quotas-integration-v3.md).  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`é suportado a partir da AWS ParallelCluster versão 3.2.0.

### `Raid`
<a name="SharedStorage-v3-EbsSettings-Raid"></a>

**(Opcional)** Define a configuração de um volume RAID.

```
Raid:
  Type: string
  NumberOfVolumes: integer
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

#### Propriedades do `Raid`
<a name="SharedStorage-v3-EbsSettings-Raid.properties"></a>

`Type` (**Obrigatório**, `String`)  
Define o tipo de matriz RAID. Os valores suportados são "0" (distribuído) e "1" (espelhado).  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`NumberOfVolumes` (**Opcional**, `Integer`)  
Define o número de volumes do Amazon EBS a usar para criar a matriz de RAID. O intervalo de valores compatível é de 2 a 5. O valor padrão (quando a configuração `Raid` é definida) é 2.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EfsSettings`
<a name="SharedStorage-v3-EfsSettings"></a>

**(Opcional)** As configurações de um sistema de arquivos do Amazon EFS.

```
EfsSettings:
  Encrypted: boolean
  KmsKeyId: string
  EncryptionInTransit: boolean
  IamAuthorization: boolean
  PerformanceMode: string
  ThroughputMode: string
  ProvisionedThroughput: integer
  FileSystemId: string
  DeletionPolicy: string
  AccessPointId: string
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriedades do `EfsSettings`
<a name="SharedStorage-v3-EfsSettings.properties"></a>

Quando [DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)definido como`Delete`, um sistema de arquivos gerenciado, com seus dados, é excluído se o cluster for excluído ou se o sistema de arquivos for removido com uma atualização do cluster.

Para obter mais informações, consulte [Armazenamento compartilhado](shared-storage-quotas-integration-v3.md) em *Como usar o AWS ParallelCluster*.

`Encrypted` (**Opcional**, `Boolean`)  
Especifica se o sistema de arquivos Amazon EFS está criptografado. O valor padrão é `false`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId` (**Opcional**, `String`)  
Especifica uma AWS KMS chave personalizada a ser usada para criptografia. Essa configuração requer que a configuração `Encrypted` seja definida como `true`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EncryptionInTransit` (**Opcional**, `Boolean`)  
Se definido como `true`, os sistemas de arquivos do Amazon EFS são montados usando Transport Layer Security (TLS). Por padrão, isso é definido como `false`.  
Se AWS Batch for usado como agendador, `EncryptionInTransit` não é suportado.
`EncryptionInTransit` é adicionado a partir do AWS ParallelCluster versão 3.4.0.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`IamAuthorization` (**Opcional**, `Boolean`)  
`IamAuthorization`é adicionado a partir da AWS ParallelCluster versão 3.4.0.  
Se definido como `true`, o Amazon EFS é autenticado usando a identidade IAM do sistema. Por padrão, isso é definido como `false`.  
Se `IamAuthorization` estiver definido como `true`, o `EncryptionInTransit` também deverá ser definido como `true`.
Se AWS Batch for usado como agendador, `IamAuthorization` não é suportado.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`PerformanceMode` (**Opcional**, `String`)  
Especifica o modo de desempenho do sistema de arquivos do Amazon EFS. Os valores compatíveis são `generalPurpose` e `maxIO`. O valor padrão é `generalPurpose`. Para obter mais informações, consulte [Performance modes](https://docs.aws.amazon.com/efs/latest/ug/performance.html#performancemodes) (Modos de performance) no *Guia do usuário do Amazon Elastic File System*.  
Recomendamos o modo de desempenho `generalPurpose` para a maioria dos sistemas de arquivos.  
Os sistemas de arquivos que usam o modo de desempenho `maxIO` podem ser dimensionados para níveis superiores de throughput e operações por segundo agregadas. No entanto, há um compromisso com latências um pouco mais altas para a maioria das operações de arquivo.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ThroughputMode` (**Opcional**, `String`)  
Especifica o modo de throughput do sistema de arquivos do Amazon EFS. Os valores compatíveis são `bursting` e `provisioned`. O valor padrão é `bursting`. Quando o `provisioned` é usado, `ProvisionedThroughput` deve ser especificado.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ProvisionedThroughput` (**Exigido** quando `ThroughputMode` é `provisioned`, `Integer`)  
Define a taxa de transferência provisionada (em. MiB/s) of the Amazon EFS file system, measured in MiB/s Isso corresponde ao [ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps)parâmetro na *Referência da API do Amazon EFS*.  
Se você usar esse parâmetro, deverá definir `ThroughputMode` como `provisioned`.  
O intervalo compatível é `1`-`1024`. Para solicitar um aumento de limite, entre em contato com o Suporte.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`FileSystemId` (**Opcional**, `String`)  
Define o ID do sistema de arquivos do Amazon EFS para um sistema de arquivos existente.  
Se o cluster estiver configurado para abranger várias zonas de disponibilidade, você deverá definir um destino de montagem do sistema de arquivos em cada zona de disponibilidade usada pelo cluster.  
Quando isso é especificado, somente `MountDir` pode ser especificado. Nenhum outro `EfsSettings` pode ser especificado.  

**Se você definir essa opção, o seguinte deverá ocorrer para os sistemas de arquivos definidos:**
+ Sistemas de arquivos que têm um destino de montagem existente na zona de disponibilidade do cluster, com o tráfego de entrada e saída do NFS permitidos a partir de `HeadNode` e `ComputeNodes`. Várias zonas de disponibilidade são configuradas em [Scheduling](Scheduling-v3.md)//[Networking [SlurmQueues](Scheduling-v3.md#Scheduling-v3-SlurmQueues)](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[SubnetIds](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).

  

**Para garantir que o tráfego seja permitido entre o cluster e o sistema de arquivos, você pode fazer o seguinte:**
  + Configure os grupos de segurança do destino de montagem para permitir o tráfego de e para o CIDR ou a lista de prefixos das sub-redes do cluster.
**nota**  
AWS ParallelCluster valida se as portas estão abertas e se o CIDR ou a lista de prefixos estão configurados. AWS ParallelCluster não valida o conteúdo do bloco CIDR ou da lista de prefixos.
  + Defina grupos de segurança personalizados para nós de cluster usando [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues) / [`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking) / [`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) e [`HeadNode`](HeadNode-v3.md) / [`Networking`](HeadNode-v3.md#HeadNode-v3-Networking) / [`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Os grupos de segurança personalizados devem ser configurados para permitir o tráfego entre o cluster e o sistema de arquivos.
**nota**  
Se todos os nós do cluster usarem grupos de segurança personalizados, AWS ParallelCluster somente valida se as portas estão abertas. AWS ParallelCluster não valida se a origem e o destino estão configurados corretamente.
 OneZone O EFS só é suportado se todos os nós de computação e o nó principal estiverem na mesma zona de disponibilidade. O EFS só OneZone pode ter um alvo de montagem.
Várias zonas de disponibilidade foram adicionadas na AWS ParallelCluster versão 3.4.0.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy` (**Opcional**, `String`)  
Especifica se o sistema de arquivos deve ser retido ou excluído quando o sistema de arquivos é removido do cluster ou o cluster é excluído. Os valores suportados são `Delete` e `Retain`. O valor padrão é `Delete`.  
Quando definido como`Delete`, um sistema de arquivos gerenciado, com seus dados, é excluído se o cluster for excluído ou se o sistema de arquivos for removido com uma atualização do cluster. [DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)  
Para obter mais informações, consulte [Armazenamento compartilhado](shared-storage-quotas-integration-v3.md).  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`é suportado a partir da AWS ParallelCluster versão 3.3.0.

`AccessPointId` (**Opcional**, `String`)  
Se essa opção for especificada, o ponto de acesso do sistema de arquivos definido por `access point ID` será montado em vez da raiz do sistema de arquivos.  
Para obter mais informações, consulte [Armazenamento compartilhado](shared-storage-quotas-integration-v3.md).  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxLustreSettings`
<a name="SharedStorage-v3-FsxLustreSettings"></a>

**nota**  
Você deve definir `FsxLustreSettings` se `FsxLustre` é especificado para [`StorageType`](#yaml-SharedStorage-StorageType).

**(Opcional)** As configurações de um sistema FSx de arquivos do Lustre.

```
FsxLustreSettings:
  StorageCapacity: integer
  DeploymentType: string
  ImportedFileChunkSize: integer
  DataCompressionType: string
  ExportPath: string
  ImportPath: string
  WeeklyMaintenanceStartTime: string
  AutomaticBackupRetentionDays: integer
  CopyTagsToBackups: boolean
  DailyAutomaticBackupStartTime: string
  PerUnitStorageThroughput: integer
  BackupId: string # BackupId cannot coexist with some of the fields
  KmsKeyId: string
  FileSystemId: string # FileSystemId cannot coexist with other fields
  AutoImportPolicy: string
  DriveCacheType: string
  StorageType: string
  DeletionPolicy: string
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**nota**  
Se AWS Batch for usado como um programador, FSx o Lustre só estará disponível no nó principal do cluster.

### Propriedades do `FsxLustreSettings`
<a name="SharedStorage-v3-FsxLustreSettings.properties"></a>

Quando definido como`Delete`, um sistema de arquivos gerenciado, com seus dados, é excluído se o cluster for excluído ou se o sistema de arquivos for removido com uma atualização do cluster. [DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)

Para obter mais informações, consulte [Armazenamento compartilhado](shared-storage-quotas-integration-v3.md).

`StorageCapacity` (**Obrigatório**, `Integer`)  
Define a capacidade de armazenamento do sistema de arquivos FSx for Lustre, em GiB. `StorageCapacity`é necessário se você estiver criando um novo sistema de arquivos. Não inclua `StorageCapacity` se `BackupId` ou `FileSystemId` estiver especificado.  
+ Para tipos de implantação `SCRATCH_2`, `PERSISTENT_1` e `PERSISTENT_2`, os valores válidos são de 1200 GiB, 2400 GiB e incrementos de 2400 GiB.
+ Para o tipo de implantação `SCRATCH_1`, os valores válidos são de 1200 GiB, 2400 GiB e incrementos de 3600 GiB.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeploymentType` (**Opcional**, `String`)  
Especifica o tipo de implantação do sistema de arquivos FSx for Lustre. Os valores compatíveis são `SCRATCH_1`, `SCRATCH_2`, `PERSISTENT_1` e `PERSISTENT_2`. O valor padrão é `SCRATCH_2`.  
Escolha os tipos de implantação `SCRATCH_1` e `SCRATCH_2` quando precisar de armazenamento temporário e processamento de dados de prazo mais curto. O tipo de implantação `SCRATCH_2` fornece criptografia de dados em trânsito e capacidade de throughput de intermitência mais alta que o `SCRATCH_1`.  
Escolha o tipo de `PERSISTENT_1` implantação para armazenamento de longo prazo e para cargas de trabalho focadas na taxa de transferência que não sejam sensíveis à latência. `PERSISTENT_1`suporta criptografia de dados em trânsito. Ele está disponível em todos os Regiões da AWS lugares onde FSx o Lustre está disponível.  
Escolha o tipo de implantação `PERSISTENT_2` para armazenamento de prazo mais longo e para workloads sensíveis à latência que exigem os níveis mais altos de IOPS e throughput. `PERSISTENT_2` é compatível com o armazenamento SSD e oferece maior `PerUnitStorageThroughput` (até 1000 MB/s/TiB). `PERSISTENT_2` está disponível em um número limitado de Regiões da AWS. Para obter mais informações sobre os tipos de implantação e a lista de Regiões da AWS onde `PERSISTENT_2` está disponível, consulte [Opções de implantação do sistema de arquivos FSx para o Lustre no Guia](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html#lustre-deployment-types) do *usuário do Amazon FSx for Lustre*.  
A criptografia de dados em trânsito é habilitada automaticamente quando você acessa um sistema de arquivos de tipo de implantação `SCRATCH_2`, `PERSISTENT_1` ou `PERSISTENT_2` de instâncias do Amazon EC2 que são compatíveis com [esse recurso](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/data-protection.html).  
A criptografia de dados em trânsito dos tipos de implantação `SCRATCH_2`, `PERSISTENT_1` e `PERSISTENT_2` é compatível quando acessada de tipos de instância compatíveis em Regiões da AWS compatíveis. Para obter mais informações, consulte [Criptografar dados em trânsito no](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html) Guia do *usuário do Amazon FSx for Lustre.*  
Suporte para o tipo de implantação `PERSISTENT_2` foi adicionado com o AWS ParallelCluster versão 3.2.0.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize` (**Opcional**, `Integer`)  
Para arquivos que são importados de um repositório de dados, esse valor determina a contagem de stripes e a quantidade máxima de dados para cada arquivo (em MiB) armazenados em um único disco físico. O número máximo de discos nos quais um único arquivo pode ser distribuído é limitado pelo número total de discos que compõem o sistema de arquivos.  
O tamanho de bloco padrão é 1.024 MiB (1 GiB) e pode chegar até 512.000 MiB (500 GiB). Os objetos do Amazon S3 têm um tamanho máximo de 5 TB.  
Esse parâmetro não é compatível com sistemas de arquivos que usam o tipo de `PERSISTENT_2` implantação. Para obter instruções sobre como configurar associações de repositórios de dados, consulte Como [vincular seu sistema de arquivos a um bucket do S3 no Guia do usuário](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) do *Amazon FSx for Lustre*.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataCompressionType` (**Opcional**, `String`)  
Define a configuração de compactação de dados FSx para o sistema de arquivos for Lustre. O valor suportado é`LZ4`. `LZ4`indica que a compactação de dados está ativada com o LZ4 algoritmo. Quando `DataCompressionType` não é especificado, a compactação de dados é desativada quando o sistema de arquivos é criado.  
Para obter mais informações, consulte [Compactação de dados do Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html).  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ExportPath` (**Opcional**, `String`)  
O caminho no Amazon S3 para o qual a raiz do seu sistema de arquivos FSx for Lustre é exportada. Essa configuração apenas tem suporte quando o parâmetro `ImportPath` é especificado. O caminho deve usar o mesmo bucket do Amazon S3 conforme especificado em `ImportPath`. Você pode fornecer um prefixo opcional para o qual os dados novos e alterados devem ser exportados do seu sistema de arquivos FSx for Lustre. Se um `ExportPath` valor não for fornecido, FSx for Lustre definirá um caminho de exportação padrão,`s3://amzn-s3-demo-bucket/FSxLustre[creation-timestamp]`. O timestamp é no formato UTC, por exemplo `s3://amzn-s3-demo-bucket/FSxLustre20181105T222312Z`.  
O bucket de exportação do Amazon S3 deve ser o mesmo que o bucket de importação especificado por `ImportPath`. Se especificar apenas um nome de bucket, como `s3://amzn-s3-demo-bucket`, você obterá um mapeamento de 1:1 de objetos do sistema de arquivos para os objetos do bucket do Amazon S3. Esse mapeamento indica que os dados de entrada no Amazon S3 são substituídos na exportação. Se você fornecer um prefixo personalizado no caminho de exportação, como`s3://amzn-s3-demo-bucket/[custom-optional-prefix]`, FSx for Lustre exporta o conteúdo do seu sistema de arquivos para esse prefixo de exportação no bucket do Amazon S3.  
Esse parâmetro não é compatível com sistemas de arquivos que usam o tipo de `PERSISTENT_2` implantação. Configure associações de repositórios de dados conforme descrito em [Vinculando seu sistema de arquivos a um bucket do S3 no Guia do usuário](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) do *Amazon FSx for Lustre*.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportPath` (**Opcional**, `String`)  
O caminho para o bucket do Amazon S3 (incluindo o prefixo opcional) que você está usando como repositório de dados para seu FSx sistema de arquivos for Lustre. A raiz do seu sistema de arquivos FSx for Lustre será mapeada para a raiz do bucket Amazon S3 que você selecionar. Um exemplo é `s3://amzn-s3-demo-bucket/optional-prefix`. Se você especificar um prefixo após o nome do bucket do Amazon S3, apenas chaves de objeto com esse prefixo serão carregadas no sistema de arquivos.  
Esse parâmetro não é compatível com sistemas de arquivos que usam o tipo de `PERSISTENT_2` implantação. Configure associações de repositórios de dados conforme descrito em [Vinculando seu sistema de arquivos a um bucket do S3 no Guia do usuário](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) do *Amazon FSx for Lustre*.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`WeeklyMaintenanceStartTime` (**Opcional**, `String`)  
O horário de início preferido para realizar a manutenção semanal. Fica em formato `"d:HH:MM"` do fuso horário UTC\$10. Para esse formato, `d` é o número do dia da semana de 1 a 7, começando com a segunda-feira e terminando no domingo. As aspas são obrigatórias para esse campo.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutomaticBackupRetentionDays` (**Opcional**, `Integer`)  
O número de dias em que os backups automáticos serão retidos. Definir esta opção como 0 desabilita os backups automáticos. O intervalo compatível é 0-90. O padrão é 0. Essa configuração só é válida para uso com os tipos de implantação `PERSISTENT_1` e `PERSISTENT_2`. Para obter mais informações, consulte Como [trabalhar com backups](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) no *Guia do usuário do Amazon FSx for Lustre*.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`CopyTagsToBackups` (**Opcional**, `Boolean`)  
`true`Em caso afirmativo, copie as tags do sistema de arquivos FSx for Lustre para os backups. Esse valor padrão é `false`. Se estiver definido como `true`, todas as tags serão copiadas em todos os backups automáticos e iniciados pelo usuário quando nenhuma tag for especificada. Se esse valor for `true` e você especificar uma ou mais tags, apenas as que forem especificadas serão copiadas nos backups. Se você especificar uma ou mais tags ao criar um backup iniciado pelo usuário, nenhuma tag será copiada do sistema de arquivos, independentemente desse valor. Essa configuração só é válida para uso com os tipos de implantação `PERSISTENT_1` e `PERSISTENT_2`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DailyAutomaticBackupStartTime` (**Opcional**, `String`)  
Um horário diário recorrente, no formato `HH:MM`. `HH` é a hora do dia preenchida com zeros (00-23). `MM` é o minuto da hora preenchido com zeros (00-59). Por exemplo, `05:00` especifica 5h da manhã diariamente. Essa configuração só é válida para uso com os tipos de implantação `PERSISTENT_1` e `PERSISTENT_2`.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`PerUnitStorageThroughput` (**Obrigatório para os tipos de implantação `PERSISTENT_1` e `PERSISTENT_2`**, `Integer`)  
Descreve a quantidade de throughput de leitura e gravação para cada 1 tebibyte de armazenamento, em MB/s/TiB. A capacidade de taxa de transferência do sistema de arquivos é calculada multiplicando a capacidade de armazenamento do sistema de arquivos (TiB) pela (de), `PerUnitStorageThroughput` resulta em 120% da taxa de transferência do `PerUnitStorageThroughput` sistema MB/s/TiB). For a 2.4 TiB ﬁle system, provisioning 50 MB/s/TiB de arquivos. MB/s Você paga pela quantidade de throughput que provisiona. Isso corresponde à [PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput)propriedade.  
Valores válidos:  
+ Armazenamento PERSISTENT\$11 SSD: 50, 100, 200 MB/s/TiB.
+ Armazenamento PERSISTENT\$11 HDD: 12, 40 MB/s/TiB.
+ Armazenamento PERSISTENT\$12 SSD: 125, 250, 500, 1000 MB/s/TiB.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BackupId` (**Opcional**, `String`)  
Especifica o ID do backup a ser usado para restaurar o sistema de arquivos FSx for Lustre a partir de um backup existente. Quando a configuração `BackupId` é especificada, as configurações `AutoImportPolicy`, `DeploymentType`, `ExportPath`, `KmsKeyId`, `ImportPath`, `ImportedFileChunkSize`, `StorageCapacity`, e `PerUnitStorageThroughput` não devem ser especificadas. Essas configurações são lidas do backup. Além disso, as configurações `AutoImportPolicy`, `ExportPath`, `ImportPath` e `ImportedFileChunkSize` não devem ser especificados. Isso corresponde à [BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid)propriedade.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId` (**Opcional**, `String`)  
A ID da chave AWS Key Management Service (AWS KMS) usada para criptografar os dados do sistema de arquivos for Lustre FSx para que sejam persistentes FSx para sistemas de arquivos Lustre em repouso. Se não for especificada, a chave gerenciada FSx for Lustre será usada. Os sistemas de arquivos `SCRATCH_1` e `SCRATCH_2` FSx para o Lustre são sempre criptografados em repouso usando as chaves gerenciadas do FSx for Lustre. Para obter mais informações, consulte [Criptografia](https://docs.aws.amazon.com//kms/latest/APIReference/API_Encrypt.html) na *Referência da API do AWS Key Management Service *.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemId` (**Opcional**, `String`)  
Especifica a ID de um sistema de arquivos existente FSx para o Lustre.  
Se essa opção for especificada, somente as configurações `MountDir` e `FileSystemId` do `FsxLustreSettings` serão usadas. Todas as outras configurações no `FsxLustreSettings` são ignoradas.  
Se o AWS Batch agendador for usado, o FSx for Lustre estará disponível apenas no nó principal.
Se estiver usando um sistema de arquivos existente, ele deve ser associado a um grupo de segurança que permite o tráfego de entrada e saída do TCP pelas portas 988, 1021, 1022, e 1023.
Confirme que o tráfego seja permitido entre o cluster e o sistema de arquivos, fazendo o seguinte:  
+ Configure os grupos de segurança do sistema de arquivos para permitir o tráfego de e para o CIDR ou a lista de prefixos das sub-redes do cluster.
**nota**  
AWS ParallelCluster valida se as portas estão abertas e se o CIDR ou a lista de prefixos estão configurados. AWS ParallelCluster não valida o conteúdo do bloco CIDR ou da lista de prefixos.
+ Defina grupos de segurança personalizados para nós de cluster usando [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues) / [`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking) / [`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) e [`HeadNode`](HeadNode-v3.md) / [`Networking`](HeadNode-v3.md#HeadNode-v3-Networking) / [`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Os grupos de segurança personalizados devem ser configurados para permitir o tráfego entre o cluster e o sistema de arquivos.
**nota**  
Se todos os nós do cluster usarem grupos de segurança personalizados, AWS ParallelCluster somente valida se as portas estão abertas. AWS ParallelCluster não valida se a origem e o destino estão configurados corretamente.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AutoImportPolicy` (**Opcional**, `String`)  
Quando você cria seu sistema de arquivos FSx para o Lustre, seus objetos existentes do Amazon S3 aparecem como listagens de arquivos e diretórios. Use essa propriedade para escolher como FSx o Lustre mantém suas listagens de arquivos e diretórios atualizadas à medida que você adiciona ou modifica objetos em seu bucket vinculado do Amazon S3. `AutoImportPolicy`pode ter os seguintes valores:  
+  `NEW`- A importação automática está ativada. FSx for Lustre importa automaticamente as listagens de diretórios de quaisquer novos objetos adicionados ao bucket vinculado do Amazon S3 que não existam atualmente no FSx sistema de arquivos for Lustre. 
+  `NEW_CHANGED`- A importação automática está ativada. FSx for Lustre importa automaticamente as listagens de arquivos e diretórios de todos os novos objetos adicionados ao bucket do Amazon S3 e de quaisquer objetos existentes que sejam alterados no bucket do Amazon S3 após você escolher essa opção. 
+  `NEW_CHANGED_DELETED`- A importação automática está ativada. FSx for Lustre importa automaticamente as listagens de arquivos e diretórios de quaisquer novos objetos adicionados ao bucket do Amazon S3, quaisquer objetos existentes que foram alterados no bucket do Amazon S3 e quaisquer objetos que foram excluídos no bucket do Amazon S3 após você escolher essa opção.
**nota**  
O suporte para `NEW_CHANGED_DELETED` foi adicionado ao AWS ParallelCluster versão 3.1.1.
Se `AutoImportPolicy` não for especificado, a importação automática está desativada. FSx for Lustre somente atualiza as listagens de arquivos e diretórios do bucket vinculado do Amazon S3 quando o sistema de arquivos é criado. FSx O for Lustre não atualiza as listagens de arquivos e diretórios de nenhum objeto novo ou alterado depois de escolher essa opção.  
Para obter mais informações, consulte [Importar atualizações automaticamente do seu bucket do S3 no Guia](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html) do *usuário do Amazon FSx for Lustre.*  
Esse parâmetro não é compatível com sistemas de arquivos que usam o tipo de implantação `PERSISTENT_2`. Para obter instruções sobre como configurar associações de repositórios de dados, consulte Como [vincular seu sistema de arquivos a um bucket do S3 no Guia do usuário](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) do *Amazon FSx for Lustre*.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DriveCacheType` (**Opcional**, `String`)  
Especifica que o sistema de arquivos tem um cache de unidade SSD. Isso só pode ser definido se a configuração `StorageType` estiver definida como `HDD`, e a configuração `DeploymentType` estiver definida como `PERSISTENT_1`. Isso corresponde à [DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype)propriedade. Para obter mais informações, consulte as [opções FSx de implantação do Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) no Guia do *usuário do Amazon FSx for Lustre.*  
O único valor válido é `READ`. Para desabilitar o cache da unidade SSD, não especifique a configuração `DriveCacheType`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`StorageType` (**Opcional**, `String`)  
Define o tipo de armazenamento FSx para o sistema de arquivos do Lustre que você está criando. Os valores válidos são `SSD` e `HDD`.  
+ Defina como `SSD` para usar o armazenamento da unidade de estado sólido.
+ Defina como `HDD` para usar o armazenamento da unidade de disco rígido. `HDD` é compatível com os tipos de implantação `PERSISTENT`. 
O valor padrão é `SSD`. Para obter mais informações, consulte [Opções de tipo de armazenamento](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/optimize-fsx-costs.html#storage-type-options) no *Guia do usuário do Amazon FSx para Windows* e [Várias opções de armazenamento](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html#storage-options) no *Guia do usuário do Amazon FSx for Lustre*.   
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy` (**Opcional**, `String`)  
Especifica se o sistema de arquivos deve ser retido ou excluído quando o sistema de arquivos é removido do cluster ou o cluster é excluído. Os valores suportados são `Delete` e `Retain`. O valor padrão é `Delete`.  
Quando definido como`Delete`, um sistema de arquivos gerenciado, com seus dados, é excluído se o cluster for excluído ou se o sistema de arquivos for removido com uma atualização do cluster. [DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)  
Para obter mais informações, consulte [Armazenamento compartilhado](shared-storage-quotas-integration-v3.md).  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`é suportado a partir da AWS ParallelCluster versão 3.3.0.

`DataRepositoryAssociations` (**Opcional**, `String`)  
Lista de DRAs (até 8 por sistema de arquivos)  
Cada associação de repositório de dados deve ter um diretório exclusivo do sistema de FSx arquivos da Amazon e um bucket ou prefixo S3 exclusivo associado a ele.  
Você não pode usar [ExportPath](#yaml-SharedStorage-FsxLustreSettings-ExportPath)e [ImportPath](#yaml-SharedStorage-FsxLustreSettings-ImportPath) FsxLustreSettings ao mesmo tempo que usa DRAs.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Name` (**Obrigatório**, `String`)  
O nome do DRA. Use esse nome ao atualizar as configurações.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BatchImportMetaDataOnCreate` (**Opcional**, `Boolean`)  
Um sinalizador booleano indicando se uma tarefa de importação do repositório de dados para importar metadados deve ser executada após a criação da associação do repositório de dados. A tarefa será executada se esse sinalizador estiver definido como `true`.  
Valor padrão: `false`  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataRepositoryPath` (**Obrigatório**, `String`)  
O caminho para o repositório de dados do Amazon S3 que será vinculado sistema de arquivos. O caminho pode ser um bucket ou prefixo do S3 no formato `s3://amzn-s3-demo-bucket/myPrefix/`. Esse caminho especifica de onde os arquivos do repositório de dados do S3 serão importados ou para onde serão exportados.  
Não pode se sobrepor a outros DRAs  
Padrão: `^[^\u0000\u0085\u2028\u2029\r\n]{3,4357}$`  
Mínimo: `3`  
Máximo: `4357`  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemPath` (**Obrigatório**, `String`)  
Um caminho no sistema de arquivos Amazon FSx for Lustre que aponta para um diretório de alto nível (como`/ns1/`) ou subdiretório (como`/ns1/subdir/`) que será mapeado de 1 a 1 com. `DataRepositoryPath` A barra inicial no nome é obrigatória. Duas associações de repositórios de dados não podem ter caminhos de sistema de arquivos sobrepostos. Por exemplo, se um repositório de dados estiver associado ao caminho do sistema de arquivos `/ns1/`, você não poderá vincular outro repositório de dados ao caminho do sistema de arquivos `/ns1/ns2`.  
Esse caminho especifica de onde os arquivos do sistema de arquivos serão exportados ou para onde eles serão importados. Esse diretório do sistema de arquivos só pode ser vinculado a um bucket do Amazon S3, e nenhum outro bucket do S3 pode ser vinculado ao diretório.  
Não pode se sobrepor a outros DRAs  
 Se você especificar somente uma barra (`/`) como o caminho do sistema de arquivos, poderá vincular somente um repositório de dados ao sistema de arquivos. Só é possível especificar “`/`” como o caminho do sistema de arquivos para o primeiro repositório de dados associado a um sistema de arquivos. 
Padrão: `^[^\u0000\u0085\u2028\u2029\r\n]{1,4096}$`  
Mínimo: `1`  
Máximo: `4096`  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize` (**Opcional**, `Integer`)  
Para arquivos importados de um repositório de dados, esse valor determina a contagem de stripes e a quantidade máxima de dados por arquivo (em MiB) armazenados em um único disco físico. O número máximo de discos nos quais um único arquivo pode ser distribuído é limitado pelo número total de discos que compõem o sistema de arquivos ou cache.  
O tamanho de bloco padrão é 1.024 MiB (1 GiB) e pode chegar até 512.000 MiB (500 GiB). Os objetos do Amazon S3 têm um tamanho máximo de 5 TB.  
Mínimo: `1`  
Máximo: `4096`  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoExportPolicy` (**Opcional**, `Array of strings`)  
A lista pode conter um ou mais dos seguintes valores:  
+ `NEW`: arquivos e diretórios novos são exportados automaticamente para o repositório de dados à medida que são adicionados ao sistema de arquivos.
+ `CHANGED`: as alterações em arquivos e diretórios no sistema de arquivos são exportadas automaticamente para o repositório de dados.
+ `DELETED`: arquivos e diretórios novos são excluídos automaticamente no repositório de dados à medida que são excluídos do sistema de arquivos.
É possível definir qualquer combinação de tipos de eventos para seu `AutoExportPolicy`.  
Máximo: `3`  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoImportPolicy` (**Opcional**, `Array of strings`)  
A lista pode conter um ou mais dos seguintes valores:  
+ `NEW`- A Amazon importa FSx automaticamente metadados de arquivos adicionados ao bucket S3 vinculado que não existem atualmente no sistema de FSx arquivos.
+ `CHANGED`- A Amazon atualiza FSx automaticamente os metadados dos arquivos e invalida o conteúdo existente no sistema de arquivos à medida que os arquivos são alterados no repositório de dados.
+ `DELETED`- A Amazon exclui FSx automaticamente os arquivos no sistema de arquivos à medida que os arquivos correspondentes são excluídos no repositório de dados.
É possível definir qualquer combinação de tipos de eventos para seu `AutoImportPolicy`.  
Máximo: `3`  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `FsxOntapSettings`
<a name="SharedStorage-v3-FsxOntapSettings"></a>

**nota**  
Você deve definir `FsxOntapSettings` se `FsxOntap` é especificado para [`StorageType`](#yaml-SharedStorage-StorageType).

**(Opcional)** As configurações de um sistema de arquivos FSx for ONTAP.

```
FsxOntapSettings:
  VolumeId: string
```

### Propriedades do `FsxOntapSettings`
<a name="SharedStorage-v3-FsxOntapSettings.properties"></a>

`VolumeId` (**Obrigatório**, `String`)  
Especifica a ID do volume existente FSx para o sistema ONTAP.

**nota**  
Se um AWS Batch agendador for usado, FSx o ONTAP estará disponível apenas no nó principal.
Se o tipo de implantação FSx for ONTAP for`Multi-AZ`, certifique-se de que a tabela de rotas da sub-rede do nó principal esteja configurada corretamente.
Support FSx for ONTAP foi adicionado na AWS ParallelCluster versão 3.2.0.
Se estiver usando um sistema de arquivos existente, ele deve ser associado a um grupo de segurança que permite o tráfego de entrada e saída do TCP e UDP pelas portas 111, 635, 2049 e 4046.

Confirme que o tráfego seja permitido entre o cluster e o sistema de arquivos, fazendo as ações a seguir:
+ Configure os grupos de segurança do sistema de arquivos para permitir o tráfego de e para o CIDR ou a lista de prefixos das sub-redes do cluster.
**nota**  
AWS ParallelCluster valida se as portas estão abertas e se o CIDR ou a lista de prefixos estão configurados. AWS ParallelCluster não valida o conteúdo do bloco CIDR ou da lista de prefixos.
+ Defina grupos de segurança personalizados para nós de cluster usando [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues) / [`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking) / [`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) e [`HeadNode`](HeadNode-v3.md) / [`Networking`](HeadNode-v3.md#HeadNode-v3-Networking) / [`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Os grupos de segurança personalizados devem ser configurados para permitir o tráfego entre o cluster e o sistema de arquivos.
**nota**  
Se todos os nós do cluster usarem grupos de segurança personalizados, AWS ParallelCluster somente valida se as portas estão abertas. AWS ParallelCluster não valida se a origem e o destino estão configurados corretamente.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxOpenZfsSettings`
<a name="SharedStorage-v3-FsxOpenZfsSettings"></a>

**nota**  
Você deve definir `FsxOpenZfsSettings` se `FsxOpenZfs` é especificado para [`StorageType`](#yaml-SharedStorage-StorageType).

**(Opcional)** As configurações de um sistema de arquivos FSx para OpenZFS.

```
FsxOpenZfsSettings:
  VolumeId: string
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriedades do `FsxOpenZfsSettings`
<a name="SharedStorage-v3-FsxOpenZfsSettings.properties"></a>

`VolumeId` (**Obrigatório**, `String`)  
Especifica o ID do volume existente FSx para o sistema OpenZFS.

**nota**  
Se um AWS Batch agendador for usado, FSx o OpenZFS só estará disponível no nó principal.
Support FSx for OpenZFS foi adicionado na AWS ParallelCluster versão 3.2.0.
Se estiver usando um sistema de arquivos existente, ele deve ser associado a um grupo de segurança que permite o tráfego de entrada e saída do TCP e UDP pelas portas 111, 2049, 20001, 20002 e 20003.

Confirme que o tráfego seja permitido entre o cluster e o sistema de arquivos, fazendo o seguinte:
+ Configure os grupos de segurança do sistema de arquivos para permitir o tráfego de e para o CIDR ou a lista de prefixos das sub-redes do cluster.
**nota**  
AWS ParallelCluster valida se as portas estão abertas e se o CIDR ou a lista de prefixos estão configurados. AWS ParallelCluster não valida o conteúdo do bloco CIDR ou da lista de prefixos.
+ Defina grupos de segurança personalizados para nós de cluster usando [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues) / [`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking) / [`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) e [`HeadNode`](HeadNode-v3.md) / [`Networking`](HeadNode-v3.md#HeadNode-v3-Networking) / [`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Os grupos de segurança personalizados devem ser configurados para permitir o tráfego entre o cluster e o sistema de arquivos.
**nota**  
Se todos os nós do cluster usarem grupos de segurança personalizados, AWS ParallelCluster somente valida se as portas estão abertas. AWS ParallelCluster não valida se a origem e o destino estão configurados corretamente.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FileCacheSettings`
<a name="SharedStorage-v3-FsxFileCacheSettings"></a>

**nota**  
Você deve definir `FileCacheSettings` se `FileCache` é especificado para [`StorageType`](#yaml-SharedStorage-StorageType).

**(Opcional)** As configurações de um cache de arquivos.

```
FileCacheSettings:
  FileCacheId: string
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriedades do `FileCacheSettings`
<a name="SharedStorage-v3-FsxFileCacheSettings.properties"></a>

`FileCacheId` (**Obrigatório**, `String`)  
Especifica a ID do cache de arquivos de um cache de arquivos existente.

**nota**  
O cache de arquivos não oferece suporte a AWS Batch agendadores.
Support for File Cache foi adicionado na AWS ParallelCluster versão 3.7.0.
Se estiver usando um sistema de arquivos existente, ele deve ser associado a um grupo de segurança que permite o tráfego de entrada e saída do TCP pela porta 988.

Confirme que o tráfego seja permitido entre o cluster e o sistema de arquivos, fazendo o seguinte:
+ Configure os grupos de segurança do cache de arquivos para permitir o tráfego de e para o CIDR ou a lista de prefixos das sub-redes do cluster.
**nota**  
AWS ParallelCluster valida se as portas estão abertas e se o CIDR ou a lista de prefixos estão configurados. AWS ParallelCluster não valida o conteúdo do bloco CIDR ou da lista de prefixos.
+ Defina grupos de segurança personalizados para nós de cluster usando [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues) / [`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking) / [`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) e [`HeadNode`](HeadNode-v3.md) / [`Networking`](HeadNode-v3.md#HeadNode-v3-Networking) / [`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Os grupos de segurança personalizados devem ser configurados para permitir o tráfego entre o cluster e o sistema de arquivos.
**nota**  
Se todos os nós do cluster usarem grupos de segurança personalizados, AWS ParallelCluster somente valida se as portas estão abertas. AWS ParallelCluster não valida se a origem e o destino estão configurados corretamente.

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Seção `Iam`
<a name="Iam-v3"></a>

**(Opcional)** Especifica as propriedades do IAM para o cluster.

```
Iam:
  Roles:
    LambdaFunctionsRole: string
  PermissionsBoundary: string
  ResourcePrefix: string
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## Propriedades do `Iam`
<a name="Iam-v3.properties"></a>

`PermissionsBoundary` (**Opcional**, `String`)  
O ARN da política do IAM usado como limite de permissões para todos os perfis do IAM criados pelo AWS ParallelCluster. Para saber mais sobre limites de permissões, consulte [Limites de permissões para identidades do IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_boundaries.html) no *Guia do usuário do IAM*. O formato é `arn:${Partition}:iam::${Account}:policy/${PolicyName}`.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Roles` (**opcional**)  
Especifica as configurações dos perfis do IAM usados pelo cluster.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`LambdaFunctionsRole` (**Opcional**, `String`)  
O ARN da função do IAM a ser usada para. AWS Lambda Isso substitui a função padrão associada a todas as funções do Lambda que apoiam recursos personalizados. AWS CloudFormation O Lambda precisa ser configurado como entidade principal autorizada a assumir a função. Isso não substituirá a função das funções Lambda usadas para. AWS Batch O formato é `arn:${Partition}:iam::${Account}:role/${RoleName}`.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ResourcePrefix` (**opcional**)  
Especifica um caminho ou prefixo de nome para recursos do IAM criados por. AWS ParallelCluster  
O prefixo do recurso deve seguir as [regras de nomenclatura especificadas pelo IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html):  
+ Um nome pode conter até 30 caracteres.
+ Um nome só pode ser uma string sem caracteres de barra (`/`).
+ Um caminho pode ter até 512 caracteres.
+ Um caminho deve começar e terminar com uma barra (`/`). Ele pode conter várias barras (`/`) entre as barras inicial e final (`/`).
+ Você pode combinar o caminho e o nome `/path/name`.
Especifique um nome.  

```
Iam:
  ResourcePrefix: my-prefix
```
Especifique um caminho.  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/
```
Especifique um caminho e um nome.  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/my-prefix
```
Se você especificar `/my-prefix`, retornará um erro.  

```
Iam:
  ResourcePrefix: /my-prefix
```
Um erro de configuração é retornado. Um caminho deve ter duas `/`s. Um prefixo por si só não pode ter `/`s.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Seção `LoginNodes`
<a name="LoginNodes-v3"></a>

**nota**  
Support `LoginNodes` for adicionado na AWS ParallelCluster versão 3.7.0.

**(Opcional)** Especifica a configuração do grupo de nós de login.

```
LoginNodes:
  Pools:
    - Name: string
      Count: integer
      InstanceType: string
      GracetimePeriod: integer
      Image:
        CustomAmi: string
      Ssh:
        KeyName: string
        AllowedIps: string
      Networking:
        SubnetIds:
          - string
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      Dcv:
        Enabled: boolean
        Port: integer
        AllowedIps: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeUpdated:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceRole: string
        InstanceProfile: string
        AdditionalIamPolicies:
          - Policy: string
```

[Política de atualização: os nós de login no cluster devem ser interrompidos para que esta configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-cluster)

## Propriedades do `LoginNodes`
<a name="LoginNodes-v3.properties"></a>

### Propriedades do `Pools`
<a name="LoginNodes-v3-Pools"></a>

Define grupos de nós de login que têm a mesma configuração de recursos. A partir da AWS ParallelCluster versão 3.11.0, até 10 pools podem ser especificados.

```
Pools:
  - Name: string
    Count: integer
    InstanceType: string
    GracetimePeriod: integer
    Image:
      CustomAmi: string
    Ssh:
      KeyName: string
      AllowedIps: string
    Networking:
      SubnetIds:
        - string
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    Dcv:
      Enabled: boolean
      Port: integer
      AllowedIps: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeUpdated:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
    Iam:
      InstanceRole: string
      InstanceProfile: string
      AdditionalIamPolicies:
        - Policy: string
```

[Política de atualização: grupos de nós de login podem ser adicionados, mas a remoção de um grupo exige que todos os nós de login no cluster sejam interrompidos.](using-pcluster-update-cluster-v3.md#update-policy-add-login-node-pools)

`Name` (**Obrigatório** `String`)  
Especifica o nome do grupo `LoginNodes`. Isso é usado para marcar os recursos `LoginNodes`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)   
A partir da AWS ParallelCluster versão 3.11.0, a política de atualização é: Os nós de login no pool devem ser interrompidos para que essa configuração seja alterada para uma atualização.

`Count` (**Obrigatório** `Integer`)  
Especifica o número de nós de login que devem ser mantidos ativos.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`InstanceType` (**Obrigatório** `String`)  
Especifica o tipo de instância do Amazon EC2 que é usado para o nó de login. A arquitetura do tipo de instância deve ser a mesma usada para a configuração `InstanceType` do Slurm.   
[Política de atualização](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3): essa configuração pode ser alterada se o grupo de nós de login for interrompido.  
A partir da AWS ParallelCluster versão 3.11.0, a política de atualização é: Os nós de login no pool devem ser interrompidos para que essa configuração seja alterada para uma atualização.

`GracetimePeriod` (`Integer` **Opcional**)  
Especifica o tempo mínimo em minutos decorrido entre a notificação ao usuário conectado de que um nó de login deve ser desativado e o evento de parada real. Os valores válidos para `GracetimePeriod` são de 3 a 120 minutos. O padrão é 10 minutos.  
O evento acionador envolve interações entre vários AWS serviços. Às vezes, a latência da rede e a propagação das informações podem levar algum tempo, então o período de carência pode demorar mais do que o esperado devido a atrasos internos nos serviços. AWS 
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Image` (**opcional**)  
Define a configuração da imagem para os nós de login.  

```
Image:
  CustomAmi: String
```  
`CustomAmi` (**Opcional** `String`)  
Especifica a AMI personalizada usada para provisionar os nós de login. Se não for especificado, o valor padrão é o especificado no [Seção `HeadNode`](HeadNode-v3.md).  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Ssh` (**opcional**)  
Define a configuração da `ssh` para os nós de login.  

```
Ssh:
  KeyName: string
  AllowedIps: string
```
A partir da AWS ParallelCluster versão 3.11.0, a política de atualização é: Os nós de login no pool devem ser interrompidos para que essa configuração seja alterada para uma atualização.  
`KeyName` (`String` **Opcional**)  
Especifica a chave `ssh` usada para fazer login nos nós de login. Se não for especificado, o valor padrão é o especificado no [Seção `HeadNode`](HeadNode-v3.md).  
[Política de atualização: grupos de nós de login devem ser interrompidos para que esta configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
Obsoleto — O parâmetro de configuração `LoginNodes/Pools/Ssh/KeyName` foi descontinuado e será removido em futuras versões. A CLI agora retorna uma mensagem de aviso quando é usada na configuração do cluster. Consulte [ https://github.com/aws/aws-parallelcluster/issues/6811](https://github.com/aws/aws-parallelcluster/issues/6811) para obter detalhes.  
`AllowedIps` (**Opcional** `String`)  
Especifica o intervalo de IP em formato CIDR ou um ID de lista de prefixos para conexões SSH com nós de login no grupo. O padrão é o [AllowedIps](HeadNode-v3.md#yaml-HeadNode-Ssh-AllowedIps)definido na configuração do nó principal ou, `0.0.0.0/0` se não for especificado. [Seção `HeadNode`](HeadNode-v3.md).  
[Política de atualização: grupos de nós de login devem ser interrompidos para que esta configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
Support AllowedIps para nós de login foi adicionado na AWS ParallelCluster versão 3.11.0.

`Networking`(**Obrigatório**)  
  

```
Networking:
  SubnetIds:
    - string
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```
A partir da AWS ParallelCluster versão 3.11.0, a política de atualização é: Os nós de login no pool devem ser interrompidos para que essa configuração seja alterada para uma atualização.  
`SubnetIds` (**Obrigatório** `[String]`)  
O ID da sub-rede existente na qual você provisiona o grupo de nós de login. Você pode definir apenas uma sub-rede.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`SecurityGroups` (**Opcional** `[String]`)  
Uma lista de grupos de segurança para usar no grupo de nós de login. Se nenhum grupo de segurança for especificado, AWS ParallelCluster cria grupos de segurança para você.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalSecurityGroups` (**Opcional** `[String]`)  
Uma lista adicional de grupos de segurança para usar no grupo de nós de login.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dcv` (**opcional**)  
Define as configurações do servidor NICE DCV que é executado nos nós de [login](#LoginNodes-v3). Para obter mais informações, consulte [Conectar-se aos nós principais e de login por meio do Amazon DCV](dcv-v3.md).  

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```
Por padrão, a porta NICE DCV configurada por AWS ParallelCluster está aberta a todos os IPv4 endereços. Você poderá se conectar a uma porta NICE DCV somente se tiver o URL para a sessão NICE DCV e se conectar à sessão NICE DCV dentro de 30 segundos após o URL retornar do pcluster dcv-connect. Use a configuração `AllowedIps` para restringir ainda mais o acesso à porta NICE DCV com um intervalo de IP formatado em CIDR e use a configuração Port para definir uma porta não padrão.
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Support for DCV em nós de login foi adicionado na AWS ParallelCluster versão 3.11.0.  
`Enabled` (**Obrigatório** `Boolean`)  
Especifica se o NICE DCV está habilitado nos nós de login no grupo. O valor padrão é `false`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
O NICE DCV gera automaticamente um certificado autoassinado que é usado para proteger o tráfego entre o cliente NICE DCV e o servidor NICE DCV executado no nó de login. Para configurar seu próprio certificado, consulte [Certificado HTTPS do Amazon DCV](dcv-v3.md#dcv-v3-certificate).  
`Port` (**Opcional** `Integer`)  
Especifica a porta para o NICE DCV. O valor padrão é `8443`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AllowedIps` (**Opcional** `String`)  
Especifica o intervalo de IP formatado em CIDR para conexões com o NICE DCV. Essa configuração é usada somente ao AWS ParallelCluster criar o grupo de segurança. O valor padrão é `0.0.0.0/0`, que permite acesso de qualquer endereço da internet.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomActions` (**opcional**)  
Especifica os scripts personalizados a serem executados nos nós de login.  

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```
Support para ações personalizadas em nós de login foi adicionado na AWS ParallelCluster versão 3.11.0.  
`OnNodeStart` (**opcional**)  
Especifica um único script ou uma sequência de scripts para serem executados nos [nós de login](#LoginNodes-v3) antes de qualquer ação de inicialização de implantação de nó. Para obter mais informações, consulte [Ações de bootstrap personalizadas](custom-bootstrap-actions-v3.md).    
`Sequence` (**opcional**)  
Lista de scripts a serem executados. AWS ParallelCluster executa os scripts na mesma ordem em que estão listados no arquivo de configuração, começando com o primeiro.    
`Script` (**Obrigatório** `String`)  
Especifica o arquivo a ser usado. O caminho do arquivo pode começar com `https://` ou `s3://`.  
`Args` (**Opcional** `[String]`)  
Lista de argumentos a serem transmitidos para o script.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script` (**Obrigatório** `String`)  
Especifica o arquivo a ser usado para um único script. O caminho do arquivo pode começar com `https://` ou `s3://`.  
`Args` (**Opcional** `[String]`)  
Lista de argumentos a serem transmitidos para o script.  
`OnNodeConfigured` (**opcional**)  
Especifica um único script ou uma sequência de scripts a serem executados nos [nós de login](#LoginNodes-v3) após a conclusão dos processos de inicialização do nó. Para obter mais informações, consulte [Ações de bootstrap personalizadas](custom-bootstrap-actions-v3.md).    
`Sequence` (**opcional**)  
Lista de scripts a serem executados. AWS ParallelCluster executa os scripts na mesma ordem em que estão listados no arquivo de configuração, começando com o primeiro.    
`Script` (**Obrigatório** `String`)  
Especifica o arquivo a ser usado. O caminho do arquivo pode começar com `https://` ou `s3://`.  
`Args` (**Opcional** `[String]`)  
Lista de argumentos a serem transmitidos para o script.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script` (**Obrigatório** `String`)  
Especifica o arquivo a ser usado para um único script. O caminho do arquivo pode começar com `https://` ou `s3://`.  
`Args` (**Opcional** `[String]`)  
Lista de argumentos a serem transmitidos para o script.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`OnNodeUpdated` (**opcional**)  
Especifica um único script ou uma sequência de scripts a serem executados após a conclusão da atualização do nó principal e o agendador e o armazenamento compartilhado estarem alinhados com as alterações mais recentes na configuração do cluster. Para obter mais informações, consulte [Ações de bootstrap personalizadas](custom-bootstrap-actions-v3.md).    
`Sequence` (**opcional**)  
Lista de scripts a serem executados. AWS ParallelCluster executa os scripts na mesma ordem em que estão listados no arquivo de configuração, começando com o primeiro.    
`Script` (**Obrigatório** `String`)  
Especifica o arquivo a ser usado. O caminho do arquivo pode começar com `https://` ou `s3://`.  
`Args` (**Opcional** `[String]`)  
Lista de argumentos a serem transmitidos para o script.  
`Script` (**Obrigatório** `String`)  
Especifica o arquivo a ser usado para um único script. O caminho do arquivo pode começar com `https://` ou `s3://`.  
`Args` (**Opcional** `[String]`)  
Lista de argumentos a serem transmitidos para o script.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
AWS ParallelCluster não suporta a inclusão de um único script e `Sequence` da mesma ação personalizada.

`Iam` (**opcional**)  
Especifica uma função de instância ou um perfil de instância a ser usado nos nós de login para substituir a função de instância padrão ou o perfil de instância do cluster.  

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  AdditionalIamPolicies:
    - Policy: string
```
A partir da AWS ParallelCluster versão 3.11.0, a política de atualização é: Os nós de login no pool devem ser interrompidos para que essa configuração seja alterada para uma atualização.  
`InstanceProfile` (`String` **Opcional**)  
Especifica um perfil de instância para substituir o perfil padrão da instância do nó de login. Não é possível especificar ambos `InstanceProfile` e `InstanceRole`. O formato é `arn:Partition:iam::Account:instance-profile/InstanceProfileName`. Se isso for especificado, as configurações `InstanceRole` e `AdditionalIamPolicies` não poderão ser especificadas.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`InstanceRole` (**Opcional** `String`)  
Especifica uma função de instância para substituir o a função padrão da instância do nó de login. Não é possível especificar ambos `InstanceProfile` e `InstanceRole`. O formato é `arn:Partition:iam::Account:role/RoleName`. Se isso for especificado, as configurações `InstanceProfile` e `AdditionalIamPolicies` não poderão ser especificadas.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalIamPolicies` (**opcional**)  

```
AdditionalIamPolicies:
  - Policy: string
```
Um nome do recurso da Amazon (ARN) da política do IAM.  
Especifica uma lista de nomes de recursos da Amazon (ARNs) de políticas do IAM para o Amazon EC2. Essa lista é anexada à função raiz usada para o nó de login, além das permissões exigidas pelo AWS ParallelCluster.  
O nome da política do IAM e seu ARN são diferentes. Os nomes não podem ser usados.  
Se isso for especificado, as configurações `InstanceProfile` e `InstanceRole` não poderão ser especificadas. Recomendamos que você use `AdditionalIamPolicies` porque `AdditionalIamPolicies` são adicionados às permissões necessárias e `InstanceRole` devem incluir todas as permissões necessárias. AWS ParallelCluster As permissões necessárias muitas vezes são alteradas entre as versões à medida que recursos são adicionados.  
Não há valor padrão.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Policy` (**Obrigatório** `[String]`)  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Seção `Monitoring`
<a name="Monitoring-v3"></a>

**(Opcional)** Especifica as configurações de monitoramento do cluster.

```
Monitoring:
  Logs:
    CloudWatch:
      Enabled: boolean
      RetentionInDays: integer
      DeletionPolicy: string
    Rotation:
      Enabled: boolean
  Dashboards:
    CloudWatch:
      Enabled: boolean
  DetailedMonitoring: boolean
  Alarms:
   Enabled: boolean
```

[Política de atualização: essa configuração não é analisada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

## Propriedades do `Monitoring`
<a name="Monitoring-v3.properties"></a>

`Logs` (**opcional**)  
As configurações de log do cluster.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`CloudWatch` (**opcional**)  
As configurações de CloudWatch registros para o cluster.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled` (**Obrigatório**, `Boolean`)  
Se`true`, os registros do cluster são transmitidos para o CloudWatch Logs. O valor padrão é `true`.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`RetentionInDays` (**Opcional**, `Integer`)  
O número de dias para reter os eventos de registro em CloudWatch Registros. O valor padrão é 180. Os valores compatíveis são 0, 1, 3, 5, 7, 14, 30, 60, 90, 120, 150, 180, 365, 400, 545, 731, 1827, e 3653. Um valor de 0 usará a configuração padrão de retenção de CloudWatch registros, ou seja, nunca expirará.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy` (**Opcional**, `String`)  
Indica se os eventos de log devem ser excluídos em CloudWatch Logs quando o cluster é excluído. Os valores possíveis são `Delete` e `Retain`. O valor padrão é `Retain`.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Rotation` (**opcional**)  
As configurações de alternância de log do cluster.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled` (**Obrigatório**, `Boolean`)  
Se `true`, a alternância de log está habilitada. O padrão é `true`. Quando um arquivo de log AWS ParallelCluster configurado atinge um determinado tamanho, ele é rotacionado e um único backup é mantido. Para obter mais informações, consulte [AWS ParallelCluster rotação de log configurada](log-rotation-v3.md).  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dashboards` (**opcional**)  
As configurações de painel do cluster.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`CloudWatch` (**opcional**)  
As configurações CloudWatch do painel para o cluster.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled` (**Obrigatório**, `Boolean`)  
Se`true`, o CloudWatch painel estiver ativado. O valor padrão é `true`.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DetailedMonitoring` (**Opcional**, `Boolean`)  
Se definido como `true`, o monitoramento detalhado será habilitado para as instâncias do Amazon EC2 da frota de computação. Quando ativado, o console do Amazon EC2 exibe gráficos para monitorar as instâncias em intervalos de 1 minuto. Há custos adicionais quando esse recurso está ativado. O padrão é `false`.  
Para obter mais informações, consulte [Habilitar ou desabilitar o monitoramento detalhado para instâncias](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-cloudwatch-new.html) no *Manual do usuário do Amazon EC2 para instâncias do Linux*.  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)  
`DetailedMonitoring`é adicionado a partir da AWS ParallelCluster versão 3.6.0.

`Alarms` (**opcional**)  
CloudWatch Alarmes para o cluster.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled` (**opcional**)  
Se`true`, os CloudWatch alarmes para o cluster serão criados. O valor padrão é `true`.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
A partir da AWS ParallelCluster versão 3.8.0, os seguintes alarmes são criados para o Head Node: Amazon EC2 Health Check, CPU/Memory/Disk utilização e um alarme composto que inclui todos os outros.

# Seção `Tags`
<a name="Tags-v3"></a>

**(Opcional), Array** define as tags que são usadas CloudFormation e propagadas para todos os recursos do cluster. Para obter mais informações, consulte [Tag de recursos do CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) no *Guia do usuário do AWS CloudFormation *.

```
Tags:
  - Key: string
    Value: string
```

[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## Propriedades do `Tags`
<a name="Tags-v3.properties"></a>

`Key` (**Obrigatório**, `String`)  
Define o nome da tag.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Value` (**Obrigatório**, `String`)  
Define o valor da tag.  
[Política de atualização: essa configuração pode ser alterada durante uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**nota**  
A partir da AWS ParallelCluster versão 3.15.0, as atualizações de tags são suportadas com as seguintes limitações:  
Volume do EBS ativado HeadNode - reterá somente as tags de quando o cluster foi criado; a atualização de tags nesse volume do EBS não é suportada.
Nodes em execução - as atualizações de tags não serão aplicadas aos nós de computação ou login em execução.

# Seção `AdditionalPackages`
<a name="AdditionalPackages-v3"></a>

**(Opcional)** Usado para identificar pacotes adicionais a serem instalados.

```
AdditionalPackages:
  IntelSoftware:
    IntelHpcPlatform: boolean
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `IntelSoftware`
<a name="AdditionalPackages-v3-IntelSoftware"></a>

**(Opcional)** Define a configuração das soluções selecionadas da Intel.

```
IntelSoftware:
  IntelHpcPlatform: boolean
```

[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### Propriedades do `IntelSoftware`
<a name="AdditionalPackages-v3-IntelSoftware.properties"></a>

` IntelHpcPlatform` (**Opcional**, `Boolean`)  
Se`true`, indica que o [contrato de licença de usuário final do](https://software.intel.com/en-us/articles/end-user-license-agreement) Intel Parallel Studio foi aceito. Isso faz com que o Intel Parallel Studio seja instalado no nó principal e compartilhado com os nós de computação. Isso adiciona vários minutos ao tempo que o nó principal leva para ser inicializado.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
A partir da AWS ParallelCluster versão 3.10.0, o `IntelHpcPlatform` parâmetro não é mais suportado.

# Seção `DirectoryService`
<a name="DirectoryService-v3"></a>

**nota**  
Support for `DirectoryService` adicionado na AWS ParallelCluster versão 3.1.1.

**(Opcional)** As configurações do serviço de diretório para um cluster que oferece suporte ao acesso de vários usuários.

AWS ParallelCluster gerencia permissões que oferecem suporte ao acesso de vários usuários a clusters com um Active Directory (AD) por meio do Lightweight Directory Access Protocol (LDAP) suportado pelo [System Security Services Daemon](https://sssd.io/docs/introduction.html) (SSSD). Para obter mais informações, consulte [O que é AWS Directory Service?](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/what_is.html) no *Guia AWS Directory Service de administração*.

Recomendamos que você use o LDAP over TLS/SSL (abreviado como LDAPS) para garantir que todas as informações potencialmente confidenciais sejam transmitidas por canais criptografados.

```
DirectoryService:
  DomainName: string
  DomainAddr: string
  PasswordSecretArn: string
  DomainReadOnlyUser: string
  LdapTlsCaCert: string
  LdapTlsReqCert: string
  LdapAccessFilter: string
  GenerateSshKeysForUsers: boolean
  AdditionalSssdConfigs: dict
```

[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

## Propriedades do `DirectoryService`
<a name="DirectoryService-v3.properties"></a>

**nota**  
Se você planeja usar AWS ParallelCluster em uma única sub-rede sem acesso à Internet, consulte [AWS ParallelCluster em uma única sub-rede sem acesso à Internet](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md) os requisitos adicionais.

`DomainName` (**Obrigatório**, `String`)  
O domínio do Active Directory (AD) que você usa para obter informações de identidade.  
`DomainName` aceita os formatos de nome de domínio totalmente qualificado (FQDN) e nome distinto (DN) do LDAP.  
+ Exemplo de FQDN: `corp.example.com`
+ Exemplo de LDAP DN: `DC=corp,DC=example,DC=com`
Essa propriedade corresponde ao parâmetro sssd-ldap que é chamado `ldap_search_base`.  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainAddr` (**Obrigatório**, `String`)  
O URI ou URIs aquele ponto para o controlador de domínio AD usado como servidor LDAP. Essa URI corresponde ao parâmetro SSSD-LDAP que é chamado `ldap_uri`. O valor pode ser uma sequência de caracteres separada por vírgula de URIs. Para usar o LDAP, você deve adicionar `ldap://` ao início de cada URI.  
Valores de exemplo:  

```
ldap://192.0.2.0,ldap://203.0.113.0          # LDAP
ldaps://192.0.2.0,ldaps://203.0.113.0        # LDAPS without support for certificate verification
ldaps://abcdef01234567890.corp.example.com  # LDAPS with support for certificate verification
192.0.2.0,203.0.113.0                        # AWS ParallelCluster uses LDAPS by default
```
Se você usa LDAPS com verificação de certificado, eles URIs devem ser nomes de host.  
Se você usa LDAPS sem verificação de certificado ou LDAP, URIs podem ser nomes de host ou endereços IP.  
Use o LDAP over TLS/SSL (LDAPS) para evitar a transmissão de senhas e outras informações confidenciais por canais não criptografados. Se AWS ParallelCluster não encontrar um protocolo, ele adicionará `ldaps://` ao início de cada URI ou nome de host.  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`PasswordSecretArn` (**Obrigatório**, `String`)  
O Amazon Resource Name (ARN) do AWS Secrets Manager segredo que contém a senha em texto `DomainReadOnlyUser` simples. Esse conteúdo do segredo corresponde ao parâmetro SSSD-LDAP que é chamado `ldap_default_authtok`.  
Ao usar o AWS Secrets Manager console para criar um segredo, certifique-se de selecionar “Outro tipo de segredo”, selecionar texto simples e incluir apenas o texto da senha no segredo.  
Para obter mais informações sobre como usar AWS Secrets Manager para criar um segredo, consulte [Criar um AWS Secrets Manager segredo](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret).
O cliente LDAP usa a senha para se autenticar no domínio AD `DomainReadOnlyUser` quando solicita informações de identidade.  
Se o usuário tiver a permissão para [https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html), `PasswordSecretArn` é validado. `PasswordSecretArn` é válido se o segredo especificado existir. Se a política do IAM do usuário não incluir `DescribeSecret`, `PasswordSecretArn` não for validada e uma mensagem de aviso será exibida. Para obter mais informações, consulte [Política básica de usuário `pcluster` do AWS ParallelCluster](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Quando o valor do segredo muda, o cluster *não é* atualizado automaticamente. Para atualizar o cluster para o novo valor secreto, você deve interromper a frota de computação com o comando [`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md) e, em seguida, executar o comando a seguir a partir do nó principal.  

```
$ sudo /opt/parallelcluster/scripts/directory_service/update_directory_service_password.sh
```
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainReadOnlyUser` (**Obrigatório**, `String`)  
A identidade usada para consultar o domínio do AD para obter informações de identidade ao autenticar logins de usuários do cluster. Ele corresponde ao parâmetro SSSD-LDAP que é chamado `ldap_default_bind_dn`. Use suas informações de identidade do AD para esse valor.  
Especifique a identidade no formato exigido pelo cliente LDAP específico que está no nó:  
+ MicrosoftAD:

  ```
  cn=ReadOnlyUser,ou=Users,ou=CORP,dc=corp,dc=example,dc=com
  ```
+ SimpleAD:

  ```
  cn=ReadOnlyUser,cn=Users,dc=corp,dc=example,dc=com
  ```
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsCaCert` (**Opcional**, `String`)  
O caminho absoluto para um pacote de certificados que contém os certificados de cada autoridade de certificação na cadeia de certificação que emitiu um certificado para os controladores de domínio. Ele corresponde ao parâmetro SSSD-LDAP que é chamado `ldap_tls_cacert`.  
Um pacote de certificados é um arquivo composto pela concatenação de certificados distintos no formato PEM, também conhecido como formato DER Base64 no Windows. Ele é usado para verificar a identidade do controlador de domínio AD que atua como servidor LDAP.  
AWS ParallelCluster não é responsável pela colocação inicial dos certificados nos nós. Como administrador do cluster, você pode configurar o certificado no nó principal manualmente após a criação do cluster ou usar um [script de bootstrap](custom-bootstrap-actions-v3.md). Como alternativa, é possível usar uma imagem de máquina da Amazon (AMI) que inclua o certificado configurado no nó principal.  
O [Simple AD](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/directory_simple_ad.html) não oferece suporte a LDAPS. Para saber como integrar um diretório Simple AD com AWS ParallelCluster, consulte [Como configurar um endpoint LDAPS para o Simple AD no blog](https://aws.amazon.com/blogs/security/how-to-configure-ldaps-endpoint-for-simple-ad/) de *AWS segurança*.  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsReqCert` (**Opcional**, `String`)  
Especifica quais verificações devem ser realizadas nos certificados do servidor em uma sessão TLS. Ele corresponde ao parâmetro SSSD-LDAP que é chamado `ldap_tls_reqcert`.  
Valores válidos: `never`, `allow`, `try`, `demand` e `hard`.  
`never`, `allow` e `try` permite que as conexões continuem mesmo se forem encontrados problemas com os certificados.  
`demand` e `hard` permite que a comunicação continue se nenhum problema com os certificados for encontrado.  
Se o administrador do cluster usar um valor que não exija que a validação do certificado seja bem-sucedida, uma mensagem de aviso será retornada ao administrador. Por motivos de segurança, recomendamos que você não desabilite a verificação do certificado.  
O valor padrão é `hard`.  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapAccessFilter` (**Opcional**, `String`)  
Especifica um filtro para limitar o acesso ao diretório a um subconjunto de usuários. Essa propriedade corresponde ao parâmetro SSSD-LDAP que é chamado `ldap_access_filter`. Você pode usá-lo para limitar as consultas a um AD que ofereça suporte a um grande número de usuários.  
Esse filtro pode bloquear o acesso do usuário ao cluster. No entanto, isso não afeta a capacidade de descoberta de usuários bloqueados.  
Se essa propriedade for definida, o parâmetro SSSD `access_provider` será definido como `ldap` internamente pelo AWS ParallelCluster e não deverá ser modificado pelas configurações [`DirectoryService`](#DirectoryService-v3) / [`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs).  
Se essa propriedade for omitida e o acesso personalizado do usuário não for especificado em [`DirectoryService`](#DirectoryService-v3) / [`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs), todos os usuários no diretório poderão acessar o cluster.  
Exemplos:  

```
"!(cn=SomeUser*)"  # denies access to every user with an alias that starts with "SomeUser"
"(cn=SomeUser*)"   # allows access to every user with alias that starts with "SomeUser"
"memberOf=cn=TeamOne,ou=Users,ou=CORP,dc=corp,dc=example,dc=com" # allows access only to users in group "TeamOne".
```
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`GenerateSshKeysForUsers` (**Opcional**, `Boolean`)  
Define se AWS ParallelCluster gera uma chave SSH para usuários do cluster imediatamente após a autenticação inicial no nó principal.  
Se definido como `true`, uma chave SSH é gerada e salva `USER_HOME_DIRECTORY/.ssh/id_rsa`, se não existir, para cada usuário após a primeira autenticação no nó principal.  

Para um usuário que ainda não foi autenticado no nó principal, a primeira autenticação pode ocorrer nos seguintes casos:
+ O usuário faz login no nó principal pela primeira vez com sua própria senha.
+ No nó principal, um sudoer muda para o usuário pela primeira vez: `su USERNAME`
+ No nó principal, um sudoer executa um comando como usuário pela primeira vez: `su -u USERNAME COMMAND`
Os usuários podem usar a chave SSH para logins subsequentes no nó principal do cluster e nos nós de computação. Com AWS ParallelCluster, os logins com senha nos nós de computação do cluster são desativados por design. Se um usuário não estiver conectado ao nó principal, as chaves SSH não serão geradas e o usuário não poderá fazer login nos nós de computação.  
O padrão é `true`.  
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`AdditionalSssdConfigs` (**Opcional**, `Dict`)  
Um dicionário de pares de valores-chave que contêm parâmetros e valores SSSD para gravar no arquivo de configuração SSSD em instâncias de cluster. Para obter uma descrição completa do arquivo de configuração SSSD, consulte as páginas do manual na instância `SSSD` e os arquivos de configuração relacionados.  
Os parâmetros e valores do SSSD devem ser compatíveis com a configuração AWS ParallelCluster do SSSD, conforme descrito na lista a seguir.  
+ `id_provider`está definido como `ldap` internamente por AWS ParallelCluster e não deve ser modificado.
+ `access_provider`é definido como `ldap` internamente AWS ParallelCluster quando [`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)é especificado, e essa configuração não deve ser modificada.

  Se [`DirectoryService`](#DirectoryService-v3) / [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter) for omitido, sua especificação `access_provider` também será omitida. Por exemplo, se você definir `access_provider` como `simple` no [`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs), então [`DirectoryService`](#DirectoryService-v3) / [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter) deverá ser especificado.
Os trechos de configuração a seguir são exemplos de configurações válidas para `AdditionalSssdConfigs`.  
Este exemplo ativa o nível de depuração para registros SSSD, restringe a base de pesquisa a uma unidade organizacional específica e desativa o cache de credenciais.  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    debug_level: "0xFFF0"
    ldap_search_base: OU=Users,OU=CORP,DC=corp,DC=example,DC=com
    cache_credentials: False
```
Este exemplo especifica a configuração de um SSSD [https://www.mankier.com/5/sssd-simple](https://www.mankier.com/5/sssd-simple) `access_provider`. Os usuários do `EngineeringTeam` têm acesso ao diretório. [`DirectoryService`](#DirectoryService-v3) / [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter) não deve ser definido neste caso.  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    access_provider: simple
    simple_allow_groups: EngineeringTeam
```
[Política de atualização: a frota de computação deve ser interrompida para que essa configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

# Seção `DeploymentSettings`
<a name="DeploymentSettings-cluster-v3"></a>

**nota**  
`DeploymentSettings`é adicionado a partir da AWS ParallelCluster versão 3.4.0.

**(Opcional)** Especifica a configuração das definições de implantação.

```
DeploymentSettings:
  LambdaFunctionsVpcConfig:
    SecurityGroupIds:
      - string
    SubnetIds:
      - string
  DisableSudoAccessForDefaultUser: Boolean
  DefaultUserHome: string # 'Shared' or 'Local'
```

## Propriedades do `DeploymentSettings`
<a name="DeploymentSettings-cluster-v3.properties"></a>

### `LambdaFunctionsVpcConfig`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig"></a>

**(Opcional)** Especifica as configurações de VPC AWS Lambda das funções. Para obter mais informações, consulte [AWS Lambda Configuração de VPC em AWS ParallelCluster](lambda-vpc-v3.md).

```
LambdaFunctionsVpcConfig:
  SecurityGroupIds:
    - string
  SubnetIds:
    - string
```

#### `LambdaFunctionsVpcConfig properties`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig.properties"></a>

 `SecurityGroupIds` (**Obrigatório**, `[String]`)  
A lista dos grupos de segurança da Amazon VPC IDs que estão anexados às funções do Lambda.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

 `SubnetIds` (**Obrigatório**, `[String]`)  
A lista de sub-redes IDs anexadas às funções do Lambda.  
[Política de atualização: se essa configuração for alterada, a atualização não será permitida.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**nota**  
Os sub-redes e grupos de segurança devem estar na mesma VPC.

### DisableSudoAccessForDefaultUser propriedade
<a name="DeploymentSettings-cluster-v3-DisableSudoAccessForDefaultUser.property"></a>

**nota**  
Esta opção de configuração só é compatível com clusters do Slurm.

(Opcional) Se for `True`, os privilégios sudo do usuário padrão serão desabilitados. Isso se aplica a todos os nós do cluster.

```
# Main DeploymentSettings section in config yaml(applies to HN, CF and LN)
DeploymentSettings:
  DisableSudoAccessForDefaultUser: True
```

Para atualizar o valor de `DisableSudoAccessForDefaultUser`, você deve parar a frota de computação e todos os nós de login.

[Política de atualização: a frota de computação e os nós de login devem ser interrompidos para que esta configuração seja alterada para uma atualização.](using-pcluster-update-cluster-v3.md#update-policy-compute-login-v3)

### DefaultUserHome propriedade
<a name="DeploymentSettings-cluster-v3-DefaultUserHome.property"></a>

Quando definido como `Shared`, o cluster usará a configuração padrão e compartilhará o diretório do usuário padrão em todo o cluster por `/home/<default user>`.

Quando definidos como `Local`, o nó principal, os nós de login e os nós de computação terão cada um diretório de usuário padrão local separado armazenado em `local/home/<default user>`.