

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 集群配置文件
<a name="cluster-configuration-file-v3"></a>

AWS ParallelCluster 版本 3 使用单独的配置文件来控制群集基础架构的定义和自定义的定义 AMIs。所有配置文件都使用 YAML 1.1 文件。下面链接了每个配置文件的详细信息。有关一些示例配置，请参阅 a [https://github.com/aws/w parallelcluster/tree/release-3.0/cli/tests/pcluster/example s-\$1configs](https://github.com/aws/aws-parallelcluster/tree/release-3.0/cli/tests/pcluster/example_configs)。

这些对象用于 AWS ParallelCluster 版本 3 的集群配置。

**Topics**
+ [集群配置文件属性](#cluster-configuration-file-v3.properties)
+ [`Imds` 部分](Imds-cluster-v3.md)
+ [`Image` 部分](Image-v3.md)
+ [`HeadNode` 部分](HeadNode-v3.md)
+ [`Scheduling` 部分](Scheduling-v3.md)
+ [`SharedStorage` 部分](SharedStorage-v3.md)
+ [`Iam` 部分](Iam-v3.md)
+ [`LoginNodes` 部分](LoginNodes-v3.md)
+ [`Monitoring` 部分](Monitoring-v3.md)
+ [`Tags` 部分](Tags-v3.md)
+ [`AdditionalPackages` 部分](AdditionalPackages-v3.md)
+ [`DirectoryService` 部分](DirectoryService-v3.md)
+ [`DeploymentSettings` 部分](DeploymentSettings-cluster-v3.md)

## 集群配置文件属性
<a name="cluster-configuration-file-v3.properties"></a>

`Region`（**可选**，`String`）  
 AWS 区域 为群集指定。例如 `us-east-2`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomS3Bucket`（**可选**，`String`）  
指定在您的 AWS 账户中创建的 Amazon S3 存储桶的名称，该存储桶用于存储集群使用的资源（例如集群配置文件）和导出日志。 AWS ParallelCluster 在您创建集群的每个 AWS 区域中维护一个 Amazon S3 存储桶。默认情况下，这些 Amazon S3 存储桶命名为 `parallelcluster-hash-v1-DO-NOT-DELETE`。  
[更新策略：如果更改此设置，则不允许更新。如果您强制更新，则将忽略新值并使用旧值。](using-pcluster-update-cluster-v3.md#update-policy-read-only-resource-bucket-v3)

`AdditionalResources`（**可选**，`String`）  
定义要与集群一起启动的附加 AWS CloudFormation 模板。此附加模板用于创建存在于集群外部但属于集群生命周期一部分的资源。  
值必须是指向公有模板的 HTTPS URL，并提供所有参数。  
没有默认值。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

# `Imds` 部分
<a name="Imds-cluster-v3"></a>

**（可选）**指定全局实例元数据服务 (IMDS) 配置。

```
Imds:
  ImdsSupport: string
```

## `Imds` 属性
<a name="Imds-cluster-v3.properties"></a>

`ImdsSupport`（**可选**，`String`）  
指定集群节点中支持的 IMDS 版本。支持的值为 `v1.0` 和 `v2.0`。默认值为 `v2.0`。  
如果设置`ImdsSupport`为`v1.0`， IMDSv2 则同时支持 IMDSv1 和。  
如果设置`ImdsSupport`为`v2.0`，则仅支持 IMDSv2 该选项。  
有关更多信息，请参阅《适用于 *Linux 实例的 Amazon EC2 用户指南》 IMDSv2*中的[使用](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html)。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
从 AWS ParallelCluster 3.7.0 开始，`ImdsSupport`默认值为。`v2.0`我们建议您在自定义操作调 IMDSv1 用 IMDSv2 中设置`ImdsSupport`为`v2.0`并替换为。  
3.3.0 AWS ParallelCluster 版本[`ImdsSupport`](#yaml-cluster-Imds-ImdsSupport)中增加了对 [`Imds`](#Imds-cluster-v3)/的支持。

# `Image` 部分
<a name="Image-v3"></a>

**注意**  
官方 AMIs 分发的不支持版本 AWS ParallelCluster 将在闲置 18 个月后变为不可用。这些旧映像包含过时的软件，出现问题时无法获得支持。我们强烈建议改用最新的支持版本。

**（必需）**定义集群的操作系统。

```
Image:
  Os: string
  CustomAmi: string
```

## `Image` 属性
<a name="Image-v3.properties"></a>

`Os`（**必需**，`String`）  
指定要对集群使用的操作系统。支持的值为 `alinux2`、`alinux2023`、`ubuntu2404`、`ubuntu2204`、`rhel8`、`rocky8`、`rhel9`、`rocky9`。  
RedHat 从 AWS ParallelCluster 版本 3.6.0 开始添加企业 Linux 8.7 (`rhel8`)。  
如果您将集群配置为使用 `rhel`，则任何实例类型的按需成本都高于将集群配置为使用支持的其它操作系统时的按需成本。有关定价的更多信息，请参阅[按需定价](https://aws.amazon.com/ec2/pricing/on-demand)和 [Amazon EC2 上如何提供和定价 Red Hat Enterprise Linux？](https://aws.amazon.com/partners/redhat/faqs/#Pricing_and_Billing) 。  
RedHat 从 AWS ParallelCluster 版本 3.9.0 开始添加企业 Linux 9 (rhel9)。
所有 AWS 商业区域都支持以下所有操作系统。      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_cn/parallelcluster/latest/ug/Image-v3.html)
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 AWS ParallelCluster 3.8.0 支持 Rocky Linux 8，但预先构建的 Rocky Linux 8 AMIs （适用于 x86 和 ARM 架构）不可用。 AWS ParallelCluster 3.8.0 支持使用自定义方式使用 Rocky Linux 8 创建集群。 AMIs有关更多信息，请参阅[操作系统注意事项](operating-systems-v3.md#OS-Consideration-v3)。 AWS ParallelCluster 3.9.0 支持 Rocky Linux 9，但预先构建的 Rocky Linux 9 AMIs （适用于 x86 和 ARM 架构）不可用。 AWS ParallelCluster 3.9.0 支持使用自定义方式使用 Rocky Linux 9 创建集群。 AMIs有关更多信息，请参阅[操作系统注意事项](operating-systems-v3.md#OS-Consideration-v3)。  
 

`CustomAmi`（**可选**，`String`）  
指定要用于头节点和计算节点的自定义 AMI（而非默认 AMI）的 ID。有关更多信息，请参阅 [AWS ParallelCluster AMI 自定义](custom-ami-v3.md)。  
如果自定义 AMI 需要其他权限才能启动，则必须将这些权限添加到用户和头节点策略中。  
例如，如果自定义 AMI 具有与之关联的加密快照，则用户和头节点策略中都需要以下其他策略：    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
要构建 E RedHat nterprise Linux 自定义 AMI，必须配置操作系统以安装 RHUI (AWS) 存储库提供的软件包：`rhel-<version>-baseos-rhui-rpms``rhel-<version>-appstream-rhui-rpms`、和`codeready-builder-for-rhel-<version>-rhui-rpms`。此外，自定义 AMI 上的存储库包含的 `kernel-devel` 程序包版本必须与正在运行的内核版本相同。  

**已知限制：**
+ 只有 RHEL 8.2 及更高版本支持 Lustre FSx 。
+ RHEL 8.7 内核版本 4.18.0-425.3.1.el8 不支持 Lustre。 FSx 
+ 只有 RHEL 8.4 及更高版本支持 EFA。
+ AL23 不支持 NICE DCV，因为它不包括运行 NICE DCV 所需的图形桌面环境。有关更多信息，请参阅官方的 [NICE DCV 文档](https://docs.aws.amazon.com//dcv/)。
要排查自定义 AMI 验证警告，请参阅[排查自定义 AMI 问题](troubleshooting-v3-custom-amis.md)。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `HeadNode` 部分
<a name="HeadNode-v3"></a>

**（必需）**指定头节点的配置。

```
HeadNode:
  InstanceType: string
  Networking:
    SubnetId: string
    ElasticIp: string/boolean
    SecurityGroups:
      - string
    AdditionalSecurityGroups:
      - string
    Proxy:
      HttpProxyAddress: string
  DisableSimultaneousMultithreading: boolean
  Ssh:
    KeyName: string
    AllowedIps: string
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
      DeleteOnTermination: boolean
    EphemeralVolume:
      MountDir: string
  SharedStorageType: string
  Dcv:
    Enabled: boolean
    Port: integer
    AllowedIps: string
  CustomActions:
    OnNodeStart:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeConfigured:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeUpdated:
      Sequence:
        - Script: string
          Args: 
            - string
      Script: string
      Args:
        - string
  Iam:
    InstanceRole: string
    InstanceProfile: string
    S3Access:
      - BucketName: string
        EnableWriteAccess: boolean
        KeyName: string
    AdditionalIamPolicies:
      - Policy: string
  Imds:
    Secured: boolean
  Image:
    CustomAmi: string
```

## `HeadNode` 属性
<a name="HeadNode-v3.properties"></a>

`InstanceType`（**必填**，`String`）  
指定头节点的实例类型。  
指定用于头节点的 Amazon EC2 实例类型。实例类型的架构必须与用于 AWS Batch [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-AwsBatchQueues-ComputeResources-InstanceTypes)或Slurm[`InstanceType`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)设置的架构相同。  
AWS ParallelCluster 不支持该`HeadNode`设置的以下实例类型。  
+ hpc6id
如果您定义一个 p4d 实例类型或其他具有多个网络接口或网络接口卡的实例类型，则必须[`ElasticIp`](#yaml-HeadNode-Networking-ElasticIp)将设置为`true`以提供公共访问权限。 AWS public IPs 只能分配给使用单个网络接口启动的实例。对于这种情况，我们建议您使用 [NAT 网关](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html)为集群计算节点提供公有访问权限。有关更多信息，请参阅《适用于 *Linux 实例的 Amazon EC2 用户指南》中的 “在实例*[启动期间分配公有 IPv4 地址](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses)”。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DisableSimultaneousMultithreading`（**可选**，`Boolean`）  
如果`true`，则在头节点上禁用超线程。默认值为 `false`。  
并非所有实例类型都可以禁用超线程。有关支持禁用超线程的实例类型列表，请参阅 *Amazon EC2 用户*指南中[每种实例类型的 CPU 核心和每个 CPU 内核的线程](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values)。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SharedStorageType`（**可选**，`String`）  
指定用于内部共享数据的存储类型。内部共享的数据包括 AWS ParallelCluster 用于管理群集的数据，以及用于挂载共享文件系统卷的默认共享数据（`/home`如果未在挂载目录中指定）。[`SharedStorage` 部分](SharedStorage-v3.md)有关内部共享数据的更多详细信息，请参阅 [AWS ParallelCluster 内部目录](directories-v3.md)。  
如果使用 `Ebs`（默认存储类型），则头节点将使用 NFS 导出其根卷的部分内容，作为计算节点和登录节点的共享目录。  
如果`Efs`， ParallelCluster 将创建一个 EFS 文件系统用于共享的内部数据，以及。`/home`  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
当集群横向扩展时，EBS 存储类型可能会出现性能瓶颈，因为头节点会使用 NFS 导出与计算节点共享根卷中的数据。使用 EFS，可以在集群横向扩展时避免 NFS 导出，并避免与之相关的性能瓶颈。建议选择 EBS，以最大限度地提高存放小文件和安装过程 read/write 的可能性。选择 EFS 进行扩展。

## `Networking`
<a name="HeadNode-v3-Networking"></a>

**（必需）**定义头节点的网络配置。

```
Networking:
  SubnetId: string
  ElasticIp: string/boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  Proxy:
    HttpProxyAddress: string
```

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Networking` 属性
<a name="HeadNode-v3-Networking.properties"></a>

`SubnetId`（**必需**，`String`）  
指定要在其中预置头节点的现有子网的 ID。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ElasticIp`（**可选**，`String`）  
创建弹性 IP 地址或将弹性 IP 地址分配给头节点。支持的值为 `true`、`false` 或现有弹性 IP 地址的 ID。默认值为 `false`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SecurityGroups`（**可选**，`[String]`）  
用于头节点的 Amazon VPC 安全组 ID 的列表。如果不包含此属性，则它们将替换 AWS ParallelCluster 创建的安全组。  
验证您的[SharedStorage](SharedStorage-v3.md)系统是否正确配置了安全组。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AdditionalSecurityGroups`（**可选**，`[String]`）  
用于头节点的其他 Amazon VPC 安全组 ID 的列表。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Proxy`（**可选**）  
指定头节点的代理设置。  

```
Proxy:
                            HttpProxyAddress: 
                            string
```  
` HttpProxyAddress`（**可选**，`String`）  
定义 HTTP 或 HTTPS 代理服务器，通常为 `https://x.x.x.x:8080`。  
没有默认值。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Ssh`
<a name="HeadNode-v3-Ssh"></a>

**（可选）**定义头节点的 SSH 访问配置。

```
Ssh:
      KeyName: string
      AllowedIps: string
```

[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Ssh` 属性
<a name="HeadNode-v3-Ssh.properties"></a>

`KeyName`（**可选**，`String`）  
命名一个现有 Amazon EC2 密钥对，以启用对头节点的 SSH 访问。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps`（**可选**，`String`）  
指定头节点 SSH 连接的 CIDR 格式 IP 范围或前缀列表 ID。默认值为 `0.0.0.0/0`。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `LocalStorage`
<a name="HeadNode-v3-LocalStorage"></a>

**（可选）**定义头节点的本地存储配置。

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
    DeleteOnTermination: boolean
  EphemeralVolume:
    MountDir: string
```

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `LocalStorage` 属性
<a name="HeadNode-v3-LocalStorage.properties"></a>

`RootVolume`（**必需**）  
指定头节点的根卷存储。  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
  DeleteOnTermination: boolean
```
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Size`（**可选**，`Integer`）  
指定头节点根卷大小，以吉字节 (GiB) 为单位。默认大小来自 AMI。如果使用不同的大小，则 AMI 必须支持 `growroot`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Encrypted`（**可选**，`Boolean`）  
指定是否对根卷进行加密。默认值为 `true`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
` VolumeType`（**可选**，`String`）  
指定 A [mazon EBS 卷类型](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)。支持的值为 `gp2`、`gp3`、`io1`、`io2`、`sc1`、`st1` 和 `standard`。默认值为 `gp3`。  
有关更多信息，请参阅《Amazon EC2 用户指南》中的 [Amazon EBS 卷类型](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Iops`（**可选**，`Integer`）  
定义 `io1`、`io2` 和 `gp3` 类型卷的 IOPS 数。  
默认值、支持的值以及 `volume_size`/`volume_iops` 比率因 `VolumeType` 和 `Size` 而异。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`VolumeType` = `io1`  
默认值：`Iops` = 100  
支持的值：`Iops` = 100–64000 †  
最大 `Iops`/`Size` 比率 = 50 IOPS/GiB。5000 IOPS 需要至少 100 GiB 的 `Size`。  
`VolumeType` = `io2`  
默认值：`Iops` = 100  
支持的值：`Iops` = 100–64000（`io2` Block Express 卷为 256000）†  
最大 `Iops`/`Size` 比率 = 500 IOPS/GiB。5000 IOPS 需要至少 10 GiB 的 `Size`。  
`VolumeType` = `gp3`  
默认值：`Iops` = 3000  
支持的值：`Iops` = 3000–16000  
最大 `Iops`/`Size` 比率 = 500 IOPS/GiB。5000 IOPS 需要至少 10 GiB 的 `Size`。
† 只有在配置超过 32,000 IOPS 的 [Nitro 系统上构建的实例](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances)才能保证最大 IOPS。其他实例保证最高为 32000 IOPS。除非您[修改`io1`卷，否则较旧的卷可能无法达到最大](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html)性能。 `io2`Block Express 卷在 `R5b` 实例类型上支持高达 256000 的 `Iops` 值。有关更多信息，请参阅《Amazon EC2 用户指南》**中的 [`io2`Block Express 卷](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express)。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Throughput`（**可选**，`Integer`）  
定义 `gp3` 卷类型的吞吐量，以 MiB/s 为单位。此设置仅在 `VolumeType` 为 `gp3` 时有效。默认值为 `125`。支持的值：125–1000 MiB/s  
`Throughput` 与 `Iops` 的比率不能超过 0.25。如果最大吞吐量为 1000，则该`Iops`设置 MiB/s 必须至少为 4000。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 `DeleteOnTermination`（**可选**，`Boolean`）  
指定头节点终止时是否应删除根卷。默认值为 `true`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EphemeralVolume`（**可选**）  
指定任何实例存储卷的详细信息。有关更多信息，请参阅 *Amazon EC2 用户指南*中的[实例存储卷](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes)。  

```
EphemeralVolume:
  MountDir: string
```
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
 `MountDir`（**可选**，`String`）  
指定实例存储卷的挂载目录。默认值为 `/scratch`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Dcv`
<a name="HeadNode-v3-Dcv"></a>

**（可选）**定义在头节点上运行的 Amazon DCV 服务器的配置设置。

有关更多信息，请参阅 [通过 Amazon DCV 连接到头节点和登录节点](dcv-v3.md)。

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```

**重要**  
默认情况下，设置的 Amazon DCV 端口对所有 IPv4 地址开放。 AWS ParallelCluster 但是，只有当您具有 Amazon DCV 会话的 URL 时，才能连接到 Amazon DCV 端口，并应在 `pcluster dcv-connect` 返回 URL 后的 30 秒内连接到 Amazon DCV 会话。请使用 `AllowedIps` 设置进一步限制对具有 CIDR 格式 IP 范围的 Amazon DCV 端口的访问，并使用 `Port` 设置来设置非标准端口。

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Dcv` 属性
<a name="HeadNode-v3-Dcv.properties"></a>

`Enabled`（**必填**，`Boolean`）  
指定是否在头节点上启用 Amazon DCV。默认值为 `false`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Amazon DCV 会自动生成自签名证书，该证书用于保护 Amazon DCV 客户端与在头节点上运行的 Amazon DCV 服务器之间的流量。要配置您自己的证书，请参阅 [Amazon DCV HTTPS 证书](dcv-v3.md#dcv-v3-certificate)。

`Port`（**可选**，`Integer`）  
指定 Amazon DCV 的端口。默认值为 `8443`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps`（**可选，建议**，`String`）  
指定 Amazon DCV 连接的 CIDR 格式的 IP 范围。此设置仅在 AWS ParallelCluster 创建安全组时使用。默认值是 `0.0.0.0/0`，允许从任何 Internet 地址访问。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `CustomActions`
<a name="HeadNode-v3-CustomActions"></a>

**（可选）**指定要在头节点上运行的自定义脚本。

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args: 
      - string
```

### `CustomActions` 属性
<a name="HeadNode-v3-CustomActions.properties"></a>

`OnNodeStart`（**可选**）  
指定要在启动任何节点部署引导操作之前在头节点上运行的单个脚本或一系列脚本。有关更多信息，请参阅[自定义引导操作](custom-bootstrap-actions-v3.md)。    
`Sequence`（**可选**）  
要运行的脚本列表。 AWS ParallelCluster 按配置文件中列出的顺序运行脚本，从第一个脚本开始。    
 `Script`（**必需**，`String`）  
指定要使用的文件。文件路径可以 `https://` 或 `s3://` 开头。  
 `Args`（**可选**，`[String]`）  
要传递到脚本的参数的列表。  
 `Script`（**必需**，`String`）  
指定用于单个脚本的文件。文件路径可以 `https://` 或 `s3://` 开头。  
`Args`（**可选**，`[String]`）  
要传递到单个脚本的参数的列表。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeConfigured`（**可选**）  
指定要在节点引导操作完成后在头节点上运行的单个脚本或一系列脚本。有关更多信息，请参阅[自定义引导操作](custom-bootstrap-actions-v3.md)。    
`Sequence`（**可选**）  
指定要运行的脚本的列表。    
 `Script`（**必需**，`String`）  
指定要使用的文件。文件路径可以 `https://` 或 `s3://` 开头。  
 `Args`（**可选**，`[String]`）  
要传递到脚本的参数的列表。  
 `Script`（**必需**，`String`）  
指定用于单个脚本的文件。文件路径可以 `https://` 或 `s3://` 开头。  
 `Args`（**可选**，`[String]`）  
要传递到单个脚本的参数的列表。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeUpdated`（**可选**）  
指定要在节点更新操作完成后在头节点上运行的单个脚本或一系列脚本。有关更多信息，请参阅[自定义引导操作](custom-bootstrap-actions-v3.md)。    
`Sequence`（**可选**）  
指定要运行的脚本的列表。    
 `Script`（**必需**，`String`）  
指定要使用的文件。文件路径可以 `https://` 或 `s3://` 开头。  
 `Args`（**可选**，`[String]`）  
要传递到脚本的参数的列表。  
 `Script`（**必需**，`String`）  
指定用于单个脚本的文件。文件路径可以 `https://` 或 `s3://` 开头。  
 `Args`（**可选**，`[String]`）  
要传递到单个脚本的参数的列表。
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`OnNodeUpdated`是从 AWS ParallelCluster 3.4.0 开始添加的。  
`Sequence`是从 3.6.0 AWS ParallelCluster 版本开始添加的。指定后`Sequence`，您可以列出一个自定义操作的多个脚本。 AWS ParallelCluster 继续支持使用单个脚本配置自定义操作，不包括脚本`Sequence`。  
AWS ParallelCluster 不支持同时包含单个脚本和`Sequence`同一个自定义操作。

## `Iam`
<a name="HeadNode-v3-Iam"></a>

**（可选）**指定要在头节点上使用的实例角色或实例配置文件，用于覆盖集群的默认实例角色或实例配置文件。

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
```

[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Iam` 属性
<a name="HeadNode-v3-Iam.properties"></a>

`InstanceProfile`（**可选**，`String`）  
指定用于覆盖默认头节点实例配置文件的实例配置文件。您不能同时指定 `InstanceProfile` 和 `InstanceRole`。格式为 `arn:Partition:iam::Account:instance-profile/InstanceProfileName`。  
如果指定此设置，则不能指定 `S3Access` 和 `AdditionalIamPolicies` 设置。  
我们建议您指定 `S3Access` 和 `AdditionalIamPolicies` 设置中的一个或两个，因为添加到 AWS ParallelCluster 中的功能通常需要新权限。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`InstanceRole`（**可选**，`String`）  
指定用于覆盖默认头节点实例角色的实例角色。您不能同时指定 `InstanceProfile` 和 `InstanceRole`。格式为 `arn:Partition:iam::Account:role/RoleName`。  
如果指定此设置，则不能指定 `S3Access` 和 `AdditionalIamPolicies` 设置。  
我们建议您指定 `S3Access` 和 `AdditionalIamPolicies` 设置中的一个或两个，因为添加到 AWS ParallelCluster 中的功能通常需要新权限。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `S3Access`
<a name="HeadNode-v3-Iam-S3Access.properties"></a>

`S3Access`（**可选**）  
指定存储桶。此设置用于生成针对存储桶授予指定访问权限的策略。  
如果指定此设置，则不能指定 `InstanceProfile` 和 `InstanceRole` 设置。  
我们建议您指定 `S3Access` 和 `AdditionalIamPolicies` 设置中的一个或两个，因为添加到 AWS ParallelCluster 中的功能通常需要新权限。  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`BucketName`（**必需**，`String`）  
存储桶的名称。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`KeyName`（**可选**，`String`）  
存储桶的密钥。默认值为“`*`”。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
` EnableWriteAccess`（**可选**，`Boolean`）  
指示是否为存储桶启用写入权限。默认值为 `false`。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `AdditionalIamPolicies`
<a name="HeadNode-v3-Iam-AdditionalIamPolicies.properties"></a>

`AdditionalIamPolicies`（**可选**）  
指定 Amazon EC2 的 IAM 策略的 Amazon 资源名称 (ARN) 列表。除了所需的权限外，此列表还附在用于头节点的根角色上 AWS ParallelCluster。  
IAM 策略名称及其 ARN 不相同。不能使用名称。  
如果指定此设置，则不能指定 `InstanceProfile` 和 `InstanceRole` 设置。  
我们建议您使用 `AdditionalIamPolicies`，因为 `AdditionalIamPolicies` 已经添加到 AWS ParallelCluster 所需的权限中，而 `InstanceRole` 必须包含所有必需的权限。随着功能的不断添加，所需权限通常会随版本发生变化。  
没有默认值。  

```
AdditionalIamPolicies:
  - Policy: string
```
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
` Policy`（**可选**，`[String]`）  
IAM 策略的列表。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Imds`
<a name="HeadNode-v3-Imds"></a>

**（可选）**指定实例元数据服务 (IMDS) 的属性。有关更多信息，[请参阅 *Amazon EC2 用户指南*中的实例元数据服务版本 2 的工作原理](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html#instance-metadata-v2-how-it-works)。

```
Imds:
    Secured: boolean
```

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Imds` 属性
<a name="HeadNode-v3-Imds.properties"></a>

`Secured`（**可选**，`Boolean`）  
如果为 `true`，则仅允许一部分超级用户访问头节点的 IMDS（以及实例配置文件凭证）。  
如果为 `false`，则头节点中的每个用户都可以访问头节点的 IMDS。  

允许以下用户访问头节点的 IMDS：
+ 根用户
+ 集群管理用户（默认为 `pc-cluster-admin`）
+ 操作系统特定的默认用户（`ec2-user`在 Amazon Linux 2 和 RedHat Ubuntu 18.04 `ubuntu` 上。
默认值为 `true`。  
`default`用户负责确保集群拥有与 AWS 资源交互所需的权限。如果您禁用`default`用户 IMDS 访问权限，则 AWS ParallelCluster 无法管理计算节点并停止工作。请勿禁用 `default` 用户 IMDS 访问权限。  
向用户授予头节点 IMDS 的访问权限后，他们可以使用[头节点的实例配置文件](iam-roles-in-parallelcluster-v3.md)中包含的权限。例如，他们可以使用这些权限来启动 Amazon EC2 实例，或读取为集群配置的用于进行身份验证的 AD 域的密码。  
要限制 IMDS 的访问权限，请 AWS ParallelCluster 管理一连串的。`iptables`  
具有 `sudo` 访问权限的集群用户可以通过运行以下命令，对其他单独用户（包括 `default` 用户）有选择地启用或禁用对头节点 IMDS 的访问权限：  

```
$ sudo /opt/parallelcluster/scripts/imds/imds-access.sh --allow <USERNAME>
```
您可以使用此命令的 `--deny` 选项禁用用户的 IMDS 访问权限。  
如果您无意中禁用了 `default` 用户的 IMDS 访问权限，则可以使用 `--allow` 选项还原该权限。  
对 `iptables` 或 `ip6tables` 规则进行任何自定义都可能干扰头节点上用于限制 IMDS 访问权限的机制。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Image`
<a name="HeadNode-v3-Image"></a>

**（可选）**为头节点定义自定义映像。

```
Image:
     CustomAmi: string
```

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Image` 属性
<a name="HeadNode-v3-Image.properties"></a>

`CustomAmi`（**可选**，`String`）  
指定要用于头节点的自定义 AMI（而非默认 AMI）的 ID。有关更多信息，请参阅 [AWS ParallelCluster AMI 自定义](custom-ami-v3.md)。  
如果自定义 AMI 需要其他权限才能启动，则必须将这些权限添加到用户和头节点策略中。  
例如，如果自定义 AMI 具有与之关联的加密快照，则用户和头节点策略中都需要以下其他策略：    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
要排查自定义 AMI 验证警告，请参阅[排查自定义 AMI 问题](troubleshooting-v3-custom-amis.md)。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Scheduling` 部分
<a name="Scheduling-v3"></a>

**（必需）**定义集群中使用的作业调度器以及该作业调度器管理的计算实例。您可以使用Slurm或 AWS Batch 调度程序。每个调度器支持一组不同的设置和属性。

**Topics**
+ [`Scheduling` 属性](#Scheduling-v3.properties)
+ [`AwsBatchQueues`](#Scheduling-v3-AwsBatchQueues)
+ [`SlurmQueues`](#Scheduling-v3-SlurmQueues)
+ [`SlurmSettings`](#Scheduling-v3-SlurmSettings)

```
Scheduling:
  Scheduler: slurm
  ScalingStrategy: string    
  SlurmSettings:
    MungeKeySecretArn: string        
    ScaledownIdletime: integer    
    QueueUpdateStrategy: string
    EnableMemoryBasedScheduling: boolean
    CustomSlurmSettings: [dict]
    CustomSlurmSettingsIncludeFile: string
    Database:
      Uri: string
      UserName: string
      PasswordSecretArn: string
      DatabaseName: string    
    ExternalSlurmdbd: boolean
      Host: string
      Port: integer  
    Dns:
      DisableManagedDns: boolean
      HostedZoneId: string
      UseEc2Hostnames: boolean  
  SlurmQueues:
    - Name: string  
      ComputeSettings:
        LocalStorage:
          RootVolume:
            Size: integer
            Encrypted: boolean
            VolumeType: string
            Iops: integer
            Throughput: integer
          EphemeralVolume:
            MountDir: string
      CapacityReservationTarget:
        CapacityReservationId: string
        CapacityReservationResourceGroupArn: string
      CapacityType: string
      AllocationStrategy: string
      JobExclusiveAllocation: boolean
      CustomSlurmSettings: dict
      Tags:
        - Key: string
          Value: string
      HealthChecks:
        Gpu:
          Enabled: boolean
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
        PlacementGroup:
          Enabled: boolean
          Id: string
          Name: string
        Proxy:
          HttpProxyAddress: string
      ComputeResources:
        - Name: string
          InstanceType: string
          Instances:
            - InstanceType: string
          MinCount: integer
          MaxCount: integer
          DynamicNodePriority: integer
          StaticNodePriority: integer
          SpotPrice: float
          DisableSimultaneousMultithreading: boolean
          SchedulableMemory: integer
          HealthChecks:
            Gpu:
              Enabled: boolean
          Efa:
            Enabled: boolean
            GdrSupport: boolean          
          CapacityReservationTarget:
            CapacityReservationId: string
            CapacityReservationResourceGroupArn: string
          Networking:   
            PlacementGroup:
              Enabled: boolean
              Name: string
          CustomSlurmSettings: dict
          Tags:
            - Key: string
              Value: string
          LaunchTemplateOverrides:
            LaunchTemplateId: string
            Version: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceProfile: string
        InstanceRole: string
        S3Access:
          - BucketName: string
            EnableWriteAccess: boolean
            KeyName: string
        AdditionalIamPolicies:
          - Policy: string
      Image:
        CustomAmi: string
```

```
Scheduling:
  Scheduler: awsbatch
  AwsBatchQueues:
    - Name: string
      CapacityType: string
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
        - Name: string
          InstanceTypes:
            - string
          MinvCpus: integer
          DesiredvCpus: integer
          MaxvCpus: integer
          SpotBidPercentage: float
```

## `Scheduling` 属性
<a name="Scheduling-v3.properties"></a>

**`Scheduler`（**必需**，`String`）**  
指定使用的调度器的类型。支持的值为 `slurm` 和 `awsbatch`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`awsbatch` 仅支持 `alinux2` 操作系统和 `x86_64` 平台。

**`ScalingStrategy`（**可选**，`String`）**  
让您能够选择动态 Slurm 节点的纵向扩展方式。支持的值为 `all-or-nothing`、`greedy-all-or-nothing` 和 `best-effort`，默认值为 `all-or-nothing`。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
扩展策略仅适用于 Slurm 即将恢复的节点，而不适用于最终已在运行的节点。
+ `all-or-nothing`此策略严格遵循 all-or-nothing-approach，旨在避免在扩展过程结束时出现空闲实例。它是在 all-or-nothing基础上运行的，这意味着它要么完全扩展，要么根本不扩展。请注意，当作业需要超过 500 个节点或跨多个计算资源时，临时启动的实例可能会产生额外费用。在三种可能的扩展策略中，该策略的吞吐量最低。扩展时间取决于每次执行 Slurm 恢复程序时提交的作业数量。此外，您的扩展不能远远超过每次执行的默认 RunInstances 资源帐户限制，默认情况下为 1000 个实例。更多详情可在 [Amazon EC2 API 节流文档](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/throttling.html)中找到
+ `greedy-all-or-nothing `与该 all-or-nothing策略类似，它旨在避免在缩放后出现闲置实例。此策略允许在扩展过程中临时超额扩展，以实现比该 all-or-nothing方法更高的吞吐量，但也具有与 RunInstances 资源账户限制相同的扩展限制，即 1000 个实例。
+ `best-effort `该策略优先考虑高吞吐量，即使这意味着某些实例在扩展过程结束时可能处于闲置状态。该策略会尝试分配作业要求的尽可能多的节点，但有可能无法满足全部要求。与其他策略不同，尽力而为的方法可以积累比标准 RunInstances限制更多的实例，但代价是在执行多个扩展过程时会有闲置资源。

每种策略都旨在满足不同的扩展需求，您可以根据自己的具体要求和限制条件进行选择。

## `AwsBatchQueues`
<a name="Scheduling-v3-AwsBatchQueues"></a>

**（可选）** AWS Batch 队列设置。仅支持一个队列。如果 [`Scheduler`](#yaml-Scheduling-Scheduler) 设置为 `awsbatch`，则此部分是必需的。有关 `awsbatch` 调度器的更多信息，请参阅[联网设置](network-configuration-v3-batch.md)和 [将 AWS Batch (`awsbatch`) 调度器与 AWS ParallelCluster](awsbatchcli-v3.md)。

```
AwsBatchQueues:
  - Name: string
    CapacityType: string
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
      - Name: string
        InstanceTypes:
          - string
        MinvCpus: integer
        DesiredvCpus: integer
        MaxvCpus: integer
        SpotBidPercentage: float
```

[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `AwsBatchQueues` 属性
<a name="Scheduling-v3-AwsBatchQueues.properties"></a>

**`Name`（**必需**，`String`）**  
 AWS Batch 队列的名称。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityType`（**可选**，`String`）**  
 AWS Batch 队列使用的计算资源的类型。支持的值为 `ONDEMAND`、`SPOT` 或 `CAPACITY_BLOCK`。默认值为 `ONDEMAND`。  
如果将 `CapacityType` 设置为 `SPOT`，则您的账户必须包含 `AWSServiceRoleForEC2Spot` 服务相关角色。您可以使用以下 AWS CLI 命令创建此角色。  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
有关更多信息，请参阅《Amazon EC2 用户指南（适用于 Linux 实例）》**中的[竞价型实例请求的服务相关角色](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests)。
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### `Networking`
<a name="Scheduling-v3-AwsBatchQueues-Networking"></a>

**（必需）**定义 AWS Batch 队列的网络配置。

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```

##### `Networking` 属性
<a name="Scheduling-v3-AwsBatchQueues-Networking.properties"></a>

**`SubnetIds`（**必需**，`[String]`）**  
指定要在其中配置 AWS Batch 队列的现有子网的 ID。目前仅支持一个子网。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`AssignPublicIp`（**可选**，`String`）**  
为 AWS Batch 队列中的节点创建或分配公有 IP 地址。支持的值为 `true` 和 `false`。默认值取决于您指定的子网。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups`（**可选**，`[String]`）**  
 AWS Batch 队列使用的安全组列表。如果您未指定安全组，则 AWS ParallelCluster 会创建新的安全组。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups`（**可选**，`[String]`）**  
 AWS Batch 队列使用的安全组列表。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

#### `ComputeResources`
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources"></a>

**（必需）**定义 AWS Batch 队列的 ComputeResources 配置。

```
ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
  - Name: string
    InstanceTypes:
      - string
    MinvCpus: integer
    DesiredvCpus: integer
    MaxvCpus: integer
    SpotBidPercentage: float
```

##### `ComputeResources` 属性
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources.properties"></a>

**`Name`（**必需**，`String`）**  
 AWS Batch 队列计算环境的名称。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceTypes`（**必需**，`[String]`）**  
实例类型的 AWS Batch 计算环境数组。所有实例类型都必须使用 `x86_64` 架构。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MinvCpus`（**可选**，`Integer`）**  
 AWS Batch 计算环境可以使用的最小数量。 VCPUs   
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`DesiredVcpus`（**可选**，`Integer`）**  
 AWS Batch 计算环境 VCPUs 中所需的数量。 AWS Batch `MaxvCpus`根据任务队列中的需求在`MinvCpus`和之间调整此值。  
[更新策略：在更新期间不分析此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

**`MaxvCpus`（**可选**，`Integer`）**  
 AWS Batch 计算环境的最大数量。 VCPUs 不能将此值设置为低于 `DesiredVcpus`。  
[更新策略：更新期间不能减小此设置。](using-pcluster-update-cluster-v3.md#update-policy-no-decrease-v3)

**`SpotBidPercentage`（**可选**，`Float`）**  
在启动实例之前，与该实例类型的按需价格相比，Amazon EC2 竞价型实例价格可以达到的最大百分比。默认值为 `100` (100%)。支持的范围是 `1`-`100`。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmQueues`
<a name="Scheduling-v3-SlurmQueues"></a>

**（可选）**Slurm 队列的设置。如果 [`Scheduler`](#yaml-Scheduling-Scheduler) 设置为 `slurm`，则此部分是必需的。

```
SlurmQueues:
  - Name: string
    ComputeSettings:
      LocalStorage:
        RootVolume:
          Size: integer
          Encrypted: boolean
          VolumeType: string
          Iops: integer
          Throughput: integer
        EphemeralVolume:
          MountDir: string
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    CapacityType: string
    AllocationStrategy: string
    JobExclusiveAllocation: boolean
    CustomSlurmSettings: dict
    Tags:
      - Key: string
        Value: string
    HealthChecks:
      Gpu:
        Enabled: boolean
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
      PlacementGroup:
        Enabled: boolean
        Id: string
        Name: string
      Proxy:
        HttpProxyAddress: string
    ComputeResources:
      - Name: string
        InstanceType: string
        Instances:
          - InstanceType: string        
        MinCount: integer
        MaxCount: integer
        DynamicNodePriority: integer
        StaticNodePriority: integer
        SpotPrice: float
        DisableSimultaneousMultithreading: boolean
        SchedulableMemory: integer
        HealthChecks:
          Gpu:
            Enabled: boolean
        Efa:
          Enabled: boolean
          GdrSupport: boolean    
        CapacityReservationTarget:
          CapacityReservationId: string
          CapacityReservationResourceGroupArn: string     
        Networking:   
          PlacementGroup:
            Enabled: boolean
            Name: string
        CustomSlurmSettings: dict
        Tags:
          - Key: string
            Value: string
        LaunchTemplateOverrides:
          LaunchTemplateId: string
          Version: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string        
        Script: string
        Args:
          - string
    Iam:
      InstanceProfile: string
      InstanceRole: string
      S3Access:
        - BucketName: string
          EnableWriteAccess: boolean
          KeyName: string
      AdditionalIamPolicies:
        - Policy: string
    Image:
      CustomAmi: string
```

[更新策略：对于此列表值设置，可以在更新期间添加新值，或者在删除现有值时必须停止计算实例集。](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

### `SlurmQueues` 属性
<a name="Scheduling-v3-SlurmQueues.properties"></a>

**`Name`（**必需**，`String`）**  
Slurm 队列的名称。  
在更新期间，集群大小可能会更改。有关更多信息，请参阅[集群容量大小和更新](slurm-workload-manager-v3.md)
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityReservationTarget`**  
`CapacityReservationTarget`已在 3.3.0 AWS ParallelCluster 版本中添加。

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
指定队列计算资源的按需容量预留。    
**`CapacityReservationId`（**可选**，`String`）**  
要用于队列计算资源的现有容量预留的 ID。ID 可以指的是 [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) 或[适用于 ML 的容量块](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html)。  
预留使用的平台必须与实例使用的平台相同。例如，如果您的实例在 `rhel8` 上运行，则您的容量预留必须在 Red Hat Enterprise Linux 平台上运行。有关更多信息，请参阅 *Amazon EC2 用户指南（适用于 Linux 实例）*中的[支持的平台](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html#capacity-reservations-platforms)。  
如果在集群配置中包含 [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)，则必须从配置中排除此队列级别 `CapacityReservationId` 设置。
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`CapacityReservationResourceGroupArn`（**可选**，`String`）**  
用作队列计算资源的服务相关容量预留组的资源组的 Amazon 资源名称 (ARN)。 AWS ParallelCluster 根据以下条件确定并使用资源组中最适当的容量预留。  
+ 如果在 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)或 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)//中启用 [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)，`PlacementGroup`则 AWS ParallelCluster 选择以实例类型为目标的资源组，如果计算资源存在，则`PlacementGroup`为计算资源选择资源组。[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)

  `PlacementGroup` 必须以 [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) 中定义的实例类型之一为目标。
+ 如果`PlacementGroup`未在 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)或 [`SlurmQueues`[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)](#Scheduling-v3-SlurmQueues)/中启用 [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)，则 AWS ParallelCluster 选择仅针对计算资源的实例类型的资源组（如果存在计算资源）。
在队列的所有计算资源和可用区中，资源组必须为可用区中的每种实例类型保留至少一个 ODCR。有关更多信息，请参阅 [使用按需容量预留（ODCR）启动实例](launch-instances-odcr-v3.md)。  
有关多子网配置要求的更多信息，请参阅 [`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds)。  
3.4.0 AWS ParallelCluster 版本中添加了多个可用区。
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityType`（**可选**，`String`）**  
Slurm 队列使用的计算资源的类型。支持的值为 `ONDEMAND`、`SPOT` 或 `CAPACITY_BLOCK`。默认值为 `ONDEMAND`。  
如果将 `CapacityType` 设置为 `SPOT`，则您的账户必须具有 `AWSServiceRoleForEC2Spot` 服务相关角色。您可以使用以下 AWS CLI 命令来创建此角色。  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
有关更多信息，请参阅《Amazon EC2 用户指南（适用于 Linux 实例）》**中的[竞价型实例请求的服务相关角色](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests)。
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AllocationStrategy`（**可选**，`String`）**  
为 [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) 中定义的所有计算资源指定分配策略。  
有效值：`lowest-price` \$1 `capacity-optimized` \$1 `price-capacity-optimized` \$1 `prioritized` \$1 `capacity-optimized-prioritized`       
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_cn/parallelcluster/latest/ug/Scheduling-v3.html)
默认值：`lowest-price`    
**`lowest-price`**  
+ 如果使用 `CapacityType = ONDEMAND`，Amazon EC2 Fleet 将使用价格来确定顺序，并最先启动价格最低的实例。
+ 如果使用 `CapacityType = SPOT`，Amazon EC2 Fleet 将从具有可用容量的最低价格竞价型实例池中启动实例。如果池在满足您的所需容量之前已用完容量，Amazon EC2 队列会通过为您启动实例来满足您的请求。具体而言，Amazon EC2 Fleet 将从具有可用容量的最低价格竞价型实例池中启动实例。Amazon EC2 Fleet 可能会从多个不同的池中启动竞价型实例。
+ 如果设置 `CapacityType = CAPACITY_BLOCK`，则没有分配策略，因此无法配置 `AllocationStrategy` 参数。  
**`capacity-optimized`**  
+ 如果设置 `CapacityType = ONDEMAND`，则 `capacity-optimized` 不可用。
+ 如果设置 `CapacityType = SPOT`，Amazon EC2 Fleet 将从容量最适合所要启动的实例数的竞价型实例池中启动实例。  
**`price-capacity-optimized`**  
+ 如果设置 `CapacityType = ONDEMAND`，则 `capacity-optimized` 不可用。
+ 如果设置 `CapacityType = SPOT`，Amazon EC2 Fleet 将为正在启动的实例数识别具有最高可用容量的池。这意味着我们将从我们认为短期内中断概率最低的池中请求竞价型实例。然后，Amazon EC2 Fleet 从这些池中价格最低的池请求竞价型实例。  
**`prioritized`**  
+ 如果您进行了设置`CapacityType = ONDEMAND`，则在指定多个子网时，Amazon EC2 队列将遵循 AWS ParallelCluster 适用于 LaunchTemplate 替代的优先顺序。 AWS ParallelCluster `priority`从目标子网的位置派生替代项，其中第一个子网的优先级最高。`SlurmQueues/Networking/SubnetIds`优先级按 AWS ParallelCluster 降序排列，第一个 SubnetId 优先级最高`SlurmQueues/Networking/SubnetIds`，最后一个 subnetId 的优先级最低。
+ 如果设置 `CapacityType = SPOT`，则 `prioritized` 不可用。  
**`capacity-optimized-prioritized`**  
+ 如果设置 `CapacityType = ONDEMAND`，则 `capacity-optimized-prioritized` 不可用。
+ 如果您设置`CapacityType = SPOT`，Amazon EC2 队列会先优化容量，然后尽力应用 AWS ParallelCluster 分配给替代项的优先顺序。 LaunchTemplate 优先级按 AWS ParallelCluster 降序排列，第一个 SubnetId 优先级最高`SlurmQueues/Networking/SubnetIds`，最后一个 subnetId 的优先级最低。所有以相同子网为目标的替代项都将获得相同的优先级值。
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
从 AWS ParallelCluster 版本 3.3.0 开始支持 `AllocationStrategy`。  
**3.14.0 中的新增功能**：`prioritized`（用于点播）和`capacity-optimized-prioritized`（适用于竞价版）。

**`JobExclusiveAllocation`（**可选**，`String`）**  
如果设置为 `true`，则 Slurm 分区 `OverSubscribe` 标志设置为 `EXCLUSIVE`。当 `OverSubscribe`=`EXCLUSIVE` 时，分区中的作业将对分配的所有节点具有独占访问权限。有关更多信息，请参阅 Slurm 文档中的 [EXCLUSIVE](https://slurm.schedmd.com/slurm.conf.html#OPT_EXCLUSIVE)。  
有效值：`true` \$1 `false`  
默认值：`false`  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
从 AWS ParallelCluster 版本 3.7.0 开始支持 `JobExclusiveAllocation`。

**`CustomSlurmSettings`（**可选**，`Dict`）**  
定义自定义 Slurm 分区（队列）配置设置。  
指定应用于队列（分区）的自定义 Slurm 配置参数键值对的字典。  
每个单独的键值对（例如 `Param1: Value1`）都以 `Param1=Value1` 格式单独添加到 Slurm 分区配置行的末尾。  
您只能指定未在 `CustomSlurmSettings` 中列入拒绝列表的 Slurm 配置参数。有关列入拒绝列表的 Slurm 配置参数的信息，请参阅 [被拒登名单 Slurm 的配置参数 `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)。  
AWS ParallelCluster 仅检查参数是否在拒绝列表中。 AWS ParallelCluster 不会验证您的自定义Slurm配置参数语法或语义。您有责任验证您的自定义Slurm配置参数。无效的自定义 Slurm 配置参数可能会导致 Slurm 进程守护程序失败，从而导致集群创建和更新失败。  
有关如何使用指定自定义Slurm配置参数的更多信息 AWS ParallelCluster，请参阅[Slurm 配置自定义](slurm-configuration-settings-v3.md)。  
有关 Slurm 配置参数的更多信息，请参阅 Slurm 文档中的 [slurm.conf](https://slurm.schedmd.com/slurm.conf.html)。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
从 AWS ParallelCluster 版本 3.6.0 开始支持 `CustomSlurmSettings`。

**`Tags`（**可选**，[字符串]）**  
标签键值对的列表。[`ComputeResource`](#yaml-Scheduling-SlurmQueues-ComputeResources-Tags) 标签覆盖 [`Tags` 部分](Tags-v3.md)或 `SlurmQueues`/`Tags` 中指定的重复标签。    
**`Key`（**可选**，`String`）**  
标签键。  
**`Value`（**可选**，`String`）**  
标签值。
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks`（**可选**）**  
指定队列中所有计算资源上的计算节点运行状况检查。    
`Gpu`（**可选**）  
指定队列中所有计算资源上的 GPU 运行状况检查。  
AWS ParallelCluster 在使用 `alinux2` ARM 操作系统的节点`Gpu`中不支持`HealthChecks`/。这些平台不支持 [NVIDIA 数据中心 GPU 管理器 (DCGM)](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions)。  
不建议在使用 GPU 内存总大小高于 327680 MiB 的实例类型时启用 GPU 运行状况检查。  
`Enabled`（**可选**，`Boolean`）  
是否 AWS ParallelCluster 对计算节点执行 GPU 运行状况检查。默认值为 `false`。

**`Gpu` 运行状况检查行为**
+ 如果 `Gpu`/`Enabled` 设置为 `true`，则 AWS ParallelCluster 对队列中的计算资源执行 GPU 运行状况检查。
+ `Gpu` 运行状况检查会对计算资源执行 GPU 运行状况检查，以防止在 GPU 降级的节点上提交作业。
+ 如果某个计算节点未通过 `Gpu` 运行状况检查，则该计算节点的状态将更改为 `DRAIN`。新作业不会在此节点上启动。现有作业将运行至完成。所有正在运行的作业完成后，如果该计算节点是动态节点，则会终止；如果是静态节点，则会被替换。
+ `Gpu`运行状况检查的持续时间取决于所选实例类型、实例 GPUs 中的数量、GPU 内存总量和`Gpu`运行状况检查目标的数量（等同于作业 GPU 目标的数量）。例如，在 p4d.24xlarge 上，典型的持续时间为 3 分钟。
+ 如果 `Gpu` 运行状况检查在不受支持的实例上运行，它将退出，作业将在计算节点上运行。例如，如果一个实例没有 GPU，或者一个实例有 GPU，但不是 NVIDIA GPU，则运行状况检查将会退出，作业将在计算节点上运行。仅支持 NVIDIA GPUs 。
+ `Gpu` 运行状况检查使用 `dcgmi` 工具对节点执行运行状况检查，并采取以下步骤：

  当在节点中开始 `Gpu` 运行状况检查时：

  1. 它会检测 `nvidia-dcgm` 和 `nvidia-fabricmanager` 服务是否正在运行。

  1. 如果这些服务未运行，则 `Gpu` 运行状况检查将会启动这些服务。

  1. 它会检测是否启用了持久性模式。

  1. 如果未启用持久性模式，则 `Gpu` 运行状况检查将会启用该模式。

  在运行状况检查结束时，`Gpu` 运行状况检查会将这些服务和资源还原到其初始状态。
+ 如果任务分配给一组特定的节点 GPUs，则运行`Gpu`状况检查仅在该特定节点上运行。否则，运行`Gpu`状况检查将在节点 GPUs 中的所有节点上运行。
+ 如果计算节点同时收到 2 个或更多个 `Gpu` 运行状况检查请求，则仅运行第一个运行状况检查，并跳过其他运行状况检查。目标节点的运行状况检查也是如此 GPUs。您可以查看日志文件以获取有关此情况的更多信息。
+ `/var/log/parallelcluster/slurm_health_check.log` 文件中提供了特定计算节点的运行状况检查日志。该文件可在 Amazon CloudWatch 的集群 CloudWatch 日志组中找到，您可以在其中找到：
  + 有关 `Gpu` 运行状况检查运行的操作的详细信息，包括启用和禁用服务以及持久性模式。
  + GPU 标识符、序列号和 UUID。
  + 运行状况检查输出。
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`从 3.6.0 AWS ParallelCluster 版开始受支持。

#### `Networking`
<a name="Scheduling-v3-SlurmQueues-Networking"></a>

**（必需）**定义 Slurm 队列的网络配置。

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  PlacementGroup:
    Enabled: boolean
    Id: string
    Name: string
  Proxy:
    HttpProxyAddress: string
```

[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `Networking` 属性
<a name="Scheduling-v3-SlurmQueues-Networking.properties"></a>

**`SubnetIds`（**必需**，`[String]`）**  
您在 IDs 其中配置Slurm队列的现有子网。  
如果您在 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType) 中配置实例类型，则只能定义一个子网。  
如果您在 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) 中配置实例类型，则可以定义单个子网或多个子网。  
如果您使用多个子网，则为队列定义的所有子网都必须位于同一 VPC 中，每个子网位于单独的可用区 (AZ) 中。  
例如，假设您为队列定义了 subnet-1 和 subnet-2。  
则 `subnet-1` 和 `subnet-2` 不能都在 AZ-1 中。  
`subnet-1` 可以在 AZ-1 中，`subnet-2` 可以在 AZ-2 中。  
如果您只配置一种实例类型并想要使用多个子网，请在 `Instances` 而不是 `InstanceType` 中定义您的实例类型。  
例如，定义 `ComputeResources`/`Instances`/`InstanceType`=`instance.type` 而不是 `ComputeResources`/`InstanceType`=`instance.type`。  
不支持在不同的可用区之间使用 Elastic Fabric Adapter (EFA)。
使用多个可用区可能会导致存储网络延迟增加，并提高可用区间的数据传输成本。例如，当实例访问位于不同 AZ 的文件存储时，可能会发生这种情况。有关更多信息，请参阅[同一 AWS 区域内的数据传输](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer_within_the_same_AWS_Region)。  

**集群更新为从使用单个子网改为使用多个子网：**
+ 假设集群的子网定义是用单个子网和一个 Lustre AWS ParallelCluster 托管 FSx 文件系统定义的。则您无法使用更新的子网 ID 定义直接更新此集群。要更新该集群，必须先将托管文件系统更改为外部文件系统。有关更多信息，请参阅 [将 AWS ParallelCluster 托管存储转换为外部存储](shared-storage-conversion-v3.md)。
+ 假设集群的子网定义是用单个子网和一个外部 Amazon EFS 文件系统定义的，前提是定义为要添加的多个子网的所有子网都不存在 EFS 挂载目标。 AZs 则您无法使用更新的子网 ID 定义直接更新此集群。要更新集群或创建集群，必须先为已定义的多个子网的所有创建所有挂载目标。 AZs 

**可用区和集群容量预留定义于 [CapacityReservationResourceGroupArn](#yaml-Scheduling-SlurmQueues-CapacityReservationResourceGroupArn)：**
+ 如果定义的容量预留资源组所涵盖的实例类型和可用区集合与为队列定义的实例类型和可用区集合之间没有重叠，则无法创建集群。
+ 如果定义的容量预留资源组所涵盖的实例类型和可用区集与为队列定义的一组实例类型和可用区之间存在部分重叠，则可以创建集群。 AWS ParallelCluster 会发送一条警告消息，说明这种情况存在部分重叠。
+ 有关更多信息，请参阅 [使用按需容量预留（ODCR）启动实例](launch-instances-odcr-v3.md)。
3.4.0 AWS ParallelCluster 版本中添加了多个可用区。
此警告适用于 3.3.1 之前的所有 3.x.y AWS ParallelCluster 版本。 AWS ParallelCluster 如果更改此参数，版本 3.3.1 不会受到影响。  
对于 3.3.1 之前的 AWS ParallelCluster 3 个版本：  
如果您更改此参数并更新群集，则会创建一个新的 Lustre 托管 FSx 文件系统，并在不保留现有数据的情况下删除现有 FSx 的 Lustre 托管文件系统。这会导致数据丢失。在继续操作之前，如果要保留数据，请务必备份现有 FSx Lustre 文件系统的数据。有关更多信息，请参阅 fo [r *Lustre 用户指南*中的使用备份](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html)。FSx 
如果添加了新子网值，[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
如果删除了子网值，[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AssignPublicIp`（**可选**，`String`）**  
为 Slurm 队列中的节点创建或分配公有 IP 地址。支持的值为 `true` 和 `false`。您指定的子网决定默认值。具有公共 IPs 默认值的子网，用于分配公有 IP 地址。  
如果您定义了p4d或hpc6id实例类型，或者其他具有多个网络接口或网络接口卡的实例类型，则必须将 [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/设置为[`ElasticIp`](HeadNode-v3.md#yaml-HeadNode-Networking-ElasticIp)`true`以提供公共访问权限。 AWS public IPs 只能分配给使用单个网络接口启动的实例。对于这种情况，我们建议您使用 [NAT 网关](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html)为集群计算节点提供公有访问权限。在这种情况下，请将 `AssignPublicIp` 设置为 `false`。有关 IP 地址的更多信息，请参阅《适用于 *Linux 实例的 Amazon EC2 用户指南》中的 “在实例*[启动期间分配公有 IPv4 地址](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses)”。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups`（**可选**，`[String]`）**  
用于Slurm 队列的安全组的列表。如果未指定安全组，则会为您 AWS ParallelCluster 创建安全组。  
验证您的[SharedStorage](SharedStorage-v3.md)系统是否正确配置了安全组。  
此警告适用于所有 3. *x*。 *y* AWS ParallelCluster 3.3.0 之前的版本。 AWS ParallelCluster 如果更改此参数，版本 3.3.0 不会受到影响。  
对于 3.3.0 之前的 AWS ParallelCluster 3 个版本：  
如果您更改此参数并更新群集，则会创建一个新的 Lustre 托管 FSx 文件系统，并在不保留现有数据的情况下删除现有 FSx 的 Lustre 托管文件系统。这会导致数据丢失。如果要保留数据，请务必备份现有 F FSx or Lustre 文件系统的数据。有关更多信息，请参阅 fo [r *Lustre 用户指南*中的使用备份](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html)。FSx 
如果您为计算实例启用 [Efa](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa)，请确保启用了 EFA 的实例是允许进出自身的所有入站和出站流量的安全组的成员。
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups`（**可选**，`[String]`）**  
用于Slurm 队列的其他安全组的列表。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`PlacementGroup`（**可选**）**  
指定 Slurm 队列的置放群组设置。  

```
PlacementGroup:
  Enabled: boolean
  Id: string
  Name: string
```
[更新策略：必须停止所有计算节点才能删除托管置放群组。必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`Enabled`（**可选**，`Boolean`）**  
指示是否对 Slurm 队列使用置放群组。默认值为 `false`。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Id`（**可选**，`String`）**  
Slurm队列使用的现有集群置放群组的置放群组 ID。请务必提供置放群组 *ID* *而不是名称*。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name`（**可选**，`String`）**  
Slurm 队列使用的现有集群置放群组的置放群组名称。确保提供置放群组*名称* 而*不是 ID*。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ 如果 `PlacementGroup`/`Enabled` 设置为 `true` 而未定义 `Name` 或 `Id`，则会为每个计算资源分配自己的托管置放群组，除非将 [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking-PlacementGroup) 定义为覆盖此设置。
+ 从 AWS ParallelCluster 版本 3.3.0 开始，添加[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)了 [`SlurmQueues`[`Networking`[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)](#Scheduling-v3-SlurmQueues-Networking)](#Scheduling-v3-SlurmQueues)///作为/ [`SlurmQueues`[`Networking`[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)](#Scheduling-v3-SlurmQueues-Networking)](#Scheduling-v3-SlurmQueues)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)的首选替代方案。

  [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id) 和 [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name) 是等效的。您可以使用任何一个。

   如果同时包含 [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)和 [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)， AWS ParallelCluster 则失败。您只能选择其中一项。

  您无需更新集群即可使用 [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)。
+ 使用容量块预留时，不应设置置放群组约束，因为即使容量预留还有剩余容量，也可能由于预留之外的放置限制而出现容量不足错误。

**`Proxy`（**可选**）**  
指定 Slurm 队列的代理设置。  

```
Proxy:
  HttpProxyAddress: string
```
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`HttpProxyAddress`（**可选**，`String`）**  
为 Slurm 队列定义 HTTP 或 HTTPS 代理服务器。通常为 `https://x.x.x.x:8080`。  
没有默认值。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `Image`
<a name="Scheduling-v3-SlurmQueues-Image"></a>

**（可选）**指定要用于 Slurm 队列的映像。要对所有节点使用相同的 AMI，请使用[`Image`部分](Image-v3.md)中的[CustomAmi](Image-v3.md#yaml-Image-CustomAmi)设置。

```
Image:
  CustomAmi: string
```

[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `Image` 属性
<a name="Scheduling-v3-SlurmQueues-Image.properties"></a>

**`CustomAmi`（**可选**，`String`）**  
用于Slurm队列的 AMI，而不是默认的 AMI AMIs。您可以使用 C pcluster LI 命令查看默认值列表 AMIs。  
AMI 必须基于头节点所使用的相同操作系统。

```
pcluster list-official-images
```
如果自定义 AMI 需要其他权限才能启动，则必须将这些权限添加到头节点策略中。  
例如，如果自定义 AMI 具有与之关联的加密快照，则头节点策略中需要以下其他策略：    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
要排查自定义 AMI 验证警告，请参阅[排查自定义 AMI 问题](troubleshooting-v3-custom-amis.md)。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeResources`
<a name="Scheduling-v3-SlurmQueues-ComputeResources"></a>

**（必需）**定义 Slurm 队列的 `ComputeResources` 配置。

**注意**  
在更新期间，集群大小可能会更改。有关更多信息，请参阅[集群容量大小和更新](slurm-workload-manager-v3.md)。
只有当新的计算资源部署在属于创建集群时存在的 CIDR 块的子网中时，才能将其添加到集群。

```
ComputeResources:
  - Name: string
    InstanceType: string
    Instances:
      - InstanceType: string    
    MinCount: integer
    MaxCount: integer
    DynamicNodePriority: integer
    StaticNodePriority: integer
    SpotPrice: float
    DisableSimultaneousMultithreading: boolean
    SchedulableMemory: integer
    HealthChecks:
      Gpu:    
        Enabled: boolean
    Efa:
      Enabled: boolean
      GdrSupport: boolean
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    Networking:   
      PlacementGroup:
        Enabled: boolean
        Name: string
    CustomSlurmSettings: dict   
    Tags:
      - Key: string
        Value: string
    LaunchTemplateOverrides:
      LaunchTemplateId: string
      Version: string
```

[更新策略：对于此列表值设置，可以在更新期间添加新值，或者在删除现有值时必须停止计算实例集。](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

##### `ComputeResources` 属性
<a name="Scheduling-v3-SlurmQueues-ComputeResources.properties"></a>

**`Name`（**必需**，`String`）**  
Slurm 队列计算环境的名称。名称最多可以包含 25 个字符。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`InstanceType`（**必需**，`String`）**  
此 Slurm 计算资源中使用的实例类型。集群中的所有实例类型都必须使用相同的处理器架构。实例可以使用 `x86_64` 或 `arm64` 架构。  
集群配置必须定义[InstanceType](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)或[实例](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)。如果两者都被定义， AWS ParallelCluster 则失败。  
定义 `InstanceType` 时，不能定义多个子网。如果您只配置一种实例类型并想要使用多个子网，请在 `Instances` 而不是 `InstanceType` 中定义您的实例类型。有关更多信息，请参阅 [`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds)。  
如果您定义了p4d或hpc6id实例类型，或者其他具有多个网络接口或网络接口卡的实例类型，则必须按照中所述在私有子网中启动计算实例[AWS ParallelCluster 使用两个子网](network-configuration-v3-two-subnets.md)。 AWS public IPs 只能分配给使用单个网络接口启动的实例。有关更多信息，请参阅《适用于 *Linux 实例的 Amazon EC2 用户指南》中的 “在实例*[启动期间分配公有 IPv4 地址](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses)”。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`Instances`（**必需**）**  
指定计算资源的实例类型列表。要为实例类型列表指定分配策略，请参阅 [`AllocationStrategy`](#yaml-Scheduling-SlurmQueues-AllocationStrategy)。  
集群配置必须定义 [`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType) 或 [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)。如果同时定义了两者，则 AWS ParallelCluster 将会失败。  
有关更多信息，请参阅 [Slurm 的多实例类型分配](slurm-multiple-instance-allocation-v3.md)。  

```
`Instances`:
   - `InstanceType`: string
```
[从 3.7.0 AWS ParallelCluster 版开始，如果您在实例中配置了多个实例类型，则`EnableMemoryBasedScheduling`可以启用。](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)  
适用于 3.2.0 到 3.6 AWS ParallelCluster 版本。 *x*[，如果您在实例中配置了多个实例类型，则`EnableMemoryBasedScheduling`无法启用。](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)
[更新策略：对于此列表值设置，可以在更新期间添加新值，或者在删除现有值时必须停止计算实例集。](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)    
**`InstanceType`（**必需**，`String`）**  
要在此 Slurm 计算资源中使用的实例类型。集群中的所有实例类型都必须使用相同的处理器架构，即 `x86_64` 或 `arm64`。  
[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) 中列出的实例类型必须：  
+ 相同数量的 vCPUs，或者，如果设置[`DisableSimultaneousMultithreading`](#yaml-Scheduling-SlurmQueues-ComputeResources-DisableSimultaneousMultithreading)为`true`，则为相同数量的内核。
+ 具有相同制造商的相同数量的加速器。
+ 支持 EFA，如果 [`Efa`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa)/[`Enabled`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa-Enabled) 设置为 `true`。
[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) 中列出的实例类型可以具有：  
+ 不同的内存量。

  在这种情况下，应将最小内存设置为可消耗的 Slurm 资源。
**注意**  
[从 3.7.0 AWS ParallelCluster 版开始，如果您在实例中配置了多个实例类型，则`EnableMemoryBasedScheduling`可以启用。](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)  
适用于 3.2.0 到 3.6 AWS ParallelCluster 版本。 *x*[，如果您在实例中配置了多个实例类型，则`EnableMemoryBasedScheduling`无法启用。](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)
+ 不同的网卡。

  在这种情况下，为计算资源配置的网络接口数量由网卡数量最少的实例类型定义。
+ 不同的网络带宽。
+ 不同的实例存储大小。
如果您定义了p4d或hpc6id实例类型，或者其他具有多个网络接口或网络接口卡的实例类型，则必须按照中所述在私有子网中启动计算实例[AWS ParallelCluster 使用两个子网](network-configuration-v3-two-subnets.md)。 AWS public IPs 只能分配给使用单个网络接口启动的实例。有关更多信息，请参阅《适用于 *Linux 实例的 Amazon EC2 用户指南》中的 “在实例*[启动期间分配公有 IPv4 地址](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses)”。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)
`Instances`从 3.3.0 AWS ParallelCluster 版开始受支持。

**`MinCount`（**可选**，`Integer`）**  
Slurm 计算资源使用的最小实例数量。默认值是 0。  
在更新期间，集群大小可能会更改。有关更多信息，请参阅[集群容量大小和更新](slurm-workload-manager-v3.md)
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MaxCount`（**可选**，`Integer`）**  
Slurm 计算资源使用的最大实例数量。默认值为 10。  
使用时`CapacityType = CAPACITY_BLOCK`，`MaxCount`必须等于`MinCount`和大于 0，因为容量块预留的所有实例部分都作为静态节点进行管理。  
在创建集群时，头节点会等待所有静态节点准备就绪，然后再发出集群创建成功的信号。但是，当您使用时`CapacityType = CAPACITY_BLOCK`，此检查将不考虑与容量块关联的计算资源的节点部分。即使不是所有配置的容量块都处于活动状态，也会创建集群。  
在更新期间，集群大小可能会更改。有关更多信息，请参阅[集群容量大小和更新](slurm-workload-manager-v3.md)
 

**`DynamicNodePriority`（**可选**，`Integer`）**  
队列计算资源中动态节点的优先级。该优先级映射到计算资源动态节点的 Slurm 节点 [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight) 配置参数。默认值为 `1000`。  
Slurm 将 `Weight` 值最低的节点设置为最高优先级。  
在 Slurm 分区（队列）中使用许多不同的 `Weight` 值可能会减慢队列中作业调度的速度。  
在 AWS ParallelCluster 3.7.0 之前的版本中，静态节点和动态节点的默认权重相同。`1`在这种情况下，由于静态和动态节点的命名架构，Slurm 可能会将空闲的动态节点的优先级设置为高于空闲的静态节点。如果所有其他条件相同，Slurm 会按名称的字母顺序调度节点。
`DynamicNodePriority`已在 3.7.0 AWS ParallelCluster 版本中添加。
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`StaticNodePriority`（**可选**，`Integer`）**  
队列计算资源中静态节点的优先级。该优先级映射到计算资源静态节点的 Slurm 节点 [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight) 配置参数。默认值为 `1`。  
Slurm 将 `Weight` 值最低的节点设置为最高优先级。  
在 Slurm 分区（队列）中使用许多不同的 `Weight` 值可能会减慢队列中作业调度的速度。
`StaticNodePriority`已在 3.7.0 AWS ParallelCluster 版本中添加。
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`SpotPrice`（**可选**，`Float`）**  
在启动任何实例之前为 Amazon EC2 竞价型实例支付的最高价格。默认值为按需价格。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`DisableSimultaneousMultithreading`（**可选**，`Boolean`）**  
如果为 `true`，则禁用 Slurm 队列中节点上的多线程。默认值为 `false`。  
并非所有实例类型都可禁用多线程。有关支持禁用多线程的实例类型列表，请参阅《Amazon EC2 用户指南》**中的[每种实例类型的 CPU 内核以及每个 CPU 内核的线程](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values)。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`SchedulableMemory`（**可选**，`Integer`）**  
在 Slurm 参数 `RealMemory` 中为计算资源的计算节点配置的内存量，以 MiB 为单位。如果启用了 [`SlurmSettings`](#Scheduling-v3-SlurmSettings)/[`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling)，则此值为可供作业使用的节点内存的上限。默认值是 [Amazon EC2 实例类型中列出并由亚马逊 EC2](https://aws.amazon.com/ec2/instance-types) API 返回的内存的 95% [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html)。确保将以 GiB 为单位给出的值转换为 MiB 单位。  
支持的值：`1-EC2Memory`  
`EC2Memory`是在 [Amazon EC2 实例类型中列出并由亚马逊 EC2 API](https://aws.amazon.com/ec2/instance-types) 返回的内存（以 MiB 为单位）。[DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html)确保将以 GiB 为单位给出的值转换为 MiB 单位。  
当启用了 [`SlurmSettings`](#Scheduling-v3-SlurmSettings)/[`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling) 时，此选项最相关。有关更多信息，请参阅 [Slurm 基于内存的调度](slurm-mem-based-scheduling-v3.md)。  
从 AWS ParallelCluster 版本 3.2.0 开始支持 `SchedulableMemory`。  
从版本 3.2.0 开始，默认情况下， AWS ParallelCluster 将Slurm计算节点配置`RealMemory`为 Amazon EC2 API 返回的内存的 95%。`DescribeInstanceTypes`此配置与 `EnableMemoryBasedScheduling` 的值无关。
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks`（**可选**）**  
指定计算资源上的运行状况检查。    
`Gpu`（**可选**）  
指定计算资源上的 GPU 运行状况检查。    
`Enabled`（**可选**，`Boolean`）  
是否 AWS ParallelCluster 对队列中的计算资源执行 GPU 运行状况检查。默认值为 `false`。  
AWS ParallelCluster 在使用 `alinux2` ARM 操作系统的节点`Gpu`中不支持`HealthChecks`/。这些平台不支持 [NVIDIA 数据中心 GPU 管理器 (DCGM)](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions)。

**`Gpu` 运行状况检查行为**
+ 如果 `Gpu` /设置`Enabled`为`true`，则对计算资源 AWS ParallelCluster 执行 GPU 运行状况检查。
+ `Gpu` 运行状况检查会对计算资源执行运行状况检查，以防止在 GPU 降级的节点上提交作业。
+ 如果某个计算节点未通过 `Gpu` 运行状况检查，则该计算节点的状态将更改为 `DRAIN`。新作业不会在此节点上启动。现有作业将运行至完成。所有正在运行的作业完成后，如果该计算节点是动态节点，则会终止；如果是静态节点，则会被替换。
+ `Gpu`运行状况检查的持续时间取决于所选实例类型、实例 GPUs 中的数量和`Gpu`运行状况检查目标的数量（等同于作业 GPU 目标的数量）。对于具有 8 的实例 GPUs，典型持续时间小于 3 分钟。
+ 如果 `Gpu` 运行状况检查在不受支持的实例上运行，它将退出，作业将在计算节点上运行。例如，如果一个实例没有 GPU，或者一个实例有 GPU，但不是 NVIDIA GPU，则运行状况检查将会退出，作业将在计算节点上运行。仅支持 NVIDIA GPUs 。
+ `Gpu` 运行状况检查使用 `dcgmi` 工具对节点执行运行状况检查，并采取以下步骤：

  当在节点中开始 `Gpu` 运行状况检查时：

  1. 它会检测 `nvidia-dcgm` 和 `nvidia-fabricmanager` 服务是否正在运行。

  1. 如果这些服务未运行，则 `Gpu` 运行状况检查将会启动这些服务。

  1. 它会检测是否启用了持久性模式。

  1. 如果未启用持久性模式，则 `Gpu` 运行状况检查将会启用该模式。

  在运行状况检查结束时，`Gpu` 运行状况检查会将这些服务和资源还原到其初始状态。
+ 如果任务分配给一组特定的节点 GPUs，则运行`Gpu`状况检查仅在该特定节点上运行。否则，运行`Gpu`状况检查将在节点 GPUs 中的所有节点上运行。
+ 如果计算节点同时收到 2 个或更多个 `Gpu` 运行状况检查请求，则仅运行第一个运行状况检查，并跳过其他运行状况检查。针对节点的运行状况检查也是如此 GPUs。您可以查看日志文件以获取有关此情况的更多信息。
+ `/var/log/parallelcluster/slurm_health_check.log` 文件中提供了特定计算节点的运行状况检查日志。此文件可在 Amazon CloudWatch 的集群 CloudWatch 日志组中找到，您可以在其中找到：
  + 有关 `Gpu` 运行状况检查运行的操作的详细信息，包括启用和禁用服务以及持久性模式。
  + GPU 标识符、序列号和 UUID。
  + 运行状况检查输出。
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`从 3.6.0 AWS ParallelCluster 版开始受支持。

**`Efa`（**可选**）**  
为 Slurm 队列中的节点指定 Elastic Fabric Adapter (EFA) 设置。  

```
Efa:
  Enabled: boolean
  GdrSupport: boolean
```
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Enabled`（**可选**，`Boolean`）**  
指定 Elastic Fabric Adapter (EFA) 已启用。要查看支持 EFA 的 Amazon EC2 实例的列表，请参阅《Amazon EC2 用户指南（适用于 Linux 实例）》**中的[支持的实例类型](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types)。有关更多信息，请参阅 [Elastic Fabric Adapter](efa-v3.md)。我们建议您使用集群 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) 最大限度地缩短实例之间的延迟。  
默认值为 `false`。  
不支持在不同的可用区之间使用 Elastic Fabric Adapter (EFA)。有关更多信息，请参阅 [SubnetIds](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds)。
如果您在中定义自定义安全组 [SecurityGroups](#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)，请确保您的启用 EFA 的实例是允许所有入站和出站流量进入自身的安全组的成员。
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`GdrSupport`（**可选**，`Boolean`）**  
**（可选）**从 AWS ParallelCluster 版本 3.0.2 开始，此设置无效。如果计算资源和操作系统的实例类型支持 GPUDirect RDMA（远程直接内存访问）的 Elastic Fabric Adapter (EFA)，则始终启用对 RDMA（远程直接内存访问）Slurm的支持。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityReservationTarget`**  

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
指定要用于计算资源的按需容量预留。    
**`CapacityReservationId`（**可选**，`String`）**  
要用于队列计算资源的现有容量预留的 ID。ID 可以指的是 [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) 或[适用于 ML 的容量块](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html)。  
如果在计算资源级别指定此参数 InstanceType是可选的，则将自动从预留中检索该参数。  
**`CapacityReservationResourceGroupArn`（**可选**，`String`）**  
指示用作计算资源的服务相关容量预留组的资源组的 Amazon 资源名称 (ARN)。 AWS ParallelCluster 确定并使用组中最适当的容量预留。对于为计算资源列出的每种实例类型，资源组必须至少有一个 ODCR。有关更多信息，请参阅 [使用按需容量预留（ODCR）启动实例](launch-instances-odcr-v3.md)。  
+ 如果`PlacementGroup`在 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)或 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)//中启用 [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)，则 AWS ParallelCluster 选择以实例类型`PlacementGroup`为目标的资源组和计算资源（如果存在）。[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)

  `PlacementGroup` 必须以 [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) 中定义的实例类型之一为目标。
+ 如果`PlacementGroup`未在 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)或 [`SlurmQueues`[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)](#Scheduling-v3-SlurmQueues)/中启用 [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)，则 AWS ParallelCluster 选择仅针对计算资源的实例类型（如果存在）的资源组。
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
从 AWS ParallelCluster 版本 3.3.0 开始添加了 `CapacityReservationTarget`。

**`Networking`**  

```
Networking:   
  PlacementGroup:
    Enabled: boolean
    Name: string
```
[更新策略：必须停止所有计算节点才能删除托管置放群组。必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`PlacementGroup`（**可选**）**  
指定计算资源的置放群组设置。    
**`Enabled`（**可选**，`Boolean`）**  
指示是否对计算资源使用置放群组。  
+ 如果设置为 `true` 而未定义 `Name`，则无论 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) 设置如何，都会为该计算资源分配自己的托管置放群组。
+ 如果设置为 `true` 且定义了 `Name`，则无论 `SlurmQueues`/`Networking`/`PlacementGroup` 设置如何，都将为该计算资源分配命名的置放群组。
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name`（**可选**，`String`）**  
用于计算资源的现有集群置放群组的置放群组名称。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ 如果 `PlacementGroup`/`Enabled` 和 `Name` 都未设置，则它们各自的值默认为 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) 设置。
+ 使用容量块预留时，不应设置置放群组约束，因为即使容量预留还有剩余容量，也可能由于预留之外的放置限制而出现容量不足错误。
+ `ComputeResources`/`Networking`/已`PlacementGroup`在 3.3.0 AWS ParallelCluster 版本中添加。

**`CustomSlurmSettings`（**可选**，`Dict`）**  
**（可选）**定义自定义 Slurm 节点（计算资源）配置设置。  
指定应用于 Slurm 节点（计算资源）的自定义 Slurm 配置参数键值对的字典。  
每个单独的键值对（例如 `Param1: Value1`）都以 `Param1=Value1` 格式单独添加到 Slurm 节点配置行的末尾。  
您只能指定未在 `CustomSlurmSettings` 中列入拒绝列表的 Slurm 配置参数。有关列入拒绝列表的 Slurm 配置参数的信息，请参阅 [被拒登名单 Slurm 的配置参数 `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)。  
AWS ParallelCluster 仅检查参数是否在拒绝列表中。 AWS ParallelCluster 不会验证您的自定义Slurm配置参数语法或语义。您有责任验证您的自定义Slurm配置参数。无效的自定义 Slurm 配置参数可能会导致 Slurm 进程守护程序失败，从而导致集群创建和更新失败。  
有关如何使用指定自定义Slurm配置参数的更多信息 AWS ParallelCluster，请参阅[Slurm 配置自定义](slurm-configuration-settings-v3.md)。  
有关 Slurm 配置参数的更多信息，请参阅 Slurm 文档中的 [slurm.conf](https://slurm.schedmd.com/slurm.conf.html)。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
从 AWS ParallelCluster 版本 3.6.0 开始支持 `CustomSlurmSettings`。

**`Tags`（**可选**，[字符串]）**  
标签键值对的列表。`ComputeResource` 标签覆盖 [`Tags` 部分](Tags-v3.md)或 [`SlurmQueues`](#yaml-Scheduling-SlurmQueues-Tags)/`Tags` 中指定的重复标签。    
**`Key`（**可选**，`String`）**  
标签键。  
**`Value`（**可选**，`String`）**  
标签值。
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LaunchTemplateOverrides`（**可选**）**  
`LaunchTemplateOverrides`已在 3.15.0 AWS ParallelCluster 版本中添加。
指定启动模板以覆盖为计算资源 AWS ParallelCluster 创建的默认启动模板。启动模板应仅包含网络接口替代项。 AWS ParallelCluster 验证启动模板并防止覆盖其他参数。有关如何使用此替代的更多信息，请参阅[使用启动模板覆盖自定义计算节点网络接口](tutorial-network-customization-v3.md)。  

```
LaunchTemplateOverrides:
  LaunchTemplateId: string
  Version: string
```  
**`LaunchTemplateId`（**必需**，`String`）**  
启动模板的 ID。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Version`（**必需**，`String`）**  
启动模板的版本号。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeSettings`
<a name="Scheduling-v3-SlurmQueues-ComputeSettings"></a>

**（必需）**定义 Slurm 队列的 `ComputeSettings` 配置。

##### `ComputeSettings` 属性
<a name="Scheduling-v3-SlurmQueues-ComputeSettings.properties"></a>

指定 Slurm 队列中节点的 `ComputeSettings` 的属性。

```
ComputeSettings:
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
     EphemeralVolume:
      MountDir: string
```

[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LocalStorage`（**可选**）**  
指定 Slurm 队列中节点的 `LocalStorage` 的属性。  

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
  EphemeralVolume:
    MountDir: string
```
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`RootVolume`（**可选**）**  
指定 Slurm 队列中节点的根卷的详细信息。  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
```
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Size`（**可选**，`Integer`）**  
指定 Slurm 队列中节点的根卷大小，以吉字节 (GiB) 为单位。默认大小来自 AMI。如果使用不同的大小，则 AMI 必须支持 `growroot`。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Encrypted`（**可选**，`Boolean`）**  
如果为 `true`，则对 Slurm 队列中节点的根卷进行加密。默认值为 `true`。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`VolumeType`（**可选**，`String`）**  
指定 Slurm 队列中节点的 [Amazon EBS 卷类型](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)。支持的值为 `gp2`、`gp3`、`io1`、`io2`、`sc1`、`st1` 和 `standard`。默认值为 `gp3`。  
有关更多信息，请参阅《Amazon EC2 用户指南》中的 [Amazon EBS 卷类型](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Iops`（**可选**，`Boolean`）**  
定义 `io1`、`io2` 和 `gp3` 类型卷的 IOPS 数。  
默认值、支持的值以及 `volume_size`/`volume_iops` 比率因 `VolumeType` 和 `Size` 而异。    
**`VolumeType` = `io1`**  
默认值：`Iops` = 100  
支持的值：`Iops` = 100–64000 †  
最大 `volume_iops`/`volume_size` 比率 = 50 IOPS/GiB。5000 IOPS 需要至少 100 GiB 的 `volume_size`。  
**`VolumeType` = `io2`**  
默认值：`Iops` = 100  
支持的值：`Iops` = 100–64000（`io2` Block Express 卷为 256000）†  
最大 `Iops`/`Size` 比率 = 500 IOPS/GiB。5000 IOPS 需要至少 10 GiB 的 `Size`。  
**`VolumeType` = `gp3`**  
默认值：`Iops` = 3000  
支持的值：`Iops` = 3000–16000 †  
最大 `Iops`/`Size` 比率 = 500 IOPS/GiB（对于 IOPS 大于 3000 的卷）。
† 只有[在 Nitro System 上构建的实例](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances)也配置超过 32000 IOPS 时，才能保证最大 IOPS。其他实例最高可具有 32000 IOPS。除非您[修改卷](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html)，否则较早的 `io1` 卷可能无法实现完全性能。`io2`Block Express 卷在 `R5b` 实例类型上支持高达 256000 的 `volume_iops` 值。有关更多信息，请参阅《Amazon EC2 用户指南》**中的 [`io2`Block Express 卷](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express)。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Throughput`（**可选**，`Integer`）**  
定义 `gp3` 卷类型的吞吐量，以 MiB/s 为单位。此设置仅在 `VolumeType` 为 `gp3` 时有效。默认值为 `125`。支持的值：125–1000 MiB/s  
`Throughput` 与 `Iops` 的比率不能超过 0.25。如果最大吞吐量为 1000，则该`Iops`设置 MiB/s 必须至少为 4000。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`EphemeralVolume`（**可选**，`Boolean`）**  
指定临时卷的设置。临时卷是通过将所有实例存储卷合并到 `ext4` 文件系统格式的单个逻辑卷而创建的。默认值为 `/scratch`。如果实例类型没有任何实例存储卷，则不会创建临时卷。有关更多信息，请参阅 *Amazon EC2 用户指南*中的[实例存储卷](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes)。  

```
EphemeralVolume:
  MountDir: string
```
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`MountDir`（**可选**，`String`）**  
Slurm 队列中每个节点的临时卷的挂载目录。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `CustomActions`
<a name="Scheduling-v3-SlurmQueues-CustomActions"></a>

**（可选）**指定要在 Slurm 队列中的节点上运行的自定义脚本。

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```

[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `CustomActions` 属性
<a name="Scheduling-v3-SlurmQueues-CustomActions.properties"></a>

**`OnNodeStart`（**可选**，`String`）**  
指定在启动任何节点部署引导操作之前，要在 Slurm 队列中的节点上运行的脚本序列或单个脚本。 AWS ParallelCluster 不支持同一个自定义操作同时包含单个脚本和 `Sequence`。有关更多信息，请参阅[自定义引导操作](custom-bootstrap-actions-v3.md)。    
**`Sequence`（**可选**）**  
要运行的脚本的列表。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script`（**必需**，`String`）**  
要使用的文件。文件路径可以 `https://` 或 `s3://` 开头。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`（**可选**，`[String]`）**  
要传递到脚本的参数的列表。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script`（**必需**，`String`）**  
用于单个脚本的文件。文件路径可以 `https://` 或 `s3://` 开头。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`（**可选**，`[String]`）**  
要传递到单个脚本的参数的列表。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`OnNodeConfigured`（**可选**，`String`）**  
指定在所有节点引导操作完成之后，要在 Slurm 队列中的节点上运行的脚本序列或单个脚本。 AWS ParallelCluster 不支持同一个自定义操作同时包含单个脚本和 `Sequence`。有关更多信息，请参阅[自定义引导操作](custom-bootstrap-actions-v3.md)。    
**`Sequence`（**可选**）**  
要运行的脚本的列表。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script`（**必需**，`String`）**  
要使用的文件。文件路径可以 `https://` 或 `s3://` 开头。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`（**可选**，`[String]`）**  
要传递到脚本的参数的列表。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script`（**必需**，`String`）**  
用于单个脚本的文件。文件路径可以 `https://` 或 `s3://` 开头。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`（**可选**，`[String]`）**  
要传递到单个脚本的参数的列表。  
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[更新策略：必须停止计算实例集或必须设置 QueueUpdateStrategy 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`Sequence`是从 3.6.0 AWS ParallelCluster 版本开始添加的。指定后`Sequence`，您可以列出一个自定义操作的多个脚本。 AWS ParallelCluster 继续支持使用单个脚本配置自定义操作，不包括脚本`Sequence`。  
AWS ParallelCluster 不支持同时包含单个脚本和`Sequence`同一个自定义操作。

#### `Iam`
<a name="Scheduling-v3-SlurmQueues-Iam"></a>

**（可选）**定义 Slurm 队列的可选 IAM 设置。

```
Iam:
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
  InstanceProfile: string
  InstanceRole: string
```

[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

##### `Iam` 属性
<a name="Scheduling-v3-SlurmQueues-Iam.properties"></a>

**`InstanceProfile`（**可选**，`String`）**  
指定用于覆盖 Slurm 队列默认实例角色或实例配置文件的实例配置文件。您不能同时指定 `InstanceProfile` 和 `InstanceRole`。格式为 `arn:${Partition}:iam::${Account}:instance-profile/${InstanceProfileName}`。  
如果指定此设置，则不能指定 `S3Access` 和 `AdditionalIamPolicies` 设置。  
我们建议您指定 `S3Access` 和 `AdditionalIamPolicies` 设置中的一个或两个，因为添加到 AWS ParallelCluster 中的功能通常需要新权限。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceRole`（**可选**，`String`）**  
指定用于覆盖 Slurm 队列默认实例角色或实例配置文件的实例角色。您不能同时指定 `InstanceProfile` 和 `InstanceRole`。格式为 `arn:${Partition}:iam::${Account}:role/${RoleName}`。  
如果指定此设置，则不能指定 `S3Access` 和 `AdditionalIamPolicies` 设置。  
我们建议您指定 `S3Access` 和 `AdditionalIamPolicies` 设置中的一个或两个，因为添加到 AWS ParallelCluster 中的功能通常需要新权限。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`S3Access`（**可选**）**  
为 Slurm 队列指定存储桶。此设置用于生成针对 Slurm 队列中的存储桶授予指定访问权限的策略。  
如果指定此设置，则不能指定 `InstanceProfile` 和 `InstanceRole` 设置。  
我们建议您指定 `S3Access` 和 `AdditionalIamPolicies` 设置中的一个或两个，因为添加到 AWS ParallelCluster 中的功能通常需要新权限。  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`BucketName`（**必需**，`String`）**  
存储桶的名称。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`KeyName`（**可选**，`String`）**  
存储桶的密钥。默认值为 `*`。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`EnableWriteAccess`（**可选**，`Boolean`）**  
指示是否为存储桶启用写入权限。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalIamPolicies`（**可选**）**  
指定 Amazon EC2 的 IAM 策略的 Amazon 资源名称 (ARN) 列表。除了所需的权限外，此列表还附在用于Slurm队列的根角色上 AWS ParallelCluster。  
IAM 策略名称及其 ARN 不相同。不能使用名称。  
如果指定此设置，则不能指定 `InstanceProfile` 和 `InstanceRole` 设置。  
我们建议您使用 `AdditionalIamPolicies`，因为 `AdditionalIamPolicies` 已经添加到 AWS ParallelCluster 所需的权限中，而 `InstanceRole` 必须包含所有必需的权限。随着功能的不断添加，所需权限通常会随版本发生变化。  
没有默认值。  

```
AdditionalIamPolicies:
  - Policy: string
```
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`Policy`（**必需**，`[String]`）**  
IAM 策略的列表。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmSettings`
<a name="Scheduling-v3-SlurmSettings"></a>

**（可选）**为 Slurm 定义应用到整个集群的设置。

```
SlurmSettings:
  ScaledownIdletime: integer
  QueueUpdateStrategy: string
  EnableMemoryBasedScheduling: boolean
  CustomSlurmSettings: [dict] 
  CustomSlurmSettingsIncludeFile: string
  Database:
    Uri: string
    UserName: string
    PasswordSecretArn: string
  ExternalSlurmdbd:
    Host: string
    Port: integer
  Dns:
    DisableManagedDns: boolean
    HostedZoneId: string
    UseEc2Hostnames: boolean
```

### `SlurmSettings` 属性
<a name="Scheduling-v3-SlurmSettings.properties"></a>

**`ScaledownIdletime`（**可选**，`Integer`）**  
定义 Slurm 节点终止前没有作业的时间（以分钟为单位）。  
默认值为 `10`。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MungeKeySecretArn`（**可选**，`String`）**  
 纯文本 Secrets AWS Manager 密钥的亚马逊资源名称 (ARN)，其中包含要在集群中使用的 base64 编码的 munge 密钥。Slurm该 munge 密钥将用于验证 Slurm 客户端命令与作为远程服务器的 Slurm 进程守护程序之间的 RPC 调用。如果未提供， AWS ParallelCluster 将 MungeKeySecretArn 为集群生成一个随机 munge 密钥。  
从 AWS ParallelCluster 版本 3.8.0 开始支持 `MungeKeySecretArn`。
如果 MungeKeySecretArn 是新添加到现有集群中，则在回滚或稍后移除时 ParallelCluster不会恢复之前的 munge Key。 MungeKeySecretArn相反，将生成一个新的随机 munge 密钥。
如果 AWS ParallelCluster 用户有权[ DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html)访问该特定机密资源， MungeKeySecretArn 则会进行验证。 MungeKeySecretArn 在以下情况下有效：  
+ 指定的密钥存在；
+ 密钥为明文，包含一个有效的 base64 编码字符串；
+ 解码后的二进制 munge 密钥大小介于 256 和 8192 位之间。
如果 pcluster 用户 IAM 策略不包括 DescribeSecret， MungeKeySecretArn则不进行验证并显示警告消息。有关更多信息，请参阅 [基本 AWS ParallelCluster `pcluster` 用户策略](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy)。  
更新时 MungeKeySecretArn，必须停止计算队列和所有登录节点。  
如果密钥 ARN 中的密钥值被修改，而 ARN 保持不变，则不会自动用新的 munge 密钥更新集群。要使用密钥 ARN 的新 munge 密钥，必须停止计算实例集和登录节点，然后从头节点运行以下命令。  
`sudo /opt/parallelcluster/scripts/slurm/update_munge_key.sh`  
运行命令后，您可以恢复计算队列和登录节点：新配置的计算和登录节点将自动开始使用新的 munge 密钥。  
要生成 base64 编码的自定义 munge 密钥，可以使用 munge 软件随附的 [mungekey 实用程序](https://github.com/dun/munge/wiki/Man-8-mungekey)，然后使用操作系统中常见的 base64 实用程序对其进行编码。或者，也可以使用 bash（请将 bs 参数设置在 32 至 1024 之间）  
`dd if=/dev/random bs=128 count=1 2>/dev/null | base64 -w 0`  
或 Python，如下所示：  

```
import random
import os
import base64

# key length in bytes
key_length=128

base64.b64encode(os.urandom(key_length)).decode("utf-8")
```
[更新策略：必须停止计算队列和登录节点，才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md)

**`QueueUpdateStrategy`（**可选**，`String`）**  
为具有以下更新策略的 [`SlurmQueues`](#Scheduling-v3-SlurmQueues) 部分参数指定替换策略：  
[更新策略：必须停止计算实例集或必须设置 `QueueUpdateStrategy` 才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
仅在集群更新过程开始时使用 `QueueUpdateStrategy` 值。  
有效值：`COMPUTE_FLEET_STOP` \$1`DRAIN` \$1`TERMINATE`  
默认值：`COMPUTE_FLEET_STOP`    
**`DRAIN`**  
队列中更改了参数值的节点将设置为 `DRAINING`。处于此状态的节点不接受新作业，正在运行的作业会继续运行，直至完成。  
在节点变成 `idle` (`DRAINED`) 之后，如果是静态节点，则将替换该节点；如果是动态节点，则将终止该节点。其他队列中未更改参数值的其他节点不受影响。  
此策略替换更改了参数值的所有队列节点所需的时间取决于正在运行的工作负载。。  
**`COMPUTE_FLEET_STOP`**  
`QueueUpdateStrategy` 参数的默认值。使用此设置，更新该[`SlurmQueues`](#Scheduling-v3-SlurmQueues)部分下的参数要求您在执行集群更新之前[停止计算队列](pcluster.update-compute-fleet-v3.md)：  

```
$ pcluster update-compute-fleet --status STOP_REQUESTED
```  
**`TERMINATE`**  
在更改了参数值的队列中，将会终止正在运行的作业并立即关闭节点。  
静态节点将被替换，动态节点将被终止。  
其他队列中未更改参数值的其他节点不受影响。
[更新策略：在更新期间不分析此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)  
从 AWS ParallelCluster 版本 3.2.0 开始支持 `QueueUpdateStrategy`。

**`EnableMemoryBasedScheduling`（**可选**，`Boolean`）**  
如果为 `true`，则在 Slurm 中启用基于内存的调度。有关更多信息，请参阅 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`SchedulableMemory`](#yaml-Scheduling-SlurmQueues-ComputeResources-SchedulableMemory)。  
默认值为 `false`。  
启用基于内存的调度会影响 Slurm 调度器处理作业和节点分配的方式。  
有关更多信息，请参阅 [Slurm 基于内存的调度](slurm-mem-based-scheduling-v3.md)。
从 AWS ParallelCluster 版本 3.2.0 开始支持 `EnableMemoryBasedScheduling`。
[从 3.7.0 AWS ParallelCluster 版开始，如果您在实例中配置了多个实例类型，则`EnableMemoryBasedScheduling`可以启用。](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)  
适用于 3.2.0 到 3.6 AWS ParallelCluster 版本。 *x*[，如果您在实例中配置了多个实例类型，则`EnableMemoryBasedScheduling`无法启用。](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`CustomSlurmSettings`（**可选**，`[Dict]`）**  
定义应用到整个集群的自定义 Slurm 设置。  
指定要附加到 AWS ParallelCluster 生成的 `slurm.conf` 文件末尾的键值对的 Slurm 配置字典列表。  
列表中的每个字典都显示为添加到 Slurm 配置文件中的单独一行。您可指定简单参数或复杂参数。  
简单参数包含单个键值对，如以下示例所示：  

```
 - Param1: 100
 - Param2: "SubParam1,SubParam2=SubValue2"
```
在 Slurm 配置中呈现的示例：  

```
Param1=100
Param2=SubParam1,SubParam2=SubValue2
```
复杂的 Slurm 配置参数包含多个以空格分隔的键值对，如以下示例所示：  

```
 - NodeName: test-nodes[1-10]
   CPUs: 4
   RealMemory: 4196
   ... # other node settings
 - NodeSet: test-nodeset
   Nodes: test-nodes[1-10]
   ... # other nodeset settings
 - PartitionName: test-partition
   Nodes: test-nodeset
   ... # other partition settings
```
在 Slurm 配置中呈现的示例：  

```
NodeName=test-nodes[1-10] CPUs=4 RealMemory=4196 ... # other node settings
NodeSet=test-nodeset Nodes=test-nodes[1-10] ... # other nodeset settings
PartitionName=test-partition Nodes=test-nodeset ... # other partition settings
```
自定义 Slurm 节点的名称中不得包含 `-st-` 或 `-dy-` 模式。这些模式是为 AWS ParallelCluster托管的节点预留的。
如果您在 `CustomSlurmSettings` 中指定自定义 Slurm 配置参数，则不得为 `CustomSlurmSettingsIncludeFile` 指定自定义 Slurm 配置参数。  
您只能指定未在 `CustomSlurmSettings` 中列入拒绝列表的 Slurm 配置参数。有关列入拒绝列表的 Slurm 配置参数的信息，请参阅 [被拒登名单 Slurm 的配置参数 `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)。  
AWS ParallelCluster 仅检查参数是否在拒绝列表中。 AWS ParallelCluster 不会验证您的自定义Slurm配置参数语法或语义。您有责任验证您的自定义Slurm配置参数。无效的自定义 Slurm 配置参数可能会导致 Slurm 进程守护程序失败，从而导致集群创建和更新失败。  
有关如何使用指定自定义Slurm配置参数的更多信息 AWS ParallelCluster，请参阅[Slurm 配置自定义](slurm-configuration-settings-v3.md)。  
有关 Slurm 配置参数的更多信息，请参阅 Slurm 文档中的 [slurm.conf](https://slurm.schedmd.com/slurm.conf.html)。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
从 AWS ParallelCluster 版本 3.6.0 开始支持 `CustomSlurmSettings`。

**`CustomSlurmSettingsIncludeFile`（**可选**，`String`）**  
定义应用到整个集群的自定义 Slurm 设置。  
指定将包含自定义 Slurm 配置参数的自定义 Slurm 文件附加到 AWS ParallelCluster 生成的 `slurm.conf` 文件的末尾。  
必须包括该文件的路径。路径可以 `https://` 或 `s3://` 开头。  
如果您为 `CustomSlurmSettingsIncludeFile` 指定自定义 Slurm 配置参数，则不得为 `CustomSlurmSettings` 指定自定义 Slurm 配置参数。  
自定义 Slurm 节点的名称中不得包含 `-st-` 或 `-dy-` 模式。这些模式是为 AWS ParallelCluster托管的节点预留的。
您只能指定未在 `CustomSlurmSettingsIncludeFile` 中列入拒绝列表的 Slurm 配置参数。有关列入拒绝列表的 Slurm 配置参数的信息，请参阅 [被拒登名单 Slurm 的配置参数 `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)。  
AWS ParallelCluster 仅检查参数是否在拒绝列表中。 AWS ParallelCluster 不会验证您的自定义Slurm配置参数语法或语义。您有责任验证您的自定义Slurm配置参数。无效的自定义 Slurm 配置参数可能会导致 Slurm 进程守护程序失败，从而导致集群创建和更新失败。  
有关如何使用指定自定义Slurm配置参数的更多信息 AWS ParallelCluster，请参阅[Slurm 配置自定义](slurm-configuration-settings-v3.md)。  
有关 Slurm 配置参数的更多信息，请参阅 Slurm 文档中的 [slurm.conf](https://slurm.schedmd.com/slurm.conf.html)。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
从 AWS ParallelCluster 版本 3.6.0 开始支持 `CustomSlurmSettings`。

### `Database`
<a name="Scheduling-v3-SlurmSettings-Database"></a>

**（可选）**定义用于在集群上启用 Slurm 会计的设置。有关更多信息，请参阅 [Slurm会计 AWS ParallelCluster](slurm-accounting-v3.md)。

```
Database:
   Uri: string
   UserName: string
   PasswordSecretArn: string
```

[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### `Database` 属性
<a name="Scheduling-v3-SlurmSettings-Database.properties"></a>

**`Uri`（**必需**，`String`）**  
用作 Slurm 会计后端的数据库服务器的地址。此 URI 必须采用 `host:port` 格式且不得包含架构，例如 `mysql://`。主机可以是 IP 地址，也可以是头节点可解析的 DNS 名称。如果未提供端口， AWS ParallelCluster 将使用 MySQL 默认端口 3306。  
AWS ParallelCluster 将Slurm记账数据库引导到集群，并且必须访问该数据库。  
在执行以下操作之前，必须可以访问该数据库：  
+ 创建集群。
+ 通过集群更新启用 Slurm 会计。
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`UserName`（**必需**，`String`）**  
Slurm 用于连接数据库、写入会计日志和执行查询的身份。用户必须对数据库具有读取和写入权限。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`PasswordSecretArn`（**必需**，`String`）**  
包含`UserName`纯文本密码的 AWS Secrets Manager 密钥的 Amazon 资源名称 (ARN)。此密码与 `UserName` 和 Slurm 会计一起使用，用于在数据库服务器上进行身份验证。  
+ 使用 AWS Secrets Manager 控制台创建密钥时，请务必选择 “其他类型的密钥”，选择纯文本，并且仅在密钥中包含密码文本。
+ 你不能在数据库密码中使用 “\$1” 字符，因为 Slurm 在 slurmdbd.conf 中不支持它。
+ 有关如何使用创建密钥 AWS Secrets Manager 的更多信息，请参阅[创建 AWS Secrets Manager 密钥](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret)。
如果用户拥有 [DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html) 的权限，则会验证 `PasswordSecretArn`。如果指定的密钥存在，则 `PasswordSecretArn` 有效。如果用户 IAM 策略不包括 `DescribeSecret`，则不验证 `PasswordSecretArn` 并显示警告消息。有关更多信息，请参阅 [基本 AWS ParallelCluster `pcluster` 用户策略](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy)。  
更新 `PasswordSecretArn` 时，必须停止计算实例集。如果更改了密钥值而未更改密钥 ARN，则不会使用新数据库密码自动更新集群。要针对新密钥值更新集群，您必须在停止计算实例集后从头节点内运行以下命令。  

```
$ sudo /opt/parallelcluster/scripts/slurm/update_slurm_database_password.sh
```
我们建议仅在已停止计算实例集的情况下更改数据库密码以避免会计数据丢失。
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`DatabaseName`（**可选**，`String`）**  
数据库服务器上用于 Slurm 会计的数据库名称（由 Uri 参数定义）。  
数据库名称可以包含小写字母、数字和下划线。名称长度不得超过 64 个字符。  
此参数映射到 [slurmdbd.conf](https://slurm.schedmd.com/slurmdbd.conf.html#OPT_StorageLoc) 的 `StorageLoc` 参数。  
如果未提供，`DatabaseName`则 ParallelCluster 将使用集群的名称为定义值`StorageLoc`。  
允许更新 `DatabaseName`，但要注意以下几点：  
+ 如果数据库服务器上尚 DatabaseName 不存在具有名称的数据库，slurmdbd 将创建该数据库。您有责任根据需要重新配置新数据库（例如，添加会计实体 — 集群、账户、用户 QOSs、关联等）。
+ 如果数据库服务器上 DatabaseName 已经存在同名数据库，slurmdbd 会将其用于会计功能。Slurm
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**注意**  
从版本 3.3.0 开始添加了 `Database`。

### ExternalSlurmdbd
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd"></a>

**（可选）**定义通过外部 slurmdbd 服务器启用 Slurm Accounting 的设置。有关更多信息，请参阅[使用进行Slurm会计 AWS ParallelCluster](slurm-accounting-v3.md)。

```
ExternalSlurmdbd:
  Host: string
  Port: integer
```

#### `ExternalSlurmdbd` 属性
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd.properties"></a>

** `Host`（**必需**，`String`）**  
用于 Slurm 会计的外部 slurmdbd 服务器的地址。主机可以是 IP 地址，也可以是头节点可解析的 DNS 名称。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

** `Port`（**可选**，`Integer`）**  
slurmdbd 服务监听的端口。默认值为 `6819`。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Dns`
<a name="Scheduling-v3-SlurmSettings-Dns"></a>

**（可选）**为 Slurm 定义应用到整个集群的设置。

```
Dns:
  DisableManagedDns: boolean
  HostedZoneId: string
  UseEc2Hostnames: boolean
```

#### `Dns` 属性
<a name="Scheduling-v3-SlurmSettings-Dns.properties"></a>

**`DisableManagedDns`（**可选**，`Boolean`）**  
如果为 `true`，则不创建集群的 DNS 条目，并且无法解析 Slurm 节点名称。  
默认情况下， AWS ParallelCluster 创建一个 Route 53 托管区域，启动时将在其中注册节点。默认值为 `false`。如果设置`DisableManagedDns`为`true`，则托管区域不是由创建的 AWS ParallelCluster。  
要了解如何使用此设置在没有互联网访问权限的子网中部署集群，请参阅[AWS ParallelCluster 在无法访问互联网的单个子网中](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md)。  
集群需要名称解析系统才能正常运行。如果 `DisableManagedDns` 设置为 `true`，则必须提供名称解析系统。要使用 Amazon EC2 默认 DNS，请将 `UseEc2Hostnames` 设置为 `true`。或者配置您自己的 DNS 解析程序，并确保在启动实例时注册节点名称。例如，您可以通过配置 [`CustomActions`](#Scheduling-v3-SlurmQueues-CustomActions)/[`OnNodeStart`](#yaml-Scheduling-SlurmQueues-CustomActions-OnNodeStart) 来实现这一目标。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`HostedZoneId`（**可选**，`String`）**  
定义要用于集群 DNS 名称解析的自定义 Route 53 托管区 ID。如果提供，则在指定的托管区域中 AWS ParallelCluster 注册集群节点，并且不会创建托管托管区域。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`UseEc2Hostnames`（**可选**，`Boolean`）**  
如果为 `true`，则使用默认 EC2 主机名配置集群计算节点。还会使用此信息更新 Slurm `NodeHostName`。默认值为 `false`。  
要了解如何使用此设置在没有互联网访问权限的子网中部署集群，请参阅[AWS ParallelCluster 在无法访问互联网的单个子网中](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md)。  
**从 AWS ParallelCluster 版本 3.3.0 开始，此备注不相关。**  
对于 3.3.0 之前的 AWS ParallelCluster 支持版本：  
如果设置`UseEc2Hostnames`为`true`，则使用 AWS ParallelCluster `prolog`和`epilog`脚本设置 Slurm 配置文件：  
+ 分配了每个作业后，`prolog` 用于向计算节点上的 `/etc/hosts` 中添加节点信息。
+ `epilog` 用于清理 `prolog` 写入的内容。
要添加自定义 `epilog` 或 `prolog` 脚本，请分别将其添加到 `/opt/slurm/etc/pcluster/prolog.d/` 或 `/opt/slurm/etc/pcluster/epilog.d/` 文件夹。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `SharedStorage` 部分
<a name="SharedStorage-v3"></a>

**（可选）**集群的共享存储设置。

AWS ParallelCluster [支持使用 [Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AmazonEBS.html)、[FSx ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/what-is-fsx-ontap.html) 和 [FSx OpenZFS 共享存储卷、Amazon EF](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/what-is-fsx.html)[S](https://docs.aws.amazon.com/efs/latest/ug/whatisefs.html) 和 [FSx Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html) 共享存储文件系统或文件缓存。](https://docs.aws.amazon.com/fsx/latest/FileCacheGuide/what-is.html)

在 `SharedStorage` 部分中，您可以定义外部存储或托管存储：
+ **外部存储**是指您管理的现有卷或文件系统。 AWS ParallelCluster 不会创建或删除它。
+ **AWS ParallelCluster 托管存储**是指 AWS ParallelCluster 创建并可以删除的卷或文件系统。

有关[共享存储配额](shared-storage-quotas-v3.md)以及有关如何配置共享存储的更多信息，请参阅*使用[共享存储](shared-storage-quotas-integration-v3.md)*中的 AWS ParallelCluster。

**注意**  
如果 AWS Batch 用作调度程序， FSx 则 Lustre 仅在群集头节点上可用。

```
SharedStorage:
  - MountDir: string
    Name: string
    StorageType: Ebs
    EbsSettings:
      VolumeType: string
      Iops: integer
      Size: integer
      Encrypted: boolean
      KmsKeyId: string
      SnapshotId: string
      Throughput: integer
      VolumeId: string
      DeletionPolicy: string
      Raid:
        Type: string
        NumberOfVolumes: integer
  - MountDir: string
    Name: string
    StorageType: Efs
    EfsSettings:
      Encrypted: boolean
      KmsKeyId: string
      EncryptionInTransit: boolean
      IamAuthorization: boolean
      PerformanceMode: string
      ThroughputMode: string
      ProvisionedThroughput: integer
      FileSystemId: string
      DeletionPolicy: string
      AccessPointId: string
  - MountDir: string
    Name: string
    StorageType: FsxLustre
    FsxLustreSettings:
      StorageCapacity: integer
      DeploymentType: string
      ImportedFileChunkSize: integer
      DataCompressionType: string
      ExportPath: string
      ImportPath: string
      WeeklyMaintenanceStartTime: string
      AutomaticBackupRetentionDays: integer
      CopyTagsToBackups: boolean
      DailyAutomaticBackupStartTime: string
      PerUnitStorageThroughput: integer
      BackupId: string
      KmsKeyId: string
      FileSystemId: string
      AutoImportPolicy: string
      DriveCacheType: string
      StorageType: string
      DeletionPolicy: string
      DataRepositoryAssociations:
      - Name: string
        BatchImportMetaDataOnCreate: boolean
        DataRepositoryPath: string
        FileSystemPath: string
        ImportedFileChunkSize: integer
        AutoExportPolicy: string
        AutoImportPolicy: string
  - MountDir: string
    Name: string
    StorageType: FsxOntap
    FsxOntapSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FsxOpenZfs
    FsxOpenZfsSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FileCache
    FileCacheSettings:
      FileCacheId: string
```

## `SharedStorage` 更新策略
<a name="SharedStorage-v3.update-policies"></a>
+ 对于 managed/external EBS、托管 EFS 和托管 FSx Lustre，更新策略为 [更新策略：对于此列表值设置，必须停止计算实例集或必须设置 QueueUpdateStrategy 才能添加新值；删除现有值时必须停止计算实例集。](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)
+ 对于外部 EFS、 FSx Lustre、 FSx ONTAP FSx OpenZfs 和文件缓存，更新策略为 [更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SharedStorage` 属性
<a name="SharedStorage-v3.properties"></a>

`MountDir`（**必需**，`String`）  
共享存储的挂载路径。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Name`（**必需**，`String`）  
共享存储的名称。可以在更新设置时使用此名称。  
如果您指定了 AWS ParallelCluster 托管共享存储，并且更改了的值`Name`，则会删除现有的托管共享存储空间和数据，并创建新的托管共享存储。通过集群更新来更改 `Name` 的值等同于用新的托管共享存储替换现有的托管共享存储。`Name`如果您需要保留现有共享存储中的数据，请务必在更改之前备份数据。
[更新策略：对于此列表值设置，必须停止计算实例集或必须设置 QueueUpdateStrategy 才能添加新值；删除现有值时必须停止计算实例集。](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)

`StorageType`（**必需**，`String`）  
共享存储的类型。支持的值为 `Ebs`、`Efs`、`FsxLustre`、`FsxOntap` 和 `FsxOpenZfs`。  
有关更多信息，请参阅 [`FsxLustreSettings`](#SharedStorage-v3-FsxLustreSettings)、[`FsxOntapSettings`](#SharedStorage-v3-FsxOntapSettings) 和 [`FsxOpenZfsSettings`](#SharedStorage-v3-FsxOpenZfsSettings)。  
如果您 AWS Batch 用作调度程序， FSx 则 Lustre 仅在群集头节点上可用。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EbsSettings`
<a name="SharedStorage-v3-EbsSettings"></a>

**（可选）**Amazon EBS 卷的设置。

```
EbsSettings:
  VolumeType: string
  Iops: integer
  Size: integer
  Encrypted: boolean
  KmsKeyId: string
  SnapshotId: string
  VolumeId: string
  Throughput: integer
  DeletionPolicy: string
  Raid:
    Type: string
    NumberOfVolumes: integer
```

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `EbsSettings` 属性
<a name="SharedStorage-v3-EbsSettings.properties"></a>

当设置[DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy)为时`Delete`，如果集群被删除或通过群集更新移除该卷，则该托管卷及其数据将被删除。

有关更多信息，请参阅*使用 AWS ParallelCluster* 中的[共享存储](shared-storage-quotas-integration-v3.md)。

`VolumeType`（**可选**，`String`）  
指定 [Amazon EBS 卷类型](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)。支持的值为 `gp2`、`gp3`、`io1`、`io2`、`sc1`、`st1` 和 `standard`。默认值为 `gp3`。  
有关更多信息，请参阅《Amazon EC2 用户指南》中的 [Amazon EBS 卷类型](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Iops`（**可选**，`Integer`）  
定义 `io1`、`io2` 和 `gp3` 类型卷的 IOPS 数。  
默认值、支持的值以及 `volume_size`/`volume_iops` 比率因 `VolumeType` 和 `Size` 而异。    
`VolumeType` = `io1`  
默认值：`Iops` = 100  
支持的值：`Iops` = 100–64000 †  
最大 `volume_iops`/`volume_size` 比率 = 50 IOPS/GiB。5000 IOPS 需要至少 100 GiB 的 `volume_size`。  
`VolumeType` = `io2`  
默认值：`Iops` = 100  
支持的值：`Iops` = 100–64000（`io2` Block Express 卷为 256000）†  
最大 `Iops`/`Size` 比率 = 500 IOPS/GiB。5000 IOPS 需要至少 10 GiB 的 `Size`。  
`VolumeType` = `gp3`  
默认值：`Iops` = 3000  
支持的值：`Iops` = 3000–16000  
最大 `Iops`/`Size` 比率 = 500 IOPS/GiB。5000 IOPS 需要至少 10 GiB 的 `Size`。
† 只有[在 Nitro System 上构建的实例](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances)配置超过 32000 IOPS 时，才能保证最大 IOPS。其他实例保证最高为 32000 IOPS。除非您[修改卷](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html)，否则较早的 `io1` 卷可能无法实现完全性能。`io2`Block Express 卷在 `R5b` 实例类型上支持高达 256000 的 `volume_iops` 值。有关更多信息，请参阅《Amazon EC2 用户指南》**中的 [`io2`Block Express 卷](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express)。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Size`（**可选**，`Integer`）  
指定卷大小，以吉字节 (GiB) 为单位。默认值为 35。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Encrypted`（**可选**，`Boolean`）  
指定是否对卷进行加密。默认值为 `true`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`（**可选**，`String`）  
指定用于加密的自定义 AWS KMS 密钥。此设置要求将 `Encrypted` 设置设为 `true`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SnapshotId`（**可选**，`String`）  
指定 Amazon EBS 快照 ID（如果使用快照作为卷的来源）。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`VolumeId`（**可选**，`String`）  
指定 Amazon EBS 卷 ID。为 `EbsSettings` 实例指定此参数后，还可以并且只能指定 `MountDir` 参数。  
必须在 `HeadNode` 所在的同一可用区中创建卷。  
3.4.0 AWS ParallelCluster 版本中添加了多个可用区。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Throughput`（**可选**，`Integer`）  
为卷配置的 MiB/s 吞吐量，最大为 1,000 MiB/s。  
此设置仅在 `VolumeType` 为 `gp3` 时有效。支持的范围为 125 到 1000，默认值为 125。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DeletionPolicy`（**可选**，`String`）  
指定删除集群或删除卷时是保留卷、删除卷还是创建快照。支持的值为 `Delete`、`Retain` 和 `Snapshot`。默认值为 `Delete`。  
当[DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy)设置为时`Delete`，如果集群被删除或通过群集更新移除该卷，则该托管卷及其数据将被删除。  
有关更多信息，请参阅 [共享存储](shared-storage-quotas-integration-v3.md)。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`从 3.2.0 AWS ParallelCluster 版开始受支持。

### `Raid`
<a name="SharedStorage-v3-EbsSettings-Raid"></a>

**（可选）**定义 RAID 卷的配置。

```
Raid:
  Type: string
  NumberOfVolumes: integer
```

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

#### `Raid` 属性
<a name="SharedStorage-v3-EbsSettings-Raid.properties"></a>

`Type`（**必需**，`String`）  
定义 RAID 阵列的类型。支持的值为“0”（条带）和“1”（镜像）。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`NumberOfVolumes`（**可选**，`Integer`）  
定义用于创建 RAID 阵列的 Amazon EBS 卷的数量。支持的值范围为 2-5。默认值（定义了 `Raid` 设置时）为 2。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EfsSettings`
<a name="SharedStorage-v3-EfsSettings"></a>

**（可选）**Amazon EFS 文件系统的设置。

```
EfsSettings:
  Encrypted: boolean
  KmsKeyId: string
  EncryptionInTransit: boolean
  IamAuthorization: boolean
  PerformanceMode: string
  ThroughputMode: string
  ProvisionedThroughput: integer
  FileSystemId: string
  DeletionPolicy: string
  AccessPointId: string
```

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `EfsSettings` 属性
<a name="SharedStorage-v3-EfsSettings.properties"></a>

当[DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)设置为时`Delete`，如果删除了群集，或者如果通过群集更新删除了文件系统，则会删除托管文件系统及其数据。

有关更多信息，请参阅*使用 AWS ParallelCluster* 中的[共享存储](shared-storage-quotas-integration-v3.md)。

`Encrypted`（**可选**，`Boolean`）  
指定是否对 Amazon EFS 文件系统加密。默认值为 `false`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`（**可选**，`String`）  
指定用于加密的自定义 AWS KMS 密钥。此设置要求将 `Encrypted` 设置设为 `true`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EncryptionInTransit`（**可选**，`Boolean`）  
如果设置为 `true`，则使用传输层安全性协议 (TLS) 挂载 Amazon EFS 文件系统。默认情况下，该选项设置为 `false`。  
 AWS Batch 如果用作调度程序，则`EncryptionInTransit`不支持。
从 AWS ParallelCluster 版本 3.4.0 开始添加了 `EncryptionInTransit`。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`IamAuthorization`（**可选**，`Boolean`）  
`IamAuthorization`是从 3.4.0 AWS ParallelCluster 版本开始添加的。  
如果设置为 `true`，则使用系统的 IAM 身份对 Amazon EFS 进行身份验证。默认情况下，该选项设置为 `false`。  
如果 `IamAuthorization` 被设置为 `true`，则 `EncryptionInTransit` 也必须被设置为 `true`。
 AWS Batch 如果用作调度程序，则`IamAuthorization`不支持。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`PerformanceMode`（**可选**，`String`）  
指定 Amazon EFS 文件系统的性能模式。支持的值为 `generalPurpose` 和 `maxIO`。默认值为 `generalPurpose`。有关更多信息，请参阅 [Amazon Elastic File System User Guide](https://docs.aws.amazon.com/efs/latest/ug/performance.html#performancemodes) 中的 *Performance modes*。  
对于大多数文件系统，我们推荐使用 `generalPurpose` 性能模式。  
使用 `maxIO` 性能模式的文件系统可以扩展到更高级别的聚合吞吐量和每秒操作数。但是，对于大多数文件操作来说，代价是稍高的延迟。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ThroughputMode`（**可选**，`String`）  
指定 Amazon EFS 文件系统的吞吐量模式。支持的值为 `bursting` 和 `provisioned`。默认值为 `bursting`。使用 `provisioned` 时，必须指定 `ProvisionedThroughput`。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ProvisionedThroughput`（`ThroughputMode` 为 `provisioned` 时**必需**，`Integer`）  
定义预配置的吞吐量（在。MiB/s) of the Amazon EFS file system, measured in MiB/s这与《*亚马逊 EFS API 参考*》中的[ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps)参数相对应。  
如果您使用了此参数，则必须将 `ThroughputMode` 设置为 `provisioned`。  
支持的范围是 `1`-`1024`。要请求提高限制，请联系 支持。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`FileSystemId`（**可选**，`String`）  
为现有文件系统定义 Amazon EFS 文件系统 ID。  
如果集群配置为跨越多个可用区，则必须在集群使用的每个可用区中定义一个文件系统挂载目标。  
指定了此参数时，只能指定 `MountDir`。不能指定其他 `EfsSettings`。  

**如果设置此选项，则定义的文件系统必须符合以下要求：**
+ 文件系统必须在集群的每个可用区中具有现有的挂载目标，允许来自 `HeadNode` 和 `ComputeNodes` 的入站和出站 NFS 流量。在[调度](Scheduling-v3.md)//[网络 [SlurmQueues](Scheduling-v3.md#Scheduling-v3-SlurmQueues)](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/中配置了多个可用区[SubnetIds](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SubnetIds)。

  

**为确保允许集群和文件系统之间的流量，您可以执行以下操作之一：**
  + 配置挂载目标的安全组以允许进出集群子网的 CIDR 或前缀列表的流量。
**注意**  
AWS ParallelCluster 验证端口是否已打开以及 CIDR 或前缀列表是否已配置。 AWS ParallelCluster 不验证 CIDR 块或前缀列表的内容。
  + 通过使用 [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) 和 [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)，设置集群节点的自定义安全组。必须将自定义安全组配置为允许集群和文件系统之间的流量。
**注意**  
如果所有集群节点都使用自定义安全组，则 AWS ParallelCluster 仅验证端口是否已打开。 AWS ParallelCluster 无法验证源和目标的配置是否正确。
 OneZone 只有当所有计算节点和头节点都位于同一个可用区时，才支持 EFS。EFS OneZone 只能有一个挂载目标。
3.4.0 AWS ParallelCluster 版本中添加了多个可用区。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy`（**可选**，`String`）  
指定从集群中删除文件系统或删除集群时，是应保留还是删除文件系统。支持的值是 `Delete` 和 `Retain`。默认值为 `Delete`。  
如果设置[DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)为`Delete`，则如果删除了群集，或者如果通过群集更新删除了文件系统，则会删除托管文件系统及其数据。  
有关更多信息，请参阅 [共享存储](shared-storage-quotas-integration-v3.md)。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`从 3.3.0 AWS ParallelCluster 版开始受支持。

`AccessPointId`（**可选**，`String`）  
如果指定了该选项，将挂载由`access point ID` 定义的文件系统入口点，而不是文件系统根目录。  
有关更多信息，请参阅 [共享存储](shared-storage-quotas-integration-v3.md)。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxLustreSettings`
<a name="SharedStorage-v3-FsxLustreSettings"></a>

**注意**  
如果为 [`StorageType`](#yaml-SharedStorage-StorageType) 指定了 `FsxLustre`，则必须定义 `FsxLustreSettings`。

**（可选）**适用 FSx 于 Lustre 文件系统的设置。

```
FsxLustreSettings:
  StorageCapacity: integer
  DeploymentType: string
  ImportedFileChunkSize: integer
  DataCompressionType: string
  ExportPath: string
  ImportPath: string
  WeeklyMaintenanceStartTime: string
  AutomaticBackupRetentionDays: integer
  CopyTagsToBackups: boolean
  DailyAutomaticBackupStartTime: string
  PerUnitStorageThroughput: integer
  BackupId: string # BackupId cannot coexist with some of the fields
  KmsKeyId: string
  FileSystemId: string # FileSystemId cannot coexist with other fields
  AutoImportPolicy: string
  DriveCacheType: string
  StorageType: string
  DeletionPolicy: string
```

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**注意**  
如果 AWS Batch 用作调度程序， FSx 则 Lustre 仅在集群头节点上可用。

### `FsxLustreSettings` 属性
<a name="SharedStorage-v3-FsxLustreSettings.properties"></a>

如果设置[DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)为`Delete`，则如果删除了群集，或者如果通过群集更新删除了文件系统，则会删除托管文件系统及其数据。

有关更多信息，请参阅 [共享存储](shared-storage-quotas-integration-v3.md)。

`StorageCapacity`（**必需**，`Integer`）  
设置 Lustre 文件系统的存储容量，以 GiB FSx 为单位。 `StorageCapacity`如果要创建新的文件系统，则为必填项。如果指定了 `BackupId` 或 `FileSystemId`，则不要包含 `StorageCapacity`。  
+ 对于 `SCRATCH_2`、`PERSISTENT_1` 和 `PERSISTENT_2` 部署类型，有效值为 1200 GiB、2400 GiB，并以 2400 GiB 为增量。
+ 对于 `SCRATCH_1` 部署类型，有效值为 1200 GiB、2400 GiB，并以 3600 GiB 为增量。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeploymentType`（**可选**，`String`）  
指定 Lustre 文件系统的部署类型。 FSx 支持的值有 `SCRATCH_1`、`SCRATCH_2`、`PERSISTENT_1` 和 `PERSISTENT_2`。默认值为 `SCRATCH_2`。  
当您需要临时存储和短期处理数据时，请选择 `SCRATCH_1` 和 `SCRATCH_2` 部署类型。`SCRATCH_2` 部署类型提供了数据的传输中加密，以及比 `SCRATCH_1` 更高的突发吞吐能力。  
为长期存储和不对延迟敏感的以吞吐量为重点的工作负载选择`PERSISTENT_1`部署类型。 `PERSISTENT_1`支持对传输中的数据进行加密。它在所有可用 Lustr FSx e AWS 区域 的地方都可用。  
对于长期存储以及需要最高级别的 IOPS 和吞吐量的延迟敏感型工作负载，请选择 `PERSISTENT_2` 部署类型。`PERSISTENT_2` 支持 SSD 存储，并提供更高的 `PerUnitStorageThroughput`（最高达到 1000 MB/s/TiB）。`PERSISTENT_2` 适用于有限数量的 AWS 区域。有关部署类型和可用 AWS 区域 位置`PERSISTENT_2`列表的更多信息，请参阅《*Amazon FSx for Lustre 用户指南》中的 Lustre* [文件系统部署选项](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html#lustre-deployment-types)。 FSx   
当您从支持[此功能](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/data-protection.html)的 Amazon EC2 实例访问 `SCRATCH_2`、`PERSISTENT_1` 或 `PERSISTENT_2` 部署类型文件系统时，系统会自动启用传输中数据加密功能。  
从受支持的 AWS 区域中受支持的实例类型进行访问时，支持 `SCRATCH_2`、`PERSISTENT_1` 和 `PERSISTENT_2` 部署类型的传输中数据加密。有关更多信息，请参阅 *Amazon for Lustre 用户指南 FSx *中的[加密传输中的数据](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html)。  
从 AWS ParallelCluster 版本 3.2.0 开始增加了对 `PERSISTENT_2` 部署类型的支持。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize`（**可选**，`Integer`）  
对于从数据存储库导入的文件，此值决定单个物理磁盘上存储的每个文件的条带计数和最大数据量（以 MiB 为单位）。可以对单个文件进行条带化的最大磁盘数受构成文件系统的总磁盘数限制。  
默认区块大小为 1024MiB（1GiB），最大值能够达到 512000MiB（500GiB）。Amazon S3 数据元的最大大小为 5 TB。  
使用`PERSISTENT_2`部署类型的文件系统不支持此参数。有关如何配置数据存储库关联的说明，请参阅 *Amazon FSx for Lustre 用户指南*中的[将文件系统关联到 S3 存储桶](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html)。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataCompressionType`（**可选**，`String`）  
为 Lustre 文件系统设置数据压缩配置。 FSx 支持的值为`LZ4`。 `LZ4`表示该 LZ4 算法已开启数据压缩。如果未指定 `DataCompressionType`，则在创建文件系统时关闭数据压缩。  
有关更多信息，请参阅 [Lustre 数据压缩](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html)。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ExportPath`（**可选**，`String`）  
Amazon S3 中导出您 FSx 的 for Lustre 文件系统根目录的路径。仅当指定了 `ImportPath` 参数时支持此设置。该路径必须使用在 `ImportPath` 中指定的相同 Amazon S3 存储桶。您可以提供一个可选的前缀，用于从 for Lustre 文件系统中导出新数据和更改数据。 FSx 如果未提供`ExportPath`值，则 FSx 为 Lustre 设置默认导出路`s3://amzn-s3-demo-bucket/FSxLustre[creation-timestamp]`径。此时间戳采用 UTC 格式，例如 `s3://amzn-s3-demo-bucket/FSxLustre20181105T222312Z`。  
Amazon S3 导出桶必须与 `ImportPath` 指定的导入桶相同。如果仅指定存储桶名称（例如 `s3://amzn-s3-demo-bucket`），则会获得文件系统对象与 Amazon S3 存储桶对象的 1:1 映射。此映射意味着 Amazon S3 中的输入数据会在导出时被覆盖。如果您在导出路径中提供了自定义前缀（例如`s3://amzn-s3-demo-bucket/[custom-optional-prefix]`），则 Lustre 会将文件系统的内容导出到 Amazon S3 存储桶中的该导出前缀。 FSx   
使用`PERSISTENT_2`部署类型的文件系统不支持此参数。按照《*Amaz FSx on for Lustre 用户指南》*[中的将文件系统链接到 S3 存储桶](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html)中所述配置数据存储库关联。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportPath`（**可选**，`String`）  
您用作 for Lustre 文件系统数据存储库的 Amazon S3 存储桶的路径（包括可选前缀）。 FSx 您 FSx 的 for Lustre 文件系统的根目录将映射到您选择的 Amazon S3 存储桶的根目录。例如，`s3://amzn-s3-demo-bucket/optional-prefix`。如果您在 Amazon S3 名称后指定了前缀，则只将具有该前缀的对象键加载到文件系统。  
使用`PERSISTENT_2`部署类型的文件系统不支持此参数。按照《*Amaz FSx on for Lustre 用户指南》*[中的将文件系统链接到 S3 存储桶](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html)中所述配置数据存储库关联。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`WeeklyMaintenanceStartTime`（**可选**，`String`）  
执行每周维护的首选开始时间。它采用 UTC\$10 时区的 `"d:HH:MM"` 格式。对于此格式，`d` 是从 1 到 7 的星期几数字，从星期一开始，以星期日结束。此字段必须使用引号。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutomaticBackupRetentionDays`（**可选**，`Integer`）  
保留自动备份的天数。将此值设置为 0 将禁用自动备份。支持的范围是 0-90。默认值是 0。此设置仅在与 `PERSISTENT_1` 和 `PERSISTENT_2` 部署类型一起使用时有效。有关更多信息，请参阅《*Amazon FSx for Lustre 用户指南》*[中的使用备份](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html)。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`CopyTagsToBackups`（**可选**，`Boolean`）  
如果是`true`，请将 for Lustre 文件系统的标签复制到备份中。 FSx 此值默认为 `false`。如果设置为 `true`，则会将文件系统的所有标签复制到用户未指定标签的所有自动和用户启动的备份。如果此值为 `true`，并且指定了一个或多个标签，则仅将指定的标签复制到备份。如果您在创建用户启动的备份时指定了一个或多个标签，则无论此值如何，都不会从文件系统中复制任何标签。此设置仅在与 `PERSISTENT_1` 和 `PERSISTENT_2` 部署类型一起使用时有效。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DailyAutomaticBackupStartTime`（**可选**，`String`）  
每天重复的时间，格式为 `HH:MM`。`HH` 是一天中的零填充小时 (00-23)。`MM` 是小时中的零填充分钟 (00-59)。例如，`05:00` 指定每天上午 5 点。此设置仅在与 `PERSISTENT_1` 和 `PERSISTENT_2` 部署类型一起使用时有效。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`PerUnitStorageThroughput`（对 `PERSISTENT_1` 和 `PERSISTENT_2` 部署类型为**必需**，`Integer`）  
描述每 1 TiB 存储的读取和写入吞吐量（以 MB/s/TiB 为单位）。文件系统吞吐容量的计算方法是将文件系统存储容量 (TiB) 乘以 `PerUnitStorageThroughput` (MB/s/TiB). For a 2.4 TiB ﬁle system, provisioning 50 MB/s/TiBof)，得出文件系统吞吐`PerUnitStorageThroughput`量的 120 MB/s 。您需要为预置的吞吐量付费。这与该[PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput)属性相对应。  
有效值：  
+ PERSISTENT\$11 SSD 存储：50、100、200 MB/s/TiB。
+ PERSISTENT\$11 HDD 存储：12、40 MB/s/TiB。
+ PERSISTENT\$12 SSD 存储：125、250、500、1000 MB/s/TiB。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BackupId`（**可选**，`String`）  
指定用于从现有备份中恢复 for Lustre 文件系统的备份 ID。 FSx 指定了 `BackupId` 设置时，不得指定 `AutoImportPolicy`、`DeploymentType`、`ExportPath`、`KmsKeyId`、`ImportPath`、`ImportedFileChunkSize`、`StorageCapacity` 和 `PerUnitStorageThroughput` 设置。这些设置将从备份中读取。此外，不得指定 `AutoImportPolicy`、`ExportPath`、`ImportPath` 和 `ImportedFileChunkSize` 设置。这与该[BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid)属性相对应。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`（**可选**，`String`）  
 AWS Key Management Service (AWS KMS) 密钥 ID 的 ID，用于加密 for Lustre 文件系统的数据，使静态的 Lustre 文件系统具有永久性 FSx 。 FSx 如果未指定，则使用 f FSx or Lustre 托管密钥。Lustre 文件系统的`SCRATCH_1`和`SCRATCH_2` FSx 始终使用 Lustre 托管密钥 FSx 进行静态加密。有关更多信息，请参阅 *AWS Key Management Service API 参考* 中的 [Encrypt](https://docs.aws.amazon.com//kms/latest/APIReference/API_Encrypt.html)。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemId`（**可选**，`String`）  
指定 Lustre 现有 FSx 文件系统的 ID。  
如果指定了此选项，则仅使用 `FsxLustreSettings` 中的 `MountDir` 和 `FileSystemId` 设置。`FsxLustreSettings` 中的所有其他设置都将被忽略。  
如果使用 AWS Batch 调度器，则 fo FSx r Lustre 仅在头节点上可用。
该文件系统必须关联到通过端口 988、1021、1022 和 1023 允许入站和出站 TCP 流量的安全组。
通过执行以下操作之一，确保允许集群和文件系统之间的流量：  
+ 配置文件系统的安全组以允许进出集群子网的 CIDR 或前缀列表的流量。
**注意**  
AWS ParallelCluster 验证端口是否已打开以及 CIDR 或前缀列表是否已配置。 AWS ParallelCluster 不验证 CIDR 块或前缀列表的内容。
+ 通过使用 [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) 和 [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)，设置集群节点的自定义安全组。必须将自定义安全组配置为允许集群和文件系统之间的流量。
**注意**  
如果所有集群节点都使用自定义安全组，则 AWS ParallelCluster 仅验证端口是否已打开。 AWS ParallelCluster 无法验证源和目标的配置是否正确。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AutoImportPolicy`（**可选**，`String`）  
当您创建 f FSx or Lustre 文件系统时，您的现有 Amazon S3 对象将显示为文件和目录列表。使用此属性选择 Lustre 在关联的 Amazon S3 存储桶中添加或修改对象时如何 FSx 使您的文件和目录列表保持最新。 `AutoImportPolicy`可以有以下值：  
+  `NEW`-自动导入已开启。 FSx for Lustre 会自动导入添加到链接的 Amazon S3 存储桶中且当前不存在于 for Lustre 文件系统中的任何新对象 FSx 的目录列表。
+  `NEW_CHANGED`-自动导入已开启。 FSx for Lustre 会自动导入添加到 Amazon S3 存储桶中的任何新对象以及选择此选项后在 Amazon S3 存储桶中更改的任何现有对象的文件和目录列表。
+  `NEW_CHANGED_DELETED`-自动导入已开启。 FSx for Lustre 会自动导入添加到 Amazon S3 存储桶中的任何新对象、在 Amazon S3 存储桶中更改的任何现有对象以及您选择此选项后在 Amazon S3 存储桶中删除的所有对象的文件和目录列表。
**注意**  
在 AWS ParallelCluster 版本 3.1.1 中增加了对 `NEW_CHANGED_DELETED` 的支持。
如果`AutoImportPolicy`未指定，则关闭自动导入。 FSx for Lustre 仅在创建文件系统时更新链接的 Amazon S3 存储桶中的文件和目录列表。 FSx 选择此选项后，for Lustre 不会更新任何新对象或已更改对象的文件和目录列表。  
有关更多信息，请参阅 *Amaz FSx on for Lustre 用户指南中的自动从 S3 存储桶导*[入更新](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html)。  
使用 `PERSISTENT_2` 部署类型的文件系统不支持此参数。有关如何配置数据存储库关联的说明，请参阅 *Amazon FSx for Lustre 用户指南*中的[将文件系统关联到 S3 存储桶](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html)。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DriveCacheType`（**可选**，`String`）  
指定文件系统具有 SSD 驱动器缓存。只有将 `StorageType` 设置设为 `HDD`，且将 `DeploymentType` 设置设为 `PERSISTENT_1`，才能设置此选项。这与该[DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype)属性相对应。有关更多信息，[FSx 请参阅《*Amazon FSx for Lustre 用户指南》中的 Lustre* 部署选项](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html)。  
唯一有效值为 `READ`。要禁用 SSD 驱动器缓存，请不要指定 `DriveCacheType` 设置。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`StorageType`（**可选**，`String`）  
为您正在创建的 for FSx Lustre 文件系统设置存储类型。有效值为 `SSD` 和 `HDD`。  
+ 设置为 `SSD` 以使用固态驱动器存储。
+ 设置为 `HDD` 以使用硬盘驱动器存储。`PERSISTENT` 部署类型支持 `HDD`。
默认值为 `SSD`。有关更多信息，请参阅亚马逊 *Windows 版用户指南中的[存储类型选项](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/optimize-fsx-costs.html#storage-type-options)和亚马逊 FSx * for *Lustre 用户指南*中的[多个存储选项](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html#storage-options)。 FSx   
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy`（**可选**，`String`）  
指定从集群中删除文件系统或删除集群时，是应保留还是删除文件系统。支持的值是 `Delete` 和 `Retain`。默认值为 `Delete`。  
如果设置[DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)为`Delete`，则如果删除了群集，或者如果通过群集更新删除了文件系统，则会删除托管文件系统及其数据。  
有关更多信息，请参阅 [共享存储](shared-storage-quotas-integration-v3.md)。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`从 3.3.0 AWS ParallelCluster 版开始受支持。

`DataRepositoryAssociations`（**可选**，`String`）  
列表 DRAs （每个文件系统最多 8 个）  
每个数据存储库关联都必须有一个唯一的 Amazon FSx 文件系统目录以及与之关联的唯一 S3 存储桶或前缀。  
不能[ImportPath](#yaml-SharedStorage-FsxLustreSettings-ImportPath)在使用[ExportPath](#yaml-SharedStorage-FsxLustreSettings-ExportPath)和的 FsxLustreSettings 同时使用 DRAs。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Name`（**必需**，`String`）  
DRA 的名称。可以在更新设置时使用此名称。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BatchImportMetaDataOnCreate`（**可选**，`Boolean`）  
一种布尔标志，指示是否应在创建数据存储库关联后运行用于导入元数据的导入数据存储库任务。如果将此标志设置为 `true`，则该任务将运行。  
默认值：`false`  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataRepositoryPath`（**必需**，`String`）  
要链接到文件系统的 Amazon S3 数据存储库的路径。该路径可以是 S3 存储桶或格式 `s3://amzn-s3-demo-bucket/myPrefix/` 的前缀。此路径指定 S3 数据存储库文件将从中导入或导出到的位置。  
不能与其他重叠 DRAs  
模式：`^[^\u0000\u0085\u2028\u2029\r\n]{3,4357}$`  
最低：`3`  
最高：`4357`  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemPath`（**必需**，`String`）  
Amazon fo FSx r Lustre 文件系统上的路径，它指向将与 1-1 映射的高级目录（例如 `/ns1/``/ns1/subdir/`）或子目录（例如）。`DataRepositoryPath`名称中的前导正斜杠必填。两个数据存储库关联不能具有重叠的文件系统路径。例如，如果数据存储库与文件系统路径 `/ns1/` 相关联，则您无法将另一个数据存储库与文件系统路径 `/ns1/ns2` 相关联。  
此路径指定文件将在您的文件系统中的哪个位置导出或导入到哪个位置。只能将此文件系统目录链接到一个 Amazon S3 桶，而不能将其他 S3 桶链接到该目录。  
不能与其他重叠 DRAs  
 如果您仅指定正斜杠（`/`）作为文件系统路径，则只能将一个数据存储库链接到文件系统。您只能将“`/`”指定为与文件系统相关联的第一个数据存储库的文件系统路径。
模式：`^[^\u0000\u0085\u2028\u2029\r\n]{1,4096}$`  
最低：`1`  
最高：`4096`  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize`（**可选**，`Integer`）  
对于从数据存储库导入的文件，此值决定单个物理磁盘上存储的每个文件的条带计数和最大数据量（以 MiB 为单位）。可以对单个文件进行条带化的最大磁盘数受构成文件系统或缓存的总磁盘数限制。  
默认区块大小为 1024MiB（1GiB），最大值能够达到 512000MiB（500GiB）。Amazon S3 数据元的最大大小为 5 TB。  
最低：`1`  
最高：`4096`  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoExportPolicy`（**可选**，`Array of strings`）  
该列表可包含一个或多个以下值：  
+ `NEW` - 新文件和目录将在添加到文件系统时自动导出到数据存储库。
+ `CHANGED` - 对文件系统上的文件和目录所做的更改将自动导出到数据存储库。
+ `DELETED` - 在文件系统上删除文件和目录后，将在数据存储库中自动删除这些文件和目录。
您可以为您的 `AutoExportPolicy` 定义事件类型的任意组合。  
最高：`3`  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoImportPolicy`（**可选**，`Array of strings`）  
该列表可包含一个或多个以下值：  
+ `NEW`-Amazon FSx 会自动导入添加到链接的 S3 存储桶且 FSx 文件系统中当前不存在的文件的元数据。
+ `CHANGED`-当数据存储库中的文件更改时，Amazon FSx 会自动更新文件元数据并使文件系统中的现有文件内容失效。
+ `DELETED`-当相应文件在数据存储库中被删除时，Amazon 会 FSx 自动删除文件系统上的文件。
您可以为您的 `AutoImportPolicy` 定义事件类型的任意组合。  
最高：`3`  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `FsxOntapSettings`
<a name="SharedStorage-v3-FsxOntapSettings"></a>

**注意**  
如果为 [`StorageType`](#yaml-SharedStorage-StorageType) 指定了 `FsxOntap`，则必须定义 `FsxOntapSettings`。

**（可选）**适用 FSx 于 ONTAP 文件系统的设置。

```
FsxOntapSettings:
  VolumeId: string
```

### `FsxOntapSettings` 属性
<a name="SharedStorage-v3-FsxOntapSettings.properties"></a>

`VolumeId`（**必需**，`String`）  
指定 ONTAP FSx 系统的现有卷 ID。

**注意**  
如果使用 AWS Batch 调度程序， FSx 则 ONTAP 仅在头节点上可用。
如果 FSx 适用于 ONTAP 的部署类型为`Multi-AZ`，请确保已正确配置头节点子网的路由表。
3.2.0 FSx AWS ParallelCluster 版本中增加了对 ONTAP 的支持。
该文件系统必须关联到通过端口 111、635、2049 和 4046 允许入站和出站 TCP 和 UDP 流量的安全组。

通过执行以下操作之一，确保允许集群和文件系统之间的流量：
+ 配置文件系统的安全组以允许进出集群子网的 CIDR 或前缀列表的流量。
**注意**  
AWS ParallelCluster 验证端口是否已打开以及 CIDR 或前缀列表是否已配置。 AWS ParallelCluster 不验证 CIDR 块或前缀列表的内容。
+ 通过使用 [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) 和 [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)，设置集群节点的自定义安全组。必须将自定义安全组配置为允许集群和文件系统之间的流量。
**注意**  
如果所有集群节点都使用自定义安全组，则 AWS ParallelCluster 仅验证端口是否已打开。 AWS ParallelCluster 无法验证源和目标的配置是否正确。

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxOpenZfsSettings`
<a name="SharedStorage-v3-FsxOpenZfsSettings"></a>

**注意**  
如果为 [`StorageType`](#yaml-SharedStorage-StorageType) 指定了 `FsxOpenZfs`，则必须定义 `FsxOpenZfsSettings`。

**（可选）**适用 FSx 于 OpenZFS 文件系统的设置。

```
FsxOpenZfsSettings:
  VolumeId: string
```

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `FsxOpenZfsSettings` 属性
<a name="SharedStorage-v3-FsxOpenZfsSettings.properties"></a>

`VolumeId`（**必需**，`String`）  
指定 OpenZFS FSx 系统的现有卷 ID。

**注意**  
如果使用 AWS Batch 调度程序， FSx 则 OpenZFS 只能在头节点上使用。
3.2.0 FSx AWS ParallelCluster 版本中增加了对 OpenZFS 的支持。
该文件系统必须关联到通过端口 111、2049、20001、20002 和 20003 允许入站和出站 TCP 和 UDP 流量的安全组。

通过执行以下操作之一，确保允许集群和文件系统之间的流量：
+ 配置文件系统的安全组以允许进出集群子网的 CIDR 或前缀列表的流量。
**注意**  
AWS ParallelCluster 验证端口是否已打开以及 CIDR 或前缀列表是否已配置。 AWS ParallelCluster 不验证 CIDR 块或前缀列表的内容。
+ 通过使用 [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) 和 [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)，设置集群节点的自定义安全组。必须将自定义安全组配置为允许集群和文件系统之间的流量。
**注意**  
如果所有集群节点都使用自定义安全组，则 AWS ParallelCluster 仅验证端口是否已打开。 AWS ParallelCluster 无法验证源和目标的配置是否正确。

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FileCacheSettings`
<a name="SharedStorage-v3-FsxFileCacheSettings"></a>

**注意**  
如果为 [`StorageType`](#yaml-SharedStorage-StorageType) 指定了 `FileCache`，则必须定义 `FileCacheSettings`。

**（可选）**文件缓存的设置。

```
FileCacheSettings:
  FileCacheId: string
```

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `FileCacheSettings` 属性
<a name="SharedStorage-v3-FsxFileCacheSettings.properties"></a>

`FileCacheId`（**必需**，`String`）  
指定现有文件缓存的文件缓存 ID。

**注意**  
文件缓存不支持 AWS Batch 调度程序。
3.7.0 AWS ParallelCluster 版本中增加了对文件缓存的支持。
该文件系统必须关联到通过端口 988 允许入站和出站 TCP 流量的安全组。

通过执行以下操作之一，确保允许集群和文件系统之间的流量：
+ 配置文件缓存的安全组以允许进出集群子网的 CIDR 或前缀列表的流量。
**注意**  
AWS ParallelCluster 验证端口是否已打开以及 CIDR 或前缀列表是否已配置。 AWS ParallelCluster 不验证 CIDR 块或前缀列表的内容。
+ 通过使用 [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) 和 [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)，设置集群节点的自定义安全组。必须将自定义安全组配置为允许集群和文件系统之间的流量。
**注意**  
如果所有集群节点都使用自定义安全组，则 AWS ParallelCluster 仅验证端口是否已打开。 AWS ParallelCluster 无法验证源和目标的配置是否正确。

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Iam` 部分
<a name="Iam-v3"></a>

**（可选）**指定集群的 IAM 属性。

```
Iam:
  Roles:
    LambdaFunctionsRole: string
  PermissionsBoundary: string
  ResourcePrefix: string
```

[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Iam` 属性
<a name="Iam-v3.properties"></a>

`PermissionsBoundary`（**可选**，`String`）  
要用作 AWS ParallelCluster创建的所有角色的权限边界的 IAM 策略的 ARN。有关更多信息，请参阅《 IAM 用户指南》**中的 [IAM 实体的权限边界](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_boundaries.html)。格式为 `arn:${Partition}:iam::${Account}:policy/${PolicyName}`。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Roles`（**可选**）  
指定集群使用的 IAM 角色的设置。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`LambdaFunctionsRole`（**可选**，`String`）  
要用于的 IAM 角色的 ARN。 AWS Lambda这会覆盖所有 AWS CloudFormation 支持自定义资源的 Lambda 函数的默认角色。需要将 Lambda 配置可以担任该角色的主体。这不会覆盖用于的 Lambda 函数的角色。 AWS Batch格式为 `arn:${Partition}:iam::${Account}:role/${RoleName}`。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ResourcePrefix`（**可选**）  
为由创建的 IAM 资源指定路径或名称前缀 AWS ParallelCluster。  
资源前缀必须遵循 [IAM 指定的命名规则](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html)：  
+ 名称最多可以包含 30 个字符。
+ 名称只能是没有斜杠 (`/`) 字符的字符串。
+ 路径最多可以有 512 个字符。
+ 路径必须以斜杠 (`/`) 开头和结尾。它可以在起始和结尾斜杠 (`/`) 之间包含多个斜杠 (`/`)。
+ 您可以组合路径和名称 `/path/name`。
指定名称。  

```
Iam:
  ResourcePrefix: my-prefix
```
指定路径。  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/
```
指定路径和名称。  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/my-prefix
```
如果指定 `/my-prefix`，则会返回错误。  

```
Iam:
  ResourcePrefix: /my-prefix
```
返回配置错误。路径必须有两个 `/`。前缀本身不能有 `/`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `LoginNodes` 部分
<a name="LoginNodes-v3"></a>

**注意**  
3.7.0 AWS ParallelCluster 版本中增加了对 `LoginNodes` Support 的支持。

**（可选）**指定登录节点池的配置。

```
LoginNodes:
  Pools:
    - Name: string
      Count: integer
      InstanceType: string
      GracetimePeriod: integer
      Image:
        CustomAmi: string
      Ssh:
        KeyName: string
        AllowedIps: string
      Networking:
        SubnetIds:
          - string
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      Dcv:
        Enabled: boolean
        Port: integer
        AllowedIps: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeUpdated:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceRole: string
        InstanceProfile: string
        AdditionalIamPolicies:
          - Policy: string
```

[更新策略：必须停止集群中的登录节点，才能更改此设置进行更新。](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-cluster)

## `LoginNodes` 属性
<a name="LoginNodes-v3.properties"></a>

### `Pools` 属性
<a name="LoginNodes-v3-Pools"></a>

定义具有相同资源配置的登录节点组。从 AWS ParallelCluster 3.11.0 开始，最多可以指定 10 个池。

```
Pools:
  - Name: string
    Count: integer
    InstanceType: string
    GracetimePeriod: integer
    Image:
      CustomAmi: string
    Ssh:
      KeyName: string
      AllowedIps: string
    Networking:
      SubnetIds:
        - string
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    Dcv:
      Enabled: boolean
      Port: integer
      AllowedIps: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeUpdated:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
    Iam:
      InstanceRole: string
      InstanceProfile: string
      AdditionalIamPolicies:
        - Policy: string
```

[更新策略：可以添加登录节点池，但移除池需要停止集群中的所有登录节点。](using-pcluster-update-cluster-v3.md#update-policy-add-login-node-pools)

`Name`（**必需** `String`）  
指定 `LoginNodes` 池的名称。此参数用于标记 `LoginNodes` 资源。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)   
从 AWS ParallelCluster 版本 3.11.0 开始，更新策略是：必须停止池中的登录节点才能更改此设置以进行更新。

`Count`（**必需** `Integer`）  
指定要保持活动状态的登录节点的数量。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`InstanceType`（**必需** `String`）  
指定用于登录节点的 Amazon EC2 实例类型。该实例类型的架构必须与用于 Slurm `InstanceType` 设置的架构相同。  
[更新策略](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)：如果登录节点池已停止，则可以更改此设置。  
从 AWS ParallelCluster 版本 3.11.0 开始，更新策略是：必须停止池中的登录节点才能更改此设置以进行更新。

`GracetimePeriod`（**可选** `Integer`）  
指定从向已登录用户发出登录节点即将停用的通知到实际停止事件之间经过的最短时间（以分钟为单位）。`GracetimePeriod` 的有效值为 3 到 120 分钟。默认值为 10 分钟。  
触发事件涉及多个 AWS 服务之间的交互。有时，网络延迟和信息的传播可能需要一些时间，因此由于 AWS 服务内部延迟，宽限期可能需要比预期更长的时间。
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Image`（**可选**）  
定义登录节点的映像配置。  

```
Image:
  CustomAmi: String
```  
`CustomAmi`（**可选** `String`）  
指定用于配置登录节点的自定义 AMI。如果未指定，则该值默认为 [`HeadNode` 部分](HeadNode-v3.md) 中指定的值。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Ssh`（**可选**）  
定义登录节点的 `ssh` 配置。  

```
Ssh:
  KeyName: string
  AllowedIps: string
```
从 AWS ParallelCluster 版本 3.11.0 开始，更新策略是：必须停止池中的登录节点才能更改此设置以进行更新。  
`KeyName`（**可选** `String`）  
指定用于登录到登录节点的 `ssh` 密钥。如果未指定，则该值默认为 [`HeadNode` 部分](HeadNode-v3.md) 中指定的值。  
[更新策略：必须停止池中的登录节点，才能更改此设置进行更新。](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
已弃用-配置参数`LoginNodes/Pools/Ssh/KeyName`已被弃用，并将在未来的版本中将其删除。现在，在群集配置中使用 CLI 时，它会返回一条警告消息。有关详细信息，请参阅 [ https://github.com/aws/aws-parallel](https://github.com/aws/aws-parallelcluster/issues/6811) cluster/issues/6811。  
`AllowedIps`（**可选** `String`）  
指定池中登录节点 SSH 连接的 CIDR 格式 IP 范围或前缀列表 ID。默认值为头节点配置中[AllowedIps](HeadNode-v3.md#yaml-HeadNode-Ssh-AllowedIps)定义的，或者`0.0.0.0/0`如果未指定。 [`HeadNode` 部分](HeadNode-v3.md)。  
[更新策略：必须停止池中的登录节点，才能更改此设置进行更新。](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
3.11.0 AWS ParallelCluster 版本中增加了 AllowedIps 对登录节点的支持。

`Networking`**（必填）**  
  

```
Networking:
  SubnetIds:
    - string
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```
从 AWS ParallelCluster 版本 3.11.0 开始，更新策略是：必须停止池中的登录节点才能更改此设置以进行更新。  
`SubnetIds`（**必需** `[String]`）  
您在其中配置登录节点池的现有子网的 ID。您只能定义一个子网。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`SecurityGroups`（**可选** `[String]`）  
用于登录节点池的安全组的列表。如果未指定安全组，则会为您 AWS ParallelCluster 创建安全组。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalSecurityGroups`（**可选** `[String]`）  
用于登录节点池的其他安全组的列表。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dcv`（**可选**）  
定义在[登录](#LoginNodes-v3)节点上运行的 NICE DCV 服务器的配置设置。有关更多信息，请参阅 [通过 Amazon DCV 连接到头节点和登录节点](dcv-v3.md)。  

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```
默认情况下，设置的 NICE DCV 端口对所有 IPv4 地址开放。 AWS ParallelCluster 只有当您拥有 NICE DCV 会话的 URL 并在 pcluster dcv-connect 返回 URL 后 30 秒内连接到 NICE DCV 会话，才能连接到 NICE DCV 端口。请使用 `AllowedIps` 设置进一步限制对具有 CIDR 格式 IP 范围的 NICE DCV 端口的访问，并使用 Port 设置来设置非标准端口。
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
3.11.0 AWS ParallelCluster 版本中增加了对登录节点上的 DCV 的支持。  
`Enabled`（**必需** `Boolean`）  
指定是否在池中的登录节点上启用 NICE DCV。默认值为 `false`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
NICE DCV 会自动生成自签名证书，该证书用于保护 NICE DCV 客户端和登录节点上运行的 NICE DCV 服务器之间的流量。要配置您自己的证书，请参阅 [Amazon DCV HTTPS 证书](dcv-v3.md#dcv-v3-certificate)。  
`Port`（**可选** `Integer`）  
指定 NICE DCV 的端口。默认值为 `8443`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AllowedIps`（**可选** `String`）  
指定 NICE DCV 连接的 CIDR 格式的 IP 范围。此设置仅在 AWS ParallelCluster 创建安全组时使用。默认值是 `0.0.0.0/0`，允许从任何 Internet 地址访问。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomActions`（**可选**）  
指定在登录节点上运行的自定义脚本。  

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```
3.11.0 AWS ParallelCluster 版本中增加了对登录节点上的自定义操作的支持。  
`OnNodeStart`（**可选**）  
指定在启动任何节点部署引导操作前在[登录节点](#LoginNodes-v3)上运行的单个脚本或脚本序列。有关更多信息，请参阅[自定义引导操作](custom-bootstrap-actions-v3.md)。    
`Sequence`（**可选**）  
要运行的脚本列表。 AWS ParallelCluster 按配置文件中列出的顺序运行脚本，从第一个脚本开始。    
`Script`（**必需** `String`）  
指定要使用的文件。文件路径可以 `https://` 或 `s3://` 开头。  
`Args`（**可选** `[String]`）  
要传递到脚本的参数的列表。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script`（**必需** `String`）  
指定用于单个脚本的文件。文件路径可以 `https://` 或 `s3://` 开头。  
`Args`（**可选** `[String]`）  
要传递到单个脚本的参数的列表。  
`OnNodeConfigured`（**可选**）  
指定节点引导过程完成后，在[登录节点](#LoginNodes-v3)上运行的单个脚本或一系列脚本。有关更多信息，请参阅[自定义引导操作](custom-bootstrap-actions-v3.md)。    
`Sequence`（**可选**）  
要运行的脚本列表。 AWS ParallelCluster 按配置文件中列出的顺序运行脚本，从第一个脚本开始。    
`Script`（**必需** `String`）  
指定要使用的文件。文件路径可以 `https://` 或 `s3://` 开头。  
`Args`（**可选** `[String]`）  
要传递到脚本的参数的列表。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script`（**必需** `String`）  
指定用于单个脚本的文件。文件路径可以 `https://` 或 `s3://` 开头。  
`Args`（**可选** `[String]`）  
要传递到单个脚本的参数的列表。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`OnNodeUpdated`（**可选**）  
指定在头节点更新完成并且调度程序和共享存储与最新的群集配置更改保持一致后要运行的单个脚本或一系列脚本。有关更多信息，请参阅[自定义引导操作](custom-bootstrap-actions-v3.md)。    
`Sequence`（**可选**）  
要运行的脚本列表。 AWS ParallelCluster 按配置文件中列出的顺序运行脚本，从第一个脚本开始。    
`Script`（**必需** `String`）  
指定要使用的文件。文件路径可以 `https://` 或 `s3://` 开头。  
`Args`（**可选** `[String]`）  
要传递到脚本的参数的列表。  
`Script`（**必需** `String`）  
指定用于单个脚本的文件。文件路径可以 `https://` 或 `s3://` 开头。  
`Args`（**可选** `[String]`）  
要传递到单个脚本的参数的列表。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
AWS ParallelCluster 不支持同时包含单个脚本和`Sequence`同一个自定义操作。

`Iam`（**可选**）  
指定要在登录节点上使用的实例角色或实例配置文件，用于覆盖集群的默认实例角色或实例配置文件。  

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  AdditionalIamPolicies:
    - Policy: string
```
从 AWS ParallelCluster 版本 3.11.0 开始，更新策略是：必须停止池中的登录节点才能更改此设置以进行更新。  
`InstanceProfile`（**可选** `String`）  
指定用于覆盖默认登录节点实例配置文件的实例配置文件。您不能同时指定 `InstanceProfile` 和 `InstanceRole`。格式为 `arn:Partition:iam::Account:instance-profile/InstanceProfileName`。如果指定此设置，则不能指定 `InstanceRole` 和 `AdditionalIamPolicies` 设置。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`InstanceRole`（**可选** `String`）  
指定用于覆盖默认登录节点实例角色的实例角色。您不能同时指定 `InstanceProfile` 和 `InstanceRole`。格式为 `arn:Partition:iam::Account:role/RoleName`。如果指定此设置，则不能指定 `InstanceProfile` 和 `AdditionalIamPolicies` 设置。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalIamPolicies`（**可选**）  

```
AdditionalIamPolicies:
  - Policy: string
```
IAM 策略的 Amazon 资源名称 (ARN)。  
指定 Amazon EC2 的 IAM 策略的 Amazon 资源名称 (ARN) 列表。除了所需的权限外，此列表还附在用于登录节点的根角色上 AWS ParallelCluster。  
IAM 策略名称及其 ARN 不相同。不能使用名称。  
如果指定此设置，则不能指定 `InstanceProfile` 和 `InstanceRole` 设置。我们建议您使用，`AdditionalIamPolicies``AdditionalIamPolicies`因为已添加到所需的权限中，并且`InstanceRole`必须包含所有必需的权限。 AWS ParallelCluster 随着功能的不断添加，所需权限通常会随版本发生变化。  
没有默认值。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Policy`（**必需** `[String]`）  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Monitoring` 部分
<a name="Monitoring-v3"></a>

**（可选）**指定集群的监控设置。

```
Monitoring:
  Logs:
    CloudWatch:
      Enabled: boolean
      RetentionInDays: integer
      DeletionPolicy: string
    Rotation:
      Enabled: boolean
  Dashboards:
    CloudWatch:
      Enabled: boolean
  DetailedMonitoring: boolean
  Alarms:
   Enabled: boolean
```

[更新策略：在更新期间不分析此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

## `Monitoring` 属性
<a name="Monitoring-v3.properties"></a>

`Logs`（**可选**）  
集群的日志设置。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`CloudWatch`（**可选**）  
集群的 CloudWatch 日志设置。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled`（**必需**，`Boolean`）  
如果是`true`，则集群日志将流式传输到 CloudWatch 日志。默认值为 `true`。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`RetentionInDays`（**可选**，`Integer`）  
在日志中保留日志事件的 CloudWatch 天数。默认值为 180。支持的值有 0、1、3、5、7、14、30、60、90、120、150、180、365、400、545、731、1827 和 3653。值为 0 将使用默认的 CloudWatch 日志保留设置，即永不过期。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`（**可选**，`String`）  
表示删除集群时是否删除 CloudWatch 日志上的日志事件。可能的值为 `Delete` 和 `Retain`。默认值为 `Retain`。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Rotation`（**可选**）  
集群的日志轮换设置。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled`（**必需**，`Boolean`）  
如果为 `true`，则启用日志轮换。默认值为 `true`。当 AWS ParallelCluster 配置的日志文件达到一定大小时，将对其进行轮换并保留单个备份。有关更多信息，请参阅[AWS ParallelCluster 配置的日志轮换](log-rotation-v3.md)。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dashboards`（**可选**）  
集群的控制面板设置。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`CloudWatch`（**可选**）  
集群的 CloudWatch 仪表板设置。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled`（**必需**，`Boolean`）  
如果启用`true`，则 CloudWatch 仪表板已启用。默认值为 `true`。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DetailedMonitoring`（**可选**，`Boolean`）  
如果设置为 `true`，则会对计算实例集 Amazon EC2 实例启用详细监控。启用后，Amazon EC2 控制台会以 1 分钟的间隔显示用于监控实例的图表。启用此功能后，会产生额外费用。默认值为 `false`。  
有关更多信息，请参阅 *Amazon EC2 用户指南（适用于 Linux 实例）*中的[对实例启用或禁用详细监控](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-cloudwatch-new.html)。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)  
`DetailedMonitoring`是从 3.6.0 AWS ParallelCluster 版本开始添加的。

`Alarms`（**可选**）  
CloudWatch 集群警报。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled`（**可选**）  
如果是`true`，则将为集群创建 CloudWatch 警报。默认值为 `true`。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
从 AWS ParallelCluster 版本 3.8.0 开始，将为头节点创建以下警报：Amazon EC2 Health Check、CPU/Memory/Disk利用率和包含所有其他警报的复合警报。

# `Tags` 部分
<a name="Tags-v3"></a>

**（可选），Array** 定义所有群集资源使用 CloudFormation 并传播到所有群集资源的标签。有关更多信息，请参阅 *AWS CloudFormation 用户指南* 中的 [CloudFormation 资源标签](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html)。

```
Tags:
  - Key: string
    Value: string
```

[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Tags` 属性
<a name="Tags-v3.properties"></a>

`Key`（**必需**，`String`）  
定义标签的名称。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Value`（**必需**，`String`）  
定义标签的值。  
[更新策略：可以在更新期间更改此设置。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**注意**  
从 AWS ParallelCluster 3.15.0 开始，支持标签更新有以下限制：  
EBS 卷已开启 HeadNode -将仅保留集群创建时的标签；不支持更新此 EBS 卷上的标签。
运行节点-标签更新不会应用于正在运行的计算节点或登录节点。

# `AdditionalPackages` 部分
<a name="AdditionalPackages-v3"></a>

**（可选）**用于标识要安装的其他程序包。

```
AdditionalPackages:
  IntelSoftware:
    IntelHpcPlatform: boolean
```

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `IntelSoftware`
<a name="AdditionalPackages-v3-IntelSoftware"></a>

**（可选）**定义 Intel Select Solutions 的配置。

```
IntelSoftware:
  IntelHpcPlatform: boolean
```

[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `IntelSoftware` 属性
<a name="AdditionalPackages-v3-IntelSoftware.properties"></a>

` IntelHpcPlatform`（**可选**，`Boolean`）  
如果为`true`，则表示英特尔 Parallel Studio [的最终用户许可协议](https://software.intel.com/en-us/articles/end-user-license-agreement)已被接受。这将导致 Intel Parallel Studio 安装在头节点上并与计算节点共享。这使头节点进行引导的时间增加了几分钟。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
从 3.10.0 AWS ParallelCluster 版开始，不再`IntelHpcPlatform`支持该参数。

# `DirectoryService` 部分
<a name="DirectoryService-v3"></a>

**注意**  
在 3.1.1 AWS ParallelCluster 版本中增加了对 Support 的支持。`DirectoryService`

**（可选）**支持多用户访问的集群的目录服务设置。

AWS ParallelCluster 管理支持多用户通过[系统安全服务守护程序 (SSSD) 支持的轻型目录访问协议 (LDAP) 使用活动目录 (AD](https://sssd.io/docs/introduction.html)) 访问集群的权限。有关更多信息，请参阅[什么是 AWS Directory Service？](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/what_is.html) 在《*AWS Directory Service 管理指南》*中。

我们建议您使用 LDAP TLS/SSL （简称 LDAPS），以确保任何潜在的敏感信息都通过加密通道传输。

```
DirectoryService:
  DomainName: string
  DomainAddr: string
  PasswordSecretArn: string
  DomainReadOnlyUser: string
  LdapTlsCaCert: string
  LdapTlsReqCert: string
  LdapAccessFilter: string
  GenerateSshKeysForUsers: boolean
  AdditionalSssdConfigs: dict
```

[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

## `DirectoryService` 属性
<a name="DirectoryService-v3.properties"></a>

**注意**  
如果您计划 AWS ParallelCluster 在无法访问 Internet 的单个子网中使用，[AWS ParallelCluster 在无法访问互联网的单个子网中](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md)请参阅了解其他要求。

`DomainName`（**必需**，`String`）  
用于指示身份信息的 Active Directory (AD) 域。  
`DomainName` 同时接受完全限定域名 (FQDN) 和 LDAP 可分辨名称 (DN) 格式。  
+ FQDN 示例：`corp.example.com`
+ LDAP DN 示例：`DC=corp,DC=example,DC=com`
此属性对应于名为 `ldap_search_base` 的 sssd-ldap 参数。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainAddr`（**必需**，`String`）  
URI 或 URIs 指向用作 LDAP 服务器的 AD 域控制器。该 URI 对应于名为 `ldap_uri` 的 SSSD-LDAP 参数。该值可以是逗号分隔的字符串。 URIs要使用 LDAP，必须在每个 URI 的开头添加 `ldap://`。  
示例值：  

```
ldap://192.0.2.0,ldap://203.0.113.0          # LDAP
ldaps://192.0.2.0,ldaps://203.0.113.0        # LDAPS without support for certificate verification
ldaps://abcdef01234567890.corp.example.com  # LDAPS with support for certificate verification
192.0.2.0,203.0.113.0                        # AWS ParallelCluster uses LDAPS by default
```
如果您使用 LDAPS 进行证书验证，则 URIs 必须是主机名。  
如果您使用 LDAPS 而不进行证书验证或 LDAP，则 URIs 可以是主机名或 IP 地址。  
使用 LDAP over TLS/SSL (LDAPS) 可避免通过未加密的通道传输密码和其他敏感信息。如果 AWS ParallelCluster 找不到协议，它会在每个 URI 或主机名的开头添加 `ldaps://`。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`PasswordSecretArn`（**必需**，`String`）  
包含`DomainReadOnlyUser`纯文本密码的 AWS Secrets Manager 密钥的 Amazon 资源名称 (ARN)。密钥的内容对应于名为 `ldap_default_authtok` 的 SSSD-LDAP 参数。  
使用 AWS Secrets Manager 控制台创建密钥时，请务必选择 “其他类型的密钥”，选择纯文本，并且仅在密钥中包含密码文本。  
有关如何使用 AWS Secrets Manager 创建密钥的更多信息，请参阅[创建 AWS Secrets Manager 密钥](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret)
LDAP 客户端使用密码向 AD 域进行身份验证`DomainReadOnlyUser`，就像请求身份信息一样。  
如果用户拥有 [https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html) 的权限，则会验证 `PasswordSecretArn`。如果指定的密钥存在，则 `PasswordSecretArn` 有效。如果用户 IAM 策略不包括 `DescribeSecret`，则不验证 `PasswordSecretArn` 并显示警告消息。有关更多信息，请参阅 [基本 AWS ParallelCluster `pcluster` 用户策略](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy)。  
当密钥的值发生变化时，*不会* 自动更新集群。要针对新密钥值更新集群，必须使用 [`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md) 命令停止计算实例集，然后从头节点内运行以下命令。  

```
$ sudo /opt/parallelcluster/scripts/directory_service/update_directory_service_password.sh
```
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainReadOnlyUser`（**必需**，`String`）  
在对集群用户登录进行身份验证时，用于查询 AD 域以获取身份信息的身份。它对应于名为 `ldap_default_bind_dn` 的 SSSD-LDAP 参数。对此值使用您的 AD 身份信息。  
以节点上特定 LDAP 客户端要求的格式指定身份：  
+ MicrosoftAD：

  ```
  cn=ReadOnlyUser,ou=Users,ou=CORP,dc=corp,dc=example,dc=com
  ```
+ SimpleAD：

  ```
  cn=ReadOnlyUser,cn=Users,dc=corp,dc=example,dc=com
  ```
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsCaCert`（**可选**，`String`）  
证书包的绝对路径，其中包含证书链中为域控制器颁发证书的每个证书颁发机构的证书。它对应于名为 `ldap_tls_cacert` 的 SSSD-LDAP 参数。  
证书捆绑包是一个由 PEM 格式（在 Windows 中也称为 DER Base64 格式）的不同证书串联组成的文件。它用于验证充当 LDAP 服务器的 AD 域控制器的身份。  
AWS ParallelCluster 不负责将证书初始放置到节点上。作为集群管理员，您可以在创建集群后在头节点中手动配置证书，也可以使用[引导脚本](custom-bootstrap-actions-v3.md)。或者，您可以使用包含头节点上配置的证书的亚马逊机器映像 (AMI)。  
[Simple AD](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/directory_simple_ad.html) 不提供 LDAPS 支持。要了解如何将 Simple AD 目录与集成 AWS ParallelCluster，请参阅*AWS 安全博客*中的[如何为 Simple AD 配置 LDAPS 端点](https://aws.amazon.com/blogs/security/how-to-configure-ldaps-endpoint-for-simple-ad/)。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsReqCert`（**可选**，`String`）  
指定在 TLS 会话中对服务器证书执行哪些检查。它对应于名为 `ldap_tls_reqcert` 的 SSSD-LDAP 参数。  
有效值：`never`、`allow`、`try`、`demand` 和 `hard`。  
即使发现证书有问题，`never`、`allow` 和 `try` 也允许继续连接。  
在未发现证书问题的情况下，`demand` 和 `hard` 允许继续进行通信。  
如果集群管理员使用的值不需要证书验证成功，则会向管理员返回一条警告消息。出于安全考虑，我们建议您不要禁用证书验证。  
默认值为 `hard`。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapAccessFilter`（**可选**，`String`）  
指定用于将目录访问权限限制为一部分用户的筛选器。此属性对应于名为 `ldap_access_filter` 的 SSSD-LDAP 参数。您可以使用此属性将查询限制为支持大量用户的 AD。  
此筛选器可阻止用户访问集群。但它不影响被阻止用户的可发现性。  
如果设置了此属性，则 SSSD 参数 `access_provider` 将由 AWS ParallelCluster 在内部设置为 `ldap` 且不得被 [`DirectoryService`](#DirectoryService-v3)/[`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs) 设置修改。  
如果省略此属性且未在 [`DirectoryService`](#DirectoryService-v3)/[`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs) 中指定自定义用户访问权限，则目录中的所有用户都可以访问集群。  
示例：  

```
"!(cn=SomeUser*)"  # denies access to every user with an alias that starts with "SomeUser"
"(cn=SomeUser*)"   # allows access to every user with alias that starts with "SomeUser"
"memberOf=cn=TeamOne,ou=Users,ou=CORP,dc=corp,dc=example,dc=com" # allows access only to users in group "TeamOne".
```
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`GenerateSshKeysForUsers`（**可选**，`Boolean`）  
定义集群用户在头节点上进行初始身份验证后是否立即为其 AWS ParallelCluster 生成 SSH 密钥。  
如果设置为 `true`，则每个用户在头节点上进行首次身份验证后会为其生成一个 SSH 密钥并保存到 `USER_HOME_DIRECTORY/.ssh/id_rsa`（如果不存在）。  

对于尚未在头节点上进行身份验证的用户，可能会在以下情况下进行首次身份验证：
+ 用户使用自己的密码首次登录头节点。
+ 在头节点中，sudoer 首次切换到用户：`su USERNAME`
+ 在头节点中，sudoer 首次以用户身份运行命令：`su -u USERNAME COMMAND`
之后，用户可以使用 SSH 密钥登录到集群头节点和计算节点。使用 AWS ParallelCluster时，集群计算节点的密码登录在设计上是禁用的。如果用户未登录到头节点，则不会生成 SSH 密钥，用户将无法登录到计算节点。  
默认值为 `true`。  
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`AdditionalSssdConfigs`（**可选**，`Dict`）  
键值对的字典，其中包含要写入集群实例上的 SSSD 配置文件的 SSSD 参数和值。有关 SSSD 配置文件的完整描述，请参阅 `SSSD` 的 on-instance man 页面和相关配置文件。  
SSSD 参数和值必须与下表中所述 AWS ParallelCluster的 SSSD 配置兼容。  
+ `id_provider`由`ldap`内部设置为 AWS ParallelCluster ，不得修改。
+ `access_provider`指定 [`DirectoryService`](#DirectoryService-v3)/ AWS ParallelCluster 时在`ldap`内部设置[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)为，且不得修改此设置。

  如果省略 [`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)，则也将省略其指定的 `access_provider`。例如，如果您在 [`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs) 中将 `access_provider` 设置为 `simple`，则不得指定 [`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)。
以下配置代码段是 `AdditionalSssdConfigs` 有效配置的示例。  
此示例启用 SSSD 日志的调试级别，将搜索库限制为特定的组织部门，并禁用凭证缓存。  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    debug_level: "0xFFF0"
    ldap_search_base: OU=Users,OU=CORP,DC=corp,DC=example,DC=com
    cache_credentials: False
```
此示例指定 SSSD [https://www.mankier.com/5/sssd-simple](https://www.mankier.com/5/sssd-simple) `access_provider` 的配置。为 `EngineeringTeam` 中的用户提供了目录访问权限。在这种情况下，不得设置 [`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)。  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    access_provider: simple
    simple_allow_groups: EngineeringTeam
```
[更新策略：必须停止计算实例集才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

# `DeploymentSettings` 部分
<a name="DeploymentSettings-cluster-v3"></a>

**注意**  
`DeploymentSettings`是从 3.4.0 AWS ParallelCluster 版本开始添加的。

**（可选）**指定部署设置配置。

```
DeploymentSettings:
  LambdaFunctionsVpcConfig:
    SecurityGroupIds:
      - string
    SubnetIds:
      - string
  DisableSudoAccessForDefaultUser: Boolean
  DefaultUserHome: string # 'Shared' or 'Local'
```

## `DeploymentSettings` 属性
<a name="DeploymentSettings-cluster-v3.properties"></a>

### `LambdaFunctionsVpcConfig`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig"></a>

**（可选）**指定 AWS Lambda 函数 VPC 配置。有关更多信息，请参阅 [AWS Lambda 中的 VPC 配置 AWS ParallelCluster](lambda-vpc-v3.md)。

```
LambdaFunctionsVpcConfig:
  SecurityGroupIds:
    - string
  SubnetIds:
    - string
```

#### `LambdaFunctionsVpcConfig properties`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig.properties"></a>

 `SecurityGroupIds`（**必需**，`[String]`）  
附加到 Lambda 函数 IDs 的 Amazon VPC 安全组列表。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

 `SubnetIds`（**必需**，`[String]`）  
附加 IDs 到 Lambda 函数的子网列表。  
[更新策略：如果更改此设置，则不允许更新。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**注意**  
子网和安全组必须位于同一 VPC。

### DisableSudoAccessForDefaultUser 财产
<a name="DeploymentSettings-cluster-v3-DisableSudoAccessForDefaultUser.property"></a>

**注意**  
只有 Slurm 集群支持此配置选项。

（可选）如果是 `True`，则将禁用默认用户的 sudo 权限。这适用于集群中的所有节点。

```
# Main DeploymentSettings section in config yaml(applies to HN, CF and LN)
DeploymentSettings:
  DisableSudoAccessForDefaultUser: True
```

要更新 `DisableSudoAccessForDefaultUser` 的值，必须停止计算实例集和所有登录节点。

[更新策略：必须停止计算实例集和登录节点才能更改此设置以进行更新。](using-pcluster-update-cluster-v3.md#update-policy-compute-login-v3)

### DefaultUserHome 财产
<a name="DeploymentSettings-cluster-v3-DefaultUserHome.property"></a>

如果设置为 `Shared`，则集群将使用默认设置，并通过 `/home/<default user>` 在集群中共享默认用户的目录。

如果设置为 `Local`，则头节点、登录节点和计算节点都将有一个单独的本地默认用户目录，该目录存储在 `local/home/<default user>` 中。