

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# クラスター設定ファイル
<a name="cluster-configuration-file-v3"></a>

AWS ParallelCluster バージョン 3 では、個別の設定ファイルを使用して、クラスターインフラストラクチャの定義とカスタム AMIs の定義を制御します。すべての設定ファイルは YAML 1.1 ファイルを使用しています。それぞれの設定ファイルの詳細については、以下のリンクを参照してください。設定例については、[https://github.com/aws/aws-parallelcluster/tree/release-3.0/cli/tests/pcluster/example\$1configs](https://github.com/aws/aws-parallelcluster/tree/release-3.0/cli/tests/pcluster/example_configs) を参照してください。

これらのオブジェクトは、 AWS ParallelCluster バージョン 3 クラスター設定に使用されます。

**Topics**
+ [クラスター設定ファイルのプロパティ](#cluster-configuration-file-v3.properties)
+ [`Imds` セクション](Imds-cluster-v3.md)
+ [`Image` セクション](Image-v3.md)
+ [`HeadNode` セクション](HeadNode-v3.md)
+ [`Scheduling` セクション](Scheduling-v3.md)
+ [`SharedStorage` セクション](SharedStorage-v3.md)
+ [`Iam` セクション](Iam-v3.md)
+ [`LoginNodes` セクション](LoginNodes-v3.md)
+ [`Monitoring` セクション](Monitoring-v3.md)
+ [`Tags` セクション](Tags-v3.md)
+ [`AdditionalPackages` セクション](AdditionalPackages-v3.md)
+ [`DirectoryService` セクション](DirectoryService-v3.md)
+ [`DeploymentSettings` セクション](DeploymentSettings-cluster-v3.md)

## クラスター設定ファイルのプロパティ
<a name="cluster-configuration-file-v3.properties"></a>

`Region` (**オプション**、`String`)  
クラスター AWS リージョン の を指定します。例えば、`us-east-2`。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomS3Bucket` (**オプション**、`String`)  
クラスター設定ファイルなど、クラスターで使用されるリソースを保存し、logs をエクスポートするために AWS アカウントで作成される Amazon S3 バケットの名前を指定します。 は、クラスターを作成する各 AWS リージョンで 1 つの Amazon S3 バケット AWS ParallelCluster を維持します。デフォルトでは、これらの Amazon S3 バケットには `parallelcluster-hash-v1-DO-NOT-DELETE` という名前が付けられます。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。強制的に更新した場合、新しい値は無視され、既存の値が使用されます。](using-pcluster-update-cluster-v3.md#update-policy-read-only-resource-bucket-v3)

`AdditionalResources` (**オプション**、`String`)  
クラスターとともに起動する追加の AWS CloudFormation テンプレートを定義します。この追加のテンプレートは、クラスターの外部にありながらクラスターのライフサイクルの一部であるリソースを作成するために使用されます。  
この値は、すべてのパラメータが指定されているパブリックテンプレートへの HTTPS URL である必要があります。  
デフォルト値はありません。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

# `Imds` セクション
<a name="Imds-cluster-v3"></a>

**(オプション)** グローバルインスタンスメタデータサービス (IMDS) の設定を指定します。

```
Imds:
  ImdsSupport: string
```

## `Imds` のプロパティ
<a name="Imds-cluster-v3.properties"></a>

`ImdsSupport` (**オプション**、`String`)  
クラスターノードでサポートされている IMDS バージョンを指定します。サポートされている値は`v1.0` および `v2.0` です。デフォルト値は `v2.0` です。  
`ImdsSupport` が `v1.0` に設定されている場合、IMDSv1 と IMDSv2 の両方がサポートされます。  
`ImdsSupport` が `v2.0` に設定されている場合、IMDSv2 のみがサポートされます。  
詳細については、「*Linux インスタンス用 Amazon EC2 ユーザーガイド*」の「[IMDSv2 の使用](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html)」を参照してください。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 AWS ParallelCluster 3.7.0 以降、`ImdsSupport`デフォルト値は です`v2.0`。`ImdsSupport` を `v2.0` に設定し、カスタムアクション呼び出しにおいて、IMDSv1 を IMDSv2 に置き換えることをお勧めします。  
 AWS ParallelCluster バージョン [`Imds`](#Imds-cluster-v3) 3.3.0 で / のサポートが追加され[`ImdsSupport`](#yaml-cluster-Imds-ImdsSupport)ました。

# `Image` セクション
<a name="Image-v3"></a>

**注記**  
によって配布される公式 AMIs のサポートされていないバージョン AWS ParallelCluster は、18 か月間非アクティブになると使用できなくなります。これらの古いイメージには古いソフトウェアが含まれており、問題が発生した場合はサポートを受けることができません。サポートされている最新バージョンへの移行を強くお勧めします。

**(必須)** クラスターのオペレーティングシステムを定義します。

```
Image:
  Os: string
  CustomAmi: string
```

## `Image` のプロパティ
<a name="Image-v3.properties"></a>

`Os` **(必須)**、`String`)  
クラスターに使用するオペレーティングシステムを指定します。サポートされている値は、`alinux2`、`alinux2023`、`ubuntu2404`、`ubuntu2204`、`rhel8`、`rocky8`、`rhel9`、`rocky9` です。  
RedHat Enterprise Linux 8.7 (`rhel8`) が AWS ParallelCluster バージョン 3.6.0 から追加されました。  
`rhel` を使用するようにクラスターを設定した場合、任意のインスタンスタイプのオンデマンドコストは、サポートされている他のオペレーティングシステムを使用するようにクラスターを設定した場合よりも高くなります。料金の詳細については、「[オンデマンド料金](https://aws.amazon.com/ec2/pricing/on-demand)」と「[Amazon EC2 での Red Hat Enterprise Linux が提供される方法と料金体系について教えてください](https://aws.amazon.com/partners/redhat/faqs/#Pricing_and_Billing)」を参照してください。  
RedHat Enterprise Linux 9 (rhel9) が AWS ParallelCluster バージョン 3.9.0 から追加されました。
すべての AWS 商用リージョンは、以下のすべてのオペレーティングシステムをサポートしています。      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/parallelcluster/latest/ug/Image-v3.html)
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 AWS ParallelCluster 3.8.0 は Rocky Linux 8 をサポートしていますが、構築済みの Rocky Linux 8 AMIs (x86 および ARM アーキテクチャ用) は使用できません。 AWS ParallelCluster 3.8.0 は、カスタム AMIs を使用した Rocky Linux 8 でのクラスターの作成をサポートしています。詳細については、「」を参照してください[オペレーティングシステムに関する考慮事項](operating-systems-v3.md#OS-Consideration-v3)。 AWS ParallelCluster 3.9.0 は Rocky Linux 9 をサポートしていますが、構築済みの Rocky Linux 9 AMIs (x86 および ARM アーキテクチャ用) は使用できません。 AWS ParallelCluster 3.9.0 は、カスタム AMIs を使用した Rocky Linux 9 でのクラスターの作成をサポートしています。詳細については、「[オペレーティングシステムに関する考慮事項](operating-systems-v3.md#OS-Consideration-v3)」を参照してください。  
 

`CustomAmi` (**オプション**、`String`)  
デフォルト AMI の代わりにヘッドノードとコンピューティングノードに使用するカスタム AMI の ID を指定します。詳細については、「[AWS ParallelCluster AMI のカスタマイズ](custom-ami-v3.md)」を参照してください。  
カスタム AMI の起動に追加のアクセス許可が必要な場合は、ユーザーおよびヘッドノードポリシーの両方にそれらのアクセス許可を追加する必要があります。  
例えば、カスタム AMI に暗号化されたスナップショットが関連付けられている場合、ユーザーおよびヘッドノードポリシーの両方に次の追加のポリシーが必要です。    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
RedHat Enterprise Linux カスタム AMI を構築するには、RHUI (AWS) リポジトリが提供するパッケージの `rhel-<version>-baseos-rhui-rpms`、`rhel-<version>-appstream-rhui-rpms`、および `codeready-builder-for-rhel-<version>-rhui-rpms` をインストールするように OS を設定する必要があります。さらに、カスタム AMI のリポジトリには、実行中のカーネルバージョンと同じバージョンの `kernel-devel` パッケージが含まれている必要があります。  

**既知の制限事項:**
+ RHEL 8.2 以降のバージョンのみが FSx for Lustre をサポートしています。
+ RHEL 8.7 カーネルバージョン 4.18.0-425.3.1.el8 は FSx for Lustre をサポートしていません。
+ RHEL 8.4 以降のバージョンのみが EFA をサポートしています。
+ AL23 は NICE DCV をサポートしていません。NICE DCV を実行するために必要なグラフィカルデスクトップ環境が含まれていないためです。詳細については、公式の [NICE DCVドキュメント](https://docs.aws.amazon.com//dcv/)を参照してください。
カスタム AMI 検証の警告のトラブルシューティングについては、「[カスタム AMI の問題のトラブルシューティング](troubleshooting-v3-custom-amis.md)」を参照してください。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `HeadNode` セクション
<a name="HeadNode-v3"></a>

**(必須)** ヘッドノードの設定を指定します。

```
HeadNode:
  InstanceType: string
  Networking:
    SubnetId: string
    ElasticIp: string/boolean
    SecurityGroups:
      - string
    AdditionalSecurityGroups:
      - string
    Proxy:
      HttpProxyAddress: string
  DisableSimultaneousMultithreading: boolean
  Ssh:
    KeyName: string
    AllowedIps: string
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
      DeleteOnTermination: boolean
    EphemeralVolume:
      MountDir: string
  SharedStorageType: string
  Dcv:
    Enabled: boolean
    Port: integer
    AllowedIps: string
  CustomActions:
    OnNodeStart:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeConfigured:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeUpdated:
      Sequence:
        - Script: string
          Args: 
            - string
      Script: string
      Args:
        - string
  Iam:
    InstanceRole: string
    InstanceProfile: string
    S3Access:
      - BucketName: string
        EnableWriteAccess: boolean
        KeyName: string
    AdditionalIamPolicies:
      - Policy: string
  Imds:
    Secured: boolean
  Image:
    CustomAmi: string
```

## `HeadNode` のプロパティ
<a name="HeadNode-v3.properties"></a>

`InstanceType` (**必須**、`String`)  
ヘッドノードのインスタンスタイプを指定します。  
ヘッドノードに使用される Amazon EC2 インスタンスタイプを定義します。インスタンスタイプのアーキテクチャは、 [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-AwsBatchQueues-ComputeResources-InstanceTypes)または AWS Batch Slurm[`InstanceType`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)設定に使用されるアーキテクチャと同じである必要があります。  
AWS ParallelCluster は、 `HeadNode`設定で次のインスタンスタイプをサポートしていません。  
+ hpc6id
複数のネットワークインターフェイスまたはネットワークインターフェイスカードを持つ p4d インスタンスタイプまたは別のインスタンスタイプを定義する場合は、パブリックアクセスを提供する`true`ように を [`ElasticIp`](#yaml-HeadNode-Networking-ElasticIp)に設定する必要があります。 AWS パブリック IPsは、単一のネットワークインターフェイスで起動されたインスタンスにのみ割り当てることができます。この場合、NAT [ ゲートウェイ](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html)を使用してクラスターコンピューティングノードへのパブリックアクセスを提供することをお勧めします。詳細については、「Amazon EC2 Linux インスタンス用ユーザーガイド」の「[インスタンス起動時のパブリック IPv4 アドレスの割り当て](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses)」を参照してください。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DisableSimultaneousMultithreading` (**オプション**、`Boolean`)  
の場合`true`、ヘッドノードのハイパースレッディングを無効にします。デフォルト値は `false` です。  
すべてのインスタンスタイプがハイパースレッディングを無効にできるわけではありません。ハイパースレッディングの無効化をサポートするインスタンスタイプのリストについては、*Amazon EC2 ユーザーガイド*」の[「インスタンスタイプごとの各 CPU コアの CPU コアとスレッド](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values)」を参照してください。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SharedStorageType` (**オプション**、`String`)  
内部共有データで使用するストレージのタイプを指定します。内部共有データには、 がクラスターを管理するために AWS ParallelCluster 使用するデータと、共有ファイルシステムボリュームをマウントするためのマウントディレクトリ[`SharedStorage` セクション](SharedStorage-v3.md)として で指定`/home`されていない場合にデフォルトで共有されるデータが含まれます。内部共有データの詳細については、「[AWS ParallelCluster 内部ディレクトリ](directories-v3.md)」を参照してください。  
デフォルトのストレージタイプの `Ebs` である場合、ヘッドノードは NFS を使用してルートボリュームの一部をコンピューティングノードとログインノードの共有ディレクトリとしてエクスポートします。  
の場合`Efs`、ParallelCluster は共有内部データと に使用する EFS ファイルシステムを作成します`/home`。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
クラスターがスケールアウトすると、ヘッドノードが NFS エクスポートを使用してルートボリュームのデータをコンピューティングノードと共有するため、EBS ストレージタイプがパフォーマンスのボトルネックをもたらす可能性があります。EFS を使用すると、クラスターのスケールアウトに伴う NFS エクスポートを回避し、関連するパフォーマンスのボトルネックを防止できます。小さなファイルやインストールプロセスでの読み取り/書き込みの可能性を最大限に高めるには、EBS を選択することをお勧めします。スケールには EFS を選択します。

## `Networking`
<a name="HeadNode-v3-Networking"></a>

**(必須)** ヘッドノードのネットワーク設定を定義します。

```
Networking:
  SubnetId: string
  ElasticIp: string/boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  Proxy:
    HttpProxyAddress: string
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Networking` のプロパティ
<a name="HeadNode-v3-Networking.properties"></a>

`SubnetId` (**必須**、`String`)  
ヘッドノードをプロビジョニングする既存のサブネットの ID を指定します。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ElasticIp` (**オプション**、`String`)  
ヘッドノードに Elastic IP アドレスを作成または割り当てます。サポートされる値は、`true`、`false`、または既存の Elastic IP アドレスの ID です。デフォルトは `false` です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SecurityGroups` (**オプション**、`[String]`)  
ヘッドノードに使用する Amazon VPC セキュリティグループ ID のリスト。これらは、このプロパティが含まれていない場合に が AWS ParallelCluster 作成するセキュリティグループを置き換えます。  
セキュリティグループが [SharedStorage](SharedStorage-v3.md) システム用に正しく設定されていることを確認します。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AdditionalSecurityGroups` (**オプション**、`[String]`)  
ヘッドノードに使用する追加の Amazon VPC セキュリティグループ ID のリスト。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Proxy` (**オプション**)  
ヘッドノードのプロキシ設定を指定します。  

```
Proxy:
                            HttpProxyAddress: 
                            string
```  
` HttpProxyAddress` (**オプション**、`String`)  
HTTP または HTTPS プロキシサーバーを定義します。通常は、`https://x.x.x.x:8080` です。  
デフォルト値はありません。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Ssh`
<a name="HeadNode-v3-Ssh"></a>

**(オプション)** ヘッドノードへの SSH アクセスの設定を定義します。

```
Ssh:
      KeyName: string
      AllowedIps: string
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Ssh` のプロパティ
<a name="HeadNode-v3-Ssh.properties"></a>

`KeyName` (** オプション**、`String`)  
ヘッドノードへの SSH アクセスを有効にするための既存の Amazon EC2 キーペアを指定します。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps` (**オプション**、`String`)  
ヘッドノードへの SSH 接続の CIDR 形式の IP 範囲またはプレフィックスリスト ID を指定します。デフォルトは `0.0.0.0/0` です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `LocalStorage`
<a name="HeadNode-v3-LocalStorage"></a>

**(オプション)** ヘッドノードのローカルストレージ構成を定義します。

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
    DeleteOnTermination: boolean
  EphemeralVolume:
    MountDir: string
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `LocalStorage` のプロパティ
<a name="HeadNode-v3-LocalStorage.properties"></a>

`RootVolume` **(必須)**  
ヘッドノードのルートボリュームストレージを指定します。  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
  DeleteOnTermination: boolean
```
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Size` (**オプション**、`Integer`)  
ヘッドノードルートボリュームサイズをジビバイト (GiB) 単位で指定します。デフォルトのサイズは AMI から取得されます。異なるサイズを使用するには、AMI が `growroot` をサポートしている必要があります。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Encrypted` (**オプション**、`Boolean`)  
ルートボリュームを暗号化するかどうかを指定します。デフォルト値は `true` です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
` VolumeType` (**オプション**、`String`)  
[ Amazon EBS ボリュームタイプ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)を指定します。サポートされている値は `gp2`、`gp3`、`io1`、`io2`、`sc1`、`st1` および `standard` です。デフォルト値は `gp3` です。  
詳細については、「Amazon EC2 ユーザーガイド」の「[Amazon EBS ボリュームの種類](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)」を参照してください。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Iops` (**オプション**、`Integer`)  
`io1`、`io2` および `gp3` タイプボリュームの IOPS の数を定義します。  
デフォルト値、対応値、`volume_iops` 対 `volume_size` の比率は、`VolumeType` と `Size` で異なります。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`VolumeType` = `io1`  
デフォルト `Iops` = 100  
サポートする値 `Iops` = 100 — 64000 †  
最大 `Iops`/`Size` 比率 ＝ 50 IOPS/GiB。5000 IOPS には、少なくとも 100 GiB の `Size` が必要です。  
`VolumeType` = `io2`  
デフォルト `Iops` = 100  
サポートする値 `Iops` = 100 — 64000 (`io2` Block Express ボリュームの場合は 256000) †  
最大 `Iops`/`Size` 比率 ＝ 500 IOPS/GiB。5000 IOPS には、少なくとも 10 GiB の `Size` が必要です。  
`VolumeType` = `gp3`  
デフォルト `Iops` = 3000  
サポートされる値 `Iops` = 3000 — 16000  
最大 `Iops`/`Size` 比率 ＝ 500 IOPS/GiB。5000 IOPS には、少なくとも 10 GiB の `Size` が必要です。
† 最大 IOPS は、32,000 IOPS 以上でプロビジョニングされた [ Nitro System 上に構築されたインスタンス](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances)でのみ保証されます。他のインスタンスは、最大 32,000 IOPS を保証します。古い`io1`ボリュームは、[ボリュームを変更](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html)しない限り、完全なパフォーマンスに達しない場合があります。 `io2`Block Express ボリュームは、`R5b` インスタンスタイプで最大 256000 までの `Iops` 値をサポートします。詳細については、「*Amazon EC2 ユーザーガイド*」の「[`io2` Block Express ボリューム](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express)」を参照してください。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Throughput` (**オプション**、`Integer`)  
`gp3` ボリュームタイプのスループットを MiB/秒で定義します。この設定は、`VolumeType` が `gp3` の場合のみ有効です。デフォルト値は `125` です。サポートされる値: 125 — 1000 MIB/秒  
`Throughput` と `Iops` の比率は 0.25 以下にします。最大のスループットである 1000 MiB/秒を実現するためには、`Iops` の設定を 4000 以上にする必要があります。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 `DeleteOnTermination` (**オプション**、`Boolean`)  
ヘッドノードの終了時にルートボリュームを削除するかどうかを指定します。デフォルト値は `true` です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EphemeralVolume` (**オプション**)  
任意のインスタンスストアボリュームの詳細を指定します。詳細については、*Amazon EC2 * [ ユーザーガイド」の「インスタンスストアボリューム](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes)」を参照してください。  

```
EphemeralVolume:
  MountDir: string
```
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
 `MountDir` (**オプション**、`String`)  
インスタンスストアボリュームのマウントディレクトリを指定します。デフォルトは `/scratch` です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Dcv`
<a name="HeadNode-v3-Dcv"></a>

**(オプション)** ヘッドノードで実行される Amazon DCV サーバーの設定を定義します。

詳細については、「[Amazon DCV 経由でヘッドノードとログインノードに接続する](dcv-v3.md)」を参照してください。

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```

**重要**  
デフォルトでは、 によって設定された Amazon DCV ポート AWS ParallelCluster はすべての IPv4 アドレスに対して開かれています。ただし、Amazon DCV ポートに接続できるのは、Amazon DCV セッションの URL があり、この URL が `pcluster dcv-connect` から返されてから 30 秒以内に Amazon DCV セッションに接続する場合のみです。`AllowedIps` 設定を使用して、CIDR 形式の IP 範囲により Amazon DCV ポートへのアクセスをさらに制限し、`Port` 設定を使用して非標準ポートを設定します。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Dcv` のプロパティ
<a name="HeadNode-v3-Dcv.properties"></a>

`Enabled` (**必須**、`Boolean`)  
ヘッドノードで Amazon DCV を有効にするかどうかを指定します。デフォルト値は `false` です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Amazon DCV は、Amazon DCV クライアントとヘッドノードで実行される Amazon DCV サーバー間のトラフィックを保護するために使用される自己署名証明書を自動的に生成します。独自の証明書を設定するには、「[Amazon DCV の HTTPS 証明書](dcv-v3.md#dcv-v3-certificate)」を参照してください。

`Port` (**オプション**、`Integer`)  
Amazon DCV のポートを指定します。デフォルト値は `8443` です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps` **(オプション、推奨)**、`String`)  
Amazon DCV に接続するための CIDR 形式の IP 範囲を指定します。この設定は、 がセキュリティグループ AWS ParallelCluster を作成する場合にのみ使用されます。デフォルト値は `0.0.0.0/0` で、すべてのインターネットアドレスからのアクセスを許可します。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `CustomActions`
<a name="HeadNode-v3-CustomActions"></a>

**(オプション)** ヘッドノードで実行するカスタムスクリプトを指定します。

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args: 
      - string
```

### `CustomActions` のプロパティ
<a name="HeadNode-v3-CustomActions.properties"></a>

`OnNodeStart` (**オプション**)  
ノードデプロイのブートストラップアクションが開始される前にヘッドノードで実行する単一のスクリプトまたは一連のスクリプトを指定します。詳細については、「[カスタムブートストラップアクション](custom-bootstrap-actions-v3.md)」を参照してください。    
 `Sequence` (**オプション**)  
run. AWS ParallelCluster run を実行するスクリプトのリスト。 は、設定ファイルに記載されているのと同じ順序でスクリプトを実行します。最初から開始します。    
 `Script` (**必須**、`String`)  
使用するファイルを指定します。ファイルパスは `https://` または `s3://` で始まる必要があります。  
 `Args` (**オプション**、`[String]`)  
スクリプトに渡す引数のリスト。  
 `Script` (**必須**、`String`)  
単一のスクリプトに使用するファイルを指定します。ファイルパスは `https://` または `s3://` で始まる必要があります。  
`Args` (**オプション**、`[String]`)  
単一のスクリプトに渡す引数のリスト。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeConfigured` (**オプション**)  
ノードのブートストラップアクションが完了した後に、ヘッドノードで実行する単一のスクリプトまたは一連のスクリプトを指定します。詳細については、「[カスタムブートストラップアクション](custom-bootstrap-actions-v3.md)」を参照してください。    
 `Sequence` (**オプション**)  
実行するスクリプトのリストを指定します。    
 `Script` (**必須**、`String`)  
使用するファイルを指定します。ファイルパスは `https://` または `s3://` で始まる必要があります。  
 `Args` (**オプション**、`[String]`)  
スクリプトに渡す引数のリスト。  
 `Script` (**必須**、`String`)  
単一のスクリプトに使用するファイルを指定します。ファイルパスは `https://` または `s3://` で始まる必要があります。  
 `Args` (**オプション**、`[String]`)  
単一のスクリプトに渡す引数のリスト。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeUpdated` (**オプション**)  
ノードの更新アクションが完了した後に、ヘッドノードで実行する単一のスクリプトまたは一連のスクリプトを指定します。詳細については、「[カスタムブートストラップアクション](custom-bootstrap-actions-v3.md)」を参照してください。    
 `Sequence` (**オプション**)  
実行するスクリプトのリストを指定します。    
 `Script` (**必須**、`String`)  
使用するファイルを指定します。ファイルパスは `https://` または `s3://` で始まる必要があります。  
 `Args` (**オプション**、`[String]`)  
スクリプトに渡す引数のリスト。  
 `Script` (**必須**、`String`)  
単一のスクリプトに使用するファイルを指定します。ファイルパスは `https://` または `s3://` で始まる必要があります。  
 `Args` (**オプション**、`[String]`)  
単一のスクリプトに渡す引数のリスト。
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`OnNodeUpdated` が AWS ParallelCluster 3.4.0 から追加されました。  
`Sequence` バージョン 3.6.0 AWS ParallelCluster 以降で が追加されました。を指定すると`Sequence`、カスタムアクションの複数のスクリプトを一覧表示できます。 は、 を含めずに、1 つのスクリプトでカスタムアクションの設定をサポートするように AWS ParallelCluster 続行します`Sequence`。  
AWS ParallelCluster では、1 つのスクリプトと の両方を同じカスタムアクション`Sequence`に含めることはサポートされていません。

## `Iam`
<a name="HeadNode-v3-Iam"></a>

**(オプション)** クラスターのデフォルトのインスタンスロールまたはインスタンスプロファイルをオーバーライドするために、ヘッドノードで使用するインスタンスロールまたはインスタンスプロファイルのいずれかを指定します。

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Iam` のプロパティ
<a name="HeadNode-v3-Iam.properties"></a>

`InstanceProfile` (**オプション**、`String`)  
デフォルトのヘッドノードのインスタンスプロファイルをオーバーライドするインスタンスプロファイルを指定します。`InstanceProfile` と `InstanceRole` の両方を指定することはできません。形式は `arn:Partition:iam::Account:instance-profile/InstanceProfileName` です。  
これを指定すると、`S3Access` と `AdditionalIamPolicies` の設定を指定することはできません。  
 AWS ParallelCluster に追加された機能は新しいアクセス許可を必要とすることが多いため、`S3Access` と `AdditionalIamPolicies` の設定のいずれかまたは両方を指定することをお勧めします。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`InstanceRole` (**オプション**、`String`)  
デフォルトのヘッドノードのインスタンスロールをオーバーライドするインスタンスロールを指定します。`InstanceProfile` と `InstanceRole` の両方を指定することはできません。形式は `arn:Partition:iam::Account:role/RoleName` です。  
これを指定すると、`S3Access` と `AdditionalIamPolicies` の設定を指定することはできません。  
 AWS ParallelCluster に追加された機能は新しいアクセス許可を必要とすることが多いため、`S3Access` と `AdditionalIamPolicies` の設定のいずれかまたは両方を指定することをお勧めします。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `S3Access`
<a name="HeadNode-v3-Iam-S3Access.properties"></a>

`S3Access` (**オプション**)  
バケットを指定します。これは、指定されたアクセスをバケットに付与するためのポリシーを生成するために使用されます。  
これを指定すると、`InstanceProfile` と `InstanceRole` の設定を指定することはできません。  
 AWS ParallelCluster に追加された機能は新しいアクセス許可を必要とすることが多いため、`S3Access` と `AdditionalIamPolicies` の設定のいずれかまたは両方を指定することをお勧めします。  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`BucketName` **(必須)**、`String`)  
バケットの名前。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`KeyName` (**オプション**、`String`)  
バケットのキーです。デフォルト値は「`*`」です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
` EnableWriteAccess` (**オプション**、`Boolean`)  
バケットに対して書き込みアクセスが可能かどうかを示す。デフォルト値は `false` です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `AdditionalIamPolicies`
<a name="HeadNode-v3-Iam-AdditionalIamPolicies.properties"></a>

`AdditionalIamPolicies` **(オプション)**  
Amazon EC2 の IAM ポリシーの Amazon リソースネーム (ARN) のリストを指定します。このリストは、 に必要なアクセス許可に加えて、ヘッドノードに使用されるルートロールにアタッチされます AWS ParallelCluster。  
IAM ポリシー名とその ARN が異なります。名前を使用することはできません。  
これを指定すると、`InstanceProfile` と `InstanceRole` の設定を指定することはできません。  
 AWS ParallelCluster が必要とするパーミッションに `AdditionalIamPolicies` が追加され、`InstanceRole` には必要なパーミッションがすべて含まれている必要があるため、`AdditionalIamPolicies` を使用することをお勧めします。必要な権限は、機能が追加されるにつれ、リリースごとに変更されることがよくあります。  
デフォルト値はありません。  

```
AdditionalIamPolicies:
  - Policy: string
```
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
` Policy` (**オプション**、`[String]`)  
IAM ポリシーの一覧。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Imds`
<a name="HeadNode-v3-Imds"></a>

**(オプション)**インスタンスメタデータサービス (IMDS) のプロパティを指定します。詳細については、*Amazon EC2*[2 ユーザーガイド」の「インスタンスメタデータサービスバージョン 2 の仕組み](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html#instance-metadata-v2-how-it-works)」を参照してください。

```
Imds:
    Secured: boolean
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Imds` のプロパティ
<a name="HeadNode-v3-Imds.properties"></a>

`Secured` (**オプション**、`Boolean`)  
`true` の場合、ヘッドノードの IMDS (およびインスタンスプロファイルの認証情報) へのアクセスが一部のスーパーユーザーに制限されます。  
`false` の場合、ヘッドノードのすべてのユーザーがヘッドノードの IMDS にアクセスできます。  

次のユーザーにはヘッドノードの IMDS へのアクセスが許可されています。
+ ルートユーザー
+ クラスターの管理者ユーザー (デフォルトでは `pc-cluster-admin`)
+ オペレーティングシステム固有のデフォルトのユーザー (Amazon Linux 2 と RedHat の `ec2-user`、Ubuntu 18.04 の `ubuntu`)
デフォルトは `true` です。  
`default` ユーザーは、クラスターが AWS リソースとやり取りするために必要なアクセス許可を持っていることを確認する責任があります。`default` ユーザー IMDS アクセスを無効にすると、 AWS ParallelCluster はコンピューティングノードを管理できず、動作を停止します。`default` ユーザーの IMDS アクセスを無効にしないでください。  
ユーザーにヘッドノードの IMDS へのアクセス許可を付与すると、[ヘッドノードのインスタンスプロファイル](iam-roles-in-parallelcluster-v3.md)に含まれるアクセス許可を使用できます。例えば、これらのアクセス許可を使用して Amazon EC2 インスタンスを起動したり、クラスターを設定して認証のために使用する AD ドメインのパスワードを読み取ったりすることができます。  
IMDS アクセスを制限するには、 が のチェーン AWS ParallelCluster を管理します`iptables`。  
`sudo` アクセスを持つクラスターユーザーは、コマンドを実行することで、`default` ユーザーを含む他の個々のユーザーのヘッドノードの IMDS へのアクセスを選択的に有効または無効にできます。  

```
$ sudo /opt/parallelcluster/scripts/imds/imds-access.sh --allow <USERNAME>
```
このコマンドの `--deny` オプションを使用して、ユーザーの IMDS アクセスを無効にできます。  
`default` ユーザーの IMDS アクセスを知らないうちに無効にしてしまった場合は、`--allow` オプションを使用してアクセス許可を復元できます。  
`iptables` または `ip6tables` ルールのカスタマイズは、ヘッドノードの IMDS アクセスを制限するために使用するメカニズムを妨げる可能性があります。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Image`
<a name="HeadNode-v3-Image"></a>

**(オプション)** ヘッドノードのカスタムイメージを定義します。

```
Image:
     CustomAmi: string
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Image` のプロパティ
<a name="HeadNode-v3-Image.properties"></a>

`CustomAmi` (**オプション**、`String`)  
デフォルト AMI の代わりにヘッドノードに使用するカスタム AMI の ID を指定します。詳細については、「[AWS ParallelCluster AMI のカスタマイズ](custom-ami-v3.md)」を参照してください。  
カスタム AMI の起動に追加のアクセス許可が必要な場合は、ユーザーおよびヘッドノードポリシーの両方にそれらのアクセス許可を追加する必要があります。  
例えば、カスタム AMI に暗号化されたスナップショットが関連付けられている場合、ユーザーおよびヘッドノードポリシーの両方に次の追加のポリシーが必要です。    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
カスタム AMI 検証の警告のトラブルシューティングについては、「[カスタム AMI の問題のトラブルシューティング](troubleshooting-v3-custom-amis.md)」を参照してください。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Scheduling` セクション
<a name="Scheduling-v3"></a>

**(必須)** クラスターで使用されるジョブスケジューラと、ジョブスケジューラが管理するコンピューティングインスタンスを定義します。Slurm または ス AWS Batch ケジューラを使用できます。それぞれがサポートする一連の設定とプロパティは異なります。

**Topics**
+ [`Scheduling` のプロパティ](#Scheduling-v3.properties)
+ [`AwsBatchQueues`](#Scheduling-v3-AwsBatchQueues)
+ [`SlurmQueues`](#Scheduling-v3-SlurmQueues)
+ [`SlurmSettings`](#Scheduling-v3-SlurmSettings)

```
Scheduling:
  Scheduler: slurm
  ScalingStrategy: string    
  SlurmSettings:
    MungeKeySecretArn: string        
    ScaledownIdletime: integer    
    QueueUpdateStrategy: string
    EnableMemoryBasedScheduling: boolean
    CustomSlurmSettings: [dict]
    CustomSlurmSettingsIncludeFile: string
    Database:
      Uri: string
      UserName: string
      PasswordSecretArn: string
      DatabaseName: string    
    ExternalSlurmdbd: boolean
      Host: string
      Port: integer  
    Dns:
      DisableManagedDns: boolean
      HostedZoneId: string
      UseEc2Hostnames: boolean  
  SlurmQueues:
    - Name: string  
      ComputeSettings:
        LocalStorage:
          RootVolume:
            Size: integer
            Encrypted: boolean
            VolumeType: string
            Iops: integer
            Throughput: integer
          EphemeralVolume:
            MountDir: string
      CapacityReservationTarget:
        CapacityReservationId: string
        CapacityReservationResourceGroupArn: string
      CapacityType: string
      AllocationStrategy: string
      JobExclusiveAllocation: boolean
      CustomSlurmSettings: dict
      Tags:
        - Key: string
          Value: string
      HealthChecks:
        Gpu:
          Enabled: boolean
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
        PlacementGroup:
          Enabled: boolean
          Id: string
          Name: string
        Proxy:
          HttpProxyAddress: string
      ComputeResources:
        - Name: string
          InstanceType: string
          Instances:
            - InstanceType: string
          MinCount: integer
          MaxCount: integer
          DynamicNodePriority: integer
          StaticNodePriority: integer
          SpotPrice: float
          DisableSimultaneousMultithreading: boolean
          SchedulableMemory: integer
          HealthChecks:
            Gpu:
              Enabled: boolean
          Efa:
            Enabled: boolean
            GdrSupport: boolean          
          CapacityReservationTarget:
            CapacityReservationId: string
            CapacityReservationResourceGroupArn: string
          Networking:   
            PlacementGroup:
              Enabled: boolean
              Name: string
          CustomSlurmSettings: dict
          Tags:
            - Key: string
              Value: string
          LaunchTemplateOverrides:
            LaunchTemplateId: string
            Version: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceProfile: string
        InstanceRole: string
        S3Access:
          - BucketName: string
            EnableWriteAccess: boolean
            KeyName: string
        AdditionalIamPolicies:
          - Policy: string
      Image:
        CustomAmi: string
```

```
Scheduling:
  Scheduler: awsbatch
  AwsBatchQueues:
    - Name: string
      CapacityType: string
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
        - Name: string
          InstanceTypes:
            - string
          MinvCpus: integer
          DesiredvCpus: integer
          MaxvCpus: integer
          SpotBidPercentage: float
```

## `Scheduling` のプロパティ
<a name="Scheduling-v3.properties"></a>

**`Scheduler` **(必須)**、`String`)**  
使用するスケジューラのタイプを指定します。サポートされている値は`slurm` および `awsbatch` です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`awsbatch` は `alinux2` オペレーティングシステムと `x86_64` プラットフォームのみをサポートします。

**`ScalingStrategy` (**オプション**、`String`)**  
動的 Slurm ノードのスケールアップ方法を選択できます。サポートされている値は `all-or-nothing`、`greedy-all-or-nothing`、`best-effort` です。デフォルト値は `all-or-nothing` です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
スケーリング戦略は、Slurm で再開するノードにのみ適用され、既に実行中であるノードには最終的に適用されません。
+ `all-or-nothing`: この戦略は、オールオアナッシングアプローチに厳密に従い、スケーリングプロセスの最後にアイドルインスタンスが発生しないようにすることを目的としています。オールオアナッシングベースで動作し、完全にスケールアップするか、まったくスケールアップしないかのいずれかになります。ジョブに必要なノードが 500 を超える場合や、ジョブが複数のコンピューティングリソースにまたがる場合は、一時的に起動されるインスタンスがあるため、追加コストがあり得ることに注意してください。この戦略は、3 つの可能なスケーリング戦略の中でスループットが最も低くなります。スケーリング時間は、Slurm 再開プログラムの実行ごとに送信されるジョブの数によって異なります。また、実行あたりのデフォルトの RunInstances リソースアカウント制限 (デフォルトでは 1,000 インスタンス) をはるかに超えてスケールすることはできません。詳細については、[Amazon EC2 API スロットリングに関するドキュメント](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/throttling.html)を参照してください。
+ `greedy-all-or-nothing `: オールオアナッシング戦略と同様に、スケーリング後のアイドルインスタンスを回避することを目的としています。この戦略では、スケーリングプロセス中に一時的なオーバースケーリングが可能であるため、オールオアナッシング戦略よりも高いスループットを実現できますが、RunInstances リソースアカウント制限と同じ 1,000 インスタンスのスケーリング制限が適用されます。
+ `best-effort `: この戦略では、スケーリングプロセスの最後に一部のインスタンスがアイドル状態になる可能性があるとしても、高スループットを優先します。ジョブがリクエストしている数だけのノードを割り当てようとしますが、リクエスト全体は満たせない可能性があります。他の戦略とは異なり、ベストエフォートアプローチでは、複数のスケーリングプロセスの実行時にアイドルリソースが発生するという代償が伴いますが、標準の RunInstances 制限よりも多くのインスタンスを蓄積できます。

各戦略は、さまざまなスケーリングニーズを満たすように設計されているため、特定の要件や制約に合った戦略を選択できます。

## `AwsBatchQueues`
<a name="Scheduling-v3-AwsBatchQueues"></a>

**(オプション)** AWS Batch キュー設定。サポートされているキューは 1 つだけです。このセクションは、[`Scheduler`](#yaml-Scheduling-Scheduler) が `awsbatch` に設定されている場合に必要です。`awsbatch` スケジューラの詳細については、「[Networking Setup](network-configuration-v3-batch.md)」と「[での AWS Batch (`awsbatch`) スケジューラの使用 AWS ParallelCluster](awsbatchcli-v3.md)」を参照してください。

```
AwsBatchQueues:
  - Name: string
    CapacityType: string
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
      - Name: string
        InstanceTypes:
          - string
        MinvCpus: integer
        DesiredvCpus: integer
        MaxvCpus: integer
        SpotBidPercentage: float
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `AwsBatchQueues` のプロパティ
<a name="Scheduling-v3-AwsBatchQueues.properties"></a>

**`Name` **(必須)**、`String`)**  
 AWS Batch キューの名前。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityType` (**オプション**、`String`)**  
 AWS Batch キューが使用するコンピューティングリソースのタイプ。サポートされている値は `ONDEMAND`、`SPOT`、または `CAPACITY_BLOCK` です。デフォルト値は `ONDEMAND` です。  
`CapacityType` を `SPOT` に設定した場合、アカウントに `AWSServiceRoleForEC2Spot` サービスにリンクされたロールが含まれている必要があります。このロールは、次の AWS CLI コマンドを使用して作成できます。  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
詳細については、「*Linux インスタンス用 Amazon EC2 ユーザーガイド*」の「[スポットインスタンスリクエスト向けのサービスにリンクされたロール](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests)」を参照してください。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### `Networking`
<a name="Scheduling-v3-AwsBatchQueues-Networking"></a>

**(必須)** AWS Batch キューのネットワーク設定を定義します。

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```

##### `Networking` のプロパティ
<a name="Scheduling-v3-AwsBatchQueues-Networking.properties"></a>

**`SubnetIds` **(必須)**、`[String]`)**  
 AWS Batch キューをプロビジョニングする既存のサブネットの ID を指定します。現在、サポートされているのは 1 つのサブネットのみです。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`AssignPublicIp` (**オプション**、`String`)**  
 AWS Batch キュー内のノードにパブリック IP アドレスを作成または割り当てます。サポートされている値は`true` および `false` です。デフォルトは、指定されたサブネットによって異なります。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups` (**オプション**、`[String]`)**  
 AWS Batch キューが使用するセキュリティグループのリスト。セキュリティグループを指定しない場合、 は新しいセキュリティグループ AWS ParallelCluster を作成します。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups` (**オプション**、`[String]`)**  
 AWS Batch キューが使用するセキュリティグループのリスト。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

#### `ComputeResources`
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources"></a>

**(必須)** AWS Batch キューの ComputeResources 設定を定義します。

```
ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
  - Name: string
    InstanceTypes:
      - string
    MinvCpus: integer
    DesiredvCpus: integer
    MaxvCpus: integer
    SpotBidPercentage: float
```

##### `ComputeResources` のプロパティ
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources.properties"></a>

**`Name` **(必須)**、`String`)**  
 AWS Batch キューコンピューティング環境の名前。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceTypes` **(必須)**、`[String]`)**  
インスタンスタイプの AWS Batch コンピューティング環境配列。すべてのインスタンスタイプが `x86_64` アーキテクチャを使用する必要があります。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MinvCpus` (**オプション**、`Integer`)**  
 AWS Batch コンピューティング環境で使用できる VCPUs の最小数。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`DesiredVcpus` (**オプション**、`Integer`)**  
 AWS Batch コンピューティング環境で必要な VCPUs の数。 AWS Batch は、ジョブキューの需要`MaxvCpus`に基づいて、この値を `MinvCpus` と の間で調整します。  
[更新ポリシー: この設定は、更新中には分析されません。](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

**`MaxvCpus` (**オプション**、`Integer`)**  
 AWS Batch コンピューティング環境VCPUs の最大数。これを `DesiredVcpus` より小さい値に設定することはできません。  
[更新ポリシー: これらの設定は、更新中に減らすことはできません。](using-pcluster-update-cluster-v3.md#update-policy-no-decrease-v3)

**`SpotBidPercentage` (**オプション**、`Float`)**  
インスタンスの起動前に、Amazon EC2 スポットインスタンス料金がオンデマンドインスタンスタイプ料金に到達可能な最大パーセンテージ。デフォルト値は `100` (100%) です。対応する範囲は `1`～`100` です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmQueues`
<a name="Scheduling-v3-SlurmQueues"></a>

**(オプション)** Slurm キューの設定。このセクションは、[`Scheduler`](#yaml-Scheduling-Scheduler) が `slurm` に設定されている場合に必要です。

```
SlurmQueues:
  - Name: string
    ComputeSettings:
      LocalStorage:
        RootVolume:
          Size: integer
          Encrypted: boolean
          VolumeType: string
          Iops: integer
          Throughput: integer
        EphemeralVolume:
          MountDir: string
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    CapacityType: string
    AllocationStrategy: string
    JobExclusiveAllocation: boolean
    CustomSlurmSettings: dict
    Tags:
      - Key: string
        Value: string
    HealthChecks:
      Gpu:
        Enabled: boolean
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
      PlacementGroup:
        Enabled: boolean
        Id: string
        Name: string
      Proxy:
        HttpProxyAddress: string
    ComputeResources:
      - Name: string
        InstanceType: string
        Instances:
          - InstanceType: string        
        MinCount: integer
        MaxCount: integer
        DynamicNodePriority: integer
        StaticNodePriority: integer
        SpotPrice: float
        DisableSimultaneousMultithreading: boolean
        SchedulableMemory: integer
        HealthChecks:
          Gpu:
            Enabled: boolean
        Efa:
          Enabled: boolean
          GdrSupport: boolean    
        CapacityReservationTarget:
          CapacityReservationId: string
          CapacityReservationResourceGroupArn: string     
        Networking:   
          PlacementGroup:
            Enabled: boolean
            Name: string
        CustomSlurmSettings: dict
        Tags:
          - Key: string
            Value: string
        LaunchTemplateOverrides:
          LaunchTemplateId: string
          Version: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string        
        Script: string
        Args:
          - string
    Iam:
      InstanceProfile: string
      InstanceRole: string
      S3Access:
        - BucketName: string
          EnableWriteAccess: boolean
          KeyName: string
      AdditionalIamPolicies:
        - Policy: string
    Image:
      CustomAmi: string
```

[更新ポリシー:このリスト値の設定では、更新中に新しい値を追加することができ、既存の値を削除する場合はコンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

### `SlurmQueues` のプロパティ
<a name="Scheduling-v3-SlurmQueues.properties"></a>

**`Name` **(必須)**、`String`)**  
Slurm キューの名前。  
クラスターのサイズは、更新中に変わる場合があります。詳細については、「[クラスター容量のサイズと更新](slurm-workload-manager-v3.md)」を参照してください。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityReservationTarget`**  
`CapacityReservationTarget` バージョン 3.3.0 AWS ParallelCluster で が追加されました。

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
キューのコンピューティングリソースのオンデマンドキャパシティ予約を指定します。    
**`CapacityReservationId` (**オプション**、`String`)**  
キューのコンピューティングリソースを対象とする既存のキャパシティ予約の ID。ID は、[ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) または [機械学習用のキャパシティブロック](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html)を参照できます。  
予約は、インスタンスが使用するのと同じプラットフォームを使用する必要があります。例えば、インスタンスを `rhel8` で実行する場合、キャパシティ予約は Red Hat Enterprise Linux プラットフォームで実行する必要があります。詳細については、「Linux インスタンス用 Amazon EC2 ユーザーガイド**」の「[サポートされているプラットフォーム](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html#capacity-reservations-platforms)」を参照してください。  
クラスター設定に [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) を含める場合、このキューレベルの `CapacityReservationId` 設定を設定から除外する必要があります。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`CapacityReservationResourceGroupArn` (**オプション**、`String`)**  
キューのコンピューティングリソースのキャパシティ予約のサービスリンクグループとして機能するリソースグループの Amazon リソースネーム (ARN)。 AWS ParallelCluster は、次の条件に基づいて、リソースグループから最も適切なキャパシティ予約を識別して使用します。  
+ `PlacementGroup` が [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/ [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)または [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) / で有効になっている場合[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)、コンピューティングリソースが存在する場合、 はコンピューティングリソース`PlacementGroup`のインスタンスタイプと をターゲットとするリソースグループ AWS ParallelCluster を選択します。

  `PlacementGroup` は、[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) で定義されているインスタンスタイプの 1 つをターゲットにしている必要があります。
+ `PlacementGroup` / [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)または [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) で が有効になっていない場合[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)、コンピューティングリソースが存在する場合、 はコンピューティングリソースのインスタンスタイプのみをターゲットとするリソースグループ AWS ParallelCluster を選択します。
リソースグループには、キューのすべてのコンピューティングリソースとアベイラビリティーゾーン間のアベイラビリティーゾーンに予約されているインスタンスタイプごとに少なくとも 1 つの ODCR があることが必要です。詳細については、「[オンデマンドキャパシティ予約 (ODCR) を使用してインスタンスを起動する](launch-instances-odcr-v3.md)」を参照してください。  
複数のサブネットの設定要件の詳細については、「[`Networking`](#Scheduling-v3-SlurmQueues-Networking)」/「[`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds)」を参照してください。  
 AWS ParallelCluster バージョン 3.4.0 に複数のアベイラビリティーゾーンが追加されました。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityType` (**オプション**、`String`)**  
Slurm キューが使用するコンピューティングリソースのタイプ。サポートされている値は `ONDEMAND`、`SPOT`、または `CAPACITY_BLOCK` です。デフォルト値は `ONDEMAND` です。  
`CapacityType` を `SPOT` に設定した場合、アカウントに `AWSServiceRoleForEC2Spot` サービスにリンクされたロールがある必要があります。次の AWS CLI コマンドを使用して、このロールを作成できます。  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
詳細については、「*Linux インスタンス用 Amazon EC2 ユーザーガイド*」の「[スポットインスタンスリクエスト向けのサービスにリンクされたロール](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests)」を参照してください。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AllocationStrategy` (**オプション**、`String`)**  
[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) で定義されているすべてのコンピューティングリソースの配分戦略を指定します。  
有効な値: `lowest-price` \$1 `capacity-optimized` \$1 `price-capacity-optimized` \$1 `prioritized` \$1 `capacity-optimized-prioritized`       
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/parallelcluster/latest/ug/Scheduling-v3.html)
デフォルト: `lowest-price`    
**`lowest-price`**  
+ `CapacityType = ONDEMAND` を使用すると、Amazon EC2 Fleet は料金に従って順序を決定し、最低価格のインスタンスを最初に起動します。
+ `CapacityType = SPOT` を使用すると、Amazon EC2 Fleet は、利用可能な容量のある最低価格のスポットインスタンスプールからインスタンスを起動します。プールが必要な容量を満たす前に容量が不足した場合、Amazon EC2 フリート はインスタンスを起動してリクエストを実行します。特に、Amazon EC2 Fleet は、利用可能な容量のある最低価格のスポットインスタンスプールからインスタンスを起動します。Amazon EC2 Fleet はいくつかの異なるプールからスポットインスタンスを起動することがあります。
+ `CapacityType = CAPACITY_BLOCK` を設定すると、割り当て戦略がないため、`AllocationStrategy` パラメータを設定できません。  
**`capacity-optimized`**  
+ `CapacityType = ONDEMAND` を設定した場合、`capacity-optimized` は使用できません。
+ `CapacityType = SPOT` を設定すると、Amazon EC2 Fleet は、起動するインスタンス数に最適な容量を持つスポットインスタンスプールからインスタンスを起動します。  
**`price-capacity-optimized`**  
+ `CapacityType = ONDEMAND` を設定した場合、`capacity-optimized` は使用できません。
+ `CapacityType = SPOT` を設定すると、Amazon EC2 Fleet は、起動中のインスタンスの数に最適な容量を利用できるプールを識別します。つまり、短期的に中断の可能性が最も低いと思われるプールからスポットインスタンスをリクエストすることになります。次に Amazon EC2 Fleet は、これらのプールのうち最も価格の低いスポットインスタンスをリクエストします。  
**`prioritized`**  
+ を設定すると`CapacityType = ONDEMAND`、Amazon EC2 フリート は、複数のサブネットが指定されている場合、LaunchTemplate オーバーライド AWS ParallelCluster に適用される優先順位に従います。 は、最初のサブネットが最も高い優先度になった `SlurmQueues/Networking/SubnetIds` のターゲットサブネットの位置`priority`からオーバーライド AWS ParallelCluster を取得します。優先順位は から降順 AWS ParallelCluster で によって駆動され`SlurmQueues/Networking/SubnetIds`、最初の SubnetId が最も高い優先順位、最後の SubnetID が最も高い優先順位になります。
+ `CapacityType = SPOT` を設定した場合、`prioritized` は使用できません。  
**`capacity-optimized-prioritized`**  
+ `CapacityType = ONDEMAND` を設定した場合、`capacity-optimized-prioritized` は使用できません。
+ を設定すると`CapacityType = SPOT`、Amazon EC2 フリートは最初に容量を最適化し、ベストエフォートベースで が LaunchTemplate AWS ParallelCluster に割り当てる優先順位が上書きされます。優先順位は から降順 AWS ParallelCluster で によって駆動され`SlurmQueues/Networking/SubnetIds`、最初の SubnetId が最も高い優先順位、最後の SubnetID が最も高い優先順位になります。同じサブネットをターゲットとするすべてのオーバーライドは、同じ優先度値を受け取ります。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`AllocationStrategy` は AWS ParallelCluster バージョン 3.3.0 からサポートされています。  
**3.14.0 の新機能**: `prioritized` (オンデマンドの場合) および `capacity-optimized-prioritized` (スポットの場合）。

**`JobExclusiveAllocation` (**オプション**、`String`)**  
`true` に設定した場合、Slurm パーティションの `OverSubscribe` フラグは `EXCLUSIVE` に設定されます。`OverSubscribe`=`EXCLUSIVE` の場合、パーティションのジョブは割り当てられたすべてのノードに排他的にアクセスできます。詳細については、「Slurm ドキュメント」の「[EXCLUSIVE](https://slurm.schedmd.com/slurm.conf.html#OPT_EXCLUSIVE)」を参照してください。  
有効な値: `true` \$1 `false`  
デフォルト: `false`  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`JobExclusiveAllocation` は AWS ParallelCluster バージョン 3.7.0 からサポートされています。

**`CustomSlurmSettings` (**オプション**、`Dict`)**  
カスタム Slurm パーティション (キュー) 構成設定を定義します。  
キュー (パーティション) に適用されるカスタム Slurm 設定パラメータのキーと値のペアのディクショナリを指定します。  
`Param1: Value1` などの各個別のキーと値のペアは、`Param1=Value1` の形式で Slurm パーティション設定行の最後に個別に追加されます。  
`CustomSlurmSettings` の拒否リストに記載されていない Slurm 設定パラメータのみ指定できます。拒否リストの Slurm 設定パラメータの詳細については、「[`CustomSlurmSettings` で拒否リストに記載されている Slurm 設定パラメータ](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)」を参照してください。  
AWS ParallelCluster は、パラメータが拒否リストにあるかどうかのみをチェックします。 AWS ParallelCluster はカスタムSlurm設定パラメータの構文またはセマンティクスを検証しません。カスタムSlurm設定パラメータを検証するのはユーザーの責任です。無効なカスタム Slurm 設定パラメータは、クラスターの作成や更新の失敗につながる Slurm デーモンの障害を引き起こす可能性があります。  
でカスタムSlurm設定パラメータを指定する方法の詳細については AWS ParallelCluster、「」を参照してください[Slurm 設定のカスタマイズ](slurm-configuration-settings-v3.md)。  
Slurm 設定パラメータに関する詳細については、「Slurm ドキュメント」の「[slurm.conf](https://slurm.schedmd.com/slurm.conf.html)」を参照してください。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings` は AWS ParallelCluster バージョン 3.6.0 からサポートされています。

**`Tags` (**オプション**、[文字列])**  
タグのキーと値のペアのリスト。[`ComputeResource`](#yaml-Scheduling-SlurmQueues-ComputeResources-Tags) タグは、[`Tags` セクション](Tags-v3.md) または `SlurmQueues`/`Tags` で指定された重複するタグを上書きします。    
**`Key` (**オプション**、`String`)**  
タグキー。  
**`Value` (**オプション**、`String`)**  
タグ値。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks` (**オプション**)**  
キューのすべてのコンピューティングリソースのコンピューティングノードのヘルスチェックを指定します。    
`Gpu` (**オプション**)  
キューのすべてのコンピューティングリソースの GPU のヘルスチェックを指定します。  
AWS ParallelCluster は`HealthChecks`、ARM オペレーティングシステムを使用するノード`Gpu`で / `alinux2` をサポートしていません。これらのプラットフォームは [NVIDIA データセンター GPUマネージャー (DCGM)](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions) をサポートしていません。  
GPU の合計メモリサイズが 327680 MiB を超えるインスタンスタイプを使用する場合、GPU ヘルスチェックを有効にすることは推奨されません。  
`Enabled` (**オプション**、`Boolean`)  
がコンピューティングノードで GPU ヘルスチェック AWS ParallelCluster を実行するかどうか。デフォルトは `false` です。

**`Gpu` ヘルスチェックの動作**
+ `Gpu`/`Enabled` が `true` に設定されている場合、 AWS ParallelCluster はキューのコンピューティングリソースで GPU ヘルスチェックを実行します。
+ `Gpu` ヘルスチェックはコンピューティングリソースで GPU ヘルスチェックを実行して、GPU のパフォーマンスが低下したノードでのジョブ送信を防止します。
+ コンピューティングノードが `Gpu` ヘルスチェックに失敗すると、コンピューティングノードのステータスは `DRAIN` に変わります。このノードで新しいジョブは開始されません。既存のジョブは完了まで実行されます。実行中のジョブがすべて完了すると、コンピューティングノードが動的ノードの場合は終了し、静的ノードの場合は置き換えられます。
+ `Gpu` ヘルスチェックの期間は、選択したインスタンスタイプ、インスタンス内の GPUs の数、合計 GPU メモリ、`Gpu`ヘルスチェックターゲットの数 (ジョブ GPU ターゲットの数に相当) によって異なります。たとえば、p4d.24xlarge の場合、一般的な期間は 3 分です。
+ サポートされていないインスタンスで `Gpu` ヘルスチェックを実行すると終了し、ジョブはコンピューティングノードで実行されます。例えば、インスタンスが GPU を使用していない場合や、インスタンスが GPU を使用していても NVIDIA GPU ではない場合、ヘルスチェックは終了し、ジョブはコンピューティングノードで実行されます。NVIDIA GPU のみがサポートされています。
+ `Gpu` ヘルスチェックは、`dcgmi` ツールを使用してノードのヘルスチェックを実行し、次の手順を実行します。

  ノードで `Gpu` ヘルスチェックが開始される場合。

  1. `nvidia-dcgm` および `nvidia-fabricmanager` サービスが実行中かどうかを検出します。

  1. これらのサービスが実行されていない場合、`Gpu` ヘルスチェックによって開始されます。

  1. 永続化モードが有効になっているかどうかを検出します。

  1. 永続化モードが有効になっていない場合は、`Gpu` ヘルスチェックによって有効になります。

  ヘルスチェックの終了時に、`Gpu` ヘルスチェックはこれらのサービスとリソースの初期状態を復元します。
+ ジョブが特定のノード GPU セットに割り当てられている場合、`Gpu` ヘルスチェックはその特定のセットでのみ実行されます。それ以外の場合は、ノードのすべての GPU で `Gpu` ヘルスチェックが実行されます。
+ コンピューティングノードが同時に 2 つ以上の `Gpu` ヘルスチェックのリクエストを受け取った場合、最初のヘルスチェックのみが実行され、他はスキップされます。これは、ノード GPUs をターゲットとするヘルスチェックにも当てはまります。この状況に関する追加情報については、ログファイルを確認できます。
+ 特定のコンピューティングノードのヘルスチェックログは `/var/log/parallelcluster/slurm_health_check.log` ファイルで使用可能です。このファイルは クラスター CloudWatch ロググループの Amazon CloudWatch で使用可能で、次があります。
  + サービスおよび永続化モードの有効化と無効化を含め、`Gpu` ヘルスチェックによって実行されたアクションの詳細。
  + GPU の識別子、シリアル ID、および UUID。
  + ヘルスチェックの出力。
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks` は AWS ParallelCluster バージョン 3.6.0 以降でサポートされています。

#### `Networking`
<a name="Scheduling-v3-SlurmQueues-Networking"></a>

**(必須)** Slurm キューのネットワーク設定を定義します。

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  PlacementGroup:
    Enabled: boolean
    Id: string
    Name: string
  Proxy:
    HttpProxyAddress: string
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `Networking` のプロパティ
<a name="Scheduling-v3-SlurmQueues-Networking.properties"></a>

**`SubnetIds` **(必須)**、`[String]`)**  
Slurm キューをプロビジョニングする既存のサブネットの ID。  
[`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType) のインスタンスタイプを設定する場合、1 つのサブネットのみを定義できます。  
[`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) のインスタンスタイプを設定する場合、単一のサブネットまたは複数のサブネットを定義できます。  
複数のサブネットを使用する場合、キューに定義されるすべてのサブネットは同じ VPC 内にあり、各サブネットは個別のアベイラビリティーゾーン (AZ) にある必要があります。  
例えば、キューに subnet-1 と subnet-2 を定義するとします。  
`subnet-1` と `subnet-2` の両方を AZ-1 にすることはできません。  
`subnet-1` は AZ-1 に、`subnet-2` は AZ-2 にすることができます。  
1 つのインスタンスタイプのみを設定し、また複数のサブネットを使用する場合、`InstanceType` ではなく `Instances` でインスタンスタイプを定義します。  
例えば、`ComputeResources`/`InstanceType` = `instance.type` の代わりに `ComputeResources`/`Instances`/`InstanceType` = `instance.type` を定義します。  
Elastic Fabric Adapter (EFA) は、異なるアベイラビリティーゾーン間ではサポートされていません。
複数のアベイラビリティーゾーンを使用すると、ストレージネットワーキングのレイテンシーが増加し、また inter-AZ のデータ転送コストが増加する可能性があります。例えば、インスタンスが異なる AZ に配置されているファイルストレージにアクセスする場合に発生することがあります。詳細については、「[同一の AWS リージョンでのデータ転送](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer_within_the_same_AWS_Region)」を参照してください。  

**クラスターを更新して、単一のサブネットから複数のサブネットを使用するように変更する。**
+ クラスターのサブネット定義が、単一のサブネットと AWS ParallelCluster マネージド FSx for Lustre ファイルシステムで定義されているとします。続いて、更新されたサブネット ID 定義を使用してこのクラスターを直接更新することはできません。クラスターを更新するには、まずマネージドファイルシステムを外部ファイルシステムに変更する必要があります。詳細については、「[AWS ParallelCluster マネージドストレージを外部ストレージに変換する](shared-storage-conversion-v3.md)」を参照してください。
+ 追加するように定義された複数のサブネットのすべての AZ に EFS マウントターゲットが存在しない場合、クラスターのサブネット定義が単一のサブネットと外部の Amazon EFS ファイルシステムで定義されているとします。続いて、更新されたサブネット ID 定義を使用してこのクラスターを直接更新することはできません。クラスターを更新するか、クラスターを作成するには、まず定義した複数のサブネットのすべての AZ のマウントターゲットをすべて作成する必要があります。

**[CapacityReservationResourceGroupArn](#yaml-Scheduling-SlurmQueues-CapacityReservationResourceGroupArn) で定義されているアベイラビリティーゾーンとクラスターのキャパシティ予約。**
+ 定義済みのキャパシティ予約のリソースグループおよびキューに定義されている一連のインスタンスタイプとアベイラビリティーゾーンの対象となる一連のインスタンスタイプとアベイラビリティーゾーンが重複していない場合、クラスターを作成することはできません。
+ 定義されたキャパシティ予約リソースグループの対象となるインスタンスタイプとアベイラビリティーゾーンのセットと、キューに定義されたインスタンスタイプとアベイラビリティーゾーンのセットの間に部分的な重複がある場合は、クラスターを作成できます。 AWS ParallelCluster は、このケースの部分的な重複に関する警告メッセージを送信します。
+ 詳細については、「[オンデマンドキャパシティ予約 (ODCR) を使用してインスタンスを起動する](launch-instances-odcr-v3.md)」を参照してください。
 AWS ParallelCluster バージョン 3.4.0 に複数のアベイラビリティーゾーンが追加されました。
この警告は、 AWS ParallelCluster このパラメータを変更しても、バージョン 3.3.1.version 3.3.1 より前のすべての 3.x.y AWS ParallelCluster バージョンには影響しません。  
バージョン AWS ParallelCluster 3.3.1 より前の 3 バージョンの場合:  
このパラメータを変更してクラスターを更新すると、新しいマネージド FSx for Lustre ファイルシステムが作成され、既存のデータを保存せずに既存のマネージド FSx for Lustre ファイルシステムが削除されます。その結果、データの損失が発生します。データを保持したい場合は、先に進む前に、必ず既存の FSx for Lustre ファイルシステムからデータをバックアップしてください。詳細については、「FSx for Lustre ユーザーガイド**」の「[Working with backups](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html)」を参照してください。
新しいサブネット値を追加する場合は、[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
サブネット値を削除する場合は、[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AssignPublicIp` (**オプション**、`String`)**  
Slurm キューのノードにパブリック IP アドレスを作成または割り当てます。サポートされている値は`true` および `false` です。指定したサブネットによってデフォルト値が決定されます。パブリック IP を持つサブネットは、デフォルトでパブリック IP アドレスが割り当てられます。  
p4d または hpc6idインスタンスタイプ、または複数のネットワークインターフェイスまたはネットワークインターフェイスカードを持つ別のインスタンスタイプを定義する場合は、パブリックアクセスを提供する`true`ように [`Networking`](HeadNode-v3.md#HeadNode-v3-Networking) [`HeadNode`](HeadNode-v3.md)// [`ElasticIp`](HeadNode-v3.md#yaml-HeadNode-Networking-ElasticIp) を に設定する必要があります。 AWS パブリック IPsは、単一のネットワークインターフェイスで起動されたインスタンスにのみ割り当てることができます。この場合、クラスターコンピューティングノードへのパブリックアクセスを提供するのに、[NAT ゲートウェイ](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html)を使用することをお勧めします。この場合は、`AssignPublicIp` を `false` に設定します。IP アドレスに関する詳細については、「Amazon EC2 Linux インスタンス用ユーザーガイド**」の「[インスタンス起動時のパブリック IPv4 アドレスの割り当て](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses)」を参照してください。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups` (**オプション**、`[String]`)**  
Slurm キューに使用するセキュリティグループのリスト。セキュリティグループが指定されていない場合、 はセキュリティグループ AWS ParallelCluster を作成します。  
セキュリティグループが [SharedStorage](SharedStorage-v3.md) システム用に正しく設定されていることを確認します。  
この警告は、このパラメータを変更しても、バージョン 3.3.0. AWS ParallelCluster version 3.3.0 より前のすべての 3.*x*.*y* AWS ParallelCluster バージョンには影響しません。  
バージョン AWS ParallelCluster 3.3.0 より前の 3 バージョンの場合:  
このパラメータを変更してクラスターを更新すると、新しいマネージド FSx for Lustre ファイルシステムが作成され、既存のデータを保存せずに既存のマネージド FSx for Lustre ファイルシステムが削除されます。その結果、データの損失が発生します。データを保持したい場合は、必ず既存の FSx for Lustre ファイルシステムからデータをバックアップしてください。詳細については、「FSx for Lustre ユーザーガイド**」の「[Working with backups](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html)」を参照してください。
コンピューティングインスタンスに対して [Efa](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa) を有効にする場合、EFA 対応のインスタンスが、インバウンドおよびアウトバウンドのトラフィックをすべて許可するセキュリティグループのメンバーであることを確認してください。
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups` (**オプション**、`[String]`)**  
Slurm キューに使用する追加のセキュリティグループのリスト。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`PlacementGroup` (**オプション**)**  
Slurm キューの配置グループ設定を指定します。  

```
PlacementGroup:
  Enabled: boolean
  Id: string
  Name: string
```
[更新ポリシー: マネージドプレースメントグループを削除するには、すべてのコンピューティングノードを停止する必要があります。この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`Enabled` (**オプション**、`Boolean`)**  
Slurm キューに配置グループを使用するかどうかを示します。デフォルトは `false` です。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Id` (**オプション**、`String`)**  
Slurm キューが使用する既存のクラスタープレイスメントグループのプレイスメントグループ ID。名前ではなく、プレイスメントグループ *ID* を必ず指定してください。 **  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name` (**オプション**、`String`)**  
Slurm キューが使用する既存のクラスタープレイスメントグループのプレースメントグループ名です。ID ではなく**プレイスメントグループの名前**を必ず指定してください。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ `Name` または `Id` を定義せずに `PlacementGroup`/`Enabled` を `true` に設定した場合、[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking-PlacementGroup) がこの設定を上書きするように定義されていない限り、各コンピューティングリソースには独自のマネージドプレイスメントグループが割り当てられます。
+  AWS ParallelCluster バージョン 3.3.0 以降、//[`Networking`](#Scheduling-v3-SlurmQueues-Networking)[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/ [`SlurmQueues`](#Scheduling-v3-SlurmQueues)は //[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/ [`SlurmQueues`](#Scheduling-v3-SlurmQueues) の推奨代替手段として追加[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)されました[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)。

  [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id) と [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name) は同等です。いずれかを使用できます。

   [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) / [`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)と [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) / の両方を含めると[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)、 AWS ParallelCluster 失敗します。どちらかを選択することができます。

  [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name) を使用するのにクラスターを更新する必要はありません。
+ キャパシティブロック予約を使用する場合、キャパシティ予約に残りのキャパシティがある場合でも、予約外のプレイスメント制約が原因でキャパシティ不足エラーが発生する可能性があるため、プレイスメントグループの制約を設定しないでください。

**`Proxy` **(オプション)****  
Slurm キューのプロキシ設定を指定します。  

```
Proxy:
  HttpProxyAddress: string
```
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`HttpProxyAddress` (**オプション**、`String`)**  
Slurm キューの HTTP または HTTPS のプロキシサーバーを定義します。通常は `https://x.x.x.x:8080` です。  
デフォルト値はありません。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `Image`
<a name="Scheduling-v3-SlurmQueues-Image"></a>

**(オプション)** Slurm キューに使用するイメージを指定します。すべてのノードで同じ AMI を使用するには、[`Image` セクション](Image-v3.md)の [CustomAmi](Image-v3.md#yaml-Image-CustomAmi) 設定を使用します。

```
Image:
  CustomAmi: string
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `Image` プロパティ
<a name="Scheduling-v3-SlurmQueues-Image.properties"></a>

**`CustomAmi` (**オプション**、`String`)**  
デフォルトの AMI ではなく、Slurm キューに使用する AMI です。pcluster CLI コマンドを使用して、デフォルトの AMI のリストを表示できます。  
AMI は、ヘッドノードで使用しているのと同じオペレーティングシステムに基づいている必要があります。

```
pcluster list-official-images
```
カスタム AMI の起動に追加のアクセス許可が必要な場合は、ヘッドノードポリシーにそれらのアクセス許可を追加する必要があります。  
例えば、カスタム AMI に暗号化されたスナップショットが関連付けられている場合、ヘッドノードポリシーに次の追加のポリシーが必要です。    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
カスタム AMI 検証の警告のトラブルシューティングについては、「[カスタム AMI の問題のトラブルシューティング](troubleshooting-v3-custom-amis.md)」を参照してください。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeResources`
<a name="Scheduling-v3-SlurmQueues-ComputeResources"></a>

**(必須)** Slurm キューの `ComputeResources` 設定を定義します。

**注記**  
クラスターのサイズは、更新中に変わる場合があります。詳細については、[「クラスター容量のサイズと更新](slurm-workload-manager-v3.md)」を参照してください。
新しいコンピューティングリソースは、クラスターの作成時に存在する CIDR ブロックに属するサブネットにデプロイされている場合にのみ、クラスターに追加できます。

```
ComputeResources:
  - Name: string
    InstanceType: string
    Instances:
      - InstanceType: string    
    MinCount: integer
    MaxCount: integer
    DynamicNodePriority: integer
    StaticNodePriority: integer
    SpotPrice: float
    DisableSimultaneousMultithreading: boolean
    SchedulableMemory: integer
    HealthChecks:
      Gpu:    
        Enabled: boolean
    Efa:
      Enabled: boolean
      GdrSupport: boolean
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    Networking:   
      PlacementGroup:
        Enabled: boolean
        Name: string
    CustomSlurmSettings: dict   
    Tags:
      - Key: string
        Value: string
    LaunchTemplateOverrides:
      LaunchTemplateId: string
      Version: string
```

[更新ポリシー:このリスト値の設定では、更新中に新しい値を追加することができ、既存の値を削除する場合はコンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

##### `ComputeResources` のプロパティ
<a name="Scheduling-v3-SlurmQueues-ComputeResources.properties"></a>

**`Name` **(必須)**、`String`)**  
Slurm キューのコンピューティング環境の名前。名前の最大長は 25 文字です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`InstanceType` **(必須)**、`String`)**  
この Slurm コンピューティングリソースで使用されるインスタンスタイプ。クラスターのすべてのインスタンスタイプは、同じプロセッサアーキテクチャを使用している必要があります。インスタンスは `x86_64` または `arm64` のアーキテクチャのいずれかを使用できます。  
クラスター設定で、[InstanceType](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType) または [Instances](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) のいずれかを定義する必要があります。両方が定義されている場合、 AWS ParallelCluster 失敗します。  
`InstanceType` を定義する場合、複数のサブネットを定義することはできません。1 つのインスタンスタイプのみを設定し、また複数のサブネットを使用する場合、`InstanceType` ではなく `Instances` のインスタンスタイプを定義します。詳細については、「[`Networking`](#Scheduling-v3-SlurmQueues-Networking)」/「[`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds)」を参照してください。  
p4d または hpc6idインスタンスタイプ、または複数のネットワークインターフェイスまたはネットワークインターフェイスカードを持つ別のインスタンスタイプを定義する場合は、「」で説明されているように、プライベートサブネットでコンピューティングインスタンスを起動する必要があります[AWS ParallelCluster 2 つのサブネットの使用](network-configuration-v3-two-subnets.md)。 AWS パブリック IP は、単一のネットワークインターフェイスで起動されたインスタンスにのみ割り当てることができます。 IPs 詳細については、「Amazon EC2 Linux インスタンス用ユーザーガイド」の「[インスタンス起動時のパブリック IPv4 アドレスの割り当て](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses)」を参照してください。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`Instances` **(必須)****  
コンピューティングリソースのインスタンスタイプのリストを指定します。インスタンスタイプのリストの配分戦略を指定するには、「[`AllocationStrategy`](#yaml-Scheduling-SlurmQueues-AllocationStrategy)」を参照してください。  
クラスター設定で、[`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType) または [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) のいずれかを定義する必要があります。両方が定義されていると、 AWS ParallelCluster は失敗します。  
詳細については、「[Slurm による複数のインスタンスタイプの割り当て](slurm-multiple-instance-allocation-v3.md)」を参照してください。  

```
`Instances`:
   - `InstanceType`: string
```
 AWS ParallelCluster バージョン 3.7.0 以降では、インスタンスで複数のインスタンスタイプを設定すると、 [](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)を有効に`EnableMemoryBasedScheduling`できます。  
 AWS ParallelCluster バージョン 3.2.0 から 3.6.*x* では、インスタンスで[複数のインスタンスタイプを設定した場合、 ](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)を有効にする`EnableMemoryBasedScheduling`ことはできません。
[更新ポリシー:このリスト値の設定では、更新中に新しい値を追加することができ、既存の値を削除する場合はコンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)    
**`InstanceType` **(必須)**、`String`)**  
この Slurm コンピューティングリソースで使用するインスタンスタイプ。クラスター内のすべてのインスタンスタイプは、`x86_64` または `arm64` のいずれかの同じプロセッサアーキテクチャを使用する必要があります。  
[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) に一覧表示されているインスタンスタイプには、次が必要です。  
+ 同じ数の vCPUs、または [`DisableSimultaneousMultithreading`](#yaml-Scheduling-SlurmQueues-ComputeResources-DisableSimultaneousMultithreading) を `true` に設定している場合は同じ数のコア。
+ 同じ製造元で同じ数のアクセラレーター。
+ [`Efa`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa)/[`Enabled`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa-Enabled) が `true` に設定されている場合、EFA がサポートされます。
[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) に一覧表示されているインスタンスタイプには、次があります。  
+ さまざまな量のメモリ。

  この場合、最小メモリが使用可能な Slurm リソースとして設定されます。
**注記**  
 AWS ParallelCluster バージョン 3.7.0 以降では、インスタンスで複数のインスタンスタイプを設定すると、 [](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)を有効に`EnableMemoryBasedScheduling`できます。  
 AWS ParallelCluster バージョン 3.2.0 から 3.6.*x* では、インスタンスで[複数のインスタンスタイプを設定した場合、 ](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)を有効にする`EnableMemoryBasedScheduling`ことはできません。
+ さまざまなネットワークカード。

  この場合、コンピューティングリソースに設定されるネットワークインターフェイスの数は、ネットワークカードの数が最小のインスタンスタイプによって定義されます。
+ さまざまなネットワーク帯域幅。
+ さまざまなインスタンスストアのサイズ。
p4d または hpc6idインスタンスタイプ、または複数のネットワークインターフェイスまたはネットワークインターフェイスカードを持つ別のインスタンスタイプを定義する場合は、「」で説明されているように、プライベートサブネットでコンピューティングインスタンスを起動する必要があります[AWS ParallelCluster 2 つのサブネットの使用](network-configuration-v3-two-subnets.md)。 AWS パブリック IP は、単一のネットワークインターフェイスで起動されたインスタンスにのみ割り当てることができます。 IPs 詳細については、「Amazon EC2 Linux インスタンス用ユーザーガイド」の「[インスタンス起動時のパブリック IPv4 アドレスの割り当て](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses)」を参照してください。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)
`Instances` は AWS ParallelCluster バージョン 3.3.0 以降でサポートされています。

**`MinCount` (**オプション**、`Integer`)**  
Slurm コンピューティングリソースが使用するインスタンス数の最小値。デフォルトは 0 です。  
クラスターのサイズは、更新中に変わる場合があります。詳細については、「[クラスター容量のサイズと更新](slurm-workload-manager-v3.md)」を参照してください。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MaxCount` (**オプション**、`Integer`)**  
Slurm コンピューティングリソースが使用する最大インスタンス数。デフォルトは 10 です。  
を使用する場合`CapacityType = CAPACITY_BLOCK`、キャパシティブロック予約のすべてのインスタンスは静的ノードとして管理されるため、 は 0 `MinCount`以上`MaxCount`である必要があります。  
クラスターの作成時に、ヘッドノードはすべての静的ノードの準備が整うのを待ってから、クラスターの作成の成功を通知します。ただし、 を使用する場合`CapacityType = CAPACITY_BLOCK`、キャパシティブロックに関連付けられたコンピューティングリソースのノード部分は、このチェックでは考慮されません。クラスターは、設定したキャパシティブロックの一部がアクティブでない場合でも作成されます。  
クラスターのサイズは、更新中に変わる場合があります。詳細については、「[クラスター容量のサイズと更新](slurm-workload-manager-v3.md)」を参照してください。
 

**`DynamicNodePriority` (**オプション**、`Integer`)**  
キューコンピューティングリソースの動的ノードの優先度。優先度は、コンピューティングリソースの動的ノードの Slurm ノード [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight) 設定パラメータにマッピングされます。デフォルト値は `1000` です。  
Slurm は、最初に `Weight` 値が最も低いノードを優先します。  
Slurm パーティション (キュー) でさまざまな `Weight` 値を多く使用すると、キューのジョブスケジューリングのレートが遅くなる可能性があります。  
 AWS ParallelCluster バージョン 3.7.0 より前のバージョンでは、静的ノードと動的ノードの両方に同じデフォルトの重み が割り当てられていました`1`。この場合、静的および動的ノードの命名スキーマにより、Slurm はアイドル状態の静的ノードよりもアイドル状態の動的ノードを優先することがあります。他のすべてが等しい場合は、Slurm は名前のアルファベット順にノードをスケジュールします。
`DynamicNodePriority` バージョン 3.7.0 AWS ParallelCluster で が追加されました。
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`StaticNodePriority` (**オプション**、`Integer`)**  
キューコンピューティングリソースの静的ノードの優先度。優先度は、コンピューティングリソースの静的ノードの Slurm ノード [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight) 設定パラメータにマッピングされます。デフォルト値は `1` です。  
Slurm は、最初に `Weight` 値が最も低いノードを優先します。  
Slurm パーティション (キュー) でさまざまな `Weight` 値を多く使用すると、キューのジョブスケジューリングのレートが遅くなる可能性があります。
`StaticNodePriority` バージョン 3.7.0 AWS ParallelCluster で が追加されました。
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`SpotPrice` (**オプション**、`Float`)**  
任意のインスタンスの起動前に、EC2 スポットインスタンスに支払われる上限価格です。デフォルトの値はオンデマンドの料金です。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`DisableSimultaneousMultithreading` (**オプション**、`Boolean`)**  
`true` の場合、Slurm キューのノードでのマルチスレッドは無効になります。デフォルト値は `false` です。  
すべてのインスタンスタイプのマルチスレッドを無効にできるわけではありません。マルチスレッディングの無効化をサポートするインスタンスタイプの一覧については、「*Amazon EC2 ユーザーガイド*」の[インスタンスタイプ別の CPU コア数と CPU コアごとのスレッド数](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values)」を参照してください。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`SchedulableMemory` (**オプション**、`Integer`)**  
コンピューティングリソースのコンピューティングノードの Slurm パラメータ `RealMemory` で設定されるメモリの量 (MiB)。[`SlurmSettings`](#Scheduling-v3-SlurmSettings)/[`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling) が有効になっている場合、この値はジョブに使用できるノードのメモリの上限です。デフォルト値は、[Amazon EC2 インスタンスタイプ](https://aws.amazon.com/ec2/instance-types)に一覧表示され、Amazon EC2 API [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html) によって返されるメモリの 95% です。GiB で指定された値が MiB に変換されていることを確認してください。  
サポートされる値: `1-EC2Memory`  
`EC2Memory` は、[Amazon EC2 インスタンスタイプ](https://aws.amazon.com/ec2/instance-types)に一覧表示され、Amazon EC2 API [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html) によって返されるメモリ (MiB 単位) です。GiB で指定された値が MiB に変換されていることを確認してください。  
このオプションは、[`SlurmSettings`](#Scheduling-v3-SlurmSettings)/[`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling) が有効になっている場合、最も関連性が高くなります。詳細については、「[Slurm メモリベースのスケジューリング](slurm-mem-based-scheduling-v3.md)」を参照してください。  
`SchedulableMemory` は AWS ParallelCluster バージョン 3.2.0 からサポートされています。  
バージョン 3.2.0 以降、デフォルトでは、 Slurmはコンピューティングノード AWS ParallelCluster `RealMemory`を Amazon EC2 API によって返されるメモリの 95% に設定します`DescribeInstanceTypes`。この設定は `EnableMemoryBasedScheduling` の値とは無関係です。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks` (**オプション**)**  
コンピューティングリソースのヘルスチェックを指定します。    
`Gpu` (**オプション**)  
コンピューティングリソースの GPU ヘルスチェックを指定します。    
`Enabled` (**オプション**、`Boolean`)  
がキュー内のリソースを計算するために GPU ヘルスチェック AWS ParallelCluster を実行するかどうか。デフォルトは `false` です。  
AWS ParallelCluster は`HealthChecks`、ARM オペレーティングシステムを使用するノード`Gpu`で / `alinux2` をサポートしていません。これらのプラットフォームは [NVIDIA データセンター GPUマネージャー (DCGM)](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions) をサポートしていません。

**`Gpu` ヘルスチェックの動作**
+ / `Gpu` `Enabled`が に設定されている場合`true`、 はコンピューティングリソースに対してヘルス GPU ヘルスチェック AWS ParallelCluster を実行します。
+ `Gpu` ヘルスチェックはコンピューティングリソースでヘルスチェックを実行して、GPU のパフォーマンスが低下したノードでのジョブ送信を防止します。
+ コンピューティングノードが `Gpu` ヘルスチェックに失敗すると、コンピューティングノードのステータスは `DRAIN` に変わります。このノードで新しいジョブは開始されません。既存のジョブは完了まで実行されます。実行中のジョブがすべて完了すると、コンピューティングノードが動的ノードの場合は終了し、静的ノードの場合は置き換えられます。
+ `Gpu` ヘルスチェックの所要時間は、選択したインスタンスタイプ、インスタンスの GPU の数、および `Gpu` ヘルスチェックのターゲットの数 (ジョブ GPU ターゲットの数と同じ) によって異なります。8 つの GPU を持つインスタンスの場合、一般的な所要時間は 3 分未満です。
+ サポートされていないインスタンスで `Gpu` ヘルスチェックを実行すると終了し、ジョブはコンピューティングノードで実行されます。例えば、インスタンスが GPU を使用していない場合や、インスタンスが GPU を使用していても NVIDIA GPU ではない場合、ヘルスチェックは終了し、ジョブはコンピューティングノードで実行されます。NVIDIA GPU のみがサポートされています。
+ `Gpu` ヘルスチェックは、`dcgmi` ツールを使用してノードのヘルスチェックを実行し、次の手順を実行します。

  ノードで `Gpu` ヘルスチェックが開始される場合。

  1. `nvidia-dcgm` および `nvidia-fabricmanager` サービスが実行中かどうかを検出します。

  1. これらのサービスが実行されていない場合、`Gpu` ヘルスチェックによって開始されます。

  1. 永続化モードが有効になっているかどうかを検出します。

  1. 永続化モードが有効になっていない場合は、`Gpu` ヘルスチェックによって有効になります。

  ヘルスチェックの終了時に、`Gpu` ヘルスチェックはこれらのサービスとリソースの初期状態を復元します。
+ ジョブが特定のノード GPU セットに割り当てられている場合、`Gpu` ヘルスチェックはその特定のセットでのみ実行されます。それ以外の場合は、ノードのすべての GPU で `Gpu` ヘルスチェックが実行されます。
+ コンピューティングノードが同時に 2 つ以上の `Gpu` ヘルスチェックのリクエストを受け取った場合、最初のヘルスチェックのみが実行され、他はスキップされます。これは、ノード GPU をターゲットとするヘルスチェックにも当てはまります。この状況に関する追加情報については、ログファイルを確認できます。
+ 特定のコンピューティングノードのヘルスチェックログは `/var/log/parallelcluster/slurm_health_check.log` ファイルで使用可能です。このファイルは クラスター CloudWatch ロググループの Amazon CloudWatch で使用可能で、次があります。
  + サービスおよび永続化モードの有効化と無効化を含め、`Gpu` ヘルスチェックによって実行されたアクションの詳細。
  + GPU の識別子、シリアル ID、および UUID。
  + ヘルスチェックの出力。
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks` は AWS ParallelCluster バージョン 3.6.0 以降でサポートされています。

**`Efa` **(オプション)****  
Slurm キュー内のノードの EFA (Elastic Fabric Adapter) 設定を指定します。  

```
Efa:
  Enabled: boolean
  GdrSupport: boolean
```
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Enabled` (**オプション**、`Boolean`)**  
EFA (Elastic Fabric Adapter) が有効であることを指定します。EFA をサポートする Amazon EC2 インスタンスのリストを確認するには、「*Linux インスタンス用 Amazon EC2 ユーザーガイド*」の「[サポートされるインスタンスタイプ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types)」を参照してください。詳細については、「[Elastic Fabric Adapter](efa-v3.md)」を参照してください。クラスター [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) を使用して、インスタンス間のレイテンシーを最小限に抑えることをお勧めします。  
デフォルト値は `false` です。  
Elastic Fabric Adapter (EFA) は、異なるアベイラビリティーゾーン間ではサポートされていません。詳細については、「[SubnetIds](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds)」を参照してください。
[SecurityGroups](#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) でカスタムセキュリティグループを定義する場合、EFA 対応のインスタンスが、インバウンドおよびアウトバウンドのトラフィックをすべて許可するセキュリティグループのメンバーであることを確認してください。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`GdrSupport` (**オプション**、`Boolean`)**  
**(オプション)** AWS ParallelCluster バージョン 3.0.2 より、この設定は無効となりました。Elastic Fabric Adapter (EFA )による GPUDirect RDMA (リモートディレクトメモリアクセス) のサポートは、Slurm コンピューティングリソースのインスタンスタイプとオペレーティングシステムでサポートされていれば、常に有効です。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityReservationTarget`**  

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
コンピューティングリソースに使用するオンデマンドキャパシティ予約を指定します。    
**`CapacityReservationId` (**オプション**、`String`)**  
キューのコンピューティングリソースを対象とする既存のキャパシティ予約の ID。ID は、[ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) または [機械学習用のキャパシティブロック](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html)を参照できます。  
このパラメータをコンピューティングリソースレベルで指定する場合、InstanceType はオプションであり、予約から自動的に取得されます。  
**`CapacityReservationResourceGroupArn` (**オプション**、`String`)**  
コンピューティングリソースのキャパシティ予約のサービスリンクグループとして機能するリソースグループの Amazon リソースネーム (ARN) を示します。 AWS ParallelCluster は、グループから最も適切なキャパシティ予約を識別して使用します。リソースグループには、コンピューティングリソースに一覧表示されているインスタンスタイプごとに少なくとも 1 つの ODCR があることが必要です。詳細については、「[オンデマンドキャパシティ予約 (ODCR) を使用してインスタンスを起動する](launch-instances-odcr-v3.md)」を参照してください。  
+ `PlacementGroup` が [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/ [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)または [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) / で有効になっている場合[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)、 はインスタンスタイプをターゲットとするリソースグループ AWS ParallelCluster を選択し、存在する場合はコンピューティングリソース`PlacementGroup`を選択します。

  `PlacementGroup` は、[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) で定義されているインスタンスタイプの 1 つをターゲットにしている必要があります。
+ / [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)または [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) で が有効になってい`PlacementGroup`ない場合[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)、 はコンピューティングリソースのインスタンスタイプのみを対象とするリソースグループが存在する場合はそれ AWS ParallelCluster を選択します。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`CapacityReservationTarget` バージョン 3.3.0 で AWS ParallelCluster が追加されます。

**`Networking`**  

```
Networking:   
  PlacementGroup:
    Enabled: boolean
    Name: string
```
[更新ポリシー: マネージドプレースメントグループを削除するには、すべてのコンピューティングノードを停止する必要があります。この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`PlacementGroup` (**オプション**)**  
コンピューティングリソースの配置グループ設定を指定します。    
**`Enabled` (**オプション**、`Boolean`)**  
コンピューティングリソースに配置グループを使用するかどうかを示します。  
+ `Name` を定義せずに `true` に設定すると、そのコンピューティングリソースには [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) 設定に関係なく、独自のマネージドプレイスメントグループが割り当てられます。
+ `Name` を定義して `true` に設定すると、そのコンピューティングリソースには `SlurmQueues`/`Networking`/`PlacementGroup` 設定に関係なく、名前付きのプレイスメントグループが割り当てられます。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name` (**オプション**、`String`)**  
コンピューティングリソースに使用される既存のクラスタープレイスメントグループのプレースメントグループ名です。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ `PlacementGroup`/`Enabled` の両方と `Name` が設定されていない場合、それぞれの値はデフォルトで [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) 設定になります。
+ キャパシティブロック予約を使用する場合、キャパシティ予約に残りのキャパシティがある場合でも、予約外のプレイスメント制約が原因でキャパシティ不足エラーが発生する可能性があるため、プレイスメントグループの制約を設定しないでください。
+ `ComputeResources` /`Networking`/ `PlacementGroup`が AWS ParallelCluster バージョン 3.3.0 で追加されました。

**`CustomSlurmSettings` (**オプション**、`Dict`)**  
**(オプション)** カスタム Slurm ノード (コンピューティングリソース) の設定を定義します。  
Slurm ノード (コンピューティングリソース) に適用されるカスタム Slurm 設定パラメータのキーと値のペアのディクショナリを指定します。  
`Param1: Value1` などの各個別のキーと値のペアは、`Param1=Value1` の形式で Slurm ノードの設定行の最後に個別に追加されます。  
`CustomSlurmSettings` の拒否リストに記載されていない Slurm 設定パラメータのみ指定できます。拒否リストの Slurm 設定パラメータの詳細については、「[`CustomSlurmSettings` で拒否リストに記載されている Slurm 設定パラメータ](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)」を参照してください。  
AWS ParallelCluster は、パラメータが拒否リストにあるかどうかのみをチェックします。 AWS ParallelCluster はカスタムSlurm設定パラメータの構文またはセマンティクスを検証しません。カスタムSlurm設定パラメータを検証するのはユーザーの責任です。無効なカスタム Slurm 設定パラメータは、クラスターの作成や更新の失敗につながる Slurm デーモンの障害を引き起こす可能性があります。  
でカスタムSlurm設定パラメータを指定する方法の詳細については AWS ParallelCluster、「」を参照してください[Slurm 設定のカスタマイズ](slurm-configuration-settings-v3.md)。  
Slurm 設定パラメータに関する詳細については、「Slurm ドキュメント」の「[slurm.conf](https://slurm.schedmd.com/slurm.conf.html)」を参照してください。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings` は AWS ParallelCluster バージョン 3.6.0 からサポートされています。

**`Tags` (**オプション**、[文字列])**  
タグのキーと値のペアのリスト。`ComputeResource` タグは、[`Tags` セクション](Tags-v3.md) または [`SlurmQueues`](#yaml-Scheduling-SlurmQueues-Tags)/`Tags` で指定された重複するタグを上書きします。    
**`Key` (**オプション**、`String`)**  
タグキー。  
**`Value` (**オプション**、`String`)**  
タグ値。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LaunchTemplateOverrides` (**オプション**)**  
`LaunchTemplateOverrides` バージョン 3.15.0 で AWS ParallelCluster が追加されました。
がコンピューティングリソース用に AWS ParallelCluster 作成するデフォルトの起動テンプレートを上書きする起動テンプレートを指定します。起動テンプレートには、ネットワークインターフェイスの overrides のみを含める必要があります。起動テンプレート AWS ParallelCluster を検証し、他のパラメータの上書きを防止します。このオーバーライドの使用方法の詳細については、「」を参照してください[起動テンプレートの上書きを使用してコンピューティングノードのネットワークインターフェイスをカスタマイズする](tutorial-network-customization-v3.md)。  

```
LaunchTemplateOverrides:
  LaunchTemplateId: string
  Version: string
```  
**`LaunchTemplateId` **(必須)**、`String`)**  
起動テンプレートの ID。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Version` **(必須)**、`String`)**  
起動テンプレートのバージョン番号。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeSettings`
<a name="Scheduling-v3-SlurmQueues-ComputeSettings"></a>

**(必須)** Slurm キューの `ComputeSettings` 設定を定義します。

##### `ComputeSettings` のプロパティ
<a name="Scheduling-v3-SlurmQueues-ComputeSettings.properties"></a>

Slurm キュー内のノードの `ComputeSettings` のプロパティを指定します。

```
ComputeSettings:
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
     EphemeralVolume:
      MountDir: string
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LocalStorage` (**オプション**)**  
Slurm キュー内のノードの `LocalStorage` のプロパティを指定します。  

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
  EphemeralVolume:
    MountDir: string
```
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`RootVolume` (**オプション**)**  
Slurm キューのノードのルートボリュームの詳細を指定します。  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
```
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Size` (**オプション**、`Integer`)**  
Slurm キューのノードのルートボリュームサイズをギビバイト (GiB) で指定します。デフォルトのサイズは AMI から取得されます。異なるサイズを使用するには、AMI が `growroot` をサポートしている必要があります。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Encrypted` (**オプション**、`Boolean`)**  
`true` の場合、Slurm キューのノードのルートボリュームが暗号化されます。デフォルト値は `true` です。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`VolumeType` (**オプション**、`String`)**  
Slurm キュー内のノードの [Amazon EBS ボリュームタイプ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)を指定します。サポートされている値は `gp2`、`gp3`、`io1`、`io2`、`sc1`、`st1` および `standard` です。デフォルト値は `gp3` です。  
詳細については、「Amazon EC2 ユーザーガイド」の「[Amazon EBS ボリュームの種類](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)」を参照してください。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Iops` (**オプション**、`Boolean`)**  
`io1`、`io2` および `gp3` タイプボリュームの IOPS の数を定義します。  
デフォルト値、対応値、`volume_iops` 対 `volume_size` の比率は、`VolumeType` と `Size` で異なります。    
**`VolumeType` = `io1`**  
デフォルト `Iops` = 100  
サポートする値 `Iops` = 100 — 64000 †  
最大 `volume_iops`/`volume_size` 比率 ＝ 50 IOPS/GiB。5000 IOPS には、少なくとも 100 GiB の `volume_size` が必要です。  
**`VolumeType` = `io2`**  
デフォルト `Iops` = 100  
サポートする値 `Iops` = 100 — 64000 (`io2` Block Express ボリュームの場合は 256000) †  
最大 `Iops`/`Size` 比率 ＝ 500 IOPS/GiB。5000 IOPS には、少なくとも 10 GiB の `Size` が必要です。  
**`VolumeType` = `gp3`**  
デフォルト `Iops` = 3000  
サポートする値 `Iops` = 3,000–16,000 †  
IOPS が 3,000 を超えるボリュームの場合、`Size` に対する `Iops` の最大レート = GiB あたり 500 IOPS。
† 最大 IOPS は、32,000 IOPS 以上でプロビジョニングされ、[Nitro System で構築されたインスタンス](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances)にのみ保証されます。他のインスタンスは、最大 32,000 IOPS までです。[ボリュームを変更](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html)しない限り、以前の `io1` ボリュームはパフォーマンスが完全にはならないことがあります。`io2`Block Express ボリュームは、`R5b` インスタンスタイプで最大 256000 までの `volume_iops` 値をサポートします。詳細については、「*Amazon EC2 ユーザーガイド*」の「[`io2` Block Express ボリューム](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express)」を参照してください。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Throughput` (**オプション**、`Integer`)**  
`gp3` ボリュームタイプのスループットを MiB/秒で定義します。この設定は、`VolumeType` が `gp3` の場合のみ有効です。デフォルト値は `125` です。サポートされる値: 125 — 1000 MIB/秒  
`Throughput` と `Iops` の比率は 0.25 以下にします。最大のスループットである 1000 MiB/秒を実現するためには、`Iops` の設定を 4000 以上にする必要があります。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`EphemeralVolume` (**オプション**、`Boolean`)**  
エフェメラルボリュームの設定を指定します。エフェメラルボリュームは、すべてのインスタンスストアボリュームを、`ext4` ファイルシステムでフォーマットされた 1 つの論理ボリュームにまとめることで作成されます。デフォルトは `/scratch` です。インスタンスタイプにインスタンスストアボリュームがない場合、エフェメラルボリュームは作成されません。詳細については、「Amazon EC2 Linux インスタンス用ユーザーガイド」の「[インスタンスストアボリューム](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes)」を参照してください。  

```
EphemeralVolume:
  MountDir: string
```
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`MountDir` (**オプション**、`String`)**  
Slurm キューの各ノードのエフェメラルボリュームのマウントディレクトリ。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `CustomActions`
<a name="Scheduling-v3-SlurmQueues-CustomActions"></a>

**(Optional)** Slurm キュー内のノードで実行するカスタムスクリプトを指定します。

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `CustomActions` プロパティ
<a name="Scheduling-v3-SlurmQueues-CustomActions.properties"></a>

**`OnNodeStart` (**オプション**、`String`)**  
ノードデプロイのブートストラップアクションが開始される前に Slurm キューのノードで実行する一連のスクリプトまたは単一のスクリプトを指定します。 AWS ParallelCluster は、単一のスクリプトと同じカスタムアクション用の `Sequence` の両方を含めることはサポートしていません。詳細については、「[カスタムブートストラップアクション](custom-bootstrap-actions-v3.md)」を参照してください。    
**`Sequence` (**オプション**)**  
実行するスクリプトのリスト。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script` **(必須)**、`String`)**  
使用するファイル。ファイルパスは `https://` または `s3://` で始まる必要があります。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args` (**オプション**、`[String]`)**  
スクリプトに渡す引数のリスト。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script` **(必須)**、`String`)**  
単一のスクリプトに使用するファイル。ファイルパスは `https://` または `s3://` で始まる必要があります。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args` (**オプション**、`[String]`)**  
単一のスクリプトに渡す引数のリスト。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`OnNodeConfigured` (**オプション**、`String`)**  
ノードのブートストラップアクションが完了した後に Slurm キューのノードで実行する一連のスクリプトまたは単一のスクリプトを指定します。 AWS ParallelCluster は、単一のスクリプトと同じカスタムアクション用の `Sequence` の両方を含めることはサポートしていません。詳細については、「[カスタムブートストラップアクション](custom-bootstrap-actions-v3.md)」を参照してください。    
**`Sequence` (**オプション**)**  
実行するスクリプトのリスト。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script` **(必須)**、`String`)**  
使用するファイル。ファイルパスは `https://` または `s3://` で始まる必要があります。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args` (**オプション**、`[String]`)**  
スクリプトに渡す引数のリスト。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script` **(必須)**、`String`)**  
単一のスクリプトに使用するファイル。ファイルパスは `https://` または `s3://` で始まる必要があります。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args` (**オプション**、`[String]`)**  
単一のスクリプトに渡す引数のリスト。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、QueueUpdateStrategy が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`Sequence` バージョン 3.6.0 AWS ParallelCluster 以降で が追加されました。を指定すると`Sequence`、カスタムアクションの複数のスクリプトを一覧表示できます。 は、 を含めずに 1 つのスクリプトでカスタムアクションの設定をサポートするように AWS ParallelCluster 続行します`Sequence`。  
AWS ParallelCluster では、1 つのスクリプトと の両方を同じカスタムアクション`Sequence`に含めることはサポートされていません。

#### `Iam`
<a name="Scheduling-v3-SlurmQueues-Iam"></a>

**(オプション)** Slurm キューのオプションの IAM 設定を定義します。

```
Iam:
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
  InstanceProfile: string
  InstanceRole: string
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

##### `Iam` プロパティ
<a name="Scheduling-v3-SlurmQueues-Iam.properties"></a>

**`InstanceProfile` (**オプション**、`String`)**  
Slurm キューのデフォルトのインスタンスロールまたはインスタンスプロファイルをオーバーライドするインスタンスプロファイルを指定します。`InstanceProfile` および `InstanceRole` の両方を指定することはできません。形式は `arn:${Partition}:iam::${Account}:instance-profile/${InstanceProfileName}` です。  
これを指定すると、`S3Access` と `AdditionalIamPolicies` の設定を指定することはできません。  
 AWS ParallelCluster に追加された機能は新しいアクセス許可を必要とすることが多いため、`S3Access` と `AdditionalIamPolicies` の設定のいずれかまたは両方を指定することをお勧めします。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceRole` (**オプション**、`String`)**  
Slurm キューのデフォルトのインスタンスロールやインスタンスプロファイルを上書きするインスタンスロールを指定します。`InstanceProfile` および `InstanceRole` の両方を指定することはできません。形式は `arn:${Partition}:iam::${Account}:role/${RoleName}` です。  
これを指定すると、`S3Access` と `AdditionalIamPolicies` の設定を指定することはできません。  
 AWS ParallelCluster に追加された機能は新しいアクセス許可を必要とすることが多いため、`S3Access` と `AdditionalIamPolicies` の設定のいずれかまたは両方を指定することをお勧めします。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`S3Access` (**オプション**)**  
Slurm キューのバケットを指定します。これは、Slurm キューのバケットに指定されたアクセスを許可するポリシーを生成するために使用されます。  
これを指定すると、`InstanceProfile` と `InstanceRole` の設定を指定することはできません。  
 AWS ParallelCluster に追加された機能は新しいアクセス許可を必要とすることが多いため、`S3Access` と `AdditionalIamPolicies` の設定のいずれかまたは両方を指定することをお勧めします。  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`BucketName` **(必須)**、`String`)**  
バケットの名前。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`KeyName` (**オプション**、`String`)**  
バケットのキーです。デフォルト値は `*` です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`EnableWriteAccess` (**オプション**、`Boolean`)**  
バケットに対して書き込みアクセスが可能かどうかを示す。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalIamPolicies` (**オプション**)**  
Amazon EC2 の IAM ポリシーの Amazon リソースネーム (ARN) のリストを指定します。このリストは、 に必要なアクセス許可に加えて、Slurmキューに使用されるルートロールにアタッチされます AWS ParallelCluster。  
IAM ポリシー名とその ARN が異なります。名前を使用することはできません。  
これを指定すると、`InstanceProfile` と `InstanceRole` の設定を指定することはできません。  
 AWS ParallelCluster が必要とするパーミッションに `AdditionalIamPolicies` が追加され、`InstanceRole` には必要なパーミッションがすべて含まれている必要があるため、`AdditionalIamPolicies` を使用することをお勧めします。必要な権限は、機能が追加されるにつれ、リリースごとに変更されることがよくあります。  
デフォルト値はありません。  

```
AdditionalIamPolicies:
  - Policy: string
```
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`Policy` **(必須)**、`[String]`)**  
IAM ポリシーの一覧。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmSettings`
<a name="Scheduling-v3-SlurmSettings"></a>

**(オプション)** クラスター全体に適用される Slurm の設定を定義します。

```
SlurmSettings:
  ScaledownIdletime: integer
  QueueUpdateStrategy: string
  EnableMemoryBasedScheduling: boolean
  CustomSlurmSettings: [dict] 
  CustomSlurmSettingsIncludeFile: string
  Database:
    Uri: string
    UserName: string
    PasswordSecretArn: string
  ExternalSlurmdbd:
    Host: string
    Port: integer
  Dns:
    DisableManagedDns: boolean
    HostedZoneId: string
    UseEc2Hostnames: boolean
```

### `SlurmSettings` プロパティ
<a name="Scheduling-v3-SlurmSettings.properties"></a>

**`ScaledownIdletime` (**オプション**、`Integer`)**  
ジョブがなく、Slurm ノードが終了する時間 (分単位) を定義します。  
デフォルト値は `10` です。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MungeKeySecretArn` (**オプション**、`String`)**  
 Slurm クラスターで使用する base64 エンコードされた munge キーを含むプレーンテキスト Secrets Manager シー AWS クレットの Amazon リソースネーム (ARN)。この munge キーは、Slurm クライアントコマンドとリモートサーバーとして機能する Slurm デーモンとの間の RPC コールを認証するために使用します。MungeKeySecretArn が指定されていない場合、 AWS ParallelCluster はクラスターのランダムな munge キーを生成します。  
`MungeKeySecretArn` は AWS ParallelCluster バージョン 3.8.0 以降でサポートされています。
MungeKeySecretArn を既存のクラスターに新しく追加した場合、ロールバックしたり、後で MungeKeySecretArn を削除したりしたときに、ParallelCluster は以前の munge キーを復元しません。代わりに、新しいランダムな munge キーを生成します。
 AWS ParallelCluster ユーザーにその特定のシークレットリソースに対する [ DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html) のアクセス許可がある場合、MungeKeySecretArn が検証されます。MungeKeySecretArn は、以下の場合に有効です。  
+ 指定したシークレットが存在する。
+ シークレットはプレーンテキストで、base64 でエンコードされた有効な文字列を含んでいる。
+ デコードされたバイナリ munge キーのサイズが 256～8192 ビットである。
pcluster ユーザーの IAM ポリシーに DescribeSecret が含まれていない場合、MungeKeySecretArn は検証されず、警告メッセージが表示されます。詳細については、「[AWS ParallelCluster `pcluster` 基本ユーザーポリシー](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy)」を参照してください。  
MungeKeySecretArn を更新するときは、コンピューティングフリートとすべてのログインノードを停止する必要があります。  
シークレット ARN のシークレット値が変更されても ARN が同じままである場合、クラスターは新しい munge キーで自動的に更新されません。シークレット ARN の新しい munge キーを使用するには、コンピューティングフリートとログインノードを停止してから、次のコマンドをヘッドノードから実行する必要があります。  
`sudo /opt/parallelcluster/scripts/slurm/update_munge_key.sh`  
コマンドを実行すると、コンピューティングフリートとログインノードの両方を再開できます。新しくプロビジョニングされたコンピューティングノードとログインノードは自動的に新しい munge キーの使用を開始します。  
base64 でエンコードされたカスタム munge キーを生成するには、munge ソフトウェアと共に配布された [mungekey ユーティリティ](https://github.com/dun/munge/wiki/Man-8-mungekey)を使用し、OS で一般的に利用可能な base64 ユーティリティを使用してエンコードできます。または、bash を使用します (bs パラメータを 32～1024 に設定してください)。  
`dd if=/dev/random bs=128 count=1 2>/dev/null | base64 -w 0`  
あるいは、次のように Python を使用します。  

```
import random
import os
import base64

# key length in bytes
key_length=128

base64.b64encode(os.urandom(key_length)).decode("utf-8")
```
[更新ポリシー: この設定を更新のために変更するには、コンピューティングフリートとログインノードを停止する必要があります。](using-pcluster-update-cluster-v3.md)

**`QueueUpdateStrategy` (**オプション**、`String`)**  
次の更新ポリシーを持つ [`SlurmQueues`](#Scheduling-v3-SlurmQueues) セクションパラメータの置換戦略を指定します。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートが停止しているか、`QueueUpdateStrategy` が設定されている必要があります。](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`QueueUpdateStrategy` 値は、クラスター更新プロセスが開始するときにのみ使用されます。  
有効な値: `COMPUTE_FLEET_STOP` \$1 `DRAIN` \$1 `TERMINATE`  
デフォルト値: `COMPUTE_FLEET_STOP`    
**`DRAIN`**  
パラメータ値が変更されたキューのノードは `DRAINING` に設定されます。このステータスのノードは新しいジョブを受け入れず、実行中のジョブは継続し、完了します。  
ノードが `idle` (`DRAINED`) になった後、ノードが静的な場合はノードが置き換えられ、動的な場合は終了します。パラメータ値が変更されていない他のキューの他のノードは影響を受けません。  
この戦略でパラメータ値が変更されたキューノードをすべて置き換えるのに必要な時間は、実行中のワークロードによって異なります。  
**`COMPUTE_FLEET_STOP`**  
`QueueUpdateStrategy` パラメータのデフォルト値。この設定では、 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)セクションのパラメータを更新するには、クラスターの更新を実行する前に[コンピューティングフリートを停止](pcluster.update-compute-fleet-v3.md)する必要があります。  

```
$ pcluster update-compute-fleet --status STOP_REQUESTED
```  
**`TERMINATE`**  
パラメータ値が変更されたキューでは、実行中のジョブは終了し、ノードの電源はすぐにオフになります。  
静的ノードは置き換えられ、動的ノードは終了します。  
パラメータ値が変更されていない他のキューの他のノードは影響を受けません。
[更新ポリシー: この設定は、更新中には分析されません。](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)  
`QueueUpdateStrategy` は AWS ParallelCluster バージョン 3.2.0 からサポートされています。

**`EnableMemoryBasedScheduling` (**オプション**、`Boolean`)**  
`true` の場合、Slurm でメモリベースのスケジューリングが有効になります。詳細については、「[`SlurmQueues`](#Scheduling-v3-SlurmQueues)」/「[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)」/「[`SchedulableMemory`](#yaml-Scheduling-SlurmQueues-ComputeResources-SchedulableMemory)」を参照してください。  
デフォルト値は `false` です。  
メモリベースのスケジューリングを有効にすると、Slurm スケジューラがジョブとノードの割り当てを処理する方法に影響します。  
詳細については、「[Slurm メモリベースのスケジューリング](slurm-mem-based-scheduling-v3.md)」を参照してください。
`EnableMemoryBasedScheduling` は AWS ParallelCluster バージョン 3.2.0 からサポートされています。
 AWS ParallelCluster バージョン 3.7.0 以降では、インスタンスで[複数のインスタンスタイプを設定すると、 ](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)を有効に`EnableMemoryBasedScheduling`できます。  
 AWS ParallelCluster バージョン 3.2.0 から 3.6.*x* では、インスタンスで[複数のインスタンスタイプを設定した場合、 ](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)を有効にする`EnableMemoryBasedScheduling`ことはできません。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`CustomSlurmSettings` (**オプション**、`[Dict]`)**  
クラスター全体に適用されるカスタム Slurm 設定を定義します。  
 AWS ParallelCluster が生成する `slurm.conf` ファイルの末尾に追加するキーと値のペアの Slurm 設定ディクショナリのリストを指定します。  
リスト内の各ディクショナリは、Slurm 設定ファイルに追加される個別の行として表示されます。指定するパラメータはシンプルにすることも複雑にすることもできます  
次の例に示すように、シンプルなパラメータは 1 つのキーペアで構成されます。  

```
 - Param1: 100
 - Param2: "SubParam1,SubParam2=SubValue2"
```
Slurm 設定でレンダリングされた例。  

```
Param1=100
Param2=SubParam1,SubParam2=SubValue2
```
複雑な Slurm 設定パラメータは、次の例に示すように、スペースで区切られた複数のキーと値のペアで構成されます。  

```
 - NodeName: test-nodes[1-10]
   CPUs: 4
   RealMemory: 4196
   ... # other node settings
 - NodeSet: test-nodeset
   Nodes: test-nodes[1-10]
   ... # other nodeset settings
 - PartitionName: test-partition
   Nodes: test-nodeset
   ... # other partition settings
```
Slurm 設定でレンダリングされた例。  

```
NodeName=test-nodes[1-10] CPUs=4 RealMemory=4196 ... # other node settings
NodeSet=test-nodeset Nodes=test-nodes[1-10] ... # other nodeset settings
PartitionName=test-partition Nodes=test-nodeset ... # other partition settings
```
カスタム Slurm ノードの名前には、`-st-` または `-dy-` のパターンを含めないでください。これらのパターンは AWS ParallelClusterが管理するノードのために予約されています。
`CustomSlurmSettings` のカスタム Slurm 設定パラメータを指定する場合、`CustomSlurmSettingsIncludeFile` のカスタム Slurm 設定パラメータは指定できません。  
`CustomSlurmSettings` の拒否リストに記載されていない Slurm 設定パラメータのみ指定できます。拒否リストの Slurm 設定パラメータの詳細については、「[`CustomSlurmSettings` で拒否リストに記載されている Slurm 設定パラメータ](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)」を参照してください。  
AWS ParallelCluster は、パラメータが拒否リストにあるかどうかのみをチェックします。 AWS ParallelCluster はカスタムSlurm設定パラメータの構文またはセマンティクスを検証しません。カスタムSlurm設定パラメータを検証するのはユーザーの責任です。無効なカスタム Slurm 設定パラメータは、クラスターの作成や更新の失敗につながる Slurm デーモンの障害を引き起こす可能性があります。  
でカスタムSlurm設定パラメータを指定する方法の詳細については AWS ParallelCluster、「」を参照してください[Slurm 設定のカスタマイズ](slurm-configuration-settings-v3.md)。  
Slurm 設定パラメータに関する詳細については、「Slurm ドキュメント」の「[slurm.conf](https://slurm.schedmd.com/slurm.conf.html)」を参照してください。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings` は AWS ParallelCluster バージョン 3.6.0 からサポートされています。

**`CustomSlurmSettingsIncludeFile` (**オプション**、`String`)**  
クラスター全体に適用されるカスタム Slurm 設定を定義します。  
 AWS ParallelCluster が生成する `slurm.conf` ファイルの末尾に追加するカスタム Slurm 設定パラメータで構成されるカスタム Slurm ファイルを指定します。  
ファイルへのパスを含める必要があります。パスは `https://` または `s3://` で始まる必要があります。  
`CustomSlurmSettingsIncludeFile` のカスタム Slurm 設定パラメータを指定する場合、`CustomSlurmSettings` のカスタム Slurm 設定パラメータは指定できません。  
カスタム Slurm ノードの名前には、`-st-` または `-dy-` のパターンを含めないでください。これらのパターンは AWS ParallelClusterが管理するノードのために予約されています。
`CustomSlurmSettingsIncludeFile` の拒否リストに記載されていない Slurm 設定パラメータのみ指定できます。拒否リストの Slurm 設定パラメータの詳細については、「[`CustomSlurmSettings` で拒否リストに記載されている Slurm 設定パラメータ](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)」を参照してください。  
AWS ParallelCluster は、パラメータが拒否リストにあるかどうかのみをチェックします。 AWS ParallelCluster はカスタムSlurm設定パラメータの構文またはセマンティクスを検証しません。カスタムSlurm設定パラメータを検証するのはユーザーの責任です。無効なカスタム Slurm 設定パラメータは、クラスターの作成や更新の失敗につながる Slurm デーモンの障害を引き起こす可能性があります。  
でカスタムSlurm設定パラメータを指定する方法の詳細については AWS ParallelCluster、「」を参照してください[Slurm 設定のカスタマイズ](slurm-configuration-settings-v3.md)。  
Slurm 設定パラメータに関する詳細については、「Slurm ドキュメント」の「[slurm.conf](https://slurm.schedmd.com/slurm.conf.html)」を参照してください。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings` は AWS ParallelCluster バージョン 3.6.0 からサポートされています。

### `Database`
<a name="Scheduling-v3-SlurmSettings-Database"></a>

**(オプション)** クラスターの Slurm アカウンティングを有効にする設定を定義します。詳細については、「[Slurm による アカウンティング AWS ParallelCluster](slurm-accounting-v3.md)」を参照してください。

```
Database:
   Uri: string
   UserName: string
   PasswordSecretArn: string
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### `Database` のプロパティ
<a name="Scheduling-v3-SlurmSettings-Database.properties"></a>

**`Uri` **(必須)**、`String`)**  
Slurm アカウンティングのバックエンドとして使用されるデータベースサーバーのアドレス。この URI は `host:port` の形式である必要があり、`mysql://` などのスキームを含めないでください。ホストは IP アドレス、またはヘッドノードにより解決される DNS 名のいずれかです。ポートが指定されていない場合は、 AWS ParallelCluster は MySQL のデフォルトのポート 3306 を使用します。  
AWS ParallelCluster はアSlurmカウンティングデータベースをクラスターにブートストラップし、データベースにアクセスする必要があります。  
データベースは、次が発生する前にアクセスできる必要があります。  
+ クラスターが作成される。
+ クラスターの更新により Slurm アカウンティングが有効になる。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`UserName` **(必須)**、`String`)**  
データベースへの接続、アカウンティングログの書き込み、およびクエリの実行に Slurm が使用する ID。ユーザーは、データベースに対する読み込みと書き込みの両方のアクセス許可を持っている必要があります。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`PasswordSecretArn` **(必須)**、`String`)**  
プレーンテキストのパスワードを含む AWS Secrets Manager シークレットの Amazon `UserName` リソースネーム (ARN)。このパスワードは、データベースサーバーでの認証のために `UserName` および Slurm アカウンティングと共に使用されます。  
+  AWS Secrets Manager コンソールを使用してシークレットを作成する場合は、「その他のタイプのシークレット」を選択し、プレーンテキストを選択し、パスワードテキストのみをシークレットに含めます。
+ Slurm は slurmdbd.conf でサポートしていないため、データベースパスワードに「\$1」文字を使用することはできません。
+  AWS Secrets Manager を使用してシークレットを作成する方法の詳細については、「 シーク[AWS Secrets Manager レットの作成](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret)」を参照してください。
ユーザーに [DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html) のアクセス許可がある場合、`PasswordSecretArn` が検証されます。指定したシークレットが存在する場合、`PasswordSecretArn` は有効です。ユーザーの IAM ポリシーに `DescribeSecret` が含まれていない場合、`PasswordSecretArn` は検証されず、警告メッセージが表示されます。詳細については、「[AWS ParallelCluster `pcluster` 基本ユーザーポリシー](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy)」を参照してください。  
`PasswordSecretArn` を更新するとき、コンピューティングフリートを停止する必要があります。シークレットの値が変更され、シークレット ARN が変更されていない場合、自動的に新しいデータベースパスワードでクラスターが更新されることはありません。クラスターを新しいシークレット値に更新するには、コンピューティングフリートを停止した後、ヘッドノードから次のコマンドを実行します。  

```
$ sudo /opt/parallelcluster/scripts/slurm/update_slurm_database_password.sh
```
アカウンティングデータの損失を回避するため、コンピューティングフリートが停止している場合にのみデータベースパスワードを変更することをお勧めします。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`DatabaseName` (**オプション**、`String`)**  
Slurm アカウンティングに使用するデータベースサーバー上のデータベースの名前 (Uri パラメータで定義)。  
データベース名には小文字、数字、アンダースコアを使用できます。名前は 64 文字以下にする必要があります。  
このパラメータは、[slurmdbd.conf](https://slurm.schedmd.com/slurmdbd.conf.html#OPT_StorageLoc) の `StorageLoc` パラメータにマッピングされます。  
`DatabaseName` を指定しない場合、ParallelCluster はクラスター名を使用して `StorageLoc` の値を定義します。  
`DatabaseName` の更新は、以下の考慮事項に基づいて許可されます。  
+ DatabaseName という名前のデータベースがデータベースサーバーにまだ存在しない場合は、slurmdbd によって作成されます。必要に応じて新しいデータベースを再設定する (例: クラスター、アカウント、ユーザー、関連付け、QOS などのアカウンティングエンティティを追加する) のはユーザーの責任です。
+ DatabaseName という名前のデータベースがデータベースサーバーに既に存在する場合、slurmdbd はそれを Slurm アカウンティング機能に使用します。
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**注記**  
リリース 3.3.0 以降、`Database` が追加されます。

### ExternalSlurmdbd
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd"></a>

**(オプション)** 外部 slurmdbd サーバーで Slurm アカウンティングを有効にするための設定を定義します。詳細については、[Slurm「 でのアカウンティング AWS ParallelCluster](slurm-accounting-v3.md)」を参照してください。

```
ExternalSlurmdbd:
  Host: string
  Port: integer
```

#### `ExternalSlurmdbd` のプロパティ
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd.properties"></a>

** `Host` (**必須**、`String`)**  
Slurm アカウンティング用の外部 slurmdbd サーバーへのアドレス。ホストは IP アドレス、またはヘッドノードにより解決される DNS 名のいずれかです。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

** `Port` (**オプション**、`Integer`)**  
slurmdbd サービスがリッスンするポート。デフォルト値は `6819` です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Dns`
<a name="Scheduling-v3-SlurmSettings-Dns"></a>

**(オプション)** クラスター全体に適用される Slurm の設定を定義します。

```
Dns:
  DisableManagedDns: boolean
  HostedZoneId: string
  UseEc2Hostnames: boolean
```

#### `Dns` のプロパティ
<a name="Scheduling-v3-SlurmSettings-Dns.properties"></a>

**`DisableManagedDns` (**オプション**、`Boolean`)**  
`true` の場合、クラスターの DNS エントリは作成されず、Slurm ノード名は解決できません。  
デフォルトでは、 は起動時にノードが登録される Route 53 ホストゾーン AWS ParallelCluster を作成します。デフォルト値は `false` です。`DisableManagedDns` が に設定されている場合`true`、ホストゾーンは によって作成されません AWS ParallelCluster。  
この設定を使用してインターネットにアクセスできないサブネットにクラスターをデプロイする方法については、「[AWS ParallelCluster インターネットアクセスのない 1 つのサブネット内](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md)」を参照してください。  
クラスターが正常に動作するためには、名前解決システムが必要です。`DisableManagedDns` を `true` に設定した場合、名前解決システムを指定する必要があります。Amazon EC2 のデフォルト DNS を使用するには、`UseEc2Hostnames` を `true` に設定します。または、独自の DNS リゾルバーを設定し、インスタンスの起動時に確実にノード名が登録されるようにしてください。例えば、[`CustomActions`](#Scheduling-v3-SlurmQueues-CustomActions)/[`OnNodeStart`](#yaml-Scheduling-SlurmQueues-CustomActions-OnNodeStart) を設定することにより、これを行うことができます。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`HostedZoneId` (**オプション**、`String`)**  
クラスターの DNS 名前解決に使用するカスタム Route 53 ホストゾーン ID を定義します。指定した場合、 は指定されたホストゾーンにクラスターノード AWS ParallelCluster を登録し、マネージドホストゾーンを作成しません。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`UseEc2Hostnames` (**オプション**、`Boolean`)**  
`true` の場合、クラスターコンピューティングノードはデフォルトの EC2 ホスト名を使用して設定されます。Slurm `NodeHostName` もこの情報で更新されます。デフォルトは `false` です。  
この設定を使用してインターネットにアクセスできないサブネットにクラスターをデプロイする方法については、「[AWS ParallelCluster インターネットアクセスのない 1 つのサブネット内](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md)」を参照してください。  
**この注記は、 AWS ParallelCluster バージョン 3.3.0 以降は関係ありません。**  
3.3.0 より前の AWS ParallelCluster サポートされているバージョンの場合:  
`UseEc2Hostnames` が に設定されている場合`true`、Slurm 設定ファイルは AWS ParallelCluster `prolog`および `epilog`スクリプトで設定されます。  
+ `prolog` が実行されると、各ジョブが割り当てられるときにコンピューティングノードの `/etc/hosts` にノード情報が追加されます。
+ `epilog` が実行されると、`prolog` によって書き込まれた内容がクリーンアップされます。
カスタム `prolog` または `epilog` スクリプトを追加するには、`/opt/slurm/etc/pcluster/prolog.d/` または `/opt/slurm/etc/pcluster/epilog.d/` フォルダにそれぞれ追加します。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `SharedStorage` セクション
<a name="SharedStorage-v3"></a>

**(オプション)** クラスターの共有ストレージの設定。

AWS ParallelCluster は、[Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AmazonEBS.html)、[FSx for ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/what-is-fsx-ontap.html)、[FSx for OpenZFS ](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/what-is-fsx.html)共有ストレージボリューム、[Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/whatisefs.html) および [FSx for Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html) 共有ストレージファイルシステム、または[ファイルキャッシュ](https://docs.aws.amazon.com/fsx/latest/FileCacheGuide/what-is.html)の使用をサポートしています。

`SharedStorage` セクションで、外部ストレージまたはマネージドストレージのいずれかを定義できます。
+ **外部ストレージ**とは、ユーザーが管理する既存のボリュームまたはファイルシステムを指します。 AWS ParallelCluster は作成も削除もしません。
+ **AWS ParallelCluster マネージドストレージ**とは、 が AWS ParallelCluster 作成し、削除できるボリュームまたはファイルシステムを指します。

[共有ストレージクォータ](shared-storage-quotas-v3.md)および共有ストレージの設定方法の詳細については、[共有ストレージ](shared-storage-quotas-integration-v3.md)*「 の使用 AWS ParallelCluster*」の「」を参照してください。

**注記**  
 AWS Batch がスケジューラとして使用されている場合、FSx for Lustre はクラスターヘッドノードでのみ使用できます。

```
SharedStorage:
  - MountDir: string
    Name: string
    StorageType: Ebs
    EbsSettings:
      VolumeType: string
      Iops: integer
      Size: integer
      Encrypted: boolean
      KmsKeyId: string
      SnapshotId: string
      Throughput: integer
      VolumeId: string
      DeletionPolicy: string
      Raid:
        Type: string
        NumberOfVolumes: integer
  - MountDir: string
    Name: string
    StorageType: Efs
    EfsSettings:
      Encrypted: boolean
      KmsKeyId: string
      EncryptionInTransit: boolean
      IamAuthorization: boolean
      PerformanceMode: string
      ThroughputMode: string
      ProvisionedThroughput: integer
      FileSystemId: string
      DeletionPolicy: string
      AccessPointId: string
  - MountDir: string
    Name: string
    StorageType: FsxLustre
    FsxLustreSettings:
      StorageCapacity: integer
      DeploymentType: string
      ImportedFileChunkSize: integer
      DataCompressionType: string
      ExportPath: string
      ImportPath: string
      WeeklyMaintenanceStartTime: string
      AutomaticBackupRetentionDays: integer
      CopyTagsToBackups: boolean
      DailyAutomaticBackupStartTime: string
      PerUnitStorageThroughput: integer
      BackupId: string
      KmsKeyId: string
      FileSystemId: string
      AutoImportPolicy: string
      DriveCacheType: string
      StorageType: string
      DeletionPolicy: string
      DataRepositoryAssociations:
      - Name: string
        BatchImportMetaDataOnCreate: boolean
        DataRepositoryPath: string
        FileSystemPath: string
        ImportedFileChunkSize: integer
        AutoExportPolicy: string
        AutoImportPolicy: string
  - MountDir: string
    Name: string
    StorageType: FsxOntap
    FsxOntapSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FsxOpenZfs
    FsxOpenZfsSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FileCache
    FileCacheSettings:
      FileCacheId: string
```

## `SharedStorage` 更新ポリシー
<a name="SharedStorage-v3.update-policies"></a>
+ マネージド/外部 EBS、マネージド EFS、マネージド FSx Lustre の場合、更新ポリシーは [更新ポリシー: このリスト値の設定では、コンピューティングフリートを停止するか、QueueUpdateStrategy が設定されている必要があります。既存の値を削除する場合は、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3) です。
+ 外部 EFS、FSx Lustre、FSx ONTAP、FSx OpenZfs、File Cache の場合、更新ポリシーは [更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3) です。

## `SharedStorage` のプロパティ
<a name="SharedStorage-v3.properties"></a>

`MountDir` **(必須)**、`String`)  
共有ストレージがマウントされているパス。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Name` **(必須)**、`String`)  
共有ストレージの名前。この名前は設定を更新するときに使用します。  
 AWS ParallelCluster マネージド共有ストレージを指定し、 の値を変更すると`Name`、既存のマネージド共有ストレージとデータは削除され、新しいマネージド共有ストレージが作成されます。クラスターの更新で `Name` の値を変更することは、既存のマネージド共有ストレージを新しいマネージド共有ストレージに置き換えることと同等です。既存の共有ストレージからデータを保持する必要がある場合`Name`は、変更する前に必ずデータをバックアップしてください。
[更新ポリシー: このリスト値の設定では、コンピューティングフリートを停止するか、QueueUpdateStrategy が設定されている必要があります。既存の値を削除する場合は、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)

`StorageType` **(必須)**、`String`)  
共有ストレージのタイプ。サポートされている値は、`Ebs`、`Efs`、`FsxLustre`、`FsxOntap`、および `FsxOpenZfs` です。  
詳細については、「[`FsxLustreSettings`](#SharedStorage-v3-FsxLustreSettings)」、「[`FsxOntapSettings`](#SharedStorage-v3-FsxOntapSettings)」、および「[`FsxOpenZfsSettings`](#SharedStorage-v3-FsxOpenZfsSettings)」を参照してください。  
スケジューラ AWS Batch として を使用する場合、FSx for Lustre はクラスターヘッドノードでのみ使用できます。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EbsSettings`
<a name="SharedStorage-v3-EbsSettings"></a>

**(オプション)** Amazon EBS ボリュームの設定。

```
EbsSettings:
  VolumeType: string
  Iops: integer
  Size: integer
  Encrypted: boolean
  KmsKeyId: string
  SnapshotId: string
  VolumeId: string
  Throughput: integer
  DeletionPolicy: string
  Raid:
    Type: string
    NumberOfVolumes: integer
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `EbsSettings` のプロパティ
<a name="SharedStorage-v3-EbsSettings.properties"></a>

[DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy) が `Delete` に設定されている場合、クラスターが削除されたり、クラスターの更新によってボリュームが削除されたりした場合、マネージドボリュームはそのデータと共に削除されます。

詳細については、「 AWS ParallelClusterの使用**」の「[共有ストレージ](shared-storage-quotas-integration-v3.md)」を参照してください。

`VolumeType` (**オプション**、`String`)  
[Amazon EBS ボリュームタイプ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)を指定します。サポートされている値は `gp2`、`gp3`、`io1`、`io2`、`sc1`、`st1` および `standard` です。デフォルト値は `gp3` です。  
詳細については、「Amazon EC2 ユーザーガイド」の「[Amazon EBS ボリュームの種類](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)」を参照してください。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Iops` (**オプション**、`Integer`)  
`io1`、`io2` および `gp3` タイプボリュームの IOPS の数を定義します。  
デフォルト値、対応値、`volume_iops` 対 `volume_size` の比率は、`VolumeType` と `Size` で異なります。    
`VolumeType` = `io1`  
デフォルト `Iops` = 100  
サポートする値 `Iops` = 100 — 64000 †  
最大 `volume_iops`/`volume_size` 比率 ＝ 50 IOPS/GiB。5000 IOPS には、少なくとも 100 GiB の `volume_size` が必要です。  
`VolumeType` = `io2`  
デフォルト `Iops` = 100  
サポートする値 `Iops` = 100 — 64000 (`io2` Block Express ボリュームの場合は 256000) †  
最大 `Iops`/`Size` 比率 ＝ 500 IOPS/GiB。5000 IOPS には、少なくとも 10 GiB の `Size` が必要です。  
`VolumeType` = `gp3`  
デフォルト `Iops` = 3000  
サポートされる値 `Iops` = 3000 — 16000  
最大 `Iops`/`Size` 比率 ＝ 500 IOPS/GiB。5000 IOPS には、少なくとも 10 GiB の `Size` が必要です。
† 最大 IOPS は、32,000 IOPS 以上でプロビジョニングされた [Nitro System で構築されたインスタンス](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances)にのみ保証されます。他のインスタンスは、最大 32,000 IOPS を保証します。[ボリュームを変更](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html)しない限り、以前の `io1` ボリュームはパフォーマンスが完全にはならないことがあります。`io2`Block Express ボリュームは、`R5b` インスタンスタイプで最大 256000 までの `volume_iops` 値をサポートします。詳細については、「*Amazon EC2 ユーザーガイド*」の「[`io2` Block Express ボリューム](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express)」を参照してください。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Size` (**オプション**、`Integer`)  
ボリュームのサイズをギビバイト (GiB) で指定します。デフォルト値は 35 です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Encrypted` (**オプション**、`Boolean`)  
ボリュームを暗号化するかどうかを指定します。デフォルト値は `true` です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId` (**オプション**、`String`)  
暗号化に使用するカスタム AWS KMS キーを指定します。この設定は、`Encrypted` の設定を `true` にすることが必要です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SnapshotId` (**オプション**、`String`)  
ボリュームのソースとしてスナップショットを使用する場合は、Amazon EBS スナップショット ID を指定します。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`VolumeId` (**オプション**、`String`)  
Amazon EBS ボリューム ID を指定します。`EbsSettings` インスタンスに指定した場合、`MountDir` パラメータのみを指定することも可能です。  
`HeadNode` として同じアベイラビリティーゾーンにボリュームを作成する必要があります。  
 AWS ParallelCluster バージョン 3.4.0 に複数のアベイラビリティーゾーンが追加されました。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Throughput` (**オプション**、`Integer`)  
ボリュームにプロビジョニングするスループットを MiB/秒で表したもので、最大 1,000 MiB/秒です。  
この設定は、`VolumeType` が `gp3` の場合のみ有効です。サポートされている範囲は 125～1000 で、デフォルト値は 125 です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DeletionPolicy` (**オプション**、`String`)  
クラスターの削除またはボリュームの削除時にボリュームを保持、削除、またはスナップショットするかどうかを指定します。サポートされる値は `Delete`、`Retain` および `Snapshot` です。デフォルト値は `Delete` です。  
[DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy) が `Delete` に設定されている場合、クラスターが削除されたり、クラスターの更新によってボリュームが削除されたりした場合、マネージドボリュームはそのデータと共に削除されます。  
詳細については、「[共有ストレージ](shared-storage-quotas-integration-v3.md)」を参照してください。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy` は AWS ParallelCluster バージョン 3.2.0 以降でサポートされています。

### `Raid`
<a name="SharedStorage-v3-EbsSettings-Raid"></a>

**(オプション)** RAID ボリュームの設定を定義します。

```
Raid:
  Type: string
  NumberOfVolumes: integer
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

#### `Raid` のプロパティ
<a name="SharedStorage-v3-EbsSettings-Raid.properties"></a>

`Type` **(必須)**、`String`)  
RAID 配列のタイプを定義します。サポートされている値は「0」(ストライピング) および「1」(ミラーリング) です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`NumberOfVolumes` (**オプション**、`Integer`)  
RAID　配列の作成に使用する Amazon EBS ボリュームの数を定義します。設定可能な値の範囲は 2～5 です。デフォルト値 (`Raid`設定が定義されている場合) は 2 です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EfsSettings`
<a name="SharedStorage-v3-EfsSettings"></a>

**(オプション)** Amazon EFS ファイルシステムの設定です。

```
EfsSettings:
  Encrypted: boolean
  KmsKeyId: string
  EncryptionInTransit: boolean
  IamAuthorization: boolean
  PerformanceMode: string
  ThroughputMode: string
  ProvisionedThroughput: integer
  FileSystemId: string
  DeletionPolicy: string
  AccessPointId: string
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `EfsSettings` のプロパティ
<a name="SharedStorage-v3-EfsSettings.properties"></a>

[DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy) が `Delete` に設定されている場合、クラスターが削除されたり、クラスターの更新によってファイルシステムが削除されたりした場合、マネージドボリュームはそのデータと共に削除されます。

詳細については、「 AWS ParallelClusterの使用**」の「[共有ストレージ](shared-storage-quotas-integration-v3.md)」を参照してください。

`Encrypted` (**オプション**、`Boolean`)  
Amazon EFS ファイルシステムを暗号化するかどうかを指定します。デフォルト値は `false` です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId` (**オプション**、`String`)  
暗号化に使用するカスタム AWS KMS キーを指定します。この設定は、`Encrypted` の設定を `true` にすることが必要です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EncryptionInTransit` (**オプション**、`Boolean`)  
`true` に設定した場合、Amazon EFS ファイルシステムは Transport Layer Security (TLS) を使用してマウントされます。デフォルトで、これは `false` に設定されます。  
 AWS Batch がスケジューラとして使用されている場合、 `EncryptionInTransit`はサポートされていません。
 AWS ParallelCluster バージョン 3.4.0 以降、`EncryptionInTransit` が追加されます。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`IamAuthorization` (**オプション**、`Boolean`)  
`IamAuthorization` バージョン 3.4.0 AWS ParallelCluster 以降で が追加されました。  
`true` に設定すると、Amazon EFS はシステムの IAM ID を使用して認証されます。デフォルトで、これは `false` に設定されます。  
`IamAuthorization` が `true` に設定されている場合は `EncryptionInTransit` も `true` に設定する必要があります。
 AWS Batch がスケジューラとして使用されている場合、 `IamAuthorization`はサポートされていません。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`PerformanceMode` (**オプション**、`String`)  
Amazon EFS ファイルシステムのパフォーマンスモードを指定します。サポートされている値は`generalPurpose` および `maxIO` です。デフォルト値は `generalPurpose` です。詳細については、「Amazon Elastic File System ユーザーガイド**」の「[パフォーマンスモード](https://docs.aws.amazon.com/efs/latest/ug/performance.html#performancemodes)」を参照してください。  
ほとんどのファイルシステムに `generalPurpose` パフォーマンスモードをお勧めします。  
`maxIO` パフォーマンスモードを使用するファイルシステムでは、集計スループットと 1 秒あたりのオペレーション数をより高いレベルにスケーリングできます。ただし、ほとんどのファイルオペレーションでは、レイテンシーがわずかに長くなるというトレードオフがあります。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ThroughputMode` (**オプション**、`String`)  
Amazon EFS ファイルシステムのスループットモードを指定します。サポートされている値は`bursting` および `provisioned` です。デフォルト値は `bursting` です。`provisioned` を使用する場合は、`ProvisionedThroughput` を指定する必要があります。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ProvisionedThroughput` (`ThroughputMode` が `provisioned` または `Integer` の場合、**必須**)  
Amazon EFS ファイルシステムのプロビジョニングされたスループット (MiB/秒) を定義します (測定単位は MiB/秒)。これは、「Amazon EFS API Reference**」(Amazon EFS API リファレンス) の [ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps) パラメータに対応しています。  
このパラメータを使用する場合は、`ThroughputMode` を `provisioned` に設定する必要があります。  
対応する範囲は `1`～`1024` です。制限の引き上げをリクエストするには、 サポートにお問い合わせください。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`FileSystemId` (**オプション**、`String`)  
既存のファイルシステムの Amazon EFS ファイルシステム ID を定義します。  
クラスターが複数のアベイラビリティーゾーンにまたがるように設定されている場合、クラスターが使用するアベイラビリティーゾーンごとにファイルシステムのマウントターゲットを定義する必要があります。  
これが指定されている場合、`MountDir` のみ指定できます。それ以外の `EfsSettings` は指定できません。  

**このオプションを設定する場合、定義するファイルシステムについて次の条件に一致している必要があります。**
+ ファイルシステムには、クラスターのアベイラビリティーゾーンに既存のマウントターゲットがあり、`HeadNode` と `ComputeNodes` からのインバウンドおよびアウトバウンドの NFS トラフィックが許可されています。[Scheduling](Scheduling-v3.md)/[SlurmQueues](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[Networking](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[SubnetIds](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SubnetIds) で複数のアベイラビリティーゾーンが設定されます。

  

**クラスターとファイルシステムの間でトラフィックが許可されていることを確認するために、次のいずれかを実行できます。**
  + クラスターサブネットの CIDR またはプレフィックスリストとの間のトラフィックを許可するように、マウントターゲットのセキュリティグループを設定します。
**注記**  
AWS ParallelCluster は、ポートが開いていること、および CIDR またはプレフィックスリストが設定されていることを検証します。CIDR AWS ParallelCluster ブロックまたはプレフィックスリストの内容を検証しません。
  + [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) と [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups) を使用して、クラスターノードのカスタムセキュリティグループを設定します。カスタムセキュリティグループを設定して、クラスターとファイルシステムの間のトラフィックを許可する必要があります。
**注記**  
すべてのクラスターノードがカスタムセキュリティグループを使用している場合、 はポートが開いていること AWS ParallelCluster のみを検証します。送信元と送信先が正しく設定されていることは検証 AWS ParallelCluster しません。
EFS OneZone は、すべてのコンピューティングノードとヘッドノードが同じアベイラビリティーゾーンにある場合にのみサポートされます。EFS OneZone にはマウントターゲットを 1 つだけ設定できます。
 AWS ParallelCluster バージョン 3.4.0 では、複数のアベイラビリティーゾーンが追加されています。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy` (**オプション**、`String`)  
ファイルシステムがクラスターから削除されるか、クラスターが削除されたときに、ファイルシステムを保持または削除するかを指定します。サポートされる値は `Delete` と `Retain` です。デフォルト値は `Delete` です。  
[DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy) が `Delete` に設定されている場合、クラスターが削除されたり、クラスターの更新によってファイルシステムが削除されたりした場合、マネージドボリュームはそのデータと共に削除されます。  
詳細については、「[共有ストレージ](shared-storage-quotas-integration-v3.md)」を参照してください。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy` は AWS ParallelCluster バージョン 3.3.0 以降でサポートされています。

`AccessPointId` (**オプション**、`String`)  
このオプションを指定すると、ファイルシステムのルートではなく、`access point ID` で定義したファイルシステムのエントリポイントがマウントされます。  
詳細については、「[共有ストレージ](shared-storage-quotas-integration-v3.md)」を参照してください。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxLustreSettings`
<a name="SharedStorage-v3-FsxLustreSettings"></a>

**注記**  
`FsxLustre` が [`StorageType`](#yaml-SharedStorage-StorageType) に指定されている場合、`FsxLustreSettings` を定義する必要があります。

**(オプション)** FSx for Lustre ファイルシステムの設定。

```
FsxLustreSettings:
  StorageCapacity: integer
  DeploymentType: string
  ImportedFileChunkSize: integer
  DataCompressionType: string
  ExportPath: string
  ImportPath: string
  WeeklyMaintenanceStartTime: string
  AutomaticBackupRetentionDays: integer
  CopyTagsToBackups: boolean
  DailyAutomaticBackupStartTime: string
  PerUnitStorageThroughput: integer
  BackupId: string # BackupId cannot coexist with some of the fields
  KmsKeyId: string
  FileSystemId: string # FileSystemId cannot coexist with other fields
  AutoImportPolicy: string
  DriveCacheType: string
  StorageType: string
  DeletionPolicy: string
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**注記**  
 AWS Batch がスケジューラとして使用されている場合、FSx for Lustre はクラスターヘッドノードでのみ使用できます。

### `FsxLustreSettings` のプロパティ
<a name="SharedStorage-v3-FsxLustreSettings.properties"></a>

[DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy) が `Delete` に設定されている場合、クラスターが削除されたり、クラスターの更新によってファイルシステムが削除されたりした場合、マネージドボリュームはそのデータと共に削除されます。

詳細については、「[共有ストレージ](shared-storage-quotas-integration-v3.md)」を参照してください。

`StorageCapacity` **(必須)**、`Integer`)  
FSx for Lustre のストレージ容量を GiB 単位で設定します。`StorageCapacity` は、新しいファイルシステムを作成する場合に必要です。`BackupId` または `FileSystemId` が指定されている場合、`StorageCapacity` は含めてはいけません。  
+ `SCRATCH_2`、`PERSISTENT_1`、および `PERSISTENT_2` デプロイタイプの場合、有効な値は 1,200 GiB、2400 GiB、それ以降は 2,400 GiB の増分です。
+ `SCRATCH_1` デプロイタイプの場合、有効な値は 1,200 GiB、2,400 GiB、それ以降 3,600 GiB の増分です。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeploymentType` (**オプション**、`String`)  
FSx for Lustre ファイルシステムのデプロイタイプを指定します。サポートされている値は `SCRATCH_1`、`SCRATCH_2`、`PERSISTENT_1`、`PERSISTENT_2` です。デフォルト値は `SCRATCH_2` です。  
一時的なストレージと短期間のデータ処理が必要な場合、`SCRATCH_1` および `SCRATCH_2` デプロイタイプを選択します。`SCRATCH_2` デプロイタイプでは、データの転送中の暗号化と `SCRATCH_1` よりも高いバーストスループットキャパシティが提供されます。  
長期ストレージとレイテンシーの影響を受けないスループット重視のワークロードには、`PERSISTENT_1`デプロイタイプを選択します。 は転送中のデータの暗号化`PERSISTENT_1`をサポートしています。FSx for Lustre が利用可能なすべての AWS リージョン で使用できます。  
長期ストレージ、および最高レベルの IOPS とスループットを必要とする、レイテンシーの影響を受けやすいワークロードの場合は、`PERSISTENT_2` デプロイタイプを選択します。`PERSISTENT_2` は SSD ストレージをサポートし、より高い `PerUnitStorageThroughput` (最大1,000 MB/s/TiB) を提供します。`PERSISTENT_2` は限られた数の AWS リージョンで使用可能です。デプロイタイプと`PERSISTENT_2`利用可能な AWS リージョン のリストの詳細については、「Amazon [FSx for Lustre ユーザーガイド」の「FSx for Lustre のファイルシステムデプロイオプション](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html#lustre-deployment-types)」を参照してください。 * FSx *  
[この機能](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/data-protection.html)をサポートする Amazon EC2 インスタンスから `SCRATCH_2`、`PERSISTENT_1`、または `PERSISTENT_2` デプロイタイプのファイルシステムにアクセスするとき、転送中のデータの暗号化が自動的に有効になります。  
`SCRATCH_2`、`PERSISTENT_1`、および `PERSISTENT_2` デプロイタイプの転送中のデータの暗号化は、サポートされる AWS リージョンでサポートされるインスタンスタイプからアクセスした場合にサポートされます。詳細については、「Amazon FSx for Lustre ユーザーガイド**」の「[転送中のデータの暗号化](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html)」を参照してください。  
 AWS ParallelCluster バージョン 3.2.0 で、`PERSISTENT_2` デプロイタイプのサポートが追加されました。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize` (**オプション**、`Integer`)  
データリポジトリからインポートされたファイルの場合、この値がストライプカウントと 1 つの物理ディスクに保存された各ファイルごとの最大データ量 (MiB 単位) を決定します。1 つのファイルにストライピングできるディスクの最大数は、ファイルシステムを構成するディスクの合計数によって制限されます。  
デフォルトのチャンクサイズは 1,024 MiB (1 GiB) であり、512,000 MiB (500 GiB) まで高くすることができます。Amazon S3 オブジェクトの最大サイズは 5 TB です。  
このパラメータは、 `PERSISTENT_2`デプロイタイプを使用するファイルシステムではサポートされていません。データリポジトリの関連付けを設定する方法については、「Amazon FSx for Lustre ユーザーガイド**」の「[S3 バケットにファイルシステムをリンクする](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html)」を参照してください。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataCompressionType` (**オプション**、`String`)  
FSx for Lustre ファイルシステムのデータ圧縮構成を設定します。サポートされている値は `LZ4` です。`LZ4` は LZ4 アルゴリズムによるデータ圧縮がオンになっていることを示しています。`DataCompressionType` が指定されていない場合は、ファイルシステムの作成時にデータ圧縮がオフになります。  
詳細については、「[Lustre データ圧縮](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html)」を参照してください。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ExportPath` (**オプション**、`String`)  
FSx for Lustre ファイルシステムのルートがエクスポートされる Amazon S3 のパス。この設定は、`ImportPath` パラメータ が設定されている場合にのみサポートされます。パスでは、`ImportPath` で指定されている同じ Amazon S3 バケットを使用する必要があります。FSx for Lustre ファイルシステムからエクスポートされる新しいデータおよび変更されたデータのオプションのプレフィックスを指定できます。`ExportPath` 値を指定しない場合、FSx for Lustre でデフォルトのエクスポートパス (`s3://amzn-s3-demo-bucket/FSxLustre[creation-timestamp]`) が設定されます。タイムスタンプは UTC 形式です (例えば、`s3://amzn-s3-demo-bucket/FSxLustre20181105T222312Z`)。  
Amazon S3 エクスポートバケットは、`ImportPath` で指定されたインポートバケットと同じである必要があります。`s3://amzn-s3-demo-bucket` など、バケット名のみを指定した場合、Amazon S3 バケットオブジェクト へのファイルシステムオブジェクトの 1 対 1 のマッピングを取得します。このマッピングは、Amazon S3 の入力データがエクスポートで上書きされることを意味します。`s3://amzn-s3-demo-bucket/[custom-optional-prefix]` など、エクスポートパスでカスタムプレフィックスを指定した場合、FSx for Lustre は、ファイルシステムの内容を Amazon S3 バケット内のそのエクスポートプレフィックスにエクスポートします。  
このパラメータは、 `PERSISTENT_2`デプロイタイプを使用するファイルシステムではサポートされていません。「Amazon FSx for Lustre ユーザーガイド**」の「[S3 バケットにファイルシステムをリンクする](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html)」で説明されているように、データリポジトリの関連付けを設定します。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportPath` (**オプション**、`String`)  
FSx for Lustre ファイルシステムのデータリポジトリとして使用している Amazon S3 バケットへのパス (オプションのプレフィックスを含む)。FSx for Lustre ファイルシステムのルートは、選択した Amazon S3 バケットのルートにマップされます。例は `s3://amzn-s3-demo-bucket/optional-prefix` です。Amazon S3 バケット名の後にプレフィックスを指定した場合、そのプレフィックスが付いたオブジェクトキーのみがファイルシステムにロードされます。  
このパラメータは、 `PERSISTENT_2`デプロイタイプを使用するファイルシステムではサポートされていません。「Amazon FSx for Lustre ユーザーガイド**」の「[S3 バケットにファイルシステムをリンクする](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html)」で説明されているように、データリポジトリの関連付けを設定します。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`WeeklyMaintenanceStartTime` (**オプション**、`String`)  
週次メンテナンスを実行するための優先開始時間。UTC\$10 タイムゾーンの `"d:HH:MM"` の形式でフォーマットします。このフォーマットの場合、`d` は月曜日で始まり日曜日で終わる 1～7 の曜日の番号です。このフィールドには引用符が必要です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutomaticBackupRetentionDays` (**オプション**、`Integer`)  
自動バックアップの保持日数です。この値を 0 に設定すると、自動バックアップが無効になります。サポートされる範囲は 0～90 です。デフォルトは 0 です。この設定は、`PERSISTENT_1` と `PERSISTENT_2` デプロイタイプでの使用でのみ有効です。詳細については、「Amazon FSx for Lustre ユーザーガイド**」の「[バックアップの使用](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html)」を参照してください。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`CopyTagsToBackups` (**オプション**、`Boolean`)  
`true` の場合、FSx for Lustre ファイルシステムのタグをバックアップにコピーする必要があります。この値のデフォルト値は `false` です。この値を `true` に設定すると、ファイルシステムのすべてのタグが、ユーザーがタグを指定しないすべての自動バックアップおよびユーザー始動型バックアップにコピーされます。この値が `true` で 1 つ以上のタグを指定すると、指定したタグのみがバックアップにコピーされます。ユーザー主導のバックアップの作成時に 1 つ以上のタグを指定した場合、この値に関係なく、ファイルシステムからタグはコピーされません。この設定は、`PERSISTENT_1` と `PERSISTENT_2` デプロイタイプでの使用でのみ有効です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DailyAutomaticBackupStartTime` (**オプション**、`String`)  
毎日繰り返される時刻 (形式 `HH:MM`)。`HH` はその日のゼロ詰めの時間 (00～23) です。`MM` はその時間のゼロ詰めの分 (00～59) です。例えば、`05:00` は毎日午前 5 時を指定します。この設定は、`PERSISTENT_1` と `PERSISTENT_2` デプロイタイプでの使用でのみ有効です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`PerUnitStorageThroughput` (**`PERSISTENT_1` と `PERSISTENT_2` のデプロイタイプに必要**、`Integer`)  
1 テビバイト (TiB) のストレージごとの読み取りおよび書き込みスループットの量を MB/s/TiB 単位で表示します。ファイルシステムのスループット容量は、ファイルシステムのストレージ容量 (TiB) に `PerUnitStorageThroughput` (MB/s/TiB) を掛けて計算されます。2.4 TiB のファイルシステムの場合、50 MB/s/TiB の `PerUnitStorageThroughput` をプロビジョニングすると、ファイルシステムのスループットは 120 MB/s になります。プロビジョニングしたスループットに対して支払いが発生します。これは、[PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput) プロパティに対応しています。  
有効な値:  
+ PERSISTENT\$11 SSD ストレージ: 50、100、200 MB/s/TiB。
+ PERSISTENT\$11 HDD ストレージ: 12、40 MB/s/TiB。
+ PERSISTENT\$12 SSD ストレージ: 125、250、500、1,000 MB/s/TiB。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BackupId` (**オプション**、`String`)  
既存のバックアップから FSx for Lustre ファイルシステムを復元するために使用するバックアップの ID を指定します。`BackupId` を指定した場合は、`AutoImportPolicy`、`DeploymentType`、`ExportPath`、`KmsKeyId`、`ImportPath`、`ImportedFileChunkSize`、`StorageCapacity` および `PerUnitStorageThroughput` を指定してはいけません。これらの設定はバックアップから読み取られます。また、`AutoImportPolicy`、`ExportPath`、`ImportPath` および `ImportedFileChunkSize` の設定は指定できません。これは、[BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid) プロパティに対応しています。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId` (**オプション**、`String`)  
保管中の永続的な FSx for Lustre ファイルシステムの FSx for Lustre ファイルシステムのデータを暗号化するために使用される AWS Key Management Service (AWS KMS) キー ID の ID。指定しない場合は、FSx for Lustre のマネージドキーが使用されます。`SCRATCH_1` および `SCRATCH_2` の FSx for Lustre ファイルシステムは、FSx for Lustre が管理する鍵を用いて、静止状態で常に暗号化されています。詳細については、「AWS Key Management Service API リファレンス**」の「[暗号化](https://docs.aws.amazon.com//kms/latest/APIReference/API_Encrypt.html)」を参照してください。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemId` (**オプション**、`String`)  
既存の FSx for Lustre ファイルシステムの ID を指定します。  
このオプションを指定すると、`FsxLustreSettings` の `MountDir` と `FileSystemId` の設定のみが使用されます。`FsxLustreSettings` のその他のすべての設定は無視されます。  
ス AWS Batch ケジューラを使用する場合、FSx for Lustre はヘッドノードでのみ使用できます。
ファイルシステムは、ポート 988、1021、1022、および 1023 経由のインバウンドおよびアウトバウンドの TCP トラフィックを許可するセキュリティグループに関連付けられている必要があります。
次のいずれかを実行して、クラスターとファイルシステムの間でトラフィックが許可されていることを確認してください。  
+ クラスターサブネットの CIDR またはプレフィックスリストとの間のトラフィックを許可するように、ファイルシステムのセキュリティグループを設定します。
**注記**  
AWS ParallelCluster は、ポートが開いていること、および CIDR またはプレフィックスリストが設定されていることを検証します。CIDR AWS ParallelCluster ブロックまたはプレフィックスリストの内容を検証しません。
+ [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) と [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups) を使用して、クラスターノードのカスタムセキュリティグループを設定します。カスタムセキュリティグループを設定して、クラスターとファイルシステムの間のトラフィックを許可する必要があります。
**注記**  
すべてのクラスターノードがカスタムセキュリティグループを使用している場合、 はポートが開いていること AWS ParallelCluster のみを検証します。送信元と送信先が正しく設定されていることは検証 AWS ParallelCluster しません。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AutoImportPolicy` (**オプション**、`String`)  
FSx for Lustre ファイルシステムを作成すると、既存の Amazon S3 オブジェクトがファイルとディレクトリのリストとして表示されます。このプロパティを使用して、リンクされた Amazon S3 バケットのオブジェクトを追加または変更したときに、FSx for Lustre がファイルとディレクトリのリストを最新の状態に保つ方法を選択します。`AutoImportPolicy` は、次の値を持つことができます。  
+  `NEW` - 自動インポートがオンになっています。FSx for Lustre は、リンクされた Amazon S3 バケットに追加された新しいオブジェクトのうち、現在 FSx for Lustre ファイルシステム内に存在しないオブジェクトのディレクトリリストを自動的にインポートします。
+  `NEW_CHANGED` - 自動インポートがオンになっています。このオプションの選択後は、Amazon S3 バケットに追加された新しいオブジェクトや Amazon S3 バケットで変更された既存のオブジェクトのファイルとディレクトリのリストが、FSx for Lustre によって自動的にインポートされます。
+  `NEW_CHANGED_DELETED` - 自動インポートがオンになっています。このオプションの選択後は、Amazon S3 バケットに追加された新しいオブジェクト、Amazon S3 バケットで変更された既存のオブジェクト、Amazon S3 バケットで削除されたオブジェクトのファイルとディレクトリのリストが、FSx for Lustre によって自動的にインポートされます。
**注記**  
 AWS ParallelCluster バージョン 3.1.1 で `NEW_CHANGED_DELETED` のサポートが追加されました。
`AutoImportPolicy` が指定されていない場合、自動インポートはオフになります。FSx for Lustre は、ファイルシステムの作成時に、リンクされた Amazon S3 バケットのファイルとディレクトリのリストのみを更新します。このオプションの選択後は、新しいオブジェクトや変更されたオブジェクトのファイルとディレクトリのリストは FSx for Lustre で更新されません。  
詳細については、「Amazon FSx for Lustre ユーザーガイド**」の「[S3 バケットから更新を自動的にインポートする](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html)」を参照してください。  
このパラメータは、`PERSISTENT_2` デプロイタイプを使用するファイルシステムではサポートされていません。データリポジトリの関連付けを設定する方法については、「Amazon FSx for Lustre ユーザーガイド**」の「[S3 バケットにファイルシステムをリンクする](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html)」を参照してください。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DriveCacheType` (**オプション**、`String`)  
ファイルシステムに SSD ドライブキャッシュを搭載することを指定します。`StorageType` 設定が `HDD`、`DeploymentType` 設定が `PERSISTENT_1` に設定されている場合のみ設定可能です。これは、[DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype) プロパティに対応しています。詳細については、「Amazon FSx for Lustre ユーザーガイド**」の「[FSx for Lustre デプロイオプション](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html)」を参照してください。  
唯一の有効な値は `READ` です。SSD ドライブのキャッシュを無効にするには、`DriveCacheType` の設定を指定しないでください。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`StorageType` (**オプション**、`String`)  
作成する FSx for Lustre ファイルシステムのストレージタイプを設定します。有効な値は、`SSD` および `HDD` です。  
+ ソリッドステートドライブストレージを使用する場合は、`SSD` に設定します。
+ ハードディスクドライブのストレージを使用する場合は `HDD` に設定します。`HDD` は `PERSISTENT` のデプロイタイプでサポートされています。
デフォルト値は `SSD` です。詳細については、「Amazon FSx for Windows ユーザーガイド**」の「[ストレージタイプのオプション](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/optimize-fsx-costs.html#storage-type-options)」および「Amazon FSx for Lustre ユーザーガイド**」の「[複数のストレージオプション](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html#storage-options)」を参照してください。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy` (**オプション**、`String`)  
ファイルシステムがクラスターから削除されるか、クラスターが削除されたときに、ファイルシステムを保持または削除するかを指定します。サポートされる値は `Delete` と `Retain` です。デフォルト値は `Delete` です。  
[DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy) が `Delete` に設定されている場合、クラスターが削除されたり、クラスターの更新によってファイルシステムが削除されたりした場合、マネージドボリュームはそのデータと共に削除されます。  
詳細については、「[共有ストレージ](shared-storage-quotas-integration-v3.md)」を参照してください。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy` は AWS ParallelCluster バージョン 3.3.0 以降でサポートされています。

`DataRepositoryAssociations` (**オプション**、`String`)  
DRA のリスト (ファイルシステムあたり最大 8)  
それぞれのデータリポジトリの関連付けには、一意の Amazon FSx ファイルシステムディレクトリと、一意の S3 バケットまたはプレフィックスが関連付けられている必要があります。  
DRA を使用すると同時に [ExportPath](#yaml-SharedStorage-FsxLustreSettings-ExportPath) と [ImportPath](#yaml-SharedStorage-FsxLustreSettings-ImportPath) を FsxLustreSettings で使用することはできません。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Name` **(必須)**、`String`)  
DRA の名前。この名前は設定を更新するときに使用します。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BatchImportMetaDataOnCreate` (**オプション**、`Boolean`)  
データリポジトリの関連付けが作成された後に、メタデータをインポートするインポートデータリポジトリタスクを実行する必要があるかどうかを示すブールフラグ。このフラグが `true` に設定されている場合、タスクは実行されます。  
デフォルト値: `false`  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataRepositoryPath` **(必須)**、`String`)  
ファイルシステムにリンクされる Amazon S3 データリポジトリへのパス。パスには、次の S3 バケットまたは `s3://amzn-s3-demo-bucket/myPrefix/` 形式のプレフィックスを使用できます。このパスは、S3 データリポジトリのファイルのインポート先またはエクスポート先を指定します。  
他の DRA との重複は不可  
パターン: `^[^\u0000\u0085\u2028\u2029\r\n]{3,4357}$`  
最小: `3`  
最大: `4357`  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemPath` **(必須)**、`String`)  
Amazon FSx for Lustre ファイルシステム上のパスで、`DataRepositoryPath` により 1 対 1 でマッピングされる上位ディレクトリ (`/ns1/` など) またはサブディレクトリ (`/ns1/subdir/` など) を指します。名前の先頭のスラッシュは必須です。2 つのデータリポジトリの関連付けは、重複するファイルシステムパスを持つことはできません。例えば、データリポジトリがファイルシステムパス `/ns1/` に関連付けられている場合、ファイルシステムパス `/ns1/ns2` に別のデータリポジトリをリンクすることはできません。  
このパスは、ファイルシステム上でファイルをエクスポートまたはインポートする場所を指定します。このファイルシステムディレクトリは 1 つの Amazon S3 バケットにのみリンクでき、他の S3 バケットをディレクトリにリンクすることはできません。  
他の DRA との重複は不可  
 ファイルシステムパスとしてスラッシュ (`/`) のみを指定した場合、ファイルシステムにリンクできるデータリポジトリは 1 つだけです。「`/`」は、ファイルシステムに関連付けられた最初のデータリポジトリのファイルシステムパスとしてのみ指定できます。
パターン: `^[^\u0000\u0085\u2028\u2029\r\n]{1,4096}$`  
最小: `1`  
最大: `4096`  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize` (**オプション**、`Integer`)  
データリポジトリからインポートされたファイルの場合、この値がストライプカウントと 1 つの物理ディスクに保存されたファイルごとの最大データ量 (MiB 単位) を決定します。1 つのファイルにストライピングできるディスクの最大数は、ファイルシステムまたはキャッシュを構成するディスクの合計数によって制限されます。  
デフォルトのチャンクサイズは 1,024 MiB (1 GiB) であり、512,000 MiB (500 GiB) まで高くすることができます。Amazon S3 オブジェクトの最大サイズは 5 TB です。  
最小: `1`  
最大: `4096`  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoExportPolicy` (**オプション**、`Array of strings`)  
リストには、以下の値の 1 つ以上を含めることができます。  
+ `NEW` – 新しいファイルとディレクトリは、それらがファイルシステムに追加された時点で、自動的にデータリポジトリにエクスポートされます。
+ `CHANGED` – ファイルシステム上のファイルおよびディレクトリが変更された場合は、その内容が自動的にデータリポジトリにエクスポートされます。
+ `DELETED` – ファイルシステム上で削除されたファイルとディレクトリは、データリポジトリからも自動的に削除されます。
`AutoExportPolicy` の定義では、イベントタイプを任意に組み合わせて使用できます。  
最大: `3`  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoImportPolicy` (**オプション**、`Array of strings`)  
リストには、以下の値の 1 つ以上を含めることができます。  
+ `NEW` – Amazon FSx は、FSx ファイルシステムにリンクされた S3 バケットに追加済みで、現在ファイルシステム内に存在していない、ファイルのメタデータを自動的にインポートします。
+ `CHANGED` – データリポジトリ内でファイルが変更された際、Amazon FSx は、そのファイルのメタデータを自動的に更新し、ファイルシステム上に既に存在するファイルの内容を無効にします。
+ `DELETED` –ファイルシステム上のファイルに対応するファイルがデータリポジトリで削除された場合、 Amazon FSx はファイルシステム上のファイルも自動的に削除します。
`AutoImportPolicy` の定義では、イベントタイプを任意に組み合わせて使用できます。  
最大: `3`  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `FsxOntapSettings`
<a name="SharedStorage-v3-FsxOntapSettings"></a>

**注記**  
`FsxOntap` が [`StorageType`](#yaml-SharedStorage-StorageType) に指定されている場合、`FsxOntapSettings` を定義する必要があります。

**(オプション)** FSx for ONTAP ファイルシステムの設定。

```
FsxOntapSettings:
  VolumeId: string
```

### `FsxOntapSettings` のプロパティ
<a name="SharedStorage-v3-FsxOntapSettings.properties"></a>

`VolumeId` **(必須)**、`String`)  
既存の FSx for ONTAP システムのボリューム ID を指定します。

**注記**  
ス AWS Batch ケジューラを使用する場合、FSx for ONTAP はヘッドノードでのみ使用できます。
FSx for ONTAP のデプロイタイプが `Multi-AZ` の場合、ヘッドノードサブネットのルートテーブルが適切に設定されていることを確認してください。
FSx for ONTAP のサポートが AWS ParallelCluster バージョン 3.2.0 で追加されました。
ファイルシステムは、ポート 111、635、2049、および 4046 経由のインバウンドおよびアウトバウンドの TCP および UDP トラフィックを許可するセキュリティグループに関連付けられている必要があります。

次のいずれかのアクションを実行して、クラスターとファイルシステムの間でトラフィックが許可されていることを確認してください。
+ クラスターサブネットの CIDR またはプレフィックスリストとの間のトラフィックを許可するように、ファイルシステムのセキュリティグループを設定します。
**注記**  
AWS ParallelCluster は、ポートが開いていること、および CIDR またはプレフィックスリストが設定されていることを検証します。CIDR AWS ParallelCluster ブロックまたはプレフィックスリストの内容を検証しません。
+ [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) と [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups) を使用して、クラスターノードのカスタムセキュリティグループを設定します。カスタムセキュリティグループを設定して、クラスターとファイルシステムの間のトラフィックを許可する必要があります。
**注記**  
すべてのクラスターノードがカスタムセキュリティグループを使用している場合、 はポートが開いていること AWS ParallelCluster のみを検証します。送信元と送信先が正しく設定されていることは検証 AWS ParallelCluster しません。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxOpenZfsSettings`
<a name="SharedStorage-v3-FsxOpenZfsSettings"></a>

**注記**  
`FsxOpenZfs` が [`StorageType`](#yaml-SharedStorage-StorageType) に指定されている場合、`FsxOpenZfsSettings` を定義する必要があります。

**(オプション)** FSx for OpenZFS ファイルシステムの設定。

```
FsxOpenZfsSettings:
  VolumeId: string
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `FsxOpenZfsSettings` のプロパティ
<a name="SharedStorage-v3-FsxOpenZfsSettings.properties"></a>

`VolumeId` **(必須)**、`String`)  
既存の FSx for OpenZFS システムのボリューム ID を指定します。

**注記**  
ス AWS Batch ケジューラを使用する場合、FSx for OpenZFS はヘッドノードでのみ使用できます。
FSx for OpenZFS のサポートが AWS ParallelCluster バージョン 3.2.0 で追加されました。
ファイルシステムは、ポート 111、2049、20001、20002、および 20003 経由のインバウンドおよびアウトバウンドの TCP および UDP トラフィックを許可するセキュリティグループに関連付けられている必要があります。

次のいずれかを実行して、クラスターとファイルシステムの間でトラフィックが許可されていることを確認してください。
+ クラスターサブネットの CIDR またはプレフィックスリストとの間のトラフィックを許可するように、ファイルシステムのセキュリティグループを設定します。
**注記**  
AWS ParallelCluster は、ポートが開いていること、および CIDR またはプレフィックスリストが設定されていることを検証します。CIDR AWS ParallelCluster ブロックまたはプレフィックスリストの内容を検証しません。
+ [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) と [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups) を使用して、クラスターノードのカスタムセキュリティグループを設定します。カスタムセキュリティグループを設定して、クラスターとファイルシステムの間のトラフィックを許可する必要があります。
**注記**  
すべてのクラスターノードがカスタムセキュリティグループを使用している場合、 はポートが開いていること AWS ParallelCluster のみを検証します。送信元と送信先が正しく設定されていることは検証 AWS ParallelCluster しません。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FileCacheSettings`
<a name="SharedStorage-v3-FsxFileCacheSettings"></a>

**注記**  
`FileCache` が [`StorageType`](#yaml-SharedStorage-StorageType) に指定されている場合、`FileCacheSettings` を定義する必要があります。

**(オプション)** ファイルキャッシュの設定。

```
FileCacheSettings:
  FileCacheId: string
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `FileCacheSettings` のプロパティ
<a name="SharedStorage-v3-FsxFileCacheSettings.properties"></a>

`FileCacheId` **(必須)**、`String`)  
既存のファイルキャッシュのファイルキャッシュ ID を指定します。

**注記**  
ファイルキャッシュはス AWS Batch ケジューラをサポートしていません。
ファイルキャッシュのサポートが AWS ParallelCluster バージョン 3.7.0 に追加されました。
ファイルシステムは、ポート 988 経由のインバウンドおよびアウトバウンドの TCP トラフィックを許可するセキュリティグループに関連付けられている必要があります。

次のいずれかを実行して、クラスターとファイルシステムの間でトラフィックが許可されていることを確認してください。
+ クラスターサブネットの CIDR またはプレフィックスリストとの間のトラフィックを許可するように、ファイルキャッシュのセキュリティグループを設定します。
**注記**  
AWS ParallelCluster は、ポートが開いていること、および CIDR またはプレフィックスリストが設定されていることを検証します。CIDR AWS ParallelCluster ブロックまたはプレフィックスリストの内容を検証しません。
+ [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) と [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups) を使用して、クラスターノードのカスタムセキュリティグループを設定します。カスタムセキュリティグループを設定して、クラスターとファイルシステムの間のトラフィックを許可する必要があります。
**注記**  
すべてのクラスターノードがカスタムセキュリティグループを使用している場合、 はポートが開いていること AWS ParallelCluster のみを検証します。送信元と送信先が正しく設定されていることは検証 AWS ParallelCluster しません。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Iam` セクション
<a name="Iam-v3"></a>

**(オプション)** クラスターの IAM プロパティを指定します。

```
Iam:
  Roles:
    LambdaFunctionsRole: string
  PermissionsBoundary: string
  ResourcePrefix: string
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Iam` のプロパティ
<a name="Iam-v3.properties"></a>

`PermissionsBoundary` (**オプション**、`String`)  
 AWS ParallelClusterで作成されたすべてのロールのパーミッションバウンダリとして使用する IAM ポリシーの ARN です。詳細については、「IAM ユーザーガイド**」の「[IAM エンティティのアクセス許可境界](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_boundaries.html)」を参照してください。形式は `arn:${Partition}:iam::${Account}:policy/${PolicyName}` です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Roles` (**オプション**)  
クラスターが使用する IAM ロールの設定を指定します。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`LambdaFunctionsRole` (**オプション**、`String`)  
使用する IAM ロールの ARN AWS Lambda。これにより、 AWS CloudFormation カスタムリソースをサポートするすべての Lambda 関数にアタッチされたデフォルトのロールが上書きされます。Lambda は、その役割を担うことを許されたプリンシパルとして設定する必要があります。これにより、使用されている Lambda 関数のロールが上書きされることはありません AWS Batch。形式は `arn:${Partition}:iam::${Account}:role/${RoleName}` です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ResourcePrefix` (**オプション**)  
によって作成される IAM リソースのパスまたは名前プレフィックスを指定します AWS ParallelCluster。  
リソースプレフィックスは [IAM が指定する命名規則](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html)に従う必要があります。  
+ 名前の長さは最大 30 文字です。
+ 名前には、スラッシュ (`/`) 文字を含まない文字列のみを使用できます。
+ パスは最大 512 文字です。
+ パスはスラッシュ (`/`) で始まり、終わる必要があります。始めのスラッシュと終わりのスラッシュ (`/`) の間に複数のスラッシュ (`/`) を含むことができます。
+ パスと名前 `/path/name` は組み合わせることができます。
名前を指定します。  

```
Iam:
  ResourcePrefix: my-prefix
```
パスを指定します。  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/
```
パスと名前を指定します。  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/my-prefix
```
`/my-prefix` を指定すると、エラーが返されます。  

```
Iam:
  ResourcePrefix: /my-prefix
```
設定エラーが返されます。1 つのパスには 2 つの `/` が必要です。プレフィックス単独で `/` を付けることはできません。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `LoginNodes` セクション
<a name="LoginNodes-v3"></a>

**注記**  
バージョン 3.7.0 AWS ParallelCluster で のサポートが追加され`LoginNodes`ました。

**(オプション)** ログインノードプールの設定を指定します。

```
LoginNodes:
  Pools:
    - Name: string
      Count: integer
      InstanceType: string
      GracetimePeriod: integer
      Image:
        CustomAmi: string
      Ssh:
        KeyName: string
        AllowedIps: string
      Networking:
        SubnetIds:
          - string
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      Dcv:
        Enabled: boolean
        Port: integer
        AllowedIps: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeUpdated:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceRole: string
        InstanceProfile: string
        AdditionalIamPolicies:
          - Policy: string
```

[更新ポリシー: この設定を変更して更新するには、クラスターのログインノードを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-cluster)

## `LoginNodes` のプロパティ
<a name="LoginNodes-v3.properties"></a>

### `Pools` のプロパティ
<a name="LoginNodes-v3-Pools"></a>

同じリソース設定のログインノードのグループを定義します。3.11.0 以降 AWS ParallelCluster では、最大 10 個のプールを指定できます。

```
Pools:
  - Name: string
    Count: integer
    InstanceType: string
    GracetimePeriod: integer
    Image:
      CustomAmi: string
    Ssh:
      KeyName: string
      AllowedIps: string
    Networking:
      SubnetIds:
        - string
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    Dcv:
      Enabled: boolean
      Port: integer
      AllowedIps: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeUpdated:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
    Iam:
      InstanceRole: string
      InstanceProfile: string
      AdditionalIamPolicies:
        - Policy: string
```

[更新ポリシー: ログインノードプールを追加できますが、プールを削除するには、クラスター内のすべてのログインノードを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-add-login-node-pools)

`Name` (**必須** `String`)  
`LoginNodes` プールの名前を指定します。これは、`LoginNodes` リソースのタグ付けに使用されます。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)   
 AWS ParallelCluster バージョン 3.11.0 以降、更新ポリシーは次のようになります。更新のためにこの設定を変更するには、プール内のログインノードを停止する必要があります。

`Count` (**必須** `Integer`)  
アクティブを維持するログインノードの数を指定します。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`InstanceType` (**必須** `String`)  
ログインノードに使用される Amazon EC2 インスタンスタイプを定義します。インスタンスタイプのアーキテクチャは、Slurm `InstanceType` 設定に使用されるアーキテクチャと同じでなければなりません。  
[更新ポリシー](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3): この設定は、ログインノードプールが停止している場合に変更できます。  
 AWS ParallelCluster バージョン 3.11.0 以降、更新ポリシーは次のようになります。更新のためにこの設定を変更するには、プール内のログインノードを停止する必要があります。

`GracetimePeriod` (**オプション** `Integer`)  
ログインノードが廃止されることをログインユーザーに通知してから実際の停止イベントまでに経過する最小時間を分単位で指定します。`GracetimePeriod` の有効な値は 3 分から 120 分までです。デフォルトは 10 分です。  
トリガーイベントには、複数の AWS サービス間のインタラクションが含まれます。場合によっては、ネットワークレイテンシーと情報の伝達に時間がかかるため、 AWS サービスの内部遅延により、猶予期間が予想よりも長くかかることがあります。
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Image` (**オプション**)  
ログインノードのイメージ設定を定義します。  

```
Image:
  CustomAmi: String
```  
`CustomAmi` (**オプション** `String`)  
ログインノードのプロビジョニングに使用するカスタム AMI を指定します。指定しない場合、値はデフォルトで [`HeadNode` セクション](HeadNode-v3.md) で指定された値に設定されます。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Ssh` (**オプション**)  
ログインノードの `ssh` 設定を定義します。  

```
Ssh:
  KeyName: string
  AllowedIps: string
```
 AWS ParallelCluster バージョン 3.11.0 以降、更新ポリシーは次のようになります。更新のためにこの設定を変更するには、プール内のログインノードを停止する必要があります。  
`KeyName` (**オプション** `String`)  
ログインノードへのログインに使用する `ssh` キーを指定します。指定しない場合、値はデフォルトで [`HeadNode` セクション](HeadNode-v3.md) で指定された値に設定されます。  
[更新ポリシー: この設定を変更して更新するには、プール内のログインノードを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
非推奨 – 設定パラメータ`LoginNodes/Pools/Ssh/KeyName`は非推奨になっており、今後のリリースで削除されます。CLI は、クラスター設定で使用されているときに警告メッセージを送信するようになりました。詳細については、[https://github.com/aws/aws-parallelcluster/issues/6811 ](https://github.com/aws/aws-parallelcluster/issues/6811)を参照してください。  
`AllowedIps` (**オプション** `String`)  
プール内のログインノードへの SSH 接続の CIDR 形式の IP 範囲またはプレフィックスリスト ID を指定します。デフォルトは、ヘッドノード設定で定義されている [AllowedIps](HeadNode-v3.md#yaml-HeadNode-Ssh-AllowedIps) です。[`HeadNode` セクション](HeadNode-v3.md) で指定されていない場合は `0.0.0.0/0` です。  
[更新ポリシー: この設定を変更して更新するには、プール内のログインノードを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
ログインノードの AllowedIps のサポートが AWS ParallelCluster バージョン 3.11.0 に追加されました。

`Networking` **(必須)**  
  

```
Networking:
  SubnetIds:
    - string
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```
 AWS ParallelCluster バージョン 3.11.0 以降、更新ポリシーは次のようになります。更新のためにこの設定を変更するには、プール内のログインノードを停止する必要があります。  
`SubnetIds` (**必須** `[String]`)  
ログインノードプールをプロビジョニングする既存のサブネットの ID。定義できるサブネットは 1 つだけです。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`SecurityGroups` (**オプション** `[String]`)  
ログインノードプールに使用するセキュリティグループのリスト。セキュリティグループが指定されていない場合、 はセキュリティグループ AWS ParallelCluster を作成します。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalSecurityGroups` (**オプション** `[String]`)  
ログインノードプールに使用する追加のセキュリティグループのリスト。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dcv` (**オプション**)  
[ログインノード](#LoginNodes-v3)で実行される NICE DCV サーバーの設定を定義します。詳細については、[Amazon DCV 経由でヘッドノードとログインノードに接続する](dcv-v3.md)を参照してください。  

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```
デフォルトでは、 によって設定された NICE DCV ポート AWS ParallelCluster はすべての IPv4 アドレスに対して開かれています。NICE DCV ポートに接続できるのは、NICE DCV セッションの URL があり、その URL が pcluster dcv-connect から返されてから 30 秒以内に NICE DCV セッションに接続する場合のみです。`AllowedIps` 設定を使用して、CIDR 形式の IP 範囲で NICE DCV ポートへのアクセスをさらに制限し、ポート設定を使用して非標準ポートを設定します。
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
ログインノードでの DCV のサポートが AWS ParallelCluster バージョン 3.11.0 に追加されました。  
`Enabled` (**必須** `Boolean`)  
プール内のログインノードで NICE DCV を有効にするかどうかを指定します。デフォルト値は `false` です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
NICE DCV は、ログインノードで実行される NICE DCV クライアントと NICE DCV サーバー間のトラフィックを保護するために使用される自己署名証明書を自動的に生成します。独自の証明書を設定するには、「[Amazon DCV の HTTPS 証明書](dcv-v3.md#dcv-v3-certificate)」を参照してください。  
`Port` (**オプション** `Integer`)  
NICE DCV のポートを指定します。デフォルト値は `8443` です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AllowedIps` (**オプション** `String`)  
NICE DCV への接続の CIDR 形式の IP 範囲を指定します。この設定は、 がセキュリティグループ AWS ParallelCluster を作成する場合にのみ使用されます。デフォルト値は `0.0.0.0/0` で、すべてのインターネットアドレスからのアクセスを許可します。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomActions` (**オプション**)  
ログインノードで実行するカスタムスクリプトを指定します。  

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```
ログインノードでのカスタムアクションのサポートが AWS ParallelCluster バージョン 3.11.0 に追加されました。  
`OnNodeStart` (**オプション**)  
ノードデプロイのブートストラップアクションを開始する前に[ログインノード](#LoginNodes-v3)で実行する単一のスクリプトまたは一連のスクリプトを指定します。詳細については、「[カスタムブートストラップアクション](custom-bootstrap-actions-v3.md)」を参照してください。    
`Sequence` (**オプション**)  
run. AWS ParallelCluster run するスクリプトのリスト。 は、設定ファイルに記載されているのと同じ順序でスクリプトを実行します。最初から開始します。    
`Script` (**必須** `String`)  
使用するファイルを指定します。ファイルパスは `https://` または `s3://` で始まる必要があります。  
`Args` (**オプション** `[String]`)  
スクリプトに渡す引数のリスト。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script` (**必須** `String`)  
単一のスクリプトに使用するファイルを指定します。ファイルパスは `https://` または `s3://` で始まる必要があります。  
`Args` (**オプション** `[String]`)  
単一のスクリプトに渡す引数のリスト。  
`OnNodeConfigured` (**オプション**)  
ノードブートストラッププロセスの完了後に[ログインノード](#LoginNodes-v3)で実行する 1 つのスクリプトまたは一連のスクリプトを指定します。詳細については、「[カスタムブートストラップアクション](custom-bootstrap-actions-v3.md)」を参照してください。    
`Sequence` (**オプション**)  
run. AWS ParallelCluster run するスクリプトのリスト。 は、設定ファイルに記載されているのと同じ順序でスクリプトを実行します。最初から開始します。    
`Script` (**必須** `String`)  
使用するファイルを指定します。ファイルパスは `https://` または `s3://` で始まる必要があります。  
`Args` (**オプション** `[String]`)  
スクリプトに渡す引数のリスト。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script` (**必須** `String`)  
単一のスクリプトに使用するファイルを指定します。ファイルパスは `https://` または `s3://` で始まる必要があります。  
`Args` (**オプション** `[String]`)  
単一のスクリプトに渡す引数のリスト。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`OnNodeUpdated` (**オプション**)  
ヘッドノードの更新が完了し、スケジューラと共有ストレージが最新のクラスター設定変更と一致した後に実行する単一のスクリプトまたは一連のスクリプトを指定します。詳細については、「[カスタムブートストラップアクション](custom-bootstrap-actions-v3.md)」を参照してください。    
`Sequence` (**オプション**)  
run. AWS ParallelCluster run するスクリプトのリスト。 は、設定ファイルに記載されているのと同じ順序でスクリプトを実行します。最初から開始します。    
`Script` (**必須** `String`)  
使用するファイルを指定します。ファイルパスは `https://` または `s3://` で始まる必要があります。  
`Args` (**オプション** `[String]`)  
スクリプトに渡す引数のリスト。  
`Script` (**必須** `String`)  
単一のスクリプトに使用するファイルを指定します。ファイルパスは `https://` または `s3://` で始まる必要があります。  
`Args` (**オプション** `[String]`)  
単一のスクリプトに渡す引数のリスト。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
AWS ParallelCluster は、単一のスクリプトと の両方を同じカスタムアクション`Sequence`に含めることをサポートしていません。

`Iam` (**オプション**)  
クラスターのデフォルトのインスタンスロールまたはインスタンスプロファイルをオーバーライドするために、ログインノードで使用するインスタンスロールまたはインスタンスプロファイルのいずれかを指定します。  

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  AdditionalIamPolicies:
    - Policy: string
```
 AWS ParallelCluster バージョン 3.11.0 以降、更新ポリシーは次のようになります。更新のためにこの設定を変更するには、プール内のログインノードを停止する必要があります。  
`InstanceProfile` (**オプション** `String`)  
デフォルトのログインノードのインスタンスプロファイルをオーバーライドするインスタンスプロファイルを指定します。`InstanceProfile` と `InstanceRole` の両方を指定することはできません。形式は `arn:Partition:iam::Account:instance-profile/InstanceProfileName` です。これを指定すると、`InstanceRole` と `AdditionalIamPolicies` の設定を指定することはできません。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`InstanceRole` (**オプション** `String`)  
デフォルトのログインノードのインスタンスロールをオーバーライドするインスタンスロールを指定します。`InstanceProfile` と `InstanceRole` の両方を指定することはできません。形式は `arn:Partition:iam::Account:role/RoleName` です。これを指定すると、`InstanceProfile` と `AdditionalIamPolicies` の設定を指定することはできません。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalIamPolicies` (**オプション**)  

```
AdditionalIamPolicies:
  - Policy: string
```
IAM ポリシーの Amazon リソースネーム (ARN)。  
Amazon EC2 の IAM ポリシーの Amazon リソースネーム (ARN) のリストを指定します。このリストは、 に必要なアクセス許可に加えて、ログインノードに使用されるルートロールにアタッチされます AWS ParallelCluster。  
IAM ポリシー名とその ARN が異なります。名前を使用することはできません。  
これを指定すると、`InstanceProfile` と `InstanceRole` の設定を指定することはできません。`AdditionalIamPolicies` は AWS ParallelCluster に必要なアクセス許可に追加され、 には必要なすべてのアクセス許可が含まれている`InstanceRole`必要がある`AdditionalIamPolicies`ため、 を使用することをお勧めします。必要な権限は、機能が追加されるにつれ、リリースごとに変更されることがよくあります。  
デフォルト値はありません。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Policy` (**必須** `[String]`)  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Monitoring` セクション
<a name="Monitoring-v3"></a>

**(オプション)** クラスターのモニタリング設定を指定します。

```
Monitoring:
  Logs:
    CloudWatch:
      Enabled: boolean
      RetentionInDays: integer
      DeletionPolicy: string
    Rotation:
      Enabled: boolean
  Dashboards:
    CloudWatch:
      Enabled: boolean
  DetailedMonitoring: boolean
  Alarms:
   Enabled: boolean
```

[更新ポリシー: この設定は、更新中には分析されません。](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

## `Monitoring` のプロパティ
<a name="Monitoring-v3.properties"></a>

`Logs` (**オプション**)  
クラスターのログ設定。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`CloudWatch` (**オプション**)  
クラスターの CloudWatch Logs の設定。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled` **(必須)**、`Boolean`)  
`true` の場合、クラスターのログは CloudWatch Logs にストリームされます。デフォルト値は `true` です。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`RetentionInDays` (**オプション**、`Integer`)  
CloudWatch Logs にログイベントを保持する日数。デフォルト値は 180 です。サポートされている値は 0、1、3、5、7、14、30、60、90、120、150、180、365、400、545、731、1827、3653 です。値 0 では、デフォルトの CloudWatch ログ保持設定を使用します。つまり、有効期限はありません。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy` (**オプション**、`String`)  
クラスターの削除時に CloudWatch Logs のログイベントを削除するかどうかを示します。指定できる値は `Delete` および `Retain` です。デフォルト値は `Retain` です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Rotation` (**オプション**)  
クラスターログのローテーション設定。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled` **(必須)**、`Boolean`)  
`true` の場合、ログローテーションは有効になっています。デフォルトは `true` です。 AWS ParallelCluster 設定されたログファイルが特定のサイズに達すると、ログファイルはローテーションされ、1 つのバックアップが維持されます。詳細については、「[AWS ParallelCluster ログローテーションの設定](log-rotation-v3.md)」を参照してください。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dashboards` (**オプション**)  
クラスターのダッシュボード設定。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`CloudWatch` (**オプション**)  
クラスターの CloudWatch ダッシュボード設定。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled` **(必須)**、`Boolean`)  
`true` の場合、CloudWatch ダッシュボードが有効になります。デフォルト値は `true` です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DetailedMonitoring` (**オプション**、`Boolean`)  
`true` に設定すると、コンピューティングフリートの Amazon EC2 インスタンスに対して詳細モニタリングが有効になります。有効な場合、Amazon EC2 コンソールに 1 分間隔でインスタンスをモニタリングするグラフが表示されます。この機能を有効にすると追加コストが発生します。デフォルトは `false` です。  
詳細については、「Amazon EC2 – Linux インスタンス用ユーザーガイド**」の「[インスタンスの詳細モニタリングを有効または無効にする](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-cloudwatch-new.html)」を参照してください。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)  
`DetailedMonitoring` バージョン 3.6.0 AWS ParallelCluster 以降で が追加されました。

`Alarms` (**オプション**)  
クラスターの CloudWatch アラーム。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled` (**オプション**)  
`true` の場合、クラスターの CloudWatch アラームが作成されます。デフォルト値は `true` です。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
 AWS ParallelCluster バージョン 3.8.0 以降、ヘッドノードに対して次のアラームが作成されます。Amazon EC2 ヘルスチェック、CPU/Memory/Disk使用率、その他すべてを含む複合アラーム。

# `Tags` セクション
<a name="Tags-v3"></a>

**(オプション）、配列** によって使用され、すべてのクラスターリソースに CloudFormation 伝達されるタグを定義します。詳細については、「AWS CloudFormation ユーザーガイド**」の「[CloudFormation リソースタグ](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html)」を参照してください。

```
Tags:
  - Key: string
    Value: string
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Tags` のプロパティ
<a name="Tags-v3.properties"></a>

`Key` **(必須)**、`String`)  
タグの名前を定義します。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Value` **(必須)**、`String`)  
タグの値を定義します。  
[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**注記**  
 AWS ParallelCluster 3.15.0 以降、タグの更新は以下の制限でサポートされています。  
HeadNode の EBS ボリューム - クラスターの作成時のタグのみを保持します。この EBS ボリュームのタグの更新はサポートされていません。
ノードの実行 - タグの更新は、実行中のコンピューティングノードまたはログインノードには適用されません。

# `AdditionalPackages` セクション
<a name="AdditionalPackages-v3"></a>

**(オプション)** インストールする追加パッケージを識別するために使用されます。

```
AdditionalPackages:
  IntelSoftware:
    IntelHpcPlatform: boolean
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `IntelSoftware`
<a name="AdditionalPackages-v3-IntelSoftware"></a>

**(オプション)** インテル Select ソリューションの設定を定義します。

```
IntelSoftware:
  IntelHpcPlatform: boolean
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `IntelSoftware` のプロパティ
<a name="AdditionalPackages-v3-IntelSoftware.properties"></a>

` IntelHpcPlatform` (**オプション**、`Boolean`)  
の場合`true`、Intel Parallel Studio の[エンドユーザーライセンス契約](https://software.intel.com/en-us/articles/end-user-license-agreement)が承諾されたことを示します。これにより、インテル Parallel Studio がマスターノードにインストールされ、コンピューティングノードと共有されます。これにより、ヘッドノードのブートストラップに要する時間が数分長くなります。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 AWS ParallelCluster バージョン 3.10.0 以降、 `IntelHpcPlatform`パラメータはサポートされなくなりました。

# `DirectoryService` セクション
<a name="DirectoryService-v3"></a>

**注記**  
 AWS ParallelCluster バージョン 3.1.1 で のサポートが追加され`DirectoryService`ました。

**(オプション)** 複数のユーザーアクセスをサポートするクラスターのディレクトリサービス設定。

AWS ParallelCluster は、[System Security Services Daemon (SSSD) でサポートされている Lightweight Directory Access Protocol (LDAP) を介した Active Directory (AD) ](https://sssd.io/docs/introduction.html)を持つクラスターへの複数のユーザーアクセスをサポートするアクセス許可を管理します。詳細については、「 *AWS Directory Service 管理ガイド*」の[「What is AWS Directory Service?](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/what_is.html)」を参照してください。

潜在的に機密性の高い情報が暗号化されたチャネルを介して送信されるように LDAP over TLS/SSL (略して LDAPS) を使用することをお勧めします。

```
DirectoryService:
  DomainName: string
  DomainAddr: string
  PasswordSecretArn: string
  DomainReadOnlyUser: string
  LdapTlsCaCert: string
  LdapTlsReqCert: string
  LdapAccessFilter: string
  GenerateSshKeysForUsers: boolean
  AdditionalSssdConfigs: dict
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

## `DirectoryService` のプロパティ
<a name="DirectoryService-v3.properties"></a>

**注記**  
インターネットアクセスのない単一のサブネット AWS ParallelCluster で を使用する予定がある場合は、追加の要件[AWS ParallelCluster インターネットアクセスのない 1 つのサブネット内](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md)について「」を参照してください。

`DomainName` **(必須)**、`String`)  
ID 情報に使用するアクティブディレクトリ (AD) ドメイン。  
`DomainName` は、完全修飾ドメイン名 (FQDN) と LDAP 識別名 (DN) の両方の形式を受け入れます。  
+ FQDN の例: `corp.example.com`
+ LDAP DN の例: `DC=corp,DC=example,DC=com`
このプロパティは、`ldap_search_base` で呼び出される sssd-ldap パラメータに対応します。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainAddr` **(必須)**、`String`)  
LDAP サーバーとして使用される AD ドメインコントローラーを指す URI。`ldap_uri` で呼び出される SSSD-LDAP パラメータに対応する URI。値はカンマ区切りの URI の文字列になることもあります。LDAP を使用するには、各 URI の先頭に `ldap://` を追加する必要があります。  
値の例:  

```
ldap://192.0.2.0,ldap://203.0.113.0          # LDAP
ldaps://192.0.2.0,ldaps://203.0.113.0        # LDAPS without support for certificate verification
ldaps://abcdef01234567890.corp.example.com  # LDAPS with support for certificate verification
192.0.2.0,203.0.113.0                        # AWS ParallelCluster uses LDAPS by default
```
LDAPS を証明書検証と共に使用する場合、URI はホスト名である必要があります。  
証明書検証なしで LDAPS または LDAP を使用する場合、URI はホスト名または IP アドレスのいずれかになります。  
パスワードやその他の機密情報が暗号化されていないチャネルを介して送信されるのを回避するには、LDAP over TLS/SSL (LDAPS) を使用します。 AWS ParallelCluster でプロトコルが見つからない場合は、各 URI またはホスト名の先頭に `ldaps://` が追加されます。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`PasswordSecretArn` **(必須)**、`String`)  
プレーンテキストのパスワードを含む AWS Secrets Manager シークレットの Amazon `DomainReadOnlyUser` リソースネーム (ARN)。シークレットの内容は、`ldap_default_authtok` で呼び出される SSSD-LDAP パラメータに対応します。  
 AWS Secrets Manager コンソールを使用してシークレットを作成する場合は、「その他のタイプのシークレット」を選択し、プレーンテキストを選択し、パスワードテキストのみをシークレットに含めます。  
 AWS Secrets Manager を使用してシークレットを作成する方法の詳細については、「 シーク[AWS Secrets Manager レットの作成](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret)」を参照してください。
LDAP クライアントは、ID 情報をリクエスト`DomainReadOnlyUser`するときに、パスワードを使用して AD ドメインを として認証します。  
ユーザーに [https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html) のアクセス許可がある場合、`PasswordSecretArn` が検証されます。指定されたシークレットが存在する場合、`PasswordSecretArn` は有効です。ユーザーの IAM ポリシーに `DescribeSecret` が含まれていない場合、`PasswordSecretArn` は検証されず、警告メッセージが表示されます。詳細については、「[AWS ParallelCluster `pcluster` 基本ユーザーポリシー](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy)」を参照してください。  
シークレットの値が変更された場合、クラスターは自動的に更新されません**。クラスターを新しいシークレット値に更新するには、[`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md) コマンドを使用してコンピューティングフリートを停止し、ヘッドノード内から次のコマンドを実行します。  

```
$ sudo /opt/parallelcluster/scripts/directory_service/update_directory_service_password.sh
```
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainReadOnlyUser` **(必須)**、`String`)  
クラスターユーザーのログインを認証するとき、AD ドメインに ID 情報をクエリするために使用される ID。`ldap_default_bind_dn` で呼び出される SSSD-LDAP パラメータに対応します。この値には AD ID 情報を使用してください。  
ノードの特定の LDAP クライアントが必要とする形式で ID を指定します。  
+ MicrosoftAD:

  ```
  cn=ReadOnlyUser,ou=Users,ou=CORP,dc=corp,dc=example,dc=com
  ```
+ SimpleAD:

  ```
  cn=ReadOnlyUser,cn=Users,dc=corp,dc=example,dc=com
  ```
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsCaCert` (**オプション**、`String`)  
ドメインコントローラーの証明書を発行した証明書チェーン内のすべての認証機関の証明書を含む証明書バンドルへの絶対パス。`ldap_tls_cacert` で呼び出される SSSD-LDAP パラメータに対応します。  
証明書バンドルは Windows では DER Base64 形式とも呼ばれる PEM 形式 の個別の証明書を連結して構成されたファイルです。これは、LDAP サーバーとして機能する AD ドメインコントローラーの ID を検証するために使用されます。  
AWS ParallelCluster は、ノードへの証明書の初期配置については責任を負いません。クラスター管理者として、クラスターの作成後にヘッドノードの証明書を手動で設定することも、[ブートストラップスクリプト](custom-bootstrap-actions-v3.md)を使用することもできます。または、ヘッドノードで設定された証明書を含む Amazon マシンイメージ (AMI) を使用することもできます。  
[Simple AD](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/directory_simple_ad.html) は LDAPS をサポートしていません。Simple AD ディレクトリを と統合する方法については AWS ParallelCluster、 *AWS セキュリティブログ*の[「How to configure an LDAPS endpoint for Simple AD](https://aws.amazon.com/blogs/security/how-to-configure-ldaps-endpoint-for-simple-ad/)」を参照してください。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsReqCert` (**オプション**、`String`)  
TLS セッションでサーバー証明書に対して実行する確認内容を指定します。`ldap_tls_reqcert` で呼び出される SSSD-LDAP パラメータに対応します。  
有効な値: `never`、`allow`、`try`、`demand`、および `hard`。  
`never`、`allow`、および `try` は、証明書の問題が見つかった場合でも接続を続行できるようにします。  
`demand` および `hard` は、証明書に問題がない場合でも通信を継続できるようにします。  
クラスター管理者が証明書の検証の成功を必要としない値を使用した場合、警告メッセージが管理者に返されます。セキュリティ上の理由から、証明書の検証を無効にしないことをお勧めします。  
デフォルト値は `hard` です。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapAccessFilter` (**オプション**、`String`)  
ディレクトリアクセスを一部のユーザーに制限するフィルターを指定します。このプロパティは、`ldap_access_filter` で呼び出される SSSD-LDAP パラメータに対応します。これを使用して、多数のユーザーをサポートする AD へのクエリに制限できます。  
このフィルターは、クラスターへのユーザーアクセスをブロックできます。ただし、ブロックされたユーザーの検出性には影響しません。  
このプロパティが設定されている場合、SSSD パラメータ `access_provider` は AWS ParallelCluster によって内部で `ldap` に設定され、[`DirectoryService`](#DirectoryService-v3)/[`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs) 設定では変更できません。  
このプロパティを省略し、カスタマイズされたユーザーアクセスを [`DirectoryService`](#DirectoryService-v3)/[`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs) で指定していない場合、ディレクトリ内のすべてのユーザーがクラスターにアクセスできます。  
例:  

```
"!(cn=SomeUser*)"  # denies access to every user with an alias that starts with "SomeUser"
"(cn=SomeUser*)"   # allows access to every user with alias that starts with "SomeUser"
"memberOf=cn=TeamOne,ou=Users,ou=CORP,dc=corp,dc=example,dc=com" # allows access only to users in group "TeamOne".
```
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`GenerateSshKeysForUsers` (**オプション**、`Boolean`)  
がヘッドノードでの最初の認証の直後にクラスターユーザーの SSH キー AWS ParallelCluster を生成するかどうかを定義します。  
`true` に設定すると、ヘッドノードでの最初の認証後、すべてのユーザーについて SSH キーが存在しない場合に生成されて `USER_HOME_DIRECTORY/.ssh/id_rsa` に保存されます。  

ヘッドノードでまだ認証されていないユーザーの場合、次のような場合に初回認証が行われます。
+ ユーザーが自身のパスワードで初めてヘッドノードにログインします。
+ ヘッドノードで、sudoer が初めてそのユーザーに切り替えます。`su USERNAME`
+ ヘッドノードで、sudoer が初めてそのユーザーとしてコマンドを実行します。`su -u USERNAME COMMAND`
それ以降は、ユーザーは SSH キーを使用して、クラスターヘッドノードとコンピューティングノードにログインできます。では AWS ParallelCluster、クラスターコンピューティングノードへのパスワードログインは設計上無効になっています。ユーザーがヘッドノードにログインしたことがない場合、SSH キーは生成されず、ユーザーはコンピューティングノードにログインすることはできません。  
デフォルトは `true` です。  
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`AdditionalSssdConfigs` (**オプション**、`Dict`)  
クラスターインスタンスの SSSD 設定ファイルに書き込む SSSD パラメータと値を含むキーと値のペアのディクショナリ。SSSD 設定ファイルの説明については、`SSSD` および関連設定ファイルのインスタンスのマニュアルページを参照してください。  
SSSD のパラメータと値は、次のリストで説明するように AWS ParallelCluster、 の SSSD 設定と互換性がある必要があります。  
+ `id_provider` は によって`ldap`内部的に に設定 AWS ParallelCluster されるため、変更しないでください。
+ `access_provider` は、/ [`DirectoryService`](#DirectoryService-v3) [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)が指定され AWS ParallelCluster ている場合、 によって`ldap`内部的に に設定されます。この設定は変更しないでください。

  [`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter) を省略すると、その `access_provider` の指定も省略されます。例えば、[`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs) で `access_provider` を `simple` に設定した場合、[`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter) は指定しないでください。
次の設定スニペットは、`AdditionalSssdConfigs` の有効な設定の例です。  
この例では、SSSD ログのデバッグレベルを有効にし、検索ベースを特定の組織単位に制限し、認証情報のキャッシュを無効にしています。  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    debug_level: "0xFFF0"
    ldap_search_base: OU=Users,OU=CORP,DC=corp,DC=example,DC=com
    cache_credentials: False
```
この例では SSSD [https://www.mankier.com/5/sssd-simple](https://www.mankier.com/5/sssd-simple) `access_provider` の設定を指定しています。`EngineeringTeam` からのユーザーにはディレクトリへのアクセス許可が与えられます。この場合、[`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter) は設定できません。  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    access_provider: simple
    simple_allow_groups: EngineeringTeam
```
[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

# `DeploymentSettings` セクション
<a name="DeploymentSettings-cluster-v3"></a>

**注記**  
`DeploymentSettings` バージョン 3.4.0 AWS ParallelCluster 以降で が追加されました。

**(オプション)** デプロイ設定を指定します。

```
DeploymentSettings:
  LambdaFunctionsVpcConfig:
    SecurityGroupIds:
      - string
    SubnetIds:
      - string
  DisableSudoAccessForDefaultUser: Boolean
  DefaultUserHome: string # 'Shared' or 'Local'
```

## `DeploymentSettings` のプロパティ
<a name="DeploymentSettings-cluster-v3.properties"></a>

### `LambdaFunctionsVpcConfig`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig"></a>

**(オプション)** AWS Lambda 関数 VPC 設定を指定します。詳細については、「[AWS Lambda での VPC 設定 AWS ParallelCluster](lambda-vpc-v3.md)」を参照してください。

```
LambdaFunctionsVpcConfig:
  SecurityGroupIds:
    - string
  SubnetIds:
    - string
```

#### `LambdaFunctionsVpcConfig properties`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig.properties"></a>

 `SecurityGroupIds` (**必須**、`[String]`)  
Lambda 関数にアタッチされている Amazon VPC セキュリティグループ ID のリスト。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

 `SubnetIds` (**必須**、`[String]`)  
Lambda 関数にアタッチされているサブネット ID のリスト。  
[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**注記**  
サブネットとセキュリティグループは、同じ VPC にある必要があります。

### DisableSudoAccessForDefaultUser プロパティ
<a name="DeploymentSettings-cluster-v3-DisableSudoAccessForDefaultUser.property"></a>

**注記**  
この設定オプションは、Slurm クラスターでのみサポートされています。

(オプション) `True` の場合、デフォルトユーザーの sudo 権限は無効になります。これは、クラスター内のすべてのノードに適用されます。

```
# Main DeploymentSettings section in config yaml(applies to HN, CF and LN)
DeploymentSettings:
  DisableSudoAccessForDefaultUser: True
```

`DisableSudoAccessForDefaultUser` の値を更新するには、コンピューティングフリートとすべてのログインノードを停止する必要があります。

[更新ポリシー: この設定を変更して更新するには、コンピューティングフリートとログインノードを停止する必要があります。](using-pcluster-update-cluster-v3.md#update-policy-compute-login-v3)

### DefaultUserHome プロパティ
<a name="DeploymentSettings-cluster-v3-DefaultUserHome.property"></a>

`Shared` に設定すると、クラスターはデフォルト設定を使用し、`/home/<default user>` により、クラスター全体でデフォルトユーザーのディレクトリを共有します。

`Local` に設定すると、ヘッドノード、ログインノード、およびコンピューティングノードごとに、個別のローカルデフォルトユーザーディレクトリが `local/home/<default user>` に保存されます。