

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# 設定
<a name="configuration"></a>

デフォルトでは、 はすべての設定パラメータに `~/.parallelcluster/config` ファイル AWS ParallelCluster を使用します。`-c` または `--config` コマンドラインオプション、または `AWS_PCLUSTER_CONFIG_FILE` 環境変数を使用することで、カスタムコンフィグレーションファイルを指定することができます。

設定ファイルの例は、 の Python ディレクトリ AWS ParallelCluster に と共にインストールされます`site-packages/aws-parallelcluster/examples/config`。設定ファイルの例も GitHub ([https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config)) で入手できます。

Current AWS ParallelCluster 2 バージョン: 2.11.9。

**Topics**
+ [[レイアウト]](#layout)
+ [`[global]` セクション](global.md)
+ [`[aws]` セクション](aws.md)
+ [`[aliases]` セクション](aliases.md)
+ [`[cluster]` セクション](cluster-definition.md)
+ [`[compute_resource]` セクション](compute-resource-section.md)
+ [`[cw_log]` セクション](cw-log-section.md)
+ [`[dashboard]` セクション](dashboard-section.md)
+ [`[dcv]` セクション](dcv-section.md)
+ [`[ebs]` セクション](ebs-section.md)
+ [`[efs]` セクション](efs-section.md)
+ [`[fsx]` セクション](fsx-section.md)
+ [`[queue]` セクション](queue-section.md)
+ [`[raid]` セクション](raid-section.md)
+ [`[scaling]` セクション](scaling-section.md)
+ [`[vpc]` セクション](vpc-section.md)
+ [例](examples.md)

## [レイアウト]
<a name="layout"></a>

 AWS ParallelCluster 設定は複数のセクションで定義されます。

以下のセクションが必要です。[`[global]` セクション](global.md)および [`[aws]` セクション](aws.md)。

少なくとも、[`[cluster]` セクション](cluster-definition.md)および [`[vpc]` セクション](vpc-section.md)を 1 つずつ含める必要があります。

セクションは、角括弧で囲まれたセクション名で始まり、パラメータと設定が続きます。

```
[global]
cluster_template = default
update_check = true
sanity_check = true
```

# `[global]` セクション
<a name="global"></a>

`pcluster` に関連するグローバル設定オプションを指定します。

```
[global]
```

**Topics**
+ [`cluster_template`](#cluster-template)
+ [`update_check`](#update-check)
+ [`sanity_check`](#sanity-check)

## `cluster_template`
<a name="cluster-template"></a>

デフォルトでクラスターに使用される `cluster` セクションの名前を定義します。`cluster` セクションの詳細については、[「`[cluster]` セクション」](cluster-definition.md)を参照してください。クラスター名は、英字で始まり、60 文字以下で、英字、数字、ハイフン (-) のみで構成される必要があります。

例えば、`[cluster default]` で始まるセクションを指定する次の設定がデフォルトで使用されます。

```
cluster_template = default
```

[更新ポリシー: この設定は、更新中には分析されません。](using-pcluster-update.md#update-policy-setting-ignored)

## `update_check`
<a name="update-check"></a>

**(オプション)** `pcluster` の更新をチェックします。

デフォルト値は `true` です。

```
update_check = true
```

[更新ポリシー: この設定は、更新中には分析されません。](using-pcluster-update.md#update-policy-setting-ignored)

## `sanity_check`
<a name="sanity-check"></a>

**(オプション)** クラスターパラメーターで定義されているリソースの構成の検証を試行します。

デフォルト値は `true` です。

**警告**  
`sanity_check` を `false` に設定した場合、重要なチェックは省略されます。これにより、構成が意図したとおりに機能しなくなる可能性があります。

```
sanity_check = true
```

**注記**  
 AWS ParallelCluster バージョン 2.5.0 より前のバージョンでは、 は[`sanity_check`](#sanity-check)デフォルトで になりました`false`。

[更新ポリシー: この設定は、更新中には分析されません。](using-pcluster-update.md#update-policy-setting-ignored)

# `[aws]` セクション
<a name="aws"></a>

**（オプション）** を選択するために使用されます AWS リージョン。

クラスターの作成では、この優先順位を使用して、新しいクラスター AWS リージョン の を選択します。

1. `-r` または `--region` パラメータを [`pcluster create`](pluster.create.md) に渡す。

1. `AWS_DEFAULT_REGION` 環境変数

1. `aws_region_name` 設定ファイルの AWS ParallelCluster `[aws]`セクションで を設定する (デフォルトの場所は です）`~/.parallelcluster/config`。[`pcluster configure`](pcluster.configure.md) コマンドで更新される場所です。

1. `region` 設定ファイル (`~/.aws/config`.) AWS CLI の `[default]`セクションで を設定する

**注記**  
 AWS ParallelCluster バージョン 2.10.0 以前は、これらの設定は必須であり、すべてのクラスターに適用されていました。

認証情報を保存するには、環境、IAM ロールの Amazon EC2 または [AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html) を使用します。 AWS ParallelCluster 設定ファイルに認証情報を保存することはありません。

```
[aws]
aws_region_name = Region
```

[更新ポリシー: この設定は、更新中には分析されません。](using-pcluster-update.md#update-policy-setting-ignored)

# `[aliases]` セクション
<a name="aliases"></a>

**Topics**

エイリアスを指定することで、`ssh` コマンドをカスタマイズできるようになります。

次のデフォルト設定を書き留めます。
+ `CFN_USER` には、オペレーティングシステムのデフォルトのユーザー名が設定されます
+ `MASTER_IP` には、ヘッドノードの IP アドレスが設定されます
+ `ARGS` には、*`pcluster ssh cluster_name`* の後にユーザーが提供する任意の引数が設定されます

```
[aliases]
# This is the aliases section, you can configure
# ssh alias here
ssh = ssh {CFN_USER}@{MASTER_IP} {ARGS}
```

[更新ポリシー: この設定は、更新中には分析されません。](using-pcluster-update.md#update-policy-setting-ignored)

# `[cluster]` セクション
<a name="cluster-definition"></a>

クラスターを作成するために使用できるクラスターテンプレートを定義します。設定ファイルには、複数の `[cluster]` セクションを含めることができます。

同じクラスターテンプレートを使用して、複数のクラスターを作成できます。

形式は `[cluster cluster-template-name]` です。[`[global]` セクション](global.md)の [`cluster_template`](global.md#cluster-template) 設定によって名付けられた[`[cluster]` セクション](#cluster-definition)がデフォルトで使用されますが、[`pcluster`](pcluster.md) コマンドラインでオーバーライドすることができます。

*cluster-template-name* は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

```
[cluster default]
```

**Topics**
+ [`additional_cfn_template`](#additional-cfn-template)
+ [`additional_iam_policies`](#additional-iam-policies)
+ [`base_os`](#base-os)
+ [`cluster_resource_bucket`](#cluster-resource-bucket-section)
+ [`cluster_type`](#cluster-type)
+ [`compute_instance_type`](#compute-instance-type)
+ [`compute_root_volume_size`](#compute-root-volume-size)
+ [`custom_ami`](#custom-ami-section)
+ [`cw_log_settings`](#cw-log-settings)
+ [`dashboard_settings`](#dashboard-settings)
+ [`dcv_settings`](#dcv-settings)
+ [`desired_vcpus`](#desired-vcpus)
+ [`disable_cluster_dns`](#disable-cluster-dns-settings)
+ [`disable_hyperthreading`](#disable-hyperthreading)
+ [`ebs_settings`](#ebs-settings)
+ [`ec2_iam_role`](#ec2-iam-role)
+ [`efs_settings`](#efs-settings)
+ [`enable_efa`](#enable-efa)
+ [`enable_efa_gdr`](#enable-efa-gdr)
+ [`enable_intel_hpc_platform`](#enable-intel-hpc-platform)
+ [`encrypted_ephemeral`](#encrypted-ephemeral)
+ [`ephemeral_dir`](#ephemeral-dir)
+ [`extra_json`](#extra-json)
+ [`fsx_settings`](#fsx-settings)
+ [`iam_lambda_role`](#iam-lambda-role)
+ [`initial_queue_size`](#configuration-initial-queue-size)
+ [`key_name`](#key-name)
+ [`maintain_initial_size`](#maintain-initial-size)
+ [`master_instance_type`](#master-instance-type)
+ [`master_root_volume_size`](#master-root-volume-size)
+ [`max_queue_size`](#configuration-max-queue-size)
+ [`max_vcpus`](#max-vcpus)
+ [`min_vcpus`](#min-vcpus)
+ [`placement`](#placement)
+ [`placement_group`](#placement-group)
+ [`post_install`](#post-install)
+ [`post_install_args`](#post-install-args)
+ [`pre_install`](#pre-install)
+ [`pre_install_args`](#pre-install-args)
+ [`proxy_server`](#proxy-server)
+ [`queue_settings`](#queue-settings)
+ [`raid_settings`](#raid-settings)
+ [`s3_read_resource`](#s3-read-resource)
+ [`s3_read_write_resource`](#s3-read-write-resource)
+ [`scaling_settings`](#scaling-settings)
+ [`scheduler`](#scheduler)
+ [`shared_dir`](#cluster-shared-dir)
+ [`spot_bid_percentage`](#spot-bid-percentage)
+ [`spot_price`](#spot-price)
+ [`tags`](#tags)
+ [`template_url`](#template-url)
+ [`vpc_settings`](#vpc-settings)

## `additional_cfn_template`
<a name="additional-cfn-template"></a>

**(オプション)** クラスターとともに起動する追加の AWS CloudFormation テンプレートを定義します。この追加のテンプレートは、クラスターの外部にありながらクラスターのライフサイクルの一部であるリソースを作成するために使用されます。

この値は、すべてのパラメータが指定されているパブリックテンプレートへの HTTP URL である必要があります。

デフォルト値はありません。

```
additional_cfn_template = https://<bucket-name>.s3.amazonaws.com/my-cfn-template.yaml
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `additional_iam_policies`
<a name="additional-iam-policies"></a>

**(オプション)** Amazon EC2 の IAM ポリシーの Amazon リソースネーム (ARN) のリストを指定します。このリストは、カンマで区切られた AWS ParallelCluster で必要なアクセス権限に加えて、クラスターで使用されるルートロールにアタッチされます。IAM ポリシー名とその ARN が異なります。名前を `additional_iam_policies` の引数として使用することはできません。

クラスターノードのデフォルト設定にポリシーを追加する場合は、[`ec2_iam_role`](#ec2-iam-role) 設定を使用して特定の EC2 ポリシーを追加する代わりに、追加のカスタム IAM ポリシーを `additional_iam_policies` 設定と一緒に渡すことをお勧めします。これは、 `additional_iam_policies`が AWS ParallelCluster に必要なデフォルトのアクセス許可に追加されるためです。既存の [`ec2_iam_role`](#ec2-iam-role) には必要なアクセス許可がすべて含まれている必要があります。ただし、必要とされるアクセス許可は機能が追加されるたびに変更されることが多いため、既存の [`ec2_iam_role`](#ec2-iam-role) は古くなる可能性があります。

デフォルト値はありません。

```
additional_iam_policies = arn:aws:iam::123456789012:policy/CustomEC2Policy
```

**注記**  
 AWS ParallelCluster バージョン 2.5.0 で [`additional_iam_policies`](#additional-iam-policies) をサポートしました。

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `base_os`
<a name="base-os"></a>

**(必須)** クラスターで使用する OS タイプを指定します。

使用できるオプションは、以下のとおりです。
+ `alinux2`
+ `centos7`
+ `ubuntu1804`
+ `ubuntu2004`

**注記**  
Graviton AWS ベースのインスタンスでは、`alinux2`、`ubuntu1804`、または のみがサポート`ubuntu2004`されています。

**注記**  
 AWS ParallelCluster バージョン 2.11.4 で のサポート`centos8`が削除されました。 AWS ParallelCluster バージョン 2.11.0 で `ubuntu2004` のサポートが追加され、`alinux` および `ubuntu1604` のサポートが削除されました。のサポート`centos8`が追加され、 のサポート`centos6`が AWS ParallelCluster バージョン 2.10.0 で削除されました。 AWS ParallelCluster バージョン 2.6.0 で `alinux2` をサポートしました。`ubuntu1804` のサポートが追加され、`ubuntu1404` のサポートが AWS ParallelCluster バージョン 2.5.0 で削除されました。

次の表で AWS リージョン 説明されている、 をサポートしていない特定の 以外`centos7`。他のすべての AWS 商用リージョンは、以下のオペレーティングシステムをすべてサポートしています。


| パーティション (AWS リージョン) | `alinux2` | `centos7` | `ubuntu1804` および `ubuntu2004` | 
| --- | --- | --- | --- | 
| 商用 (特に記載 AWS リージョン されていないすべて) | 正 | True | 正 | 
| AWS GovCloud (米国東部) (us-gov-east-1) | 正 | False | 正 | 
| AWS GovCloud (米国西部) (us-gov-west-1) | 正 | False | 正 | 
| 中国 (北京) (cn-north-1) | 正 | False | 正 | 
| 中国 (寧夏) (cn-northwest-1) | 正 | False | 正 | 

**注記**  
[`base_os`](#base-os) パラメータは、クラスターへのログインに使用されるユーザー名も決定します。
+ `centos7`: `centos` 
+ `ubuntu1804` および `ubuntu2004`: `ubuntu` 
+ `alinux2`: `ec2-user` 

**注記**  
 AWS ParallelCluster バージョン 2.7.0 以前は、 [`base_os`](#base-os)パラメータはオプションで、デフォルトは でした`alinux`。 AWS ParallelCluster バージョン 2.7.0 以降は、[`base_os`](#base-os) パラメータが必須です。

**注記**  
[`scheduler`](#scheduler) パラメータが `awsbatch` の場合、`alinux2` のみがサポートされます。

```
base_os = alinux2
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `cluster_resource_bucket`
<a name="cluster-resource-bucket-section"></a>

**(オプション)** クラスター作成時に生成されるリソースをホストするために使用される Amazon S3 バケットの名前を指定します。バケットはバージョニングを有効にしておく必要があります。詳細については、*「Amazon Simple Storage Service ユーザーガイド」*の[「Using versioning」](https://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html)(バージョニングの使用) を参照してください。このバケットは、複数のクラスターに使用することができます。バケットはクラスターと同じリージョンにあることが必要です。

このパラメータが指定されていない場合、クラスター作成時に新しいバケットが作成されます。新しいバケツは `parallelcluster-random_string` という名前になります。この名前では、*random\$1string* は英数字からなるランダムな文字列です。すべてのクラスターリソースは、 という形式のパスでこのバケットに保存されます`bucket_name/resource_directory`。 `resource_directory`には という形式があります。ここで `stack_name-random_string`stack\$1name は、 で使用されるいずれかの CloudFormation スタックの名前です AWS ParallelCluster。 ***bucket\$1name* の値は、`parallelcluster-clustername` スタックの出力にある `ResourcesS3Bucket` 値で確認できます。*resource\$1directory* の値は、同じスタックから出力される `ArtifactS3RootDirectory` の値で確認することができます。

デフォルト値は `parallelcluster-random_string` です。

```
cluster_resource_bucket = amzn-s3-demo-bucket
```

**注記**  
 AWS ParallelCluster バージョン 2.10.0 で のサポートが追加され[`cluster_resource_bucket`](#cluster-resource-bucket-section)ました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。この設定を強制的に更新することはできません。](using-pcluster-update.md#update-policy-read-only-resource-bucket)

## `cluster_type`
<a name="cluster-type"></a>

**(オプション)** 起動するクラスターのタイプを定義します。[`queue_settings`](#queue-settings) の設定が定義されている場合、この設定は [`[queue]` セクション](queue-section.md)の [`compute_type`](queue-section.md#queue-compute-type) の設定に置き換える必要があります。

有効なオプションは、`ondemand` と `spot` です。

デフォルト値は `ondemand` です。

スポットインスタンスの詳細については、「[スポットインスタンスの操作](spot.md)」を参照してください。

**注記**  
スポットインスタンスを使用するには、お客様のアカウントに `AWSServiceRoleForEC2Spot` サービスにリンクしたロールが必要です。を使用してアカウントにこのロールを作成するには AWS CLI、次のコマンドを実行します。  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
詳細については、「*Amazon EC2 ユーザーガイド*」の「[スポットインスタンスリクエスト向けのサービスにリンクされたロール](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests)」を参照してください。

```
cluster_type = ondemand
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_instance_type`
<a name="compute-instance-type"></a>

**(オプション)** クラスターコンピューティングノードに使用される Amazon EC2 インスタンスタイプを定義します。インスタンスタイプのアーキテクチャは、[`master_instance_type`](#master-instance-type) 設定に使用されるアーキテクチャと同じでなければなりません。[`queue_settings`](#queue-settings) の設定が定義されている場合、この設定は [`[compute_resource]` セクション](compute-resource-section.md)の [`instance_type`](compute-resource-section.md#compute-resource-instance-type) の設定に置き換える必要があります。

ス`awsbatch`ケジューラを使用している場合は、UI AWS Batch のコンピューティング環境の作成で、サポートされているインスタンスタイプのリストを参照してください。

スケジューラが `awsbatch` の場合、デフォルトは `t2.micro`、`optimal` です。

```
compute_instance_type = t2.micro
```

**注記**  
 AWS ParallelCluster バージョン AWS 2.8.0 では、Graviton ベースのインスタンス ( `A1` および `C6g`インスタンスを含む) のサポートが追加されました。

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_root_volume_size`
<a name="compute-root-volume-size"></a>

**(オプション)** ComputeFleet のルートボリュームのサイズをジビバイト (GiB) 単位で指定します。AMI が `growroot` をサポートしている必要があります。

デフォルト値は `35` です。

**注記**  
2.5.0 から 2.10.4 までの AWS ParallelCluster バージョンでは、デフォルトは 25 でした。 AWS ParallelCluster バージョン 2.5.0 以前は、デフォルトは 20 でした。

```
compute_root_volume_size = 35
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `custom_ami`
<a name="custom-ami-section"></a>

**(オプション)** デフォルトの[公開された AMI](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/amis.txt) の代わりにヘッドノードおよびコンピューティングノードに使用するカスタム AMI の ID を指定します。詳細については、[AMI を変更する](tutorials_02_ami_customization.md#modify-an-aws-parallelcluster-ami)または[カスタム AMI AWS ParallelCluster の構築](tutorials_02_ami_customization.md#build-a-custom-aws-parallelcluster-ami)を参照してください。

デフォルト値はありません。

```
custom_ami = ami-00d4efc81188687a0
```

カスタム AMI の起動に追加のアクセス許可が必要な場合は、これらのアクセス許可をユーザーポリシーとヘッドノードポリシーの両方に追加する必要があります。

例えば、カスタム AMI に暗号化されたスナップショットが関連付けられている場合、ユーザーおよびヘッドノードポリシーの両方に次の追加のポリシーが必要です。

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```

------

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `cw_log_settings`
<a name="cw-log-settings"></a>

**(オプション)** CloudWatch Logs の設定を持つ `[cw_log]` セクションを特定します。セクション名は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

詳しくは、[「`[cw_log]` セクション」](cw-log-section.md)、「[Amazon CloudWatch ダッシュボード](cloudwatch-dashboard.md)」、「[Amazon CloudWatch Logs との統合](cloudwatch-logs.md)」を参照してください。

例えば、`[cw_log custom-cw]` で始まるセクションを指定する次の設定が CloudWatch Logs 設定で使用されます。

```
cw_log_settings = custom-cw
```

**注記**  
 AWS ParallelCluster バージョン 2.6.0 で のサポートが追加され[`cw_log_settings`](#cw-log-settings)ました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `dashboard_settings`
<a name="dashboard-settings"></a>

**(オプション)** CloudWatch ダッシュボードの設定を持つ `[dashboard]` セクションを特定します。セクション名は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

詳細については、[「`[dashboard]` セクション」](dashboard-section.md)を参照してください。

例えば、`[dashboard custom-dashboard` で始まるセクションを指定する次の設定が CloudWatch ダッシュボード 設定で使用されます。

```
dashboard_settings = custom-dashboard
```

**注記**  
 AWS ParallelCluster バージョン 2.10.0 で のサポートが追加され[`dashboard_settings`](#dashboard-settings)ました。

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `dcv_settings`
<a name="dcv-settings"></a>

**(オプション)** Amazon DCV 設定がある `[dcv]` セクションを識別します。セクション名は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

詳細については、「[`[dcv]` セクション](dcv-section.md)」を参照してください。

例えば、次の設定は、`[dcv custom-dcv]` を開始するセクションを Amazon DCV 設定で使用することを指定します。

```
dcv_settings = custom-dcv
```

**注記**  
Graviton AWS ベースのインスタンスでは、Amazon DCV は でのみサポートされています`alinux2`。

**注記**  
 AWS ParallelCluster バージョン 2.5.0 で のサポートが追加され[`dcv_settings`](#dcv-settings)ました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `desired_vcpus`
<a name="desired-vcpus"></a>

**(オプション)** コンピューティング環境で必要な vCPU 数を指定します。スケジューラが `awsbatch` の場合にのみ使用します。

デフォルト値は `4` です。

```
desired_vcpus = 4
```

[更新ポリシー: この設定は、更新中には分析されません。](using-pcluster-update.md#update-policy-setting-ignored)

## `disable_cluster_dns`
<a name="disable-cluster-dns-settings"></a>

**(オプション)** クラスターの DNS エントリを作成しないようにするかどうかを指定します。デフォルトでは、 は Route 53 ホストゾーン AWS ParallelCluster を作成します。`disable_cluster_dns` が `true` に設定されている場合、ホストゾーンは作成されません。

デフォルト値は `false` です。

```
disable_cluster_dns = true
```

**警告**  
クラスターが正常に動作するためには、名前解決システムが必要です。`disable_cluster_dns` を `true` に設定した場合、追加の名前解決システムも提供する必要があります。

**重要**  
[`disable_cluster_dns`](#disable-cluster-dns-settings) = `true` は、[`queue_settings`](#queue-settings) 設定が指定された場合のみサポートされます。

**注記**  
 AWS ParallelCluster バージョン 2.9.1 で のサポートが追加され[`disable_cluster_dns`](#disable-cluster-dns-settings)ました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `disable_hyperthreading`
<a name="disable-hyperthreading"></a>

**(Optional)** ヘッドノードとコンピューティングノードでハイパースレッディングを無効にします。すべてのインスタンスタイプがハイパースレッディングを無効にできるわけではありません。ハイパースレッディングの無効化をサポートするインスタンスタイプの一覧については、「*Amazon EC2 ユーザーガイド*」の「[インスタンスタイプ別の CPU コア数と CPU コアごとのスレッド数](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values)」を参照してください。[`queue_settings`](#queue-settings) の設定が定義されている場合、この設定を定義するか、[`[queue]` セクション](queue-section.md)の [`disable_hyperthreading`](queue-section.md#queue-disable-hyperthreading) の設定を定義することができます。

デフォルト値は `false` です。

```
disable_hyperthreading = true
```

**注記**  
[`disable_hyperthreading`](#disable-hyperthreading) は `scheduler = awsbatch` の時、ヘッドノードにのみ影響します。

**注記**  
 AWS ParallelCluster バージョン 2.5.0 で [`disable_hyperthreading`](#disable-hyperthreading) をサポートしました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `ebs_settings`
<a name="ebs-settings"></a>

**(オプション)** ヘッドノードにマウントされている Amazon EBS ボリュームを持つ `[ebs]` セクションを識別します。複数の Amazon EBS ボリュームを使用する場合、これらのパラメータをそれぞれカンマで区切ってリストで入力してください。セクション名は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

最大 5 つの追加の Amazon EBS ボリュームがサポートされます。

詳細については、[「`[ebs]` セクション」](ebs-section.md)を参照してください。

例えば、以下の設定では、`[ebs custom1]` と `[ebs custom2]` で始まるセクションが Amazon EBS ボリューム使用されるように指定します。

```
ebs_settings = custom1, custom2
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `ec2_iam_role`
<a name="ec2-iam-role"></a>

**(オプション)** クラスター内のすべてのインスタンスにアタッチされる Amazon EC2 の既存の IAM ロールの名前を定義します。IAM ロール名とその Amazon リソースネーム (ARN) は異なります。ARN を `ec2_iam_role` の引数として使用することはできません 。

このオプションを指定すると、[`additional_iam_policies`](#additional-iam-policies) 設定は無視されます。クラスターノードのデフォルト設定にポリシーを追加する場合は、`ec2_iam_role` 設定を使用する代わりに、追加のカスタム IAM ポリシーを [`additional_iam_policies`](#additional-iam-policies) 設定と一緒に渡すことをお勧めします。

このオプションを指定しない場合、Amazon EC2 AWS ParallelCluster のデフォルトの IAM ロールが使用されます。詳細については、「[AWS Identity and Access Management での ロール AWS ParallelCluster](iam.md)」を参照してください。

デフォルト値はありません。

```
ec2_iam_role = ParallelClusterInstanceRole
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `efs_settings`
<a name="efs-settings"></a>

**(オプション)** Amazon EFS ファイルシステムに関する設定を指定します。セクション名は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

詳細については、「[`[efs]` セクション](efs-section.md)」を参照してください。

例えば、`[efs customfs]` で始まるセクションを指定する次の設定が Amazon EFS ファイルシステム設定に使用されます。

```
efs_settings = customfs
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `enable_efa`
<a name="enable-efa"></a>

**(オプション)** これが存在する場合、コンピューターノードで Elastic Fabric Adapter (EFA) を有効化することを指定します。EFA をサポートする EC2 インスタンスのリストを表示するには、「Linux インスタンス用の Amazon EC2 ユーザーガイド**」の「[サポートされるインスタンスタイプ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types)」を参照してください。詳細については、「[Elastic Fabric Adapter](efa.md)」を参照してください。[`queue_settings`](#queue-settings) の設定が定義されている場合、この設定を定義するか、[`[queue]` のセクション](queue-section.md)の [`enable_efa`](queue-section.md#queue-enable-efa) の設定を定義することができます。クラスタープレイスメントグループは、インスタンス間のレイテンシーを最小限に抑えるために使用する必要があります。詳細については、「[`placement`](#placement)」および「[`placement_group`](#placement-group)」を参照してください。

```
enable_efa = compute
```

**注記**  
Arm ベースの Graviton2 インスタンスでの EFA のサポートが AWS ParallelCluster バージョン 2.10.1 で追加されました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `enable_efa_gdr`
<a name="enable-efa-gdr"></a>

**(オプション)** AWS ParallelCluster バージョン 2.11.3 以降、この設定は効果がありません。Elastic Fabric Adapter (EFA) の GPUDirect RDMA (リモートディレクトメモリーアクセス) のサポートは、インスタンスタイプとオペレーティングシステムの両方でサポートされていれば、常に有効です。

**注記**  
AWS ParallelCluster バージョン 2.10.0 から 2.11.2: の場合`compute`、コンピューティングノードで GPUDirect RDMA (リモートダイレクトメモリアクセス) の Elastic Fabric Adapter (EFA) サポートが有効になっていることを指定します。この設定を `compute` にするためには、[`enable_efa`](#enable-efa) の設定が `compute` に設定されている必要があります。GPUDirect RDMA の EFA は、特定のオペレーティングシステム ([`base_os`](#base-os) は `alinux2`、`centos7`、`ubuntu1804`、または `ubuntu2004`) 上の特定のインスタンスタイプ (`p4d.24xlarge`) でサポートされています。[`queue_settings`](#queue-settings) の設定が定義されている場合、この設定を定義するか、[`[queue]`のセクション](queue-section.md)の [`enable_efa_gdr`](queue-section.md#queue-enable-efa-gdr) の設定を定義することができます。クラスタープレイスメントグループは、インスタンス間のレイテンシーを最小限に抑えるために使用する必要があります。詳細については、「[`placement`](#placement)」および「[`placement_group`](#placement-group)」を参照してください。

```
enable_efa_gdr = compute
```

**注記**  
 AWS ParallelCluster バージョン 2.10.0 で のサポートが追加され`enable_efa_gdr`ました。

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_intel_hpc_platform`
<a name="enable-intel-hpc-platform"></a>

**(オプション)** 存在する場合は、インテル Parallel Studio の[エンドユーザー使用許諾契約書](https://software.intel.com/en-us/articles/end-user-license-agreement)が承認されたことを示します。これにより、インテル Parallel Studio がマスターノードにインストールされ、コンピューティングノードと共有されます。これにより、ヘッドノードのブートストラップに要する時間が数分長くなります。[`enable_intel_hpc_platform`](#enable-intel-hpc-platform) 設定は CentOS 7 ([`base_os`](#base-os)` = centos7`) でのみサポートされています。

デフォルト値は `false` です。

```
enable_intel_hpc_platform = true
```

**注記**  
[`enable_intel_hpc_platform`](#enable-intel-hpc-platform) パラメータは Graviton AWS ベースのインスタンスと互換性がありません。

**注記**  
 AWS ParallelCluster バージョン 2.5.0 で [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) をサポートしました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `encrypted_ephemeral`
<a name="encrypted-ephemeral"></a>

**(オプション)** LUKS (Linux Unified Key Setup) を使用して、回復不能なメモリ内キーにより一時的なインスタンスストアボリュームを暗号化します。

詳細については、「[https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md](https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md)」を参照してください。

デフォルト値は `false` です。

```
encrypted_ephemeral = true
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `ephemeral_dir`
<a name="ephemeral-dir"></a>

**(オプション)** インスタンスストアボリュームをマウントするパスを定義します (使用されている場合)。

デフォルト値は `/scratch` です。

```
ephemeral_dir = /scratch
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `extra_json`
<a name="extra-json"></a>

**(オプション)** Chef `dna.json` にマージされる追加の JSON を定義します。詳細については、「[カスタム AMI AWS ParallelCluster の構築](tutorials_02_ami_customization.md)」を参照してください。

デフォルト値は `{}` です。

```
extra_json = {}
```

**注記**  
 AWS ParallelCluster バージョン 2.6.1 以降では、起動時間を短縮するために、ノードの起動時にほとんどのインストールレシピがデフォルトでスキップされます。起動時間の短縮よりも下位互換性の向上を優先させるために、すべてのインストールレシピを実行するには、[`extra_json`](#extra-json) 設定の `cluster` キーに `"skip_install_recipes" : "no"` を追加します。例:  

```
extra_json = { "cluster" : { "skip_install_recipes" : "no" } }
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `fsx_settings`
<a name="fsx-settings"></a>

**(オプション)** FSx for Lustre 設定を定義するセクションを指定します。セクション名は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

詳細については、[「`[fsx]` セクション」](fsx-section.md)を参照してください。

例えば、`[fsx fs]` で始まるセクションを指定する次の設定が FSx for Lustre 設定で使用されます。

```
fsx_settings = fs
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `iam_lambda_role`
<a name="iam-lambda-role"></a>

**(オプション)** 既存の AWS Lambda 実行ロールの名前を定義します。このロールは、クラスター内のすべての Lambda 関数にアタッチされます。詳細については、*「AWS Lambda デベロッパーガイド」*の[「AWS Lambda execution role」](https://docs.aws.amazon.com/lambda/latest/dg/lambda-intro-execution-role.html)を参照してください。

**注記**  
バージョン 2.11.5 AWS ParallelCluster 以降、 は SGEまたは スTorqueケジューラの使用をサポートしていません。

IAM ロール名とその Amazon リソースネーム (ARN) は異なります。ARN を `iam_lambda_role` の引数として使用することはできません 。[`ec2_iam_role`](#ec2-iam-role) および `iam_lambda_role` の両方が定義されており、[`scheduler`](#scheduler) が `sge`、`slurm` または `torque` の場合、ロールは作成されません。[`scheduler`](#scheduler) が `awsbatch` であれば、[`pcluster start`](pcluster.start.md) の間にロールが作成されます。ポリシーの例ついては、「[SGE、Slurm または Torque を使用する `ParallelClusterLambdaPolicy`](iam.md#parallelcluster-lambda-policy)」および「[`awsbatch` を使用する `ParallelClusterLambdaPolicy`](iam.md#parallelcluster-lambda-policy-batch)」を参照してください。

デフォルト値はありません。

```
iam_lambda_role = ParallelClusterLambdaRole
```

**注記**  
 AWS ParallelCluster バージョン 2.10.1 で のサポートが追加され`iam_lambda_role`ました。

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `initial_queue_size`
<a name="configuration-initial-queue-size"></a>

**(オプション)** クラスターでコンピューティングノードとして起動する Amazon EC2 インスタンスの最初の数を設定します。[`queue_settings`](#queue-settings) の設定が定義されている場合、この設定は削除され、[`[compute_resource]` セクション](compute-resource-section.md)の [`initial_count`](compute-resource-section.md#compute-resource-initial-count) の設定に置き換わります。

**注記**  
バージョン 2.11.5 AWS ParallelCluster 以降、 は SGEまたは スTorqueケジューラの使用をサポートしていません。

この設定は、従来のスケジューラ (SGE、Slurm、Torque) にのみ適用されます。[`maintain_initial_size`](#maintain-initial-size) 設定が `true` の場合、[`initial_queue_size`](#configuration-initial-queue-size) 設定は 1 以上でなければなりません。

スケジューラが `awsbatch` の場合は、[`min_vcpus`](#min-vcpus) を使用します。

デフォルトは `2` です。

```
initial_queue_size = 2
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `key_name`
<a name="key-name"></a>

**(オプション)** インスタンスへの SSH アクセスを有効にするための既存の Amazon EC2 キーペアを指定します。

```
key_name = mykey
```

**注記**  
 AWS ParallelCluster バージョン 2.11.0 以前は、 が必須の設定`key_name`でした。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `maintain_initial_size`
<a name="maintain-initial-size"></a>

**注記**  
バージョン 2.11.5 AWS ParallelCluster 以降、 は SGEまたは スTorqueケジューラの使用をサポートしていません。

**(Optional)** 従来のスケジューラ (SGE、Slurm および Torque) の Auto Scaling グループの最初のサイズを維持します。

スケジューラが `awsbatch` の場合は、[`desired_vcpus`](#desired-vcpus) を使用します。

この設定は、ブーリアン型フラグです。`true` に設定した場合、Auto Scaling グループのメンバーは [`initial_queue_size`](#configuration-initial-queue-size) の値より少なくなることはなく、[`initial_queue_size`](#configuration-initial-queue-size) の値は 1 以上でなければなりません。クラスターは [`max_queue_size`](#configuration-max-queue-size) の値にスケールアップできます。`cluster_type = spot` の場合、Auto Scaling グループはインスタンスを中断し、[`initial_queue_size`](#configuration-initial-queue-size) サイズを下回る可能性があります。

`false` に設定した場合、Auto Scaling グループは、不要なときにリソースがアイドル状態で待機するのを回避するため、ゼロ (0) メンバーにスケールダウンできます。

[`queue_settings`](#queue-settings) の設定が定義されている場合、この設定は削除され、[`[compute_resource]` セクション](compute-resource-section.md)の [`initial_count`](compute-resource-section.md#compute-resource-initial-count) および [`min_count`](compute-resource-section.md#compute-resource-min-count) の設定に置き換わります。

デフォルトは `false` です。

```
maintain_initial_size = false
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `master_instance_type`
<a name="master-instance-type"></a>

**(オプション)** ヘッドノードに使用される Amazon EC2 インスタンスタイプを定義します。インスタンスタイプのアーキテクチャは、[`compute_instance_type`](#compute-instance-type) 設定に使用されるアーキテクチャと同じでなければなりません。

無料利用枠 AWS リージョン がある では、 はデフォルトで無料利用枠インスタンスタイプ (`t2.micro` または ) になります`t3.micro`。無料利用枠 AWS リージョン がない では、 のデフォルトは です`t3.micro`。 AWS 無料利用枠の詳細については、[AWS 「 無料利用枠に関するFAQs](https://aws.amazon.com/free/free-tier-faqs/)」を参照してください。

```
master_instance_type = t2.micro
```

**注記**  
 AWS ParallelCluster バージョン 2.10.1 より前では、 はデフォルトですべて `t2.micro` に設定されています AWS リージョン。 AWS ParallelCluster バージョン 2.10.0 では、ヘッドノードで `p4d.24xlarge` がサポートされていませんでした。 AWS ParallelCluster バージョン AWS 2.8.0 では、Graviton ベースのインスタンス ( `A1`や など`C6g`) のサポートが追加されました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `master_root_volume_size`
<a name="master-root-volume-size"></a>

**(オプション)** ヘッドノードルートボリュームサイズをジビバイト (GiB) 単位で指定します。AMI が `growroot` をサポートしている必要があります。

デフォルト値は `35` です。

**注記**  
2.5.0 から 2.10.4 までの AWS ParallelCluster バージョンでは、デフォルトは 25 でした。 AWS ParallelCluster バージョン 2.5.0 以前は、デフォルトは 20 でした。

```
master_root_volume_size = 35
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `max_queue_size`
<a name="configuration-max-queue-size"></a>

**(オプション)** クラスターで起動可能な最大数の Amazon EC2 インスタンスの最大数を設定します。[`queue_settings`](#queue-settings) の設定が定義されている場合、この設定は削除され、[`[compute_resource]` セクション](compute-resource-section.md)の [`max_count`](compute-resource-section.md#compute-resource-max-count) の設定に置き換わります。

**注記**  
バージョン 2.11.5 AWS ParallelCluster 以降、 は SGEまたは スTorqueケジューラの使用をサポートしていません。

この設定は、従来のスケジューラ (SGE、Slurm、Torque) にのみ適用されます。

スケジューラが `awsbatch` の場合は、[`max_vcpus`](#max-vcpus) を使用します。

デフォルトは `10` です。

```
max_queue_size = 10
```

更新ポリシー: この設定はアップデート中に変更することができますが、値が小さくなった場合はコンピューティングフリートを停止する必要があります。そうでなければ、既存のノードを終了させることができます。

## `max_vcpus`
<a name="max-vcpus"></a>

**(オプション)** コンピューティング環境での vCPU の最大数を指定します。スケジューラが `awsbatch` の場合にのみ使用します。

デフォルト値は `20` です。

```
max_vcpus = 20
```

[更新ポリシー: これらの設定は、更新中に減らすことはできません。](using-pcluster-update.md#update-policy-no-decrease)

## `min_vcpus`
<a name="min-vcpus"></a>

**(オプション)** `awsbatch` スケジューラの Auto Scaling グループの最初のサイズを維持します。

**注記**  
バージョン 2.11.5 AWS ParallelCluster 以降、 は SGEまたは スTorqueケジューラの使用をサポートしていません。

スケジューラが SGE、Slurm、または Torque の場合は、[`maintain_initial_size`](#maintain-initial-size) を使用します。

コンピューティング環境のメンバー数が [`min_vcpus`](#min-vcpus) の値よりも少なくなることはありません。

デフォルトは `0` です。

```
min_vcpus = 0
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `placement`
<a name="placement"></a>

**(オプション)** クラスターのプレイスメントグループのロジックを定義します。これにより、クラスター全体、またはクラスタープレイスメントグループを使用するコンピューティングインスタンスのみが有効になります。

[`queue_settings`](#queue-settings) の設定が定義されている場合、この設定は削除され、[`[queue]` セクション](queue-section.md)の [`placement_group`](queue-section.md#queue-placement-group) の設定に置き換わります。異なるインスタンスタイプを同じプレイスメントグループで使用している場合、容量不足のエラーでリクエストが失敗する可能性が高くなります。詳細については、「*Amazon EC2 ユーザーガイド*」の「[インスタンス容量の不足](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity)」を参照してください。複数のキューがプレイスメントグループを共有できるのは、事前に作成され、各キューの [`placement_group`](queue-section.md#queue-placement-group) 設定で構成された場合だけです。各 [`[queue]` セクション](queue-section.md)が [`placement_group`](queue-section.md#queue-placement-group) の設定を定義している場合、ヘッドノードはキューのプレイスメントグループに入ることができません。

有効なオプションは `cluster` または `compute` です。

このパラメータは、スケジューラが `awsbatch` の場合には使用されません。

デフォルト値は `compute` です。

```
placement = compute
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `placement_group`
<a name="placement-group"></a>

**(オプション)** クラスタープレイスメントグループを定義します。[`queue_settings`](#queue-settings) の設定が定義されている場合、この設定は削除され、[`[queue]` セクション](queue-section.md)の [`placement_group`](queue-section.md#queue-placement-group) の設定に置き換わります。

有効なオプションは、次の値です。
+ `DYNAMIC`
+ 既存の Amazon EC2 クラスタープレイスメントグループ名

`DYNAMIC` に設定されている場合、一意のプレイスメントグループはクラスタースタックの一部として作成され、削除されます。

このパラメータは、スケジューラが `awsbatch` の場合には使用されません。

プレイスメントグループの詳細については、「*Amazon EC2 ユーザーガイド*」の「[プレイスメントグループ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)」を参照してください。異なるインスタンスタイプを同じプレイスメントグループで使用している場合、容量不足のエラーでリクエストが失敗する可能性が高くなります。詳細については、「*Amazon EC2 ユーザーガイド*」の「[インスタンス容量の不足](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity)」を参照してください。

デフォルト値はありません。

すべてのインスタンスタイプがクラスタープレイスメントグループをサポートしているわけではありません。例えば、デフォルトのインスタンスタイプでは、クラスタープレイスメントグループは `t3.micro` によってサポートされません。クラスターのプレイスメントグループをサポートするインスタンスタイプのリストについては、「*Amazon EC2 ユーザーガイド*」の「[クラスタープレイスメントグループのルールと制限](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster)」を参照してください。プレイスメントグループを使用する際のヒントについては、「[プレイスメントグループとインスタンスの起動に関する問題](troubleshooting.md#placement-groups-and-instance-launch-issues)」を参照してください。

```
placement_group = DYNAMIC
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `post_install`
<a name="post-install"></a>

**(オプション)** すべてのノードブートストラップアクションが完了した後に実行されるポストインストールスクリプトへの URL を指定します。詳細については、「[カスタムブートストラップアクション](pre_post_install.md)」を参照してください。

`awsbatch` をスケジューラとして使用する場合、ポストインストールスクリプトはヘッドノードでのみ実行されます。

パラメータの形式には、「`http://hostname/path/to/script.sh`」または「`s3://bucket-name/path/to/script.sh`」を指定できます。

デフォルト値はありません。

```
post_install = s3://<bucket-name>/my-post-install-script.sh
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `post_install_args`
<a name="post-install-args"></a>

**(オプション)** ポストインストールスクリプトに渡される引用符で囲んだ引数のリストを指定します。

デフォルト値はありません。

```
post_install_args = "argument-1 argument-2"
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install`
<a name="pre-install"></a>

**(オプション)** ノードデプロイブートストラップアクションが開始される前に実行されるプレインストールスクリプトへの URL を指定します。詳細については、「[カスタムブートストラップアクション](pre_post_install.md)」を参照してください。

`awsbatch` をスケジューラとして使用する場合、プレインストールスクリプトはマスターノードでのみ実行されます。

パラメータの形式には、「`http://hostname/path/to/script.sh`」または「`s3://bucket-name/path/to/script.sh`」を指定できます。

デフォルト値はありません。

```
pre_install = s3://bucket-name/my-pre-install-script.sh
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install_args`
<a name="pre-install-args"></a>

**(オプション)** プレインストールスクリプトに渡される引用符で囲んだ引数のリストを指定します。

デフォルト値はありません。

```
pre_install_args = "argument-3 argument-4"
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `proxy_server`
<a name="proxy-server"></a>

**(オプション)** HTTP または HTTPS プロキシサーバーを定義します。通常は、`http://x.x.x.x:8080` です。

デフォルト値はありません。

```
proxy_server = http://10.11.12.13:8080
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `queue_settings`
<a name="queue-settings"></a>

**(オプション)** クラスターが同種コンピューティングフリートの代わりにキューを使用するように指定し、どの[`[queue]`セクション](queue-section.md)を使用するかを指定します。最初に表示された [`[queue]` セクション](queue-section.md)は、デフォルトのスケジューラーキューです。`queue` セクション名は、英字の小文字で始まり、30 文字以下で、小文字の英字、数字、ハイフン (-) のみで構成される必要があります。

**重要**  
[`queue_settings`](#queue-settings) は、[`scheduler`](#scheduler) が `slurm` に設定されている場合にのみサポートされます。[`cluster_type`](#cluster-type)、[`compute_instance_type`](#compute-instance-type)、[`initial_queue_size`](#configuration-initial-queue-size)、[`maintain_initial_size`](#maintain-initial-size)、[`max_queue_size`](#configuration-max-queue-size)、[`placement`](#placement)、[`placement_group`](#placement-group) および [`spot_price`](#spot-price) の設定を指定してはいけません。[`disable_hyperthreading`](#disable-hyperthreading) および [`enable_efa`](#enable-efa) の設定は、[`[cluster]` セクション](#cluster-definition)か [`[queue]` セクション](queue-section.md)のどちらかに指定できますが、両方に指定することはできません。

最大で 5 つの [`[queue]` セクション](queue-section.md)に対応しています。

詳細については、[「`[queue]` セクション」](queue-section.md)を参照してください。

例えば、以下の設定では、`[queue q1]` と `[queue q2]` で始まるセクションが使用されるように指定します。

```
queue_settings = q1, q2
```

**注記**  
 AWS ParallelCluster バージョン 2.9.0 で のサポートが追加され[`queue_settings`](#queue-settings)ました。

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `raid_settings`
<a name="raid-settings"></a>

**(オプション)** Amazon EBS ボリューム RAID 設定で `[raid]` セクションを識別します。セクション名は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

詳細については、[「`[raid]` セクション」](raid-section.md)を参照してください。

例えば、`[raid rs]` で始まるセクションを指定する次の設定がオートスケーリング設定で使用されます。

```
raid_settings = rs
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `s3_read_resource`
<a name="s3-read-resource"></a>

**(オプション)** AWS ParallelCluster ノードに読み取り専用アクセスを付与する Amazon S3 リソースを指定します。

例えば、`arn:aws:s3:::my_corporate_bucket*` は *my\$1corporate\$1bucket* というバケットと、そのバケット内のオブジェクトへの読み取り専用のアクセスを提供します。

形式の詳細については、[「working with Amazon S3」](s3_resources.md)(Amazon S3 の使用) を参照してください。

デフォルト値はありません。

```
s3_read_resource = arn:aws:s3:::my_corporate_bucket*
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `s3_read_write_resource`
<a name="s3-read-write-resource"></a>

**(オプション)** AWS ParallelCluster ノードに読み取りおよび書き込みアクセスを付与する Amazon S3 リソースを指定します。

例えば、`arn:aws:s3:::my_corporate_bucket/Development/*` は、*my\$1corporate\$1bucket* バケットの `Development` フォルダにあるすべてのオブジェクトに読み取り/書き込みアクセス許可を付与します。

形式の詳細については、[「working with Amazon S3」](s3_resources.md)(Amazon S3 の使用) を参照してください。

デフォルト値はありません。

```
s3_read_write_resource = arn:aws:s3:::my_corporate_bucket/*
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `scaling_settings`
<a name="scaling-settings"></a>

オートスケーリングボリューム RAID 設定で `[scaling]` セクションを識別します。セクション名は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

詳細については、[「`[scaling]` セクション」](scaling-section.md)を参照してください。

例えば、`[scaling custom]` で始まるセクションを指定する次の設定がオートスケーリング設定で使用されます。

```
scaling_settings = custom
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `scheduler`
<a name="scheduler"></a>

**(必須)** クラスターのスケジューラを定義します。

有効なオプションは、次の値です。

`awsbatch`  
AWS Batch  
`awsbatch` スケジューラの詳細については、「[ネットワークのセットアップ](networking.md#awsbatch-networking)」および「[AWS Batch (`awsbatch`)](awsbatchcli.md)」を参照してください。

`sge`  
バージョン 2.11.5 AWS ParallelCluster 以降、 は SGEまたは スTorqueケジューラの使用をサポートしていません。
Son of Grid Engine (SGE)

`slurm`  
Slurm Workload Manager (Slurm)

`torque`  
バージョン 2.11.5 AWS ParallelCluster 以降、 は SGEまたは スTorqueケジューラの使用をサポートしていません。
Torque Resource Manager (Torque)

**注記**  
 AWS ParallelCluster バージョン 2.7.0 以前は、 `scheduler`パラメータはオプションで、デフォルトは でした`sge`。 AWS ParallelCluster バージョン 2.7.0 以降では、 `scheduler`パラメータが必要です。

```
scheduler = slurm
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="cluster-shared-dir"></a>

**(オプション)** 共有 Amazon EBS ボリュームをマウントするパスを定義します。

このオプションを複数の Amazon EBS ボリュームと一緒に使用しないでください。代わりに、各 [`[ebs]` セクション](ebs-section.md)で [`shared_dir`](#cluster-shared-dir) 値を指定します。

複数の Amazon EBS ボリュームを扱う場合の詳細は、[「`[ebs]`」](ebs-section.md)セクションを参照してください。

デフォルト値は `/shared` です。

`/myshared` の共有 Amazon EBS ボリュームを以下の例に示します。

```
shared_dir = myshared
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `spot_bid_percentage`
<a name="spot-bid-percentage"></a>

**(オプション)** `awsbatch` がスケジューラである場合は、必要に応じて、ComputeFleet の最大スポット料金の計算に使用されるオンデマンド割合を設定します。

指定しない場合は、オンデマンド料金を上限として、現在のスポット市場価格が選択されます。

```
spot_bid_percentage = 85
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `spot_price`
<a name="spot-price"></a>

**注記**  
バージョン 2.11.5 AWS ParallelCluster 以降、 は SGEまたは スTorqueケジューラの使用をサポートしていません。

**(オプション)** 従来のスケジューラ (SGE、Slurm、および Torque) で必要に応じて ComputeFleet の最大スポット料金を設定します。[`cluster_type`](#cluster-type) が `spot` に設定されている場合にのみ使用されます。値を指定しない場合、オンデマンド料金を上限とするスポット料金が課金されます。[`queue_settings`](#queue-settings) の設定が定義されている場合、この設定は削除され、[`[compute_resource]` セクション](compute-resource-section.md)の [`spot_price`](compute-resource-section.md#compute-resource-spot-price) の設定に置き換わります。

スケジューラが `awsbatch` の場合は、代わりに [spot\$1bid\$1percentage](#spot-bid-percentage) を使用します。

ニーズに合ったスポットインスタンスを見つける方法については、[「スポットインスタンスアドバイザー」](https://aws.amazon.com/ec2/spot/instance-advisor/)を参照してください。

```
spot_price = 1.50
```

**注記**  
 AWS ParallelCluster バージョン 2.5.0 では、 `cluster_type = spot`が指定[`spot_price`](#spot-price)されていない場合、ComputeFleet のインスタンス起動は失敗します。これは AWS ParallelCluster バージョン 2.5.1 で修正されました。

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `tags`
<a name="tags"></a>

**(オプション)** 使用するタグを定義します CloudFormation。

コマンドラインタグが *--tags* を介して指定されている場合は、設定タグとマージされます。

コマンドラインタグは、同じキーを持つタグ設定を上書きします。

タグは JSON 形式です。中括弧の外側に引用符を使用しないでください。

詳細については、「AWS CloudFormation ユーザーガイド**」の「[CloudFormation リソースタグタイプ](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html)」を参照してください。

```
tags = {"key" : "value", "key2" : "value2"}
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

**注記**  
更新ポリシーでは、バージョン 2.8.0 からバージョン 2.9.1 までの AWS ParallelCluster の `tags` 設定の変更に対応していませんでした。  
バージョン 2.10.0 からバージョン 2.11.7 では、`tags` 設定の変更をサポートしている更新ポリシーのリストが正確ではありません。この設定を変更する際のクラスター更新はサポートされていません。

## `template_url`
<a name="template-url"></a>

**(オプション)** クラスターの作成に使用される AWS CloudFormation テンプレートへのパスを定義します。

更新では、スタックの作成に使用した元のテンプレートが使用されます。

デフォルトは `https://aws_region_name-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version.cfn.json` です。

**警告**  
これは上級者向けのパラメータです。この設定を変更する場合は、お客様の責任において行ってください。

```
template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json
```

[更新ポリシー: この設定は、更新中には分析されません。](using-pcluster-update.md#update-policy-setting-ignored)

## `vpc_settings`
<a name="vpc-settings"></a>

**(必須)** クラスターがデプロイされる Amazon VPC 設定で `[vpc]` セクションを識別します。セクション名は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

詳細については、[「`[vpc]` セクション」](vpc-section.md)を参照してください。

例えば、`[vpc public]` で始まるセクションを指定する次の設定が Amazon VPC 設定で使用されます。

```
vpc_settings = public
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

# `[compute_resource]` セクション
<a name="compute-resource-section"></a>

コンピューティングリソースのコンフィギュレーション設定を定義します。[`[compute_resource]` のセクション](#compute-resource-section)は、[`[queue]` セクション](queue-section.md) の [`compute_resource_settings`](queue-section.md#queue-compute-resource-settings) の設定によって参照されます。[`[compute_resource]` セクション](#compute-resource-section)は、[`scheduler`](cluster-definition.md#scheduler) が `slurm` に設定されている場合のみサポートされます。

形式は、`[compute_resource <compute-resource-name>]` です。*compute-resource-name* は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

```
[compute_resource cr1]
instance_type = c5.xlarge
min_count = 0
initial_count = 2
max_count = 10
spot_price = 0.5
```

**注記**  
 AWS ParallelCluster バージョン 2.9.0 で [`[compute_resource]`セクション](#compute-resource-section)のサポートが追加されました。

**Topics**
+ [`initial_count`](#compute-resource-initial-count)
+ [`instance_type`](#compute-resource-instance-type)
+ [`max_count`](#compute-resource-max-count)
+ [`min_count`](#compute-resource-min-count)
+ [`spot_price`](#compute-resource-spot-price)

## `initial_count`
<a name="compute-resource-initial-count"></a>

**(オプション)** このコンピューティングリソースを起動するための Amazon EC2 インスタンスの最初の数を設定します。クラスターの作成は、少なくともこのたくさんのノードがコンピューティングリソースに送信されるまで完了しません。キューの [`compute_type`](queue-section.md#queue-compute-type) 設定が `spot` で、利用可能なスポットインスタンスが十分でない場合、クラスターの作成がタイムアウトして失敗することがあります。[`min_count`](#compute-resource-min-count) の設定よりも大きいカウントは、[`scaledown_idletime`](scaling-section.md#scaledown-idletime) の設定の対象となる動的容量です。この設定は、[`initial_queue_size`](cluster-definition.md#configuration-initial-queue-size) 設定と置き換わります。

デフォルトは `0` です。

```
initial_count = 2
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `instance_type`
<a name="compute-resource-instance-type"></a>

**(必須)** このコンピューティングリソースに使用される Amazon EC2 インスタンスタイプを定義します。インスタンスタイプのアーキテクチャは、[`master_instance_type`](cluster-definition.md#master-instance-type) 設定に使用されるアーキテクチャと同じでなければなりません。`instance_type` の設定は、[`[queue]` セクション](queue-section.md)で参照される[`[compute_resource]` セクション](#compute-resource-section)ごとに固有のものでなければなりません。この設定は、[`compute_instance_type`](cluster-definition.md#compute-instance-type) 設定と置き換わります。

```
instance_type = t2.micro
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `max_count`
<a name="compute-resource-max-count"></a>

**(オプション)** このコンピューティングリソースで起動可能な最大数の Amazon EC2 インスタンスの最大数を設定します。[`initial_count`](#compute-resource-initial-count) の設定値より大きいカウントは、パワーダウンモードで起動します。この設定は、[`max_queue_size`](cluster-definition.md#configuration-max-queue-size) 設定と置き換わります。

デフォルトは `10` です。

```
max_count = 10
```

[更新ポリシー: キューを現在のノード数以下に減らすには、まずコンピューティングフリートを停止させる必要があります。](using-pcluster-update.md#update-policy-max-count)

**注記**  
更新ポリシーでは、バージョン 2.0.0 から AWS ParallelCluster バージョン 2.9.1 のコンピューティングフリートが停止するまで、 `max_count`設定を変更することはサポートされていませんでした。

## `min_count`
<a name="compute-resource-min-count"></a>

**(オプション)** このコンピューティングリソースで起動可能な最大数の Amazon EC2 インスタンスの最小数を設定します。これらのノードはすべて静的な容量です。クラスターの作成は、少なくともこの数のノードがコンピューティングリソースに送信されるまで完了しません。

デフォルトは `0` です。

```
min_count = 1
```

[更新ポリシー: キュー内の静的ノードの数を減らすには、まずコンピューティングフリートを停止させる必要があります。](using-pcluster-update.md#update-policy-min-count)

**注記**  
更新ポリシーでは、バージョン 2.0.0 から AWS ParallelCluster バージョン 2.9.1 のコンピューティングフリートが停止するまで、 `min_count`設定を変更することはサポートされていませんでした。

## `spot_price`
<a name="compute-resource-spot-price"></a>

**(オプション)** このコンピューティングリソースの最大スポット料金を設定します。このコンピューティングリソースを含むキューの [`compute_type`](queue-section.md#queue-compute-type) 設定が `spot` に設定されている場合のみ使用されます。この設定は、[`spot_price`](cluster-definition.md#spot-price) 設定と置き換わります。

値を指定しない場合、オンデマンド料金を上限とするスポット料金が課金されます。

ニーズに合ったスポットインスタンスを見つける方法については、[「Spot Instance advisor」](https://aws.amazon.com/ec2/spot/instance-advisor/)(スポットインスタンスアドバイザー) を参照してください。

```
spot_price = 1.50
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

# `[cw_log]` セクション
<a name="cw-log-section"></a>

CloudWatch Logs の構成設定を定義します。

形式は、`[cw_log cw-log-name]` です。*cw-log-name* は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

```
[cw_log custom-cw-log]
enable = true
retention_days = 14
```

詳細については[Amazon CloudWatch Logs との統合](cloudwatch-logs.md)、[Amazon CloudWatch ダッシュボード](cloudwatch-dashboard.md)、および[Amazon CloudWatch Logs との統合](cloudwatch-logs.md)を参照してください。

**注記**  
 AWS ParallelCluster バージョン 2.6.0 で のサポートが追加され`cw_log`ました。

## `enable`
<a name="cw-log-section-enable"></a>

 **(オプション)** CloudWatch Logs ログ記録が有効かどうかを示します。

デフォルト値は `true` です。CloudWatch Logs を無効にするには `false` を使用します。

次の例では、CloudWatch Logs を有効にします。

```
enable = true
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `retention_days`
<a name="cw-log-section-retention-days"></a>

 **(オプション)** CloudWatch Logs が個々のログイベントを保持する日数を示します。

デフォルト値は `14` です。サポートされる値は 1、3、5、7、14、30、60、90、120、150、180、365、400、545、731、1827、3653 です。

次の例では、CloudWatch Logs が 30 日間ログイベントを保持するように設定しています。

```
retention_days = 30
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

# `[dashboard]` セクション
<a name="dashboard-section"></a>

CloudWatch ダッシュボードの構成設定を定義します。

形式は、`[dashboard dashboard-name]` です。*dashboard-name* は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

```
[dashboard custom-dashboard]
enable = true
```

**注記**  
 AWS ParallelCluster バージョン 2.10.0 で のサポートが追加され`dashboard`ました。

## `enable`
<a name="dashboard-section-enable"></a>

 **(オプション)** CloudWatch ダッシュボードログが有効かどうかを示します。

デフォルト値は `true` です。`false` を使用して、CloudWatch ダッシュボードを無効にします。

次の例では、CloudWatch ダッシュボードを有効にします。

```
enable = true
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

# `[dcv]` セクション
<a name="dcv-section"></a>

ヘッドノードで実行している Amazon DCV サーバーの構成設定を定義します。

Amazon DCV サーバを作成して設定するには、`dcv` セクションで定義した名前を使用してクラスター [`dcv_settings`](cluster-definition.md#dcv-settings) を指定し、[`enable`](#dcv-section-enable) を `master` に設定して、[`base_os`](cluster-definition.md#base-os) を `alinux2`、`centos7`、`ubuntu1804` または `ubuntu2004` に設定します。ヘッドノードが ARM インスタンスの場合は、[`base_os`](cluster-definition.md#base-os) を `alinux2`、`centos7` または `ubuntu1804` に設定します。

形式は、`[dcv dcv-name]` です。*dcv-name* は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

```
[dcv custom-dcv]
enable = master
port = 8443
access_from = 0.0.0.0/0
```

詳細については、[Amazon DCV を介してヘッドノードに接続する](dcv.md)を参照してください。

**重要**  
デフォルトでは、 によって設定された Amazon DCV ポート AWS ParallelCluster はすべての IPv4 アドレスに対して開かれています。ただし、Amazon DCV ポートに接続できるのは、Amazon DCV セッションの URL があり、この URL が `pcluster dcv connect` から返されてから 30 秒以内に Amazon DCV セッションに接続する場合のみです。[`access_from`](#dcv-section-access-from) 設定を使用して、CIDR 形式の IP 範囲で Amazon DCV ポートへのアクセスをさらに制限し、[`port`](#dcv-section-port) 設定を使用して非標準ポートを設定します。

**注記**  
 AWS ParallelCluster バージョン 2.10.4 で、`centos8` の [`[dcv]` セクション](#dcv-section)のサポートが終了しました。 AWS ParallelCluster バージョン 2.10.0 で のセクションのサポートが追加され[`[dcv]`](#dcv-section)`centos8`ました。 AWS ParallelCluster バージョン 2.9.0 AWS では、Graviton ベースのインスタンスに関する [`[dcv]`セクション](#dcv-section)のサポートが追加されました。`alinux2` および の [`[dcv]`セクション](#dcv-section)のサポートが AWS ParallelCluster バージョン 2.6.0 に追加`ubuntu1804`されました。 AWS ParallelCluster バージョン 2.5.0 で のセクションのサポートが追加され[`[dcv]`](#dcv-section)`centos7`ました。

## `access_from`
<a name="dcv-section-access-from"></a>

 **(オプション、推奨)** Amazon DCV に接続するための CIDR 形式の IP 範囲を指定します。この設定は、 がセキュリティグループ AWS ParallelCluster を作成する場合にのみ使用されます。

デフォルト値は `0.0.0.0/0` で、すべてのインターネットアドレスからのアクセスを許可します。

```
access_from = 0.0.0.0/0
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `enable`
<a name="dcv-section-enable"></a>

 **(必須)** Amazon DCV がヘッドノードで有効になっているかどうかを示します。Amazon DCV をヘッドノードで有効にし、必要なセキュリティグループルールを設定するには、`enable` 設定を `master` に設定します。

次の例では、Amazon DCV をヘッドノードで有効にします。

```
enable = master
```

**注記**  
Amazon DCV は、ヘッドノードで実行している Amazon DCV サーバーと Amazon DCV クライアント間のトラフィックを保護するための自己署名証明書を自動的に生成します。独自の証明書を設定するには、「[Amazon DCV HTTPS 証明書](dcv.md#dcv-certificate)」を参照してください。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `port`
<a name="dcv-section-port"></a>

 **(オプション)** Amazon DCV のポートを指定します。

デフォルト値は `8443` です。

```
port = 8443
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

# `[ebs]` セクション
<a name="ebs-section"></a>

ヘッドノードにマウントされ、NFS を介してコンピューティングノードに共有されるボリュームの Amazon EBS ボリューム設定を定義します。

クラスター定義に Amazon EBS ボリュームを含める方法については、「``[cluster]` セクション`/``ebs_settings``」を参照してください。

既存の Amazon EBS ボリュームを、クラスターのライフサイクルとは関係なく長期の永続ストレージとして使用するには、[`ebs_volume_id`](#ebs-volume-id) を指定してください。

を指定しない場合[`ebs_volume_id`](#ebs-volume-id)、 はクラスターの作成時に`[ebs]`設定から EBS ボリューム AWS ParallelCluster を作成し、クラスターの削除時にボリュームとデータを削除します。

詳細については、「[ベストプラクティス: AWS ParallelCluster クラスターを新しいマイナーバージョンまたはパッチバージョンに移動する](best-practices.md#best-practices-cluster-upgrades)」を参照してください。

形式は、`[ebs ebs-name]` です。*ebs-name* は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

```
[ebs custom1]
shared_dir = vol1
ebs_snapshot_id = snap-xxxxx
volume_type = io1
volume_iops = 200
...

[ebs custom2]
shared_dir = vol2
...

...
```

**Topics**
+ [`shared_dir`](#ebs-shared-dir)
+ [`ebs_kms_key_id`](#ebs-kms-key-id)
+ [`ebs_snapshot_id`](#ebs-snapshot-id)
+ [`ebs_volume_id`](#ebs-volume-id)
+ [`encrypted`](#encrypted)
+ [`volume_iops`](#volume-iops)
+ [`volume_size`](#volume-size)
+ [`volume_throughput`](#volume-throughput)
+ [`volume_type`](#volume-type)

## `shared_dir`
<a name="ebs-shared-dir"></a>

**(必須)** 共有 Amazon EBS ボリュームをマウントするパスを指定します。

複数の Amazon EBS ボリュームを使用する場合、このパラメータは必須です。

1 つの Amazon EBS ボリュームを使用する場合は、このオプションは [`[cluster]` セクション](cluster-definition.md)で指定された [`shared_dir`](cluster-definition.md#cluster-shared-dir) を上書きします。以下の例では、ボリュームは `/vol1` にマウントされます。

```
shared_dir = vol1
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="ebs-kms-key-id"></a>

**（オプション）** 暗号化に使用するカスタム AWS KMS キーを指定します。

このパラメータは、`encrypted = true` とともに使用する必要があります。また、カスタムの [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) も含まれている必要があります。

詳細については、「[カスタム KMS キーを使用したディスク暗号化](tutorials_04_encrypted_kms_fs.md)」を参照してください。

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `ebs_snapshot_id`
<a name="ebs-snapshot-id"></a>

**(オプション)** ボリュームのソースとしてスナップショット ID を使用している場合は、Amazon EBS スナップショット ID を定義します。

デフォルト値はありません。

```
ebs_snapshot_id = snap-xxxxx
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `ebs_volume_id`
<a name="ebs-volume-id"></a>

**(オプション)** ヘッドノードにアタッチする既存の Amazon EBS ボリュームのボリューム ID を定義します。

デフォルト値はありません。

```
ebs_volume_id = vol-xxxxxx
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="encrypted"></a>

**(オプション)** Amazon EBS ボリュームが暗号化されているかどうかを指定します。注意: スナップショットでは使用*しない*でください。

デフォルト値は `false` です。

```
encrypted = false
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="volume-iops"></a>

**(オプション)** `io1`、`io2` および `gp3` タイプボリュームの IOPS の数を定義します。

デフォルト値、対応値、`volume_iops` 対 `volume_size` の比率は、[`volume_type`](raid-section.md#raid-volume-type) と [`volume_size`](#volume-size) で異なります。

`volume_type` = `io1`  
デフォルト `volume_iops` = 100  
サポートする値 `volume_iops` = 100 — 64000 †  
最大 `volume_iops`/`volume_size` 比率 ＝ 50 IOPS/GiB。5000 IOPS には、少なくとも 100 GiB の `volume_size` が必要です。

`volume_type` = `io2`  
デフォルト `volume_iops` = 100  
サポートする値 `volume_iops` = 100 — 64000 (`io2` Block Express ボリュームの場合は 256000) †  
最大 `volume_iops`/`volume_size` 比率 ＝ 500 IOPS/GiB。5000 IOPS には、少なくとも 10 GiB の `volume_size` が必要です。

`volume_type` = `gp3`  
デフォルト `volume_iops` = 3000  
サポートされる値 `volume_iops` = 3000 — 16000  
最大 `volume_iops`/`volume_size` 比率 ＝ 500 IOPS/GiB。5000 IOPS には、少なくとも 10 GiB の `volume_size` が必要です。

```
volume_iops = 200
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

† 最大 IOPS は、32,000 IOPS 以上でプロビジョニングされた [Nitro System で構築されたインスタンス](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances)にのみ保証されます。他のインスタンスは、最大 32,000 IOPS を保証します。[ボリュームを変更](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html)しない限り、以前の `io1` ボリュームは最大のパフォーマンスに達しない可能性があります。`io2`Block Express ボリュームは、最大 256,000 までの `volume_iops` 値をサポートします。詳細については、「*Amazon EC2 ユーザーガイド*」の「[`io2` Block Express ボリューム (プレビュー)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express)」を参照してください。

## `volume_size`
<a name="volume-size"></a>

**(オプション)** 作成するボリュームのサイズ (GiB 単位) を指定します (スナップショットを使用していない場合)。

デフォルト値、対応値は、[`volume_type`](#volume-type) で異なります。

`volume_type` = `standard`  
デフォルト値 `volume_size` = 20 GiB  
サポートされる値 `volume_size` = 1 — 1024 GiB

`volume_type` = `gp2`、`io1`、`io2` および `gp3`  
デフォルト値 `volume_size` = 20 GiB  
サポートされる値 `volume_size` = 1 — 16384 GiB

`volume_type` = `sc1` および `st1`  
デフォルト値 `volume_size` = 500 GiB  
サポートされる値 `volume_size` = 500 — 16384 GiB

```
volume_size = 20
```

**注記**  
 AWS ParallelCluster バージョン 2.10.1 以前は、すべてのボリュームタイプのデフォルト値は 20 GiB でした。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="volume-throughput"></a>

**(オプション)** `gp3` ボリュームタイプのスループットを MiB/秒 で定義します。

デフォルト値は `125` です。

サポートされる値 `volume_throughput` = 125 — 1000 MIB/秒

`volume_throughput` と `volume_iops` の比率は 0.25 以下にします。最大のスループットである 1000 MiB/秒を実現するためには、`volume_iops` の設定を 4000 以上にする必要があります。

```
volume_throughput = 1000
```

**注記**  
 AWS ParallelCluster バージョン 2.10.1 で のサポートが追加され`volume_throughput`ました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="volume-type"></a>

**(オプション)** 起動するボリュームの [Amazon EBS ボリュームタイプ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)を指定します。

有効なオプションは次のボリュームタイプです。

`gp2`, `gp3`  
汎用 SSD

`io1`, `io2`  
プロビジョンド IOPS SSD

`st1`  
スループット最適化 HDD

`sc1`  
コールド HDD

`standard`  
前世代のマグネット

詳細については、「Amazon EC2 ユーザーガイド」の「[Amazon EBS ボリュームの種類](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)」を参照してください。

デフォルト値は `gp2` です。

```
volume_type = io2
```

**注記**  
`gp3` および のサポート`io2`が AWS ParallelCluster バージョン 2.10.1 で追加されました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

# `[efs]` セクション
<a name="efs-section"></a>

ヘッドインスタンスとコンピューティングインスタンスにマウントされる Amazon EFS の設定を定義します。詳細については、「Amazon FSx API リファレンス**」の「[CreateFileSystem](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html)」を参照してください。

Amazon EFS ファイルシステムをクラスター定義に含める方法については、「``[cluster]` セクション`」/「``efs_settings``」を参照してください。

クラスターのライフサイクルとは関係なく、既存の Amazon EFS ファイルシステムを長期の永続的なストレージとして使用するには、[`efs_fs_id`](#efs-efs-fs-id) を指定します。

を指定しない場合[`efs_fs_id`](#efs-efs-fs-id)、 はクラスターの作成時に`[efs]`設定から Amazon EFS ファイルシステム AWS ParallelCluster を作成し、クラスターの削除時にファイルシステムとデータを削除します。

詳細については、「[ベストプラクティス: AWS ParallelCluster クラスターを新しいマイナーバージョンまたはパッチバージョンに移動する](best-practices.md#best-practices-cluster-upgrades)」を参照してください。

形式は、`[efs efs-name]` です。*efs-name* は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

```
[efs customfs]
shared_dir = efs
encrypted = false
performance_mode = generalPurpose
```

**Topics**
+ [`efs_fs_id`](#efs-efs-fs-id)
+ [`efs_kms_key_id`](#efs-efs-kms-key-id)
+ [`encrypted`](#efs-encrypted)
+ [`performance_mode`](#efs-performance-mode)
+ [`provisioned_throughput`](#efs-provisioned-throughput)
+ [`shared_dir`](#efs-shared-dir)
+ [`throughput_mode`](#efs-throughput-mode)

## `efs_fs_id`
<a name="efs-efs-fs-id"></a>

**(オプション)** 既存のファイルシステムの Amazon EFS ファイルシステム ID を定義します。

このオプションを指定すると、[`shared_dir`](cluster-definition.md#cluster-shared-dir) を除く他の Amazon EFS オプションはすべて無効になります。

このオプションを設定した場合は、以下のタイプのファイルシステムのみサポートされます。
+ スタックのアベイラビリティーゾーンにマウントターゲットがないファイルシステム
+ スタックのアベイラビリティーゾーンに既存のマウントターゲットがあり、`0.0.0.0/0` からのインバウンドおよびアウトバウンドの NFS トラフィックが許可されているファイルシステム

[`efs_fs_id`](#efs-efs-fs-id) を検証するための健全性チェックには、IAM ロールに以下のアクセス許可が必要になります。
+ `elasticfilesystem:DescribeMountTargets`
+ `elasticfilesystem:DescribeMountTargetSecurityGroups`
+ `ec2:DescribeSubnets`
+ `ec2:DescribeSecurityGroups`
+ `ec2:DescribeNetworkInterfaceAttribute`

エラーを回避するためには、これらのアクセス許可を IAM ロールに追加するか、`sanity_check = false` を設定します。

**重要**  
から許可されるインバウンドおよびアウトバウンド NFS トラフィックを使用してマウントターゲットを設定すると`0.0.0.0/0`、マウントターゲットのアベイラビリティーゾーン内の任意の場所からの NFS マウントリクエストにファイルシステムが公開されます。スタックのアベイラビリティーゾーンにマウントターゲットを作成することはお勧め AWS しません。代わりに、 でこのステップ AWS を処理します。スタックのアベイラビリティーゾーンにマウントターゲットが必要な場合は、[`[vpc]` セクション](vpc-section.md)で [`vpc_security_group_id`](vpc-section.md#vpc-security-group-id) オプションを指定して、カスタムセキュリティグループを使用することを検討してください。次に、そのセキュリティグループをマウントターゲットに追加し、`sanity_check` をオフにしてクラスターを作成します。

デフォルト値はありません。

```
efs_fs_id = fs-12345
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `efs_kms_key_id`
<a name="efs-efs-kms-key-id"></a>

**（オプション）** 暗号化されたファイルシステムを保護するために使用する AWS Key Management Service （AWS KMS) カスタマーマネージドキーを識別します。これを設定する場合は、[`encrypted`](#efs-encrypted) 設定を `true` に設定する必要があります。これは、*「Amazon EFS API Reference」*(Amazon EFS API リファレンス) の [KmsKeyId](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-KmsKeyId) パラメータに対応しています。

デフォルト値はありません。

```
efs_kms_key_id = 1234abcd-12ab-34cd-56ef-1234567890ab
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="efs-encrypted"></a>

**(オプション)** ファイルシステムが暗号化されているかどうかを示します。これは、*「Amazon EFS API Reference」*(Amazon EFS API リファレンス) の [Encrypted](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-Encrypted) パラメータに対応しています。

デフォルト値は `false` です。

```
encrypted = true
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `performance_mode`
<a name="efs-performance-mode"></a>

**(オプション)** ファイル システムのパフォーマンスモードを定義します。これは、*「Amazon EFS API Reference」*(Amazon EFS API リファレンス) の [PerformanceMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-PerformanceMode) パラメータに対応しています。

有効なオプションは、次の値です。
+ `generalPurpose`
+ `maxIO`

 いずれの値も、大文字と小文字が区別されます。

ほとんどのファイルシステムに `generalPurpose` パフォーマンスモードをお勧めします。

`maxIO` パフォーマンスモードを使用するファイルシステムでは、集計スループットと 1 秒あたりのオペレーション数をより高いレベルにスケーリングできます。ただし、ほとんどのファイルオペレーションでは、レイテンシーがわずかに長くなるというトレードオフがあります。

このパラメータは、ファイルシステムの作成後に変更することはできません。

デフォルト値は `generalPurpose` です。

```
performance_mode = generalPurpose
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `provisioned_throughput`
<a name="efs-provisioned-throughput"></a>

**(オプション)** ファイルシステムのプロビジョニングされたスループット (MiB/秒で測定) を定義します。これは、[「Amazon EFS API Reference」](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps)(Amazon EFS API リファレンス) の *ProvisionedThroughputInMibps* パラメータに対応しています。

このパラメータを使用する場合は、[`throughput_mode`](#efs-throughput-mode) を `provisioned` に設定する必要があります。

スループットのクォータは `1024` MiB/秒です。クォータの引き上げをリクエストするには、 サポートにお問い合わせください。

最小値は `0.0` MiB/秒 です。

```
provisioned_throughput = 1024
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `shared_dir`
<a name="efs-shared-dir"></a>

**(必須)** ヘッドノードとコンピューティングノードの Amazon EFS マウントポイントを定義します。

このパラメータは必須です。Amazon EFS セクションは、[`shared_dir`](cluster-definition.md#cluster-shared-dir) が指定されている場合にのみ使用します。

共有ディレクトリとして `/NONE` または `NONE` を使用しないでください。

次の例では、`/efs` の Amazon EFS をマウントします。

```
shared_dir = efs
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `throughput_mode`
<a name="efs-throughput-mode"></a>

**(オプション)** ファイルシステムのスループットモードを定義します。これは、*「Amazon EFS API Reference」*(Amazon EFS API リファレンス) の [ThroughputMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-ThroughputMode) パラメータに対応しています。

有効なオプションは、次の値です。
+ `bursting`
+ `provisioned`

デフォルト値は `bursting` です。

```
throughput_mode = provisioned
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

# `[fsx]` セクション
<a name="fsx-section"></a>

アタッチされた FSx for Lustre ファイルシステムの設定を定義します。詳細については、「Amazon FSx API リファレンス**」の「[Amazon FSx CreateFileSystem](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html)」を参照してください。

FSx for Lustre は，[`base_os`](cluster-definition.md#base-os) が `alinux2`、`centos7`、`ubuntu1804`、または `ubuntu2004` の場合に対応しています。

Amazon Linux を使用する場合、カーネルは `4.14.104-78.84.amzn1.x86_64` 以上である必要があります。手順については、「Amazon FSx for Lustre ユーザーガイド**」の「[Lustre クライアントをインストールする](https://docs.aws.amazon.com/fsx/latest/LustreGuide/install-lustre-client.html)」を参照してください。

**注記**  
`awsbatch` をスケジューラとして使用する場合、FSx for Lustre は現在サポートされていません。

**注記**  
での FSx for Lustre のサポート`centos8`が AWS ParallelCluster バージョン 2.10.4 で削除されました。で FSx for Lustre のサポート`ubuntu2004`が AWS ParallelCluster バージョン 2.11.0 に追加されました。 AWS ParallelCluster バージョン 2.10.0 で `centos8` の FSx for Lustre をサポートしました。、`alinux2`、`ubuntu1604`および での FSx for Lustre のサポート`ubuntu1804`が AWS ParallelCluster バージョン 2.6.0 で追加されました。 AWS ParallelCluster バージョン 2.4.0 で `centos7` の FSx for Lustre をサポートしました。

既存のファイルシステムを使用する場合は、ポート `988` 経由のインバウンドの TCP トラフィックを許可するセキュリティグループに関連付ける必要があります。セキュリティグループルールでソースを `0.0.0.0/0` に設定すると、そのルールのプロトコルとポート範囲に対する VPC セキュリティグループ内のすべての IP 範囲からのクライアントアクセスが可能になります。ファイルシステムへのアクセスをさらに制限するために、セキュリティグループルールには、より限定的なソースを使用することをお勧めします。例えば、より具体的な CIDR の範囲、IP アドレス、セキュリティグループ ID などを使用することができます。[`vpc_security_group_id`](vpc-section.md#vpc-security-group-id) を使用しない場合、これは自動的に行われます。

クラスターのライフサイクルとは関係なく、既存の Amazon FSx ファイルシステムを長期の永続的なストレージとして使用するには、[`fsx_fs_id`](#fsx-fs-id) を指定します。

を指定しない場合[`fsx_fs_id`](#fsx-fs-id)、 はクラスターの作成時に`[fsx]`設定から FSx for Lustre ファイルシステム AWS ParallelCluster を作成し、クラスターの削除時にファイルシステムとデータを削除します。

詳細については、「[ベストプラクティス: AWS ParallelCluster クラスターを新しいマイナーバージョンまたはパッチバージョンに移動する](best-practices.md#best-practices-cluster-upgrades)」を参照してください。

形式は、`[fsx fsx-name]` です。*fsx-name* は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

```
[fsx fs]
shared_dir = /fsx
fsx_fs_id = fs-073c3803dca3e28a6
```

新しいファイルシステムを作成し、設定するには、次のパラメータを使用します。

```
[fsx fs]
shared_dir = /fsx
storage_capacity = 3600
imported_file_chunk_size = 1024
export_path = s3://bucket/folder
import_path = s3://bucket
weekly_maintenance_start_time = 1:00:00
```

**Topics**
+ [`auto_import_policy`](#fsx-auto-import-policy)
+ [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)
+ [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)
+ [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time)
+ [`data_compression_type`](#fsx-data-compression-type)
+ [`deployment_type`](#fsx-deployment-type)
+ [`drive_cache_type`](#fsx-drive-cache-type)
+ [`export_path`](#fsx-export-path)
+ [`fsx_backup_id`](#fsx-backup-id)
+ [`fsx_fs_id`](#fsx-fs-id)
+ [`fsx_kms_key_id`](#fsx-kms-key-id)
+ [`import_path`](#fsx-import-path)
+ [`imported_file_chunk_size`](#fsx-imported-file-chunk-size)
+ [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)
+ [`shared_dir`](#fsx-shared-dir)
+ [`storage_capacity`](#fsx-storage-capacity)
+ [`storage_type`](#fsx-storage-type)
+ [`weekly_maintenance_start_time`](#fsx-weekly-maintenance-start-time)

## `auto_import_policy`
<a name="fsx-auto-import-policy"></a>

**(オプション)** FSx for Lustre ファイルシステムの作成に使用する S3 バケットに変更を反映させるための自動インポートポリシーを指定します。取り得る値には以下のものがあります。

`NEW`  
FSx for Lustre は、リンクされた S3 バケットに追加された新しいオブジェクトのうち、現在 FSx for Lustre ファイルシステム内に存在しないオブジェクトのディレクトリリストを自動的にインポートします。

`NEW_CHANGED`  
S3 バケットに追加された新しいオブジェクトや S3 バケットで変更された既存のオブジェクトのファイルとディレクトリのリストが、FSx for Lustre によって自動的にインポートされます。

これは、[AutoImportPolicy](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-autoimportpolicy) プロパティに対応しています。詳細については、「Amazon FSx for Lustre ユーザーガイド**」の「[S3 バケットから更新を自動的にインポートする](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html)」を参照してください。[`auto_import_policy`](#fsx-auto-import-policy) パラメータを指定する場合、[`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)、[`copy_tags_to_backups`](#fsx-copy-tags-to-backups)、[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) および [`fsx_backup_id`](#fsx-backup-id) パラメータを指定してはいけません。

`auto_import_policy` の設定が指定されていない場合、自動インポートは無効になります。FSx for Lustre は、ファイルシステムの作成時に、リンクされた S3 バケットのファイルとディレクトリのリストのみを更新します。

```
auto_import_policy = NEW_CHANGED
```

**注記**  
 AWS ParallelCluster バージョン 2.10.0 で のサポートが追加され[`auto_import_policy`](#fsx-auto-import-policy)ました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `automatic_backup_retention_days`
<a name="fsx-automatic-backup-retention-days"></a>

**(オプション)** 自動バックアップを保持する日数を指定します。これは、`PERSISTENT_1` デプロイタイプでのみ有効です。[`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) パラメータを指定する場合、[`auto_import_policy`](#fsx-auto-import-policy)、[`export_path`](#fsx-export-path)、[`import_path`](#fsx-import-path) および [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) パラメータを指定してはいけません。これは、[AutomaticBackupRetentionDays](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-automaticbackupretentiondays) プロパティに対応しています。

デフォルト値は 0 です。この設定は、自動バックアップを無効にします。指定できる値は 0 から 35 までの整数です。

```
automatic_backup_retention_days = 35
```

**注記**  
 AWS ParallelCluster バージョン 2.8.0 で [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) をサポートしました。

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `copy_tags_to_backups`
<a name="fsx-copy-tags-to-backups"></a>

**(オプション)** ファイルシステムのタグをバックアップにコピーするかどうかを指定します。これは、`PERSISTENT_1` デプロイタイプでのみ有効です。[`copy_tags_to_backups`](#fsx-copy-tags-to-backups) パラメータを指定した場合、[`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) には 0 以上の値を指定し、[`auto_import_policy`](#fsx-auto-import-policy)、[`export_path`](#fsx-export-path)、[`import_path`](#fsx-import-path) および [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) パラメータは指定してはいけません。これは、[CopyTagsToBackups](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-copytagstobackups) プロパティに対応しています。

デフォルト値は `false` です。

```
copy_tags_to_backups = true
```

**注記**  
 AWS ParallelCluster バージョン 2.8.0 で のサポートが追加され[`copy_tags_to_backups`](#fsx-copy-tags-to-backups)ました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `daily_automatic_backup_start_time`
<a name="fsx-daily-automatic-backup-start-time"></a>

**(オプション)** 自動バックアップを開始する時刻 (UTC) を指定します。これは、`PERSISTENT_1` デプロイタイプでのみ有効です。[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) パラメータを指定した場合、[`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) には 0 以上の値を指定し、[`auto_import_policy`](#fsx-auto-import-policy)、[`export_path`](#fsx-export-path)、[`import_path`](#fsx-import-path) および [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) パラメータは指定してはいけません。これは、[DailyAutomaticBackupStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-dailyautomaticbackupstarttime) プロパティに対応しています。

フォーマットは `HH:MM` で、`HH` はゼロパディングされたその日の時間 (0～23)、`MM` はゼロパディングされたその日の分を表します。例えば、午前 1:03 UTC は次のようになります。

```
daily_automatic_backup_start_time = 01:03
```

初期値は `00:00`～`23:59` の間のランダムな時間です。

**注記**  
 AWS ParallelCluster バージョン 2.8.0 で [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) をサポートしました。

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `data_compression_type`
<a name="fsx-data-compression-type"></a>

**(オプション)** FSx for Lustre のデータ圧縮タイプを指定します。これは、[DataCompressionType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-datacompressiontype) プロパティに対応しています。詳細については、「Amazon FSx for Lustre ユーザーガイド**」の「[FSx for Lustre データ圧縮](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html)」を参照してください。

唯一の有効な値は `LZ4` です。データ圧縮を無効にするには、[`data_compression_type`](#fsx-data-compression-type) パラメータを削除します。

```
data_compression_type = LZ4
```

**注記**  
 AWS ParallelCluster バージョン 2.11.0 で のサポートが追加され[`data_compression_type`](#fsx-data-compression-type)ました。

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `deployment_type`
<a name="fsx-deployment-type"></a>

**(オプション)** FSx for Lustre のデプロイタイプを指定します。これは、[DeploymentType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-deploymenttype) プロパティに対応しています。詳細については、「Amazon FSx for Lustre ユーザーガイド**」の「[FSx for Lustre デプロイオプション](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html)」を参照してください。一時ストレージとデータの短期処理には、スクラッチデプロイタイプを選択します。`SCRATCH_2` は、最新世代のスクラッチファイルシステムです。ベースラインスループットよりも高いバーストスループットと、データの転送中の暗号化を実現しています。

有効な値は `SCRATCH_1`、`SCRATCH_2`、および `PERSISTENT_1` です。

`SCRATCH_1`  
FSx for Lustre のデフォルトのデプロイタイプ。このデプロイタイプでは、[`storage_capacity`](#fsx-storage-capacity) 設定の可能な値は 1200、2400、および 3600 の倍数です。 AWS ParallelCluster バージョン 2.4.0 で のサポートが追加され`SCRATCH_1`ました。

`SCRATCH_2`  
最新世代のスクラッチファイルシステム。スパイキーなワークロードに対して、ベースラインの最大 6 倍のスループットをサポートします。また、サポートされている AWS リージョンのサポートされているインスタンスタイプでは、データの転送中の暗号化もサポートされています。詳細については、「Amazon FSx for Lustre ユーザーガイド**」の「[転送中のデータの暗号化](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html)」を参照してください。このデプロイタイプでは、[`storage_capacity`](#fsx-storage-capacity) 設定の可能な値は 1200 および 2400 の倍数です。 AWS ParallelCluster バージョン 2.6.0 で `SCRATCH_2` をサポートしました。

`PERSISTENT_1`  
長期ストレージ用に設計されています。ファイルサーバーは高可用性であり、データはファイルシステムの AWS アベイラビリティーゾーン内で自動的にレプリケーションされます。サポートされているインスタンスタイプでは、データの転送中の暗号化もサポートされています。このデプロイタイプでは、[`storage_capacity`](#fsx-storage-capacity) 設定の可能な値は 1200 および 2400 の倍数です。 AWS ParallelCluster バージョン 2.6.0 で のサポートが追加され`PERSISTENT_1`ました。

デフォルト値は `SCRATCH_1` です。

```
deployment_type = SCRATCH_2
```

**注記**  
 AWS ParallelCluster バージョン 2.6.0 で のサポートが追加され[`deployment_type`](#fsx-deployment-type)ました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `drive_cache_type`
<a name="fsx-drive-cache-type"></a>

**(オプション)** ファイルシステムに SSD ドライブキャッシュを搭載することを指定します。[`storage_type`](#fsx-storage-type) の設定が `HDD` になっている場合のみ設定可能です。これは、[DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype) プロパティに対応しています。詳細については、「Amazon FSx for Lustre ユーザーガイド**」の「[FSx for Lustre デプロイオプション](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html)」を参照してください。

唯一の有効な値は `READ` です。SSD ドライブのキャッシュを無効にするには、`drive_cache_type` の設定を指定しないでください。

```
drive_cache_type = READ
```

**注記**  
 AWS ParallelCluster バージョン 2.10.0 で のサポートが追加され[`drive_cache_type`](#fsx-drive-cache-type)ました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `export_path`
<a name="fsx-export-path"></a>

**(オプション)** ファイルシステムのルートがエクスポートされる Amazon S3 パスを指定します。[`export_path`](#fsx-export-path) パラメータを指定する場合、[`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)、[`copy_tags_to_backups`](#fsx-copy-tags-to-backups)、[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) および [`fsx_backup_id`](#fsx-backup-id) パラメータを指定してはいけません。これは、[ExportPath](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-exportpath) プロパティに対応しています。ファイルのデータやメタデータが自動的に `export_path` にエクスポートされません。データやメタデータのエクスポートについては、「Amazon FSx for Lustre ユーザーガイド**」の「[データリポジトリに変更をエクスポートする](https://docs.aws.amazon.com/fsx/latest/LustreGuide/export-changed-data-meta-dra.html)」を参照してください。

デフォルト値は `s3://import-bucket/FSxLustre[creation-timestamp]` です。ここで、`import-bucket` は [`import_path`](#fsx-import-path) パラメータで指定されるバケットです。

```
export_path = s3://bucket/folder
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `fsx_backup_id`
<a name="fsx-backup-id"></a>

**(オプション)** 既存のバックアップからファイルシステムを復元する際に使用するバックアップの ID を指定します。[`fsx_backup_id`](#fsx-backup-id) パラメータが指定されている場合、[`auto_import_policy`](#fsx-auto-import-policy)、[`deployment_type`](#fsx-deployment-type)、[`export_path`](#fsx-export-path)、[`fsx_kms_key_id`](#fsx-kms-key-id)、[`import_path`](#fsx-import-path)、[`imported_file_chunk_size`](#fsx-imported-file-chunk-size)、[`storage_capacity`](#fsx-storage-capacity) および [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) パラメータは指定できません。これらのパラメータはバックアップから読み込まれます。また、[`auto_import_policy`](#fsx-auto-import-policy)、[`export_path`](#fsx-export-path)、[`import_path`](#fsx-import-path) および [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) パラメータは指定できません。

これは、[BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid) プロパティに対応しています。

```
fsx_backup_id = backup-fedcba98
```

**注記**  
 AWS ParallelCluster バージョン 2.8.0 で のサポートが追加され[`fsx_backup_id`](#fsx-backup-id)ました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `fsx_fs_id`
<a name="fsx-fs-id"></a>

**(オプション)** 既存の FSx for Lustre ファイルシステムをアタッチします。

このオプションを指定した場合、[`[fsx]` セクション](#fsx-section)の [`shared_dir`](#fsx-shared-dir) および [`fsx_fs_id`](#fsx-fs-id) の設定のみが使用され、[`[fsx]` セクション](#fsx-section)のその他の設定は無視されます。

```
fsx_fs_id = fs-073c3803dca3e28a6
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `fsx_kms_key_id`
<a name="fsx-kms-key-id"></a>

**（オプション）** AWS Key Management Service （AWS KMS) カスタマーマネージドキーのキー ID を指定します。

このキーは、保管時のファイルシステムのデータを暗号化するために使用されます。

これは、カスタム [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) と使用する必要があります。詳細については、「[カスタム KMS キーを使用したディスク暗号化](tutorials_04_encrypted_kms_fs.md)」を参照してください。これは、*Amazon FSx API リファレンス*の [KmsKeyId](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html#FSx-CreateFileSystem-request-KmsKeyId) パラメータに対応しています。

```
fsx_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

**注記**  
 AWS ParallelCluster バージョン 2.6.0 で のサポートが追加され[`fsx_kms_key_id`](#fsx-kms-key-id)ました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `import_path`
<a name="fsx-import-path"></a>

**(オプション)** データをファイルシステムにロードし、エクスポートバケットとして機能する S3 バケットを指定します。詳細については、「[`export_path`](#fsx-export-path)」を参照してください。[`import_path`](#fsx-import-path) パラメータを指定する場合、[`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)、[`copy_tags_to_backups`](#fsx-copy-tags-to-backups)、[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) および [`fsx_backup_id`](#fsx-backup-id) パラメータを指定してはいけません。これは、*Amazon FSx API リファレンス*の [ImportPath](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystemLustreConfiguration.html#FSx-Type-CreateFileSystemLustreConfiguration-ImportPath) パラメータに対応しています。

インポートは、クラスター作成時に行われます。詳細については、「Amazon FSx for Lustre ユーザーガイド**」の「[データリポジトリからデータをインポートする](https://docs.aws.amazon.com/fsx/latest/LustreGuide/importing-files.html)」を参照してください。インポート時には、ファイルのメタデータ (名前、所有権、タイムスタンプ、パーミッション) のみがインポートされます。ファイルデータは、ファイルが最初にアクセスされるまで、S3 バケットからインポートされません。ファイルコンテンツの事前ロードの詳細については、*「Amazon FSx for Lustre ユーザーガイド*」の[「ファイルシステムへのファイルの事前ロード](https://docs.aws.amazon.com/fsx/latest/LustreGuide/preload-file-contents-hsm-dra.html)」を参照してください。

値が指定されない場合、ファイルシステムは空になります。

```
import_path =  s3://bucket
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `imported_file_chunk_size`
<a name="fsx-imported-file-chunk-size"></a>

**(オプション)** データリポジトリからインポートされたファイルの場合 ([`import_path`](#fsx-import-path) を使用)、この値がストライプカウントと 1 つの物理ディスクに保存されたファイルごとの最大データ量 (MiB 単位) を決定します。1 つのファイルにストライピングできるディスクの最大数は、ファイルシステムを構成するディスクの合計数によって制限されます。[`imported_file_chunk_size`](#fsx-imported-file-chunk-size) パラメータを指定する場合、[`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)、[`copy_tags_to_backups`](#fsx-copy-tags-to-backups)、[`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) および [`fsx_backup_id`](#fsx-backup-id) パラメータを指定してはいけません。これは、[ImportedFileChunkSize](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-importedfilechunksize) プロパティに対応しています。

チャンクサイズのデフォルトは `1024` (1 GiB) であり、それは、512,000 MiB (500 GiB) まで高くすることができます。Amazon S3 オブジェクトの最大サイズは 5 TB です。

```
imported_file_chunk_size = 1024
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `per_unit_storage_throughput`
<a name="fsx-per-unit-storage-throughput"></a>

**(`PERSISTENT_1` デプロイタイプに必須)** [`deployment_type`](#fsx-deployment-type)` = PERSISTENT_1` デプロイタイプの場合、1 テラバイト (TiB) のストレージごとの読み取りおよび書き込みスループットの量を MB/s/TiB 単位で取得します。ファイルシステムのスループット容量は、ファイルシステムのストレージ容量 (TiB) に [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) (MB/s/TiB) を掛けて計算されます。2.4 TiB のファイルシステムの場合、50 MB/s/TiB の [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) をプロビジョニングすると、ファイルシステムのスループットは 120 MB/s になります。プロビジョニングしたスループットに対して支払いが発生します。これは、[PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput) プロパティに対応しています。

設定可能な値は、[`storage_type`](#fsx-storage-type) の設定値によって異なります。

`storage\$1type = SSD`  
指定できる値は 50、100、200 です。

`storage\$1type = HDD`  
指定できる値は 12、40 です。

```
per_unit_storage_throughput = 200
```

**注記**  
 AWS ParallelCluster バージョン 2.6.0 で [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) をサポートしました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="fsx-shared-dir"></a>

**(必須)** ヘッドノードとコンピューティングノードで FSx for Lustre ファイルシステムのマウントポイントを定義します。

共有ディレクトリとして `/NONE` または `NONE` を使用しないでください。

次の例では、ファイルシステムを `/fsx` にマウントします。

```
shared_dir = /fsx
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `storage_capacity`
<a name="fsx-storage-capacity"></a>

**(必須)** ファイルシステムのストレージ容量 (GiB 単位) を指定します。これは、[StorageCapacity](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagecapacity) プロパティに対応しています。

ストレージ容量の可能な値は [`deployment_type`](#fsx-deployment-type) 設定によって異なります。

`SCRATCH_1`  
可能な値は 1200、2400、および 3600 の倍数です。

`SCRATCH_2`  
可能な値は 1200 および 2400 の倍数です。

`PERSISTENT_1`  
設定可能な値は、他の設定の値によって異なります。    
`storage\$1type = SSD`  
可能な値は 1200 および 2400 の倍数です。  
`storage\$1type = HDD`  
設定可能な値は、[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) の設定内容によって異なります。    
`per\$1unit\$1storage\$1throughput = 12`  
可能な値は 6000 の倍数です。  
`per\$1unit\$1storage\$1throughput = 40`  
可能な値は 1800 の倍数です。

```
storage_capacity = 7200
```

**注記**  
 AWS ParallelCluster バージョン 2.5.0 および 2.5.1 では、 は 1200、2400、および 3600 の倍数の可能な値[`storage_capacity`](#fsx-storage-capacity)をサポートしています。バージョン 2.5.0 より前の AWS ParallelCluster バージョンでは、 の最小サイズは 3600 [`storage_capacity`](#fsx-storage-capacity)でした。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `storage_type`
<a name="fsx-storage-type"></a>

**(オプション)** フファイルシステムのストレージタイプを指定します。これは、[StorageType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagetype) プロパティに対応しています。指定できる値は `SSD` および `HDD` です。デフォルトは `SSD` です。

ストレージタイプによって、他の設定の可能な値が変わります。

`storage_type = SSD`   
ソリッドステートドライブ (SSD) ストレージタイプを指定します。  
`storage_type = SSD` は、他のいくつかの設定の可能な値を変更します。    
[`drive_cache_type`](#fsx-drive-cache-type)  
この設定は指定できません。  
[`deployment_type`](#fsx-deployment-type)  
この設定は、`SCRATCH_1`、`SCRATCH_2`、`PERSISTENT_1` のいずれかに設定できます。  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
[`deployment_type`](#fsx-deployment-type) を `PERSISTENT_1` に設定する場合は、この設定を指定する必要があります。指定できる値は 50、100、200 です。  
[`storage_capacity`](#fsx-storage-capacity)  
この設定は必ず指定する必要があります。可能な値は、[`deployment_type`](#fsx-deployment-type) に基づいて変化します。    
`deployment_type = SCRATCH_1`  
[`storage_capacity`](#fsx-storage-capacity) は 1200、2400、または 3600 の任意の倍数です。  
`deployment_type = SCRATCH_2` または `deployment_type = PERSISTENT_1`  
[`storage_capacity`](#fsx-storage-capacity) は 1200、または 2400 の任意の倍数です。

`storage_type = HDD`  
ハードディスクドライブ (HDD) のストレージタイプを指定します。  
`storage_type = HDD` は、他の設定の可能な値を変更します。    
[`drive_cache_type`](#fsx-drive-cache-type)  
この設定を指定することができます。  
[`deployment_type`](#fsx-deployment-type)  
この設定は `PERSISTENT_1` に設定する必要があります。  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
この設定は必ず指定する必要があります。指定できる値は 12、または、40 です。  
[`storage_capacity`](#fsx-storage-capacity)  
この設定は必ず指定する必要があります。設定可能な値は、[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) の設定によって異なります。    
`storage_capacity = 12`  
[`storage_capacity`](#fsx-storage-capacity) は 6000 の任意の倍数です。  
`storage_capacity = 40`  
[`storage_capacity`](#fsx-storage-capacity) は 1800 の任意の倍数です。

```
storage_type = SSD
```

**注記**  
 AWS ParallelCluster バージョン 2.10.0 で [`storage_type`](#fsx-storage-type) をサポートしました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `weekly_maintenance_start_time`
<a name="fsx-weekly-maintenance-start-time"></a>

**(オプション)** 毎週のメンテナンスを実行する推奨時間 (UTC タイムゾーン) を指定します。これは、[WeeklyMaintenanceStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-weeklymaintenancestarttime) プロパティに対応しています。

形式は [曜日]: [時間]: [分] です。例えば、月曜日の深夜は次のようになります。

```
weekly_maintenance_start_time = 1:00:00
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

# `[queue]` セクション
<a name="queue-section"></a>

1 つのキューのコンフィギュレーション設定を定義します。[`[queue]` セクション](#queue-section)は、[`scheduler`](cluster-definition.md#scheduler) が `slurm` に設定されている場合のみサポートされます。

形式は、`[queue <queue-name>]` です。*queue-name* は、英字の小文字で始まり、30 文字以下で、小文字の英字、数字、ハイフン (-) のみで構成される必要があります。

```
[queue q1]
compute_resource_settings = i1,i2
placement_group = DYNAMIC
enable_efa = true
disable_hyperthreading = false
compute_type = spot
```

**注記**  
 AWS ParallelCluster バージョン 2.9.0 で [`[queue]`セクション](#queue-section)のサポートが追加されました。

**Topics**
+ [`compute_resource_settings`](#queue-compute-resource-settings)
+ [`compute_type`](#queue-compute-type)
+ [`disable_hyperthreading`](#queue-disable-hyperthreading)
+ [`enable_efa`](#queue-enable-efa)
+ [`enable_efa_gdr`](#queue-enable-efa-gdr)
+ [`placement_group`](#queue-placement-group)

## `compute_resource_settings`
<a name="queue-compute-resource-settings"></a>

**(必須)** このキューのコンピューティングリソースの設定を含む [`[compute_resource]` セクション](compute-resource-section.md)を指定します。セクション名は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

1 つの [`[queue]` セクション](#queue-section)に対して、最大 3 つの [`[compute_resource]` セクション](compute-resource-section.md)がサポートされています。

例えば、以下の設定では、`[compute_resource cr1]` と `[compute_resource cr2]` で始まるセクションが使用されるように指定します。

```
compute_resource_settings = cr1, cr2
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `compute_type`
<a name="queue-compute-type"></a>

**(オプション)** このキューで起動するインスタンスの種類を定義します。この設定は、[`cluster_type`](cluster-definition.md#cluster-type) 設定と置き換わります。

有効なオプションは、`ondemand` と `spot` です。

デフォルト値は `ondemand` です。

スポットインスタンスの詳細については、「[スポットインスタンスの操作](spot.md)」を参照してください。

**注記**  
スポットインスタンスを使用するには、お客様のアカウントに `AWSServiceRoleForEC2Spot` サービスにリンクしたロールが必要です。を使用してアカウントにこのロールを作成するには AWS CLI、次のコマンドを実行します。  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
詳細については、「*Amazon EC2 ユーザーガイド*」の「[スポットインスタンスリクエスト向けのサービスにリンクされたロール](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests)」を参照してください。

次の例では、このキューのコンピューティングノードに SpotInstances を使用しています。

```
compute_type = spot
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `disable_hyperthreading`
<a name="queue-disable-hyperthreading"></a>

**(オプション)** このキューに入っているノードのハイパースレッディングを無効にします。すべてのインスタンスタイプがハイパースレッディングを無効にできるわけではありません。ハイパースレッディングの無効化をサポートするインスタンスタイプの一覧については、「*Amazon EC2 ユーザーガイド*」の[インスタンスタイプ別の CPU コア数と CPU コアごとのスレッド数](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values)を参照してください。[`[cluster]` セクション](cluster-definition.md)の [`disable_hyperthreading`](cluster-definition.md#disable-hyperthreading) 設定が定義されている場合は、この設定を定義することはできません。

デフォルト値は `false` です。

```
disable_hyperthreading = true
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa`
<a name="queue-enable-efa"></a>

**(オプション)** `true` に設定されている場合、このキューのノードに対して Elastic Fabric Adapter (EFA) が有効であることを指定します。EFA をサポートする EC2 インスタンスのリストを確認するには、「Linux インスタンス用 Amazon EC2 ユーザーガイド**」の「[サポートされるインスタンスタイプ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types)」を参照してください。[`[cluster]` セクション](cluster-definition.md)の [`enable_efa`](cluster-definition.md#enable-efa) 設定が定義されている場合は、この設定を定義することはできません。クラスタープレイスメントグループは、インスタンス間のレイテンシーを最小限に抑えるために使用する必要があります。詳細については、「[`placement`](cluster-definition.md#placement)」および「[`placement_group`](cluster-definition.md#placement-group)」を参照してください。

```
enable_efa = true
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa_gdr`
<a name="queue-enable-efa-gdr"></a>

**（オプション）** AWS ParallelCluster バージョン 2.11.3 以降、この設定は効果がありません。GPUDirect RDMA (リモートダイレクトメモリアクセス) をサポートする Elastic Fabric Adapter (EFA) は、コンピューティングノードでは、インスタンスタイプでサポートされていれば常に有効です。

**注記**  
AWS ParallelCluster バージョン 2.10.0 から 2.11.2: の場合`true`、このキュー内のノードに対して Elastic Fabric Adapter (EFA) GPUDirect RDMA (リモートダイレクトメモリアクセス) が有効になっていることを指定します。これを `true` に設定するには、[`enable_efa`](#queue-enable-efa) の設定を `true` にする必要があります。EFA GPUDirect RDMA は、これらのオペレーティングシステム (`alinux2`、`centos7`、`ubuntu1804`、または `ubuntu2004`) 上の以下のインスタンスタイプ (`p4d.24xlarge`) でサポートされています。[`[cluster]` セクション](cluster-definition.md)の [`enable_efa_gdr`](cluster-definition.md#enable-efa-gdr) 設定が定義されている場合は、この設定を定義することはできません。クラスタープレイスメントグループは、インスタンス間のレイテンシーを最小限に抑えるために使用する必要があります。詳細については、「[`placement`](cluster-definition.md#placement)」および「[`placement_group`](cluster-definition.md#placement-group)」を参照してください。

デフォルト値は `false` です。

```
enable_efa_gdr = true
```

**注記**  
 AWS ParallelCluster バージョン 2.10.0 で のサポートが追加され`enable_efa_gdr`ました。

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `placement_group`
<a name="queue-placement-group"></a>

**(オプション)** 存在する場合、このキューのプレイスメントグループを定義します。この設定は、[`placement_group`](cluster-definition.md#placement-group) 設定と置き換わります。

有効なオプションは、次の値です。
+ `DYNAMIC`
+ 既存の Amazon EC2 クラスタープレイスメントグループ名

`DYNAMIC` に設定されている場合、このキューのための一意のプレイスメントグループはクラスタースタックの一部として作成され、削除されます。

プレイスメントグループの詳細については、「*Amazon EC2 ユーザーガイド*」の「[プレイスメントグループ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)」を参照してください。異なるインスタンスタイプを同じプレイスメントグループで使用している場合、容量不足のエラーでリクエストが失敗する可能性が高くなります。詳細については、「*Amazon EC2 ユーザーガイド*」の「[インスタンス容量の不足](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity)」を参照してください。

デフォルト値はありません。

すべてのインスタンスタイプがクラスタープレイスメントグループをサポートしているわけではありません。例えば、`t2.micro` では、クラスタープレイスメントグループをサポートしていません。クラスターのプレイスメントグループをサポートするインスタンスタイプのリストについては、「*Amazon EC2 ユーザーガイド*」の「[クラスタープレイスメントグループのルールと制限](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster)」を参照してください。プレイスメントグループを使用する際のヒントについては、「[プレイスメントグループとインスタンスの起動に関する問題](troubleshooting.md#placement-groups-and-instance-launch-issues)」を参照してください。

```
placement_group = DYNAMIC
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

# `[raid]` セクション
<a name="raid-section"></a>

多数の同一の Amazon EBS ボリュームから作成される RAID アレイの設定を定義します。RAID ドライブはヘッドノードにマウントされ、NFS でコンピューティングノードにエクスポートされます。

形式は、`[raid raid-name]` です。*raid-name* は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

```
[raid rs]
shared_dir = raid
raid_type = 1
num_of_raid_volumes = 2
encrypted = true
```

**Topics**
+ [`shared_dir`](#raid-shared-dir)
+ [`ebs_kms_key_id`](#raid-ebs_kms_key_id)
+ [`encrypted`](#raid-encrypted)
+ [`num_of_raid_volumes`](#num-of-raid-volumes)
+ [`raid_type`](#raid-type)
+ [`volume_iops`](#raid-volume-iops)
+ [`volume_size`](#raid-volume-size)
+ [`volume_throughput`](#raid-volume-throughput)
+ [`volume_type`](#raid-volume-type)

## `shared_dir`
<a name="raid-shared-dir"></a>

**(必須)** ヘッドノードとコンピューティングノードでの RAID アレイのマウントポイントを定義します。

RAID ドライブは、このパラメータが指定されている場合にのみ作成されます。

共有ディレクトリとして `/NONE` または `NONE` を使用しないでください。

次の例では、`/raid` のアレイをマウントします。

```
shared_dir = raid
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="raid-ebs_kms_key_id"></a>

**（オプション）** 暗号化に使用するカスタム AWS KMS キーを指定します。

このパラメータは、`encrypted = true` とともに使用し、カスタムの [`ec2_iam_role`](cluster-definition.md#ec2-iam-role) が含まれている必要があります。

詳細については、「[カスタム KMS キーを使用したディスク暗号化](tutorials_04_encrypted_kms_fs.md)」を参照してください。

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="raid-encrypted"></a>

**(オプション)** ファイルシステムを暗号化するかどうかを指定します。

デフォルト値は `false` です。

```
encrypted = false
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `num_of_raid_volumes`
<a name="num-of-raid-volumes"></a>

**(オプション)** RAID アレイをアセンブルする Amazon EBS ボリュームの数を定義します。

ボリュームの最小数は `2` です。

ボリュームの最大数は `5` です。

デフォルト値は `2` です。

```
num_of_raid_volumes = 2
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `raid_type`
<a name="raid-type"></a>

**(必須)** RAID アレイの RAID タイプを定義します。

RAID ドライブは、このパラメータが指定されている場合にのみ作成されます。

有効なオプションは、次の値です。
+ `0`
+ `1`

RAID タイプの詳細ついては、「*Amazon EC2 ユーザーガイド*」の「[RAID 情報](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/raid-config.html)」を参照してください。

以下の例では、RAID `0` アレイが作成されます。

```
raid_type = 0
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="raid-volume-iops"></a>

**(オプション)** `io1`、`io2` および `gp3` タイプボリュームの IOPS の数を定義します。

デフォルト値、対応値、`volume_iops` 対 `volume_size` の比率は、[`volume_type`](#raid-volume-type) と [`volume_size`](#raid-volume-size) で異なります。

`volume_type` = `io1`  
デフォルト `volume_iops` = 100  
サポートする値 `volume_iops` = 100 — 64000 †  
最大 `volume_iops`/`volume_size` 比率 ＝ 50 IOPS/GiB。5000 IOPS には、少なくとも 100 GiB の `volume_size` が必要です。

`volume_type` = `io2`  
デフォルト `volume_iops` = 100  
サポートする値 `volume_iops` = 100 — 64000 (`io2` Block Express ボリュームの場合は 256000) †  
最大 `volume_iops`/`volume_size` 比率 ＝ 500 IOPS/GiB。5000 IOPS には、少なくとも 10 GiB の `volume_size` が必要です。

`volume_type` = `gp3`  
デフォルト `volume_iops` = 3000  
サポートされる値 `volume_iops` = 3000 — 16000  
最大 `volume_iops`/`volume_size` 比率 ＝ 500 IOPS/GiB。5000 IOPS には、少なくとも 10 GiB の `volume_size` が必要です。

```
volume_iops = 3000
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

† 最大 IOPS は、32,000 IOPS 以上でプロビジョニングされた [Nitro System で構築されたインスタンス](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances)にのみ保証されます。他のインスタンスは、最大 32,000 IOPS を保証します。[ボリュームを変更](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html)しない限り、古い `io1` ボリュームはパフォーマンスが完全にはならないことがあります。`io2`Block Express ボリュームは、最大 256000 までの `volume_iops` 値をサポートします。詳細については、「*Amazon EC2 ユーザーガイド*」の「[`io2` Block Express ボリューム (プレビュー)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express)」を参照してください。

## `volume_size`
<a name="raid-volume-size"></a>

**(オプション)** 作成するボリュームのサイズを定義します (GiB 単位)。

デフォルト値、対応値は、[`volume_type`](#raid-volume-type) で異なります。

`volume_type` = `standard`  
デフォルト値 `volume_size` = 20 GiB  
サポートされる値 `volume_size` = 1 — 1024 GiB

`volume_type` = `gp2`、`io1`、`io2` および `gp3`  
デフォルト値 `volume_size` = 20 GiB  
サポートされる値 `volume_size` = 1 — 16384 GiB

`volume_type` = `sc1` および `st1`  
デフォルト値 `volume_size` = 500 GiB  
サポートされる値 `volume_size` = 500 — 16384 GiB

```
volume_size = 20
```

**注記**  
 AWS ParallelCluster バージョン 2.10.1 以前は、すべてのボリュームタイプのデフォルト値は 20 GiB でした。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="raid-volume-throughput"></a>

**(オプション)** `gp3` ボリュームタイプのスループットを MiB/秒 で定義します。

デフォルト値は `125` です。

サポートされる値 `volume_throughput` = 125 — 1000 MIB/秒

`volume_throughput` と `volume_iops` の比率は 0.25 以下にします。最大のスループットである 1000 MiB/秒を実現するためには、`volume_iops` の設定を 4000 以上にする必要があります。

```
volume_throughput = 1000
```

**注記**  
 AWS ParallelCluster バージョン 2.10.1 で のサポートが追加され`volume_throughput`ました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="raid-volume-type"></a>

**(オプション)** 構築するボリュームのタイプを定義します。

有効なオプションは、次の値です。

`gp2`, `gp3`  
汎用 SSD

`io1`, `io2`  
プロビジョンド IOPS SSD

`st1`  
スループット最適化 HDD

`sc1`  
コールド HDD

`standard`  
前世代のマグネット

詳細については、「Amazon EC2 ユーザーガイド」の「[Amazon EBS ボリュームの種類](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)」を参照してください。

デフォルト値は `gp2` です。

```
volume_type = io2
```

**注記**  
`gp3` および のサポート`io2`が AWS ParallelCluster バージョン 2.10.1 で追加されました。

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

# `[scaling]` セクション
<a name="scaling-section"></a>

**Topics**
+ [`scaledown_idletime`](#scaledown-idletime)

コンピューティングノードがスケールする方法を定義する設定を指定します。

形式は、`[scaling scaling-name]` です。*scaling-name* は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

```
[scaling custom]
scaledown_idletime = 10
```

## `scaledown_idletime`
<a name="scaledown-idletime"></a>

**(オプション)** ジョブがない場合にコンピューティングノードが終了する時間 (単位: 分) を指定します。

このパラメータは、`awsbatch` がスケジューラの場合には使用されません。

デフォルト値は `10` です。

```
scaledown_idletime = 10
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

# `[vpc]` セクション
<a name="vpc-section"></a>

Amazon VPC の構成設定を指定します。VPC の詳細については、「Amazon VPC ユーザーガイド**」の「[Amazon VPC とは?](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html)」と「[VPC のセキュリティのベストプラクティス](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-best-practices.html)」を参照してください。

形式は、`[vpc vpc-name]` です。*vpc-name* は、英字で始まり、30 文字以下で、英字、数字、ハイフン (-)、アンダーライン (‗) のみで構成される必要があります。

```
[vpc public]
vpc_id = vpc-xxxxxx
master_subnet_id = subnet-xxxxxx
```

**Topics**
+ [`additional_sg`](#additional-sg)
+ [`compute_subnet_cidr`](#compute-subnet-cidr)
+ [`compute_subnet_id`](#compute-subnet-id)
+ [`master_subnet_id`](#master-subnet-id)
+ [`ssh_from`](#ssh-from)
+ [`use_public_ips`](#use-public-ips)
+ [`vpc_id`](#vpc-id)
+ [`vpc_security_group_id`](#vpc-security-group-id)

## `additional_sg`
<a name="additional-sg"></a>

**(オプション)** すべてのインスタンス用の追加の Amazon VPC セキュリティグループ ID を指定します。

デフォルト値はありません。

```
additional_sg = sg-xxxxxx
```

## `compute_subnet_cidr`
<a name="compute-subnet-cidr"></a>

**(オプション)** クラスレスのドメイン間ルーティング (CIDR) ブロックを指定します。コンピューティングサブネット AWS ParallelCluster を作成する場合は、このパラメータを使用します。

```
compute_subnet_cidr = 10.0.100.0/24
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `compute_subnet_id`
<a name="compute-subnet-id"></a>

**(オプション)** コンピューティングノードをプロビジョンする既存のサブネットの ID を指定します。

指定しない場合は、[`compute_subnet_id`](#compute-subnet-id) は [`master_subnet_id`](#master-subnet-id) の値を使用します。

サブネットがプライベートの場合は、ウェブアクセスに NAT を設定する必要があります。

```
compute_subnet_id = subnet-xxxxxx
```

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `master_subnet_id`
<a name="master-subnet-id"></a>

**(必須)** ヘッドノードをプロビジョンする既存のサブネットの ID を指定します。

```
master_subnet_id = subnet-xxxxxx
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `ssh_from`
<a name="ssh-from"></a>

**(オプション)** SSH アクセスを許可する CIDR 形式の IP 範囲を指定します。

このパラメータは、 がセキュリティグループ AWS ParallelCluster を作成する場合にのみ使用されます。

デフォルト値は `0.0.0.0/0` です。

```
ssh_from = 0.0.0.0/0
```

[更新ポリシー: この設定は、更新中に変更できます。](using-pcluster-update.md#update-policy-setting-supported)

## `use_public_ips`
<a name="use-public-ips"></a>

**(オプション)** コンピューティングインスタンスにパブリック IP アドレスを割り当てるかどうかを定義します。

`true` に設定すると、Elastic IP アドレスがヘッドノードに関連付けられます。

`false` に設定した場合、ヘッドインスタンスには、「Auto-assign Public IP」(自動割り当てパブリック IP) サブネット設定パラメータの値に応じてパブリック IP が設定されます (または設定されません)。

例については、[「networking configuration」](networking.md)(ネットワーク設定) を参照してください。

デフォルト値は `true` です。

```
use_public_ips = true
```

**重要**  
デフォルトでは、それぞれ 5 つの (5) Elastic IP アドレスに制限 AWS アカウント されています AWS リージョン。詳細については、「*Amazon EC2 ユーザーガイド*」の「[Elastic IP アドレスの制限](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/elastic-ip-addresses-eip.html#using-instance-addressing-limit)」を参照してください。

[更新ポリシー: この設定を更新で変更するためには、コンピューティングフリートを停止する必要があります。](using-pcluster-update.md#update-policy-compute-fleet)

## `vpc_id`
<a name="vpc-id"></a>

**(必須)** クラスターをプロビジョンする Amazon VPC の ID を指定します。

```
vpc_id = vpc-xxxxxx
```

[更新ポリシー: この設定が変更された場合、更新は許可されません。](using-pcluster-update.md#update-policy-fail)

## `vpc_security_group_id`
<a name="vpc-security-group-id"></a>

**(オプション)** すべてのインスタンスに既存のセキュリティグループを使用するよう指定します。

デフォルト値はありません。

```
vpc_security_group_id = sg-xxxxxx
```

によって作成されたセキュリティグループは、 [`ssh_from`](#ssh-from)設定で指定されたアドレスからポート 22 を使用して SSH アクセス AWS ParallelCluster を許可し、 [`ssh_from`](#ssh-from) 設定が指定されていない場合はすべての IPv4 アドレス (`0.0.0.0/0`) を許可します。Amazon DCV が有効になっている場合、セキュリティグループでは、[`access_from`](dcv-section.md#dcv-section-access-from) 設定で指定したアドレスまたは ([`access_from`](dcv-section.md#dcv-section-access-from) 設定の指定がない場合は) すべての IPv4 アドレス (`0.0.0.0/0`) から、ポート 8443 (または [`port`](dcv-section.md#dcv-section-port) 設定で指定された任意のポート) を使用して、Amazon DCV にアクセスすることを許可します。

**警告**  
[`[cluster]`](cluster-definition.md) [`fsx_settings`](cluster-definition.md#fsx-settings) が指定されていない場合、または `fsx_settings` と外部に存在する FSx for Lustre ファイルシステムの両方が [`[fsx fs]`](fsx-section.md) の [`fsx-fs-id`](fsx-section.md#fsx-fs-id) に指定されている場合は、このパラメータの値を変更してクラスターを更新できます。  
 AWS ParallelCluster マネージド FSx for Lustre ファイルシステムが `fsx_settings`および で指定されている場合、このパラメータの値を変更することはできません`[fsx fs]`。

[更新ポリシー: AWS ParallelCluster マネージド Amazon FSx for Lustre ファイルシステムが設定で指定されていない場合、この設定は更新中に変更できます。](using-pcluster-update.md#update-policy-no-managed-fsx-lustre)

# 例
<a name="examples"></a>

次の設定例はSlurm、、Torque、および ス AWS Batch ケジューラを使用した AWS ParallelCluster 設定を示しています。

**注記**  
バージョン 2.11.5 AWS ParallelCluster 以降、 は SGEまたは スTorqueケジューラの使用をサポートしていません。

**Contents**
+ [Slurm Workload Manager (`slurm`)](#example.slurm)
+ [Son of Grid Engine (`sge`) および Torque Resource Manager (`torque`)](#example.torque)
+ [AWS Batch (`awsbatch`)](#example.awsbatch)

## Slurm Workload Manager (`slurm`)
<a name="example.slurm"></a>

次の例では、`slurm` スケジューラでクラスターを起動します。この例では、1 つのクラスターを 2 つのジョブキューで起動します。最初のキュー `spot` には、初期状態で 2 つの `t3.micro` スポットインスタンスが用意されています。最大で 10 インスタンスまで拡張でき、10 分間ジョブが実行されなかった場合には最小で 1 インスタンスまで拡張することができます ([`scaledown_idletime`](scaling-section.md#scaledown-idletime) 設定で調整可能)。2 番目のキューである `ondemand` は、インスタンスがない状態からスタートし、最大で 5 台の `t3.micro` オンデマンドインスタンスまで拡張することができます。

```
[global]
update_check = true
sanity_check = true
cluster_template = slurm

[aws]
aws_region_name = <your AWS リージョン>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster slurm]
key_name = <your EC2 keypair name>
base_os = alinux2                   # optional, defaults to alinux2
scheduler = slurm
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
queue_settings = spot,ondemand

[queue spot]
compute_resource_settings = spot_i1
compute_type = spot                 # optional, defaults to ondemand

[compute_resource spot_i1]
instance_type = t3.micro
min_count = 1                       # optional, defaults to 0
initial_count = 2                   # optional, defaults to 0

[queue ondemand]
compute_resource_settings = ondemand_i1

[compute_resource ondemand_i1]
instance_type = t3.micro
max_count = 5                       # optional, defaults to 10
```

## Son of Grid Engine (`sge`) および Torque Resource Manager (`torque`)
<a name="example.torque"></a>

**注記**  
この例では、 AWS ParallelCluster バージョン 2.11.4 以前のバージョンにのみ適用されます。バージョン 2.11.5 以降は、 AWS ParallelCluster では SGE または Torque スケジューラの使用はサポートしていません。

次の例では、`torque` または `sge` のスケジューラでクラスターを起動します。SGE を使用するには、`scheduler = torque` を `scheduler = sge` に変更します。サンプルの設定では、最大 5 つの同時ノード が許可され、10 分間ジョブが実行されない場合、2 つにスケールダウンします。

```
[global]
update_check = true
sanity_check = true
cluster_template = torque

[aws]
aws_region_name = <your AWS リージョン>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster torque]
key_name = <your EC2 keypair name>but they aren't eligible for future updates
base_os = alinux2                   # optional, defaults to alinux2
scheduler = torque                  # optional, defaults to sge
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
initial_queue_size = 2              # optional, defaults to 0
maintain_initial_size = true        # optional, defaults to false
max_queue_size = 5                  # optional, defaults to 10
```

**注記**  
バージョン 2.11.5 AWS ParallelCluster 以降、 は SGEまたは スTorqueケジューラの使用をサポートしていません。これらのバージョンを使用する場合は、引き続き使用するか、 AWS サービスおよびサポートチームによる AWS サポートのトラブルシューティングを行うことができます。

## AWS Batch (`awsbatch`)
<a name="example.awsbatch"></a>

次の例では、`awsbatch` スケジューラでクラスターを起動します。ジョブリソースのニーズに基いて、より良いインスタンスタイプを選択するように設定されています。

サンプルの設定では、最大 40 の同時 vCPU が許可され、10 分間 ([`scaledown_idletime`](scaling-section.md#scaledown-idletime) 設定で調整可能) ジョブが実行されない場合、ゼロにスケールダウンします。

```
[global]
update_check = true
sanity_check = true
cluster_template = awsbatch

[aws]
aws_region_name = <your AWS リージョン>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster awsbatch]
scheduler = awsbatch
compute_instance_type = optimal # optional, defaults to optimal
min_vcpus = 0                   # optional, defaults to 0
desired_vcpus = 0               # optional, defaults to 4
max_vcpus = 40                  # optional, defaults to 20
base_os = alinux2               # optional, defaults to alinux2, controls the base_os of
                                # the head node and the docker image for the compute fleet
key_name = <your EC2 keypair name>
vpc_settings = public
```