

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 구성
<a name="configuration"></a>

기본적으로는 모든 구성 파라미터에 `~/.parallelcluster/config` 파일을 AWS ParallelCluster 사용합니다. 사용자 지정 구성 파일을 `-c` 또는 `--config` 명령줄 옵션이나 `AWS_PCLUSTER_CONFIG_FILE` 환경 변수를 사용하여 지정할 수 있습니다.

예제 구성 파일은의 Python 디렉터리 AWS ParallelCluster 에와 함께 설치됩니다`site-packages/aws-parallelcluster/examples/config`. 예제 구성 파일은 GitHub([https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/cli/src/pcluster/examples/config))에서도 사용할 수 있습니다.

현재 AWS ParallelCluster 2 버전: 2.11.9.

**Topics**
+ [레이아웃](#layout)
+ [`[global]` 섹션](global.md)
+ [`[aws]` 섹션](aws.md)
+ [`[aliases]` 섹션](aliases.md)
+ [`[cluster]` 섹션](cluster-definition.md)
+ [`[compute_resource]` 섹션](compute-resource-section.md)
+ [`[cw_log]` 섹션](cw-log-section.md)
+ [`[dashboard]` 섹션](dashboard-section.md)
+ [`[dcv]` 섹션](dcv-section.md)
+ [`[ebs]` 섹션](ebs-section.md)
+ [`[efs]` 섹션](efs-section.md)
+ [`[fsx]` 섹션](fsx-section.md)
+ [`[queue]` 섹션](queue-section.md)
+ [`[raid]` 섹션](raid-section.md)
+ [`[scaling]` 섹션](scaling-section.md)
+ [`[vpc]` 섹션](vpc-section.md)
+ [예시](examples.md)

## 레이아웃
<a name="layout"></a>

 AWS ParallelCluster 구성은 여러 섹션에 정의되어 있습니다.

다음 [`[global]` 섹션](global.md) 및 [`[aws]` 섹션](aws.md)이 필요합니다.

최소 [`[cluster]` 섹션](cluster-definition.md) 및 [`[vpc]` 섹션](vpc-section.md)이 하나씩 포함되어야 합니다.

한 섹션은 대괄호 안의 섹션 이름으로 시작하며 뒤에 파라미터와 구성이 옵니다.

```
[global]
cluster_template = default
update_check = true
sanity_check = true
```

# `[global]` 섹션
<a name="global"></a>

`pcluster`와 관련된 전역 구성 옵션을 지정합니다.

```
[global]
```

**Topics**
+ [`cluster_template`](#cluster-template)
+ [`update_check`](#update-check)
+ [`sanity_check`](#sanity-check)

## `cluster_template`
<a name="cluster-template"></a>

클러스터에 기본적으로 사용되는 `cluster` 섹션의 이름을 정의합니다. `cluster` 섹션에 대한 자세한 내용은 [`[cluster]` 섹션](cluster-definition.md)을 참조하세요. 클러스터 이름은 문자로 시작해야 하고, 60자 이하여야 하고, 문자, 숫자 및 하이픈(-)만 포함해야 합니다.

예를 들어, 다음 설정은 `[cluster default]`를 시작하는 섹션이 기본적으로 사용되도록 지정합니다.

```
cluster_template = default
```

[업데이트 정책: 이 설정은 업데이트 중에 분석되지 않습니다.](using-pcluster-update.md#update-policy-setting-ignored)

## `update_check`
<a name="update-check"></a>

(선택 사항)**** `pcluster`에 대한 업데이트가 있는지 확인합니다.

기본값은 `true`입니다.

```
update_check = true
```

[업데이트 정책: 이 설정은 업데이트 중에 분석되지 않습니다.](using-pcluster-update.md#update-policy-setting-ignored)

## `sanity_check`
<a name="sanity-check"></a>

(선택 사항)**** 클러스터 파라미터에 정의된 리소스의 구성을 확인하려고 시도합니다.

기본값은 `true`입니다.

**주의**  
`sanity_check`를 `false`로 설정하면 중요한 검사를 건너뛰게 됩니다. 이로 인해 기능이 의도한 대로 작동하지 않을 수 있습니다.

```
sanity_check = true
```

**참고**  
 AWS ParallelCluster 버전 2.5.0 이전, [`sanity_check`](#sanity-check) 기본값은 입니다`false`.

[업데이트 정책: 이 설정은 업데이트 중에 분석되지 않습니다.](using-pcluster-update.md#update-policy-setting-ignored)

# `[aws]` 섹션
<a name="aws"></a>

**(선택 사항)**를 선택하는 데 사용됩니다 AWS 리전.

클러스터 생성은이 우선 순위 순서를 사용하여 새 클러스터의 AWS 리전 를 선택합니다.

1. [`pcluster create`](pluster.create.md)의 `-r` 또는 `--region` 파라미터.

1. `AWS_DEFAULT_REGION` 환경 변수.

1. `aws_region_name` AWS ParallelCluster 구성 파일의 `[aws]` 섹션에서 설정(기본 위치는 `~/.parallelcluster/config`) [`pcluster configure`](pcluster.configure.md) 명령으로 업데이트된 위치입니다.

1. `region` AWS CLI 구성 파일(`~/.aws/config`)의 `[default]` 섹션에서 설정

**참고**  
 AWS ParallelCluster 버전 2.10.0 이전에는 이러한 설정이 필요했으며 모든 클러스터에 적용되었습니다.

보안 인증을 저장하려면 AWS ParallelCluster 구성 파일에 보안 인증을 저장하는 대신 환경, Amazon EC2의 IAM 역할 또는 [AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html)를 사용할 수 있습니다.

```
[aws]
aws_region_name = Region
```

[업데이트 정책: 이 설정은 업데이트 중에 분석되지 않습니다.](using-pcluster-update.md#update-policy-setting-ignored)

# `[aliases]` 섹션
<a name="aliases"></a>

**Topics**

별칭을 지정하고 `ssh` 명령을 사용자 지정할 수 있습니다.

다음 기본 설정을 참조하세요.
+ `CFN_USER`는 OS의 기본 사용자 이름으로 설정됩니다.
+ `MASTER_IP`는 헤드 노드의 IP 주소로 설정되어 있습니다.
+ `ARGS`는 사용자가 `pcluster ssh cluster_name`** 다음에 제공하는 인수로 설정됩니다.

```
[aliases]
# This is the aliases section, you can configure
# ssh alias here
ssh = ssh {CFN_USER}@{MASTER_IP} {ARGS}
```

[업데이트 정책: 이 설정은 업데이트 중에 분석되지 않습니다.](using-pcluster-update.md#update-policy-setting-ignored)

# `[cluster]` 섹션
<a name="cluster-definition"></a>

클러스터를 생성하는 데 사용할 수 있는 클러스터 템플릿을 정의합니다. 구성 파일은 여러 `[cluster]` 섹션을 포함할 수 있습니다.

동일한 클러스터 템플릿을 사용하여 여러 클러스터를 만들 수 있습니다.

형식은 `[cluster cluster-template-name]`입니다. [`[global]` 섹션](global.md)의 [`cluster_template`](global.md#cluster-template) 설정으로 이름이 지정된 [`[cluster]` 섹션](#cluster-definition)이 기본적으로 사용되지만 [`pcluster`](pcluster.md) 명령줄에서 재정의할 수 있습니다.

*cluster-template-name*은 문자로 시작해야 하고, 30자 이내로 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

```
[cluster default]
```

**Topics**
+ [`additional_cfn_template`](#additional-cfn-template)
+ [`additional_iam_policies`](#additional-iam-policies)
+ [`base_os`](#base-os)
+ [`cluster_resource_bucket`](#cluster-resource-bucket-section)
+ [`cluster_type`](#cluster-type)
+ [`compute_instance_type`](#compute-instance-type)
+ [`compute_root_volume_size`](#compute-root-volume-size)
+ [`custom_ami`](#custom-ami-section)
+ [`cw_log_settings`](#cw-log-settings)
+ [`dashboard_settings`](#dashboard-settings)
+ [`dcv_settings`](#dcv-settings)
+ [`desired_vcpus`](#desired-vcpus)
+ [`disable_cluster_dns`](#disable-cluster-dns-settings)
+ [`disable_hyperthreading`](#disable-hyperthreading)
+ [`ebs_settings`](#ebs-settings)
+ [`ec2_iam_role`](#ec2-iam-role)
+ [`efs_settings`](#efs-settings)
+ [`enable_efa`](#enable-efa)
+ [`enable_efa_gdr`](#enable-efa-gdr)
+ [`enable_intel_hpc_platform`](#enable-intel-hpc-platform)
+ [`encrypted_ephemeral`](#encrypted-ephemeral)
+ [`ephemeral_dir`](#ephemeral-dir)
+ [`extra_json`](#extra-json)
+ [`fsx_settings`](#fsx-settings)
+ [`iam_lambda_role`](#iam-lambda-role)
+ [`initial_queue_size`](#configuration-initial-queue-size)
+ [`key_name`](#key-name)
+ [`maintain_initial_size`](#maintain-initial-size)
+ [`master_instance_type`](#master-instance-type)
+ [`master_root_volume_size`](#master-root-volume-size)
+ [`max_queue_size`](#configuration-max-queue-size)
+ [`max_vcpus`](#max-vcpus)
+ [`min_vcpus`](#min-vcpus)
+ [`placement`](#placement)
+ [`placement_group`](#placement-group)
+ [`post_install`](#post-install)
+ [`post_install_args`](#post-install-args)
+ [`pre_install`](#pre-install)
+ [`pre_install_args`](#pre-install-args)
+ [`proxy_server`](#proxy-server)
+ [`queue_settings`](#queue-settings)
+ [`raid_settings`](#raid-settings)
+ [`s3_read_resource`](#s3-read-resource)
+ [`s3_read_write_resource`](#s3-read-write-resource)
+ [`scaling_settings`](#scaling-settings)
+ [`scheduler`](#scheduler)
+ [`shared_dir`](#cluster-shared-dir)
+ [`spot_bid_percentage`](#spot-bid-percentage)
+ [`spot_price`](#spot-price)
+ [`tags`](#tags)
+ [`template_url`](#template-url)
+ [`vpc_settings`](#vpc-settings)

## `additional_cfn_template`
<a name="additional-cfn-template"></a>

**(선택 사항)** 클러스터와 함께 시작할 추가 AWS CloudFormation 템플릿을 정의합니다. 이 추가 템플릿은 클러스터 외부에 있지만 클러스터 수명 주기의 일부인 리소스를 생성하는 데 사용됩니다.

해당 값은 모든 파라미터가 제공된 퍼블릭 템플릿의 HTTP URL이어야 합니다.

기본값이 없습니다.

```
additional_cfn_template = https://<bucket-name>.s3.amazonaws.com/my-cfn-template.yaml
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `additional_iam_policies`
<a name="additional-iam-policies"></a>

(선택 사항)**** Amazon EC2에 대한 IAM 정책의 Amazon 리소스 이름(ARN) 목록을 쉼표로 구분하여 지정합니다. 이 목록은 쉼표로 구분된 AWS ParallelCluster 에서 필요한 권한 외에 클러스터에서 사용되는 루트 역할에 연결됩니다. IAM 정책 이름과 해당 ARN은 서로 다릅니다. 이름은 `additional_iam_policies`의 인수로 사용할 수 없습니다.

클러스터 노드의 기본 설정에 추가 정책을 추가하려는 경우 [`ec2_iam_role`](#ec2-iam-role) 설정을 사용하여 특정 EC2 정책을 추가하는 대신 `additional_iam_policies` 설정과 함께 추가 사용자 지정 IAM 정책을 전달하는 것이 좋습니다. 이는이 `additional_iam_policies`에 AWS ParallelCluster 필요한 기본 권한에 추가되기 때문입니다. 기존 [`ec2_iam_role`](#ec2-iam-role)에는 필요한 모든 권한이 포함되어야 합니다. 그러나 특성이 추가됨에 따라 필요한 권한이 릴리스마다 변경되는 경우가 많기 때문에 기존 [`ec2_iam_role`](#ec2-iam-role)는 더 이상 사용되지 않을 수 있습니다.

기본값이 없습니다.

```
additional_iam_policies = arn:aws:iam::123456789012:policy/CustomEC2Policy
```

**참고**  
[`additional_iam_policies`](#additional-iam-policies)에 대한 지원이 AWS ParallelCluster 버전 2.5.0에서 추가되었습니다.

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `base_os`
<a name="base-os"></a>

(필수)**** 클러스터에서 사용되는 OS 유형을 지정합니다.

사용 가능한 옵션은 다음과 같습니다.
+ `alinux2`
+ `centos7`
+ `ubuntu1804`
+ `ubuntu2004`

**참고**  
 AWS Graviton 기반 인스턴스의 경우 , `ubuntu1804`또는 `alinux2`만 지원`ubuntu2004`됩니다.

**참고**  
 AWS ParallelCluster 버전 2.11.4에서에 대한 지원이 제거`centos8`되었습니다. AWS ParallelCluster 버전 2.11.0에서 `alinux` 및 `ubuntu1604`에 대한 지원이 제거되었으며 `ubuntu2004`에 대한 지원이 추가되었습니다. AWS ParallelCluster 버전 `centos8` 2.10.0에서에 대한 지원이 추가되고에 대한 지원이 제거`centos6`되었습니다. AWS ParallelCluster 버전 2.6.0에서 `alinux2`에 대한 지원이 추가되었습니다. AWS ParallelCluster 버전 2.5.0에서 `ubuntu1404`에 대한 지원은 제거되었으며 `ubuntu1804`에 대한 지원이 추가되었습니다.

를 지원하지 않는 다음 표에 AWS 리전 언급된 특정 이외의 `centos7`. 다른 모든 AWS 상용 리전은 다음 운영 체제를 모두 지원합니다.


| 파티션(AWS 리전) | `alinux2` | `centos7` | `ubuntu1804` 및 `ubuntu2004` | 
| --- | --- | --- | --- | 
| 상용(모두 특별히 언급 AWS 리전 되지 않음) | True | True | True | 
| AWS GovCloud(미국 동부)(us-gov-east-1) | True | False | True | 
| AWS GovCloud(미국 서부)(us-gov-west-1) | True | False | True | 
| 중국(베이징)(cn-north-1) | True | False | True | 
| 중국(닝샤)(cn-northwest-1) | True | False | True | 

**참고**  
[`base_os`](#base-os) 파라미터는 클러스터에 로그인하는 데 사용되는 사용자 이름도 결정합니다.
+ `centos7`: `centos` 
+ `ubuntu1804` 및 `ubuntu2004`: `ubuntu` 
+ `alinux2`: `ec2-user` 

**참고**  
 AWS ParallelCluster 버전 2.7.0 이전에는 [`base_os`](#base-os) 파라미터가 선택 사항이었고 기본값은 이었습니다`alinux`. AWS ParallelCluster 버전 2.7.0부터 [`base_os`](#base-os) 파라미터가 필요합니다.

**참고**  
[`scheduler`](#scheduler) 파라미터가 `awsbatch`인 경우 `alinux2`만 지원됩니다.

```
base_os = alinux2
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `cluster_resource_bucket`
<a name="cluster-resource-bucket-section"></a>

(선택 사항)**** 클러스터를 생성할 때 생성되는 리소스를 호스트하는 데 사용되는 Amazon S3 버킷의 이름을 지정합니다. 버킷에 버전 관리를 활성화해야 합니다. 자세한 내용은 Amazon Simple Storage Service 사용 설명서**의 [버전 관리 사용](https://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html)을 참조하세요. 이 버킷은 여러 클러스터에 사용할 수 있습니다. 버킷이 클러스터와 동일한 리전에 있어야 합니다.

이 파라미터를 지정하지 않으면 클러스터를 생성할 때 새 버킷이 생성됩니다. 새 버킷의 이름은 `parallelcluster-random_string`입니다. 이 이름에서 *random\$1string*은 임의의 영숫자 문자열입니다. 모든 클러스터 리소스는 형식의 경로에 있는이 버킷에 저장됩니다`bucket_name/resource_directory`. `resource_directory`에는 형식이 있습니다. `stack_name-random_string`여기서 *stack\$1name*은에서 사용하는 CloudFormation 스택 중 하나의 이름입니다 AWS ParallelCluster. *bucket\$1name*의 값은 `parallelcluster-clustername` 스택 출력의 `ResourcesS3Bucket` 값에서 찾을 수 있습니다. *resource\$1directory* 값은 동일한 스택의 `ArtifactS3RootDirectory` 출력 값에서 찾을 수 있습니다.

기본값은 `parallelcluster-random_string`입니다.

```
cluster_resource_bucket = amzn-s3-demo-bucket
```

**참고**  
 AWS ParallelCluster 버전 2.10.0에서에 대한 지원이 [`cluster_resource_bucket`](#cluster-resource-bucket-section) 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다. 이 설정은 강제로 업데이트할 수 없습니다.](using-pcluster-update.md#update-policy-read-only-resource-bucket)

## `cluster_type`
<a name="cluster-type"></a>

(선택 사항)**** 시작할 클러스터의 유형을 정의합니다. [`queue_settings`](#queue-settings) 설정이 정의된 경우 이 설정을 [`[queue]` 섹션](queue-section.md)의 [`compute_type`](queue-section.md#queue-compute-type) 설정으로 바꿔야 합니다.

유효한 옵션은 `ondemand` 및 `spot`입니다.

기본값은 `ondemand`입니다.

스팟 인스턴스에 대한 자세한 내용은 [스팟 인스턴스 작업](spot.md) 섹션을 참조하세요.

**참고**  
스팟 인스턴스를 사용하려면 계정에 `AWSServiceRoleForEC2Spot` 서비스 연결 역할이 있어야 합니다. 를 사용하여 계정에서이 역할을 생성하려면 다음 명령을 AWS CLI실행합니다.  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
자세한 내용은 *Amazon EC2 사용 설명서*에서 [스팟 인스턴스 요청을 위한 서비스 연결 역할](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests)을 참조하세요.

```
cluster_type = ondemand
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_instance_type`
<a name="compute-instance-type"></a>

(선택 사항)**** 클러스터 컴퓨팅 노드에 사용되는 Amazon EC2 인스턴스 유형을 정의합니다. 인스턴스 유형의 아키텍처는 [`master_instance_type`](#master-instance-type) 설정에 사용된 아키텍처와 동일해야 합니다. [`queue_settings`](#queue-settings) 설정이 정의된 경우 이 설정을 [`[compute_resource]` 섹션](compute-resource-section.md)의 [`instance_type`](compute-resource-section.md#compute-resource-instance-type) 설정으로 바꿔야 합니다.

`awsbatch` 스케줄러를 사용하는 경우 지원되는 인스턴스 유형 목록은 AWS Batch UI의 컴퓨팅 환경 생성을 참조하세요.

스케줄러가 `awsbatch`인 경우 기본적으로 `t2.micro`, `optimal`로 설정됩니다.

```
compute_instance_type = t2.micro
```

**참고**  
 AWS Graviton 기반 인스턴스( `A1` 및 `C6g` 인스턴스 포함)에 대한 지원이 AWS ParallelCluster 버전 2.8.0에 추가되었습니다.

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `compute_root_volume_size`
<a name="compute-root-volume-size"></a>

(선택 사항)**** ComputeFleet 루트 볼륨 크기를 기비바이트(GiB) 단위로 지정합니다. AMI는 `growroot`를 지원해야 합니다.

기본값은 `35`입니다.

**참고**  
2.5.0\$12.10.4 AWS ParallelCluster 버전의 경우 기본값은 25였습니다. AWS ParallelCluster 버전 2.5.0 이전의 기본값은 20이었습니다.

```
compute_root_volume_size = 35
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `custom_ami`
<a name="custom-ami-section"></a>

(선택 사항)**** 기본 [게시된 AMI](https://github.com/aws/aws-parallelcluster/blob/v2.11.9/amis.txt) 대신 헤드 및 컴퓨팅 노드에 사용할 사용자 지정 AMI의 ID를 지정합니다. 자세한 내용은 [AMI 수정](tutorials_02_ami_customization.md#modify-an-aws-parallelcluster-ami) 또는 [사용자 지정 AWS ParallelCluster AMI 빌드](tutorials_02_ami_customization.md#build-a-custom-aws-parallelcluster-ami)을 참조하세요.

기본값이 없습니다.

```
custom_ami = ami-00d4efc81188687a0
```

사용자 지정 AMI를 시작하기 위해 추가 권한이 필요한 경우 이러한 권한을 사용자 및 헤드 노드 정책 모두에 추가해야 합니다.

예를 들어 사용자 지정 AMI에 암호화된 스냅샷이 연결된 경우 사용자 및 헤드 노드 정책 모두에 다음과 같은 추가 정책이 필요합니다.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```

------

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `cw_log_settings`
<a name="cw-log-settings"></a>

(선택 사항)**** CloudWatch Logs 구성이 있는 `[cw_log]` 섹션을 식별합니다. 섹션 이름은 문자로 시작해야 하고, 30자 이내로 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

자세한 내용은 [`[cw_log]` 섹션](cw-log-section.md), [Amazon CloudWatch 대시보드](cloudwatch-dashboard.md) 및 [Amazon CloudWatch Logs와 통합](cloudwatch-logs.md)을 참조하세요.

예를 들어, 다음 설정은 `[cw_log custom-cw]`을 시작하는 섹션이 CloudWatch Logs 구성에 사용되도록 지정합니다.

```
cw_log_settings = custom-cw
```

**참고**  
 AWS ParallelCluster 버전 2.6.0에서에 대한 지원이 [`cw_log_settings`](#cw-log-settings) 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `dashboard_settings`
<a name="dashboard-settings"></a>

(선택 사항)**** CloudWatch 대시보드 구성을 사용하여 `[dashboard]` 섹션을 식별합니다. 섹션 이름은 문자로 시작해야 하고, 30자 이내로 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

자세한 내용은 [`[dashboard]` 섹션](dashboard-section.md)을 참조하세요.

예를 들어, 다음 설정은 `[dashboard custom-dashboard`을 시작하는 섹션이 CloudWatch 대시보드 구성에 사용되도록 지정합니다.

```
dashboard_settings = custom-dashboard
```

**참고**  
 AWS ParallelCluster 버전 2.10.0에서에 대한 지원이 [`dashboard_settings`](#dashboard-settings) 추가되었습니다.

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `dcv_settings`
<a name="dcv-settings"></a>

**(선택 사항)** Amazon DCV 구성이 있는 `[dcv]` 섹션을 식별합니다. 섹션 이름은 문자로 시작해야 하고, 30자 이내로 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

자세한 내용은 [`[dcv]` 섹션](dcv-section.md)을 참조하세요.

예를 들어, 다음 설정은 `[dcv custom-dcv]`를 시작하는 섹션이 Amazon DCV 구성에 사용되도록 지정합니다.

```
dcv_settings = custom-dcv
```

**참고**  
 AWS Graviton 기반 인스턴스에서는 Amazon DCV가 에서만 지원됩니다`alinux2`.

**참고**  
 AWS ParallelCluster 버전 2.5.0에서에 대한 지원이 [`dcv_settings`](#dcv-settings) 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `desired_vcpus`
<a name="desired-vcpus"></a>

(선택 사항)**** 컴퓨팅 환경에 필요한 vCPU 수를 지정합니다. 스케줄러가 `awsbatch`인 경우에만 사용됩니다.

기본값은 `4`입니다.

```
desired_vcpus = 4
```

[업데이트 정책: 이 설정은 업데이트 중에 분석되지 않습니다.](using-pcluster-update.md#update-policy-setting-ignored)

## `disable_cluster_dns`
<a name="disable-cluster-dns-settings"></a>

(선택 사항)**** 클러스터의 DNS 항목을 생성하지 않아야 하는지 여부를 지정합니다. 기본적으로는 Route 53 호스팅 영역을 AWS ParallelCluster 생성합니다. `disable_cluster_dns`이 `true`로 설정되어 있으면 호스팅 영역이 생성되지 않습니다.

기본값은 `false`입니다.

```
disable_cluster_dns = true
```

**주의**  
클러스터가 제대로 작동하려면 이름 확인 시스템이 필요합니다. `disable_cluster_dns`이 `true`로 설정된 경우 추가 이름 확인 시스템도 제공해야 합니다.

**중요**  
[`disable_cluster_dns`](#disable-cluster-dns-settings) = `true`는 [`queue_settings`](#queue-settings) 설정이 지정된 경우에만 지원됩니다.

**참고**  
 AWS ParallelCluster 버전 2.9.1에서에 대한 지원이 [`disable_cluster_dns`](#disable-cluster-dns-settings) 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `disable_hyperthreading`
<a name="disable-hyperthreading"></a>

(선택 사항)**** 헤드 및 컴퓨팅 노드에서 하이퍼 스레딩을 비활성화합니다. 모든 인스턴스 유형이 하이퍼 스레딩을 비활성화할 수 있는 것은 아닙니다. 하이퍼스레딩 비활성화를 지원하는 인스턴스 유형 목록은 *Amazon EC2 사용 설명서*에서 [인스턴스 유형별 각 CPU 코어의 CPU 코어 및 스레드](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values)를 참조하세요. [`queue_settings`](#queue-settings) 설정이 정의되어 있으면 이 설정과 [`[queue]` 섹션](queue-section.md)의 [`disable_hyperthreading`](queue-section.md#queue-disable-hyperthreading) 설정 중에 하나만 정의할 수 있습니다.

기본값은 `false`입니다.

```
disable_hyperthreading = true
```

**참고**  
[`disable_hyperthreading`](#disable-hyperthreading)은 `scheduler = awsbatch`일 때만 헤드 노드에 영향을 줍니다.

**참고**  
 AWS ParallelCluster 버전 2.5.0에서 [`disable_hyperthreading`](#disable-hyperthreading)에 대한 지원이 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `ebs_settings`
<a name="ebs-settings"></a>

(선택 사항)**** 헤드 노드에 탑재된 Amazon EBS 볼륨이 있는 `[ebs]` 섹션을 식별합니다. 여러 Amazon EBS 볼륨을 사용하는 경우 각 매개 변수를 쉼표로 구분하여 목록에 입력합니다. 섹션 이름은 문자로 시작해야 하고, 30자 이내로 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

최대 5개의 추가 Amazon EBS 볼륨이 지원됩니다.

자세한 내용은 [`[ebs]` 섹션](ebs-section.md)을 참조하세요.

예를 들어, 다음 설정은 `[ebs custom1]` 및 `[ebs custom2]`를 시작하는 섹션이 Amazon EBS 볼륨에 사용되도록 지정합니다.

```
ebs_settings = custom1, custom2
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `ec2_iam_role`
<a name="ec2-iam-role"></a>

(선택 사항)**** 클러스터에 있는 모든 인스턴스에 연결된 Amazon EC2에 대한 기존 IAM 역할의 이름을 정의합니다. IAM 역할 이름과 Amazon 리소스 이름(ARN)은 다릅니다. ARN은 `ec2_iam_role`의 인수로 사용할 수 없습니다.

이 옵션을 지정하면 [`additional_iam_policies`](#additional-iam-policies) 설정이 무시됩니다. 클러스터 노드의 기본 설정에 추가 정책을 추가하려는 경우, `ec2_iam_role` 설정을 사용하는 대신 [`additional_iam_policies`](#additional-iam-policies) 설정과 함께 추가 사용자 지정 IAM 정책을 전달하는 것이 좋습니다.

이 옵션을 지정하지 않으면 Amazon EC2의 기본 AWS ParallelCluster IAM 역할이 사용됩니다. 자세한 내용은 [AWS Identity and Access Management 의 역할 AWS ParallelCluster](iam.md) 단원을 참조하십시오.

기본값이 없습니다.

```
ec2_iam_role = ParallelClusterInstanceRole
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `efs_settings`
<a name="efs-settings"></a>

(선택 사항)**** Amazon EFS 파일 시스템과 관련된 설정을 지정합니다. 섹션 이름은 문자로 시작해야 하고, 30자 이내로 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

자세한 내용은 [`[efs]` 섹션](efs-section.md)을 참조하세요.

예를 들어, 다음 설정은 `[efs customfs]`를 시작하는 섹션이 Amazon EFS 파일 시스템 구성에 사용되도록 지정합니다.

```
efs_settings = customfs
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `enable_efa`
<a name="enable-efa"></a>

(선택 사항)**** 있는 경우 Elastic Fabric Adapter(EFA)가 컴퓨팅 노드에 대해 활성화되도록 지정합니다. EFA를 지원하는 EC2 인스턴스 목록을 보려면 Linux 인스턴스용 Amazon EC2 사용 설명서의** [지원되는 인스턴스 유형](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types)을 참조하세요. 자세한 내용은 [Elastic Fabric Adapter](efa.md) 단원을 참조하십시오. [`queue_settings`](#queue-settings) 설정이 정의되어 있으면 이 설정과 [`[queue]` 섹션](queue-section.md)의 [`enable_efa`](queue-section.md#queue-enable-efa) 설정 중에 하나만 정의할 수 있습니다. 클러스터 배치 그룹은 인스턴스 간의 대기 시간을 최소화하기 위해 사용해야 합니다. 자세한 내용은 [`placement`](#placement) 및 [`placement_group`](#placement-group) 섹션을 참조하세요.

```
enable_efa = compute
```

**참고**  
Arm 기반 Graviton2 인스턴스의 EFA에 대한 지원이 AWS ParallelCluster 버전 2.10.1에 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `enable_efa_gdr`
<a name="enable-efa-gdr"></a>

**(선택 사항)** AWS ParallelCluster 버전 2.11.3부터는이 설정이 적용되지 않습니다. GPUDirect RDMA(원격 직접 메모리 액세스)에 대한 Elastic Fabric Adapter(EFA) 지원은 인스턴스 유형과 운영 체제에서 모두 지원되는 경우 항상 활성화됩니다.

**참고**  
AWS ParallelCluster 버전 2.10.0\$12.11.2: `compute`인 경우 컴퓨팅 노드에 대해 GPUDirect RDMA(원격 직접 메모리 액세스)에 대한 EFA(Elastic Fabric Adapter) 지원이 활성화되도록 지정합니다. 이 설정을 `compute`로 설정하려면 [`enable_efa`](#enable-efa) 설정을 `compute`로 설정해야 합니다. GPUDirect RDMA에 대한 EFA 지원은 특정 운영 체제([`base_os`](#base-os)가 `alinux2`, `centos7`, `ubuntu1804`, 또는 `ubuntu2004`)의 특정 인스턴스 유형(`p4d.24xlarge`)에서 지원됩니다. [`queue_settings`](#queue-settings) 설정이 정의되어 있으면 이 설정과 [`[queue]` 섹션](queue-section.md)의 [`enable_efa_gdr`](queue-section.md#queue-enable-efa-gdr) 설정 중에 하나만 정의할 수 있습니다. 클러스터 배치 그룹은 인스턴스 간의 대기 시간을 최소화하기 위해 사용해야 합니다. 자세한 내용은 [`placement`](#placement) 및 [`placement_group`](#placement-group) 섹션을 참조하세요.

```
enable_efa_gdr = compute
```

**참고**  
 AWS ParallelCluster 버전 2.10.0에서에 대한 지원이 `enable_efa_gdr` 추가되었습니다.

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_intel_hpc_platform`
<a name="enable-intel-hpc-platform"></a>

(선택 사항)**** 있는 경우 Intel Parallel Studio에 대한 [최종 사용자 라이선스 계약](https://software.intel.com/en-us/articles/end-user-license-agreement)에 동의했음을 나타냅니다. 이렇게 하면 Intel Parallel Studio가 헤드 노드에 설치되고 컴퓨팅 노드와 공유됩니다. 이로 인해 헤드 노드의 부트스트랩을 수행하는 데 걸리는 시간이 몇 분 더 추가됩니다. [`enable_intel_hpc_platform`](#enable-intel-hpc-platform) 설정은 CentOS 7([`base_os`](#base-os)` = centos7`)에서만 지원됩니다.

기본값은 `false`입니다.

```
enable_intel_hpc_platform = true
```

**참고**  
[`enable_intel_hpc_platform`](#enable-intel-hpc-platform) 파라미터는 AWS Graviton 기반 인스턴스와 호환되지 않습니다.

**참고**  
 AWS ParallelCluster 버전 2.5.0에서 [`enable_intel_hpc_platform`](#enable-intel-hpc-platform)에 대한 지원이 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `encrypted_ephemeral`
<a name="encrypted-ephemeral"></a>

(선택 사항)**** LUKS(Linux Unified Key Setup)를 사용하여 복구 불가능한 인 메모리 키로 임시 인스턴스 스토어 볼륨을 암호화합니다.

자세한 내용은 [https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md](https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md) 단원을 참조하십시오.

기본값은 `false`입니다.

```
encrypted_ephemeral = true
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `ephemeral_dir`
<a name="ephemeral-dir"></a>

(선택 사항)**** 인스턴스 스토어 볼륨이 사용되는 경우 탑재되는 경로를 정의합니다.

기본값은 `/scratch`입니다.

```
ephemeral_dir = /scratch
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `extra_json`
<a name="extra-json"></a>

(선택 사항)**** Chef `dna.json`에 병합되는 추가 JSON을 정의합니다. 자세한 내용은 [사용자 지정 AWS ParallelCluster AMI 빌드](tutorials_02_ami_customization.md) 단원을 참조하십시오.

기본값은 `{}`입니다.

```
extra_json = {}
```

**참고**  
 AWS ParallelCluster 버전 2.6.1부터는 시작 시간을 개선하기 위해 노드를 시작할 때 대부분의 설치 레시피를 기본적으로 건너뜁니다. 시작 시간을 희생하면서 이전 버전과의 호환성을 개선하기 위해 모든 설치 레시피를 실행하려면 [`extra_json`](#extra-json) 설정의 `cluster` 키에 `"skip_install_recipes" : "no"`를 추가하세요. 예제:  

```
extra_json = { "cluster" : { "skip_install_recipes" : "no" } }
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `fsx_settings`
<a name="fsx-settings"></a>

(선택 사항)**** FSx for Lustre 구성을 정의하는 섹션을 지정합니다. 섹션 이름은 문자로 시작해야 하고, 30자 이내로 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

자세한 내용은 [`[fsx]` 섹션](fsx-section.md)을 참조하세요.

예를 들어, 다음 설정은 `[fsx fs]`를 시작하는 섹션이 FSx for Lustre 구성에 사용되도록 지정합니다.

```
fsx_settings = fs
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `iam_lambda_role`
<a name="iam-lambda-role"></a>

**(선택 사항)** 기존 AWS Lambda 실행 역할의 이름을 정의합니다. 이 역할은 클러스터의 모든 Lambda 함수에 연결됩니다. 자세한 내용은AWS Lambda 개발자 가이드**의 [AWS Lambda 실행 역할](https://docs.aws.amazon.com/lambda/latest/dg/lambda-intro-execution-role.html)을 참조하세요.

**참고**  
버전 2.11.5부터 SGE 또는 Torque 스케줄러 사용을 지원하지 AWS ParallelCluster 않습니다.

IAM 역할 이름과 Amazon 리소스 이름(ARN)은 다릅니다. ARN은 `iam_lambda_role`의 인수로 사용할 수 없습니다. [`ec2_iam_role`](#ec2-iam-role)와 `iam_lambda_role` 가 모두 정의되고 [`scheduler`](#scheduler)이 `sge`, `slurm` 또는 `torque`인 경우 역할이 생성되지 않습니다. [`scheduler`](#scheduler)이 `awsbatch`인 경우 [`pcluster start`](pcluster.start.md) 중에 역할이 생성됩니다. 예제 정책은 [SGE, Slurm, 또는 Torque를 사용하는 `ParallelClusterLambdaPolicy`](iam.md#parallelcluster-lambda-policy) 및 [`awsbatch`을 사용하는 `ParallelClusterLambdaPolicy`](iam.md#parallelcluster-lambda-policy-batch) 항목을 참조하세요.

기본값이 없습니다.

```
iam_lambda_role = ParallelClusterLambdaRole
```

**참고**  
 AWS ParallelCluster 버전 2.10.1에서에 대한 지원이 `iam_lambda_role` 추가되었습니다.

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `initial_queue_size`
<a name="configuration-initial-queue-size"></a>

(선택 사항)**** 클러스터에서 컴퓨팅 노드로 시작할 초기 Amazon EC2 인스턴스 수를 설정합니다. [`queue_settings`](#queue-settings) 설정이 정의된 경우 이 설정을 제거한 다음 [`[compute_resource]` 섹션](compute-resource-section.md)의 [`initial_count`](compute-resource-section.md#compute-resource-initial-count) 설정으로 교체해야 합니다.

**참고**  
버전 2.11.5부터 SGE 또는 Torque 스케줄러 사용을 지원하지 AWS ParallelCluster 않습니다.

이 설정은 기존 스케줄러(SGE, Slurm 및 Torque)에만 적용할 수 있습니다. [`maintain_initial_size`](#maintain-initial-size) 설정이 `true`인 경우 [`initial_queue_size`](#configuration-initial-queue-size) 설정이 1 이상이어야 합니다.

스케줄러가 `awsbatch`인 경우 [`min_vcpus`](#min-vcpus)를 사용합니다.

기본값은 `2`입니다.

```
initial_queue_size = 2
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `key_name`
<a name="key-name"></a>

(선택 사항)**** 인스턴스에 대한 SSH 액세스를 활성화하는 기존 Amazon EC2 키 페어의 이름을 지정합니다.

```
key_name = mykey
```

**참고**  
 AWS ParallelCluster 버전 2.11.0 이전에는가 필수 설정`key_name`이었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `maintain_initial_size`
<a name="maintain-initial-size"></a>

**참고**  
버전 2.11.5부터 SGE 또는 Torque 스케줄러 사용을 지원하지 AWS ParallelCluster 않습니다.

(선택 사항)**** 기존 스케줄러(SGE, Slurm 및 Torque)에 대한 오토 스케일링 그룹의 초기 크기를 유지합니다.

스케줄러가 `awsbatch`인 경우 [`desired_vcpus`](#desired-vcpus)를 사용합니다.

이 설정은 부울 플래그입니다. `true`로 설정하면 오토 스케일링 그룹의 구성원 수는 [`initial_queue_size`](#configuration-initial-queue-size)의 값보다 적지 않으며 [`initial_queue_size`](#configuration-initial-queue-size)의 값은 1 이상이어야 합니다. 클러스터는 [`max_queue_size`](#configuration-max-queue-size)의 값으로 여전히 스케일 업할 수 있습니다. `cluster_type = spot`인 경우 오토 스케일링 그룹에서 인스턴스가 중단될 수 있으며 크기가 [`initial_queue_size`](#configuration-initial-queue-size) 아래로 떨어질 수 있습니다.

`false`로 설정하면 필요 없는 리소스가 유휴 상태로 있지 않도록 오토 스케일링 그룹이 0개의 멤버로 스케일 다운될 수 있습니다.

[`queue_settings`](#queue-settings) 설정이 정의된 경우 이 설정을 제거한 다음 [`[compute_resource]` 섹션](compute-resource-section.md)의 [`initial_count`](compute-resource-section.md#compute-resource-initial-count) 및 [`min_count`](compute-resource-section.md#compute-resource-min-count) 설정으로 교체해야 합니다.

기본값은 `false`입니다.

```
maintain_initial_size = false
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `master_instance_type`
<a name="master-instance-type"></a>

(선택 사항)**** 헤드 노드에 사용되는 Amazon EC2 인스턴스 유형을 정의합니다. 인스턴스 유형의 아키텍처는 [`compute_instance_type`](#compute-instance-type) 설정에 사용된 아키텍처와 동일해야 합니다.

프리 티어가 AWS 리전 있는에서는 기본적으로 프리 티어 인스턴스 유형(`t2.micro` 또는 )으로 설정됩니다`t3.micro`. 프리 티어 AWS 리전 가 없는의 기본값은 입니다`t3.micro`. AWS 프리 티어에 대한 자세한 내용은 [AWS 프리 티어 FAQs](https://aws.amazon.com/free/free-tier-faqs/).

```
master_instance_type = t2.micro
```

**참고**  
 AWS ParallelCluster 버전 2.10.1 이전에는 기본적으로 모두 `t2.micro` 로 설정되었습니다 AWS 리전. AWS ParallelCluster 버전 2.10.0에서는 헤드 노드에 `p4d.24xlarge`가 지원되지 않았습니다. AWS Graviton 기반 인스턴스(예: `A1` 및 `C6g`)에 대한 지원이 AWS ParallelCluster 버전 2.8.0에 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `master_root_volume_size`
<a name="master-root-volume-size"></a>

(선택 사항)**** 헤드 노드 루트 볼륨 크기를 기비바이트(GiB) 단위로 지정합니다. AMI는 `growroot`를 지원해야 합니다.

기본값은 `35`입니다.

**참고**  
2.5.0\$12.10.4 AWS ParallelCluster 버전의 경우 기본값은 25였습니다. AWS ParallelCluster 버전 2.5.0 이전의 기본값은 20이었습니다.

```
master_root_volume_size = 35
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `max_queue_size`
<a name="configuration-max-queue-size"></a>

(선택 사항)**** 클러스터에서 시작할 수 있는 최대 Amazon EC2 인스턴스 수를 설정합니다. [`queue_settings`](#queue-settings) 설정이 정의된 경우 이 설정을 제거한 다음 [`[compute_resource]` 섹션](compute-resource-section.md)의 [`max_count`](compute-resource-section.md#compute-resource-max-count) 설정으로 교체해야 합니다.

**참고**  
버전 2.11.5부터 SGE 또는 Torque 스케줄러 사용을 지원하지 AWS ParallelCluster 않습니다.

이 설정은 기존 스케줄러(SGE, Slurm 및 Torque)에만 적용할 수 있습니다.

스케줄러가 `awsbatch`인 경우 [`max_vcpus`](#max-vcpus)를 사용합니다.

기본값은 `10`입니다.

```
max_queue_size = 10
```

업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있지만 값이 감소하면 컴퓨팅 플릿을 중지해야 합니다. 그렇지 않으면 기존 노드가 종료될 수 있습니다.

## `max_vcpus`
<a name="max-vcpus"></a>

(선택 사항)**** 컴퓨팅 환경의 최대 vCPU 수를 지정합니다. 스케줄러가 `awsbatch`인 경우에만 사용됩니다.

기본값은 `20`입니다.

```
max_vcpus = 20
```

[업데이트 정책: 업데이트 중에는 이 설정을 줄일 수 없습니다.](using-pcluster-update.md#update-policy-no-decrease)

## `min_vcpus`
<a name="min-vcpus"></a>

(선택 사항)**** `awsbatch` 스케줄러에 대한 오토 스케일링 그룹의 초기 크기를 유지합니다.

**참고**  
버전 2.11.5부터 SGE 또는 Torque 스케줄러 사용을 지원하지 AWS ParallelCluster 않습니다.

스케줄러가 SGE, Slurm 또는 Torque인 경우 [`maintain_initial_size`](#maintain-initial-size)를 사용합니다.

컴퓨팅 환경의 구성원은 [`min_vcpus`](#min-vcpus) 값보다 적을 수 없습니다.

기본값은 `0`입니다.

```
min_vcpus = 0
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `placement`
<a name="placement"></a>

(선택 사항)**** 클러스터 배치 그룹 로직을 정의합니다. 이렇게 하면 전체 클러스터 또는 클러스터 배치 그룹을 사용할 컴퓨팅 인스턴스만 활성화됩니다.

[`queue_settings`](#queue-settings) 설정이 정의된 경우 이 설정을 제거한 다음 각 [`[queue]` 섹션](queue-section.md)에 대해 [`placement_group`](queue-section.md#queue-placement-group) 설정으로 교체해야 합니다. 다른 인스턴스 유형에 동일한 배치 그룹을 사용하는 경우 용량 부족 오류로 인해 요청이 실패할 가능성이 높습니다. 자세한 내용은 *Amazon EC2 사용 설명서*의 [부족한 인스턴스 용량](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity)을 참조하세요. 배치 그룹을 미리 생성하여 각 대기열의 [`placement_group`](queue-section.md#queue-placement-group) 설정에 구성한 경우에만 여러 대기열이 공유할 수 있습니다. 각 [`[queue]` 섹션](queue-section.md)이 [`placement_group`](queue-section.md#queue-placement-group) 설정을 정의하는 경우 헤드 노드는 대기열의 배치 그룹에 속할 수 없습니다.

유효한 옵션은 `cluster` 또는 `compute`입니다.

스케줄러가 `awsbatch`인 경우에는 이 파라미터가 사용되지 않습니다.

기본값은 `compute`입니다.

```
placement = compute
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `placement_group`
<a name="placement-group"></a>

(선택 사항)**** 클러스터 배치 그룹을 정의합니다. [`queue_settings`](#queue-settings) 설정이 정의된 경우 이 설정을 제거한 다음 [`[queue]` 섹션](queue-section.md)의 [`placement_group`](queue-section.md#queue-placement-group) 설정으로 교체해야 합니다.

유효한 옵션은 다음과 같습니다.
+ `DYNAMIC`
+ 기존의 Amazon EC2 클러스터 배치 그룹 이름입니다.

`DYNAMIC`으로 설정하면 고유의 배치 그룹이 클러스터 스택의 일부로 생성되고 삭제됩니다.

스케줄러가 `awsbatch`인 경우에는 이 파라미터가 사용되지 않습니다.

배치 그룹에 대한 자세한 내용은 *Amazon EC2 사용 설명서*의 [배치 그룹](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)을 참조하세요. 다른 인스턴스 유형에 동일한 배치 그룹을 사용하는 경우 용량 부족 오류로 인해 요청이 실패할 가능성이 높습니다. 자세한 내용은 *Amazon EC2 사용 설명서*의 [부족한 인스턴스 용량](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity)을 참조하세요.

기본값이 없습니다.

모든 인스턴스 유형이 클러스터 배치 그룹을 지원하는 것은 아닙니다. 예를 들어, `t3.micro`의 기본 인스턴스 유형은 클러스터 배치 그룹을 지원하지 않습니다. 클러스터 배치 그룹을 지원하는 인스턴스 유형에 대한 자세한 내용은 *Amazon EC2 사용 설명서*의 [클러스터 배치 그룹의 규칙 및 제한 사항](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster)을 참조하세요. 배치 그룹 작업 시 팁은 [배치 그룹 및 인스턴스 시작 문제](troubleshooting.md#placement-groups-and-instance-launch-issues) 섹션을 참고하세요.

```
placement_group = DYNAMIC
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `post_install`
<a name="post-install"></a>

(선택 사항)**** 모든 노드 부트스트랩 작업이 완료된 후 실행되는 설치 후 스크립트의 URL을 지정합니다. 자세한 내용은 [사용자 지정 부트스트랩 작업](pre_post_install.md) 단원을 참조하십시오.

`awsbatch`를 스케줄러로 사용할 경우 사후 설치 스크립트는 헤드 노드에서만 실행됩니다.

파라미터 형식을 `http://hostname/path/to/script.sh` 또는 `s3://bucket-name/path/to/script.sh`로 지정할 수 있습니다.

기본값이 없습니다.

```
post_install = s3://<bucket-name>/my-post-install-script.sh
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `post_install_args`
<a name="post-install-args"></a>

(선택 사항)**** 사후 설치 스크립트에 전달할 인수의 목록을 따옴표로 묶어 지정합니다.

기본값이 없습니다.

```
post_install_args = "argument-1 argument-2"
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install`
<a name="pre-install"></a>

(선택 사항)**** 노드 배포 부트스트랩 작업이 시작되기 전에 실행되는 사전 설치 스크립트의 URL을 지정합니다. 자세한 내용은 [사용자 지정 부트스트랩 작업](pre_post_install.md) 단원을 참조하십시오.

`awsbatch`를 스케줄러로 사용할 경우 사전 설치 스크립트는 헤드 노드에서만 실행됩니다.

파라미터 형식을 `http://hostname/path/to/script.sh` 또는 `s3://bucket-name/path/to/script.sh`로 지정할 수 있습니다.

기본값이 없습니다.

```
pre_install = s3://bucket-name/my-pre-install-script.sh
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `pre_install_args`
<a name="pre-install-args"></a>

(선택 사항)**** 사전 설치 스크립트에 전달할 인수의 목록을 따옴표로 묶어 지정합니다.

기본값이 없습니다.

```
pre_install_args = "argument-3 argument-4"
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `proxy_server`
<a name="proxy-server"></a>

(선택 사항)**** HTTP 또는 HTTPS 프록시 서버, 일반적으로 `http://x.x.x.x:8080`을 정의합니다.

기본값이 없습니다.

```
proxy_server = http://10.11.12.13:8080
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `queue_settings`
<a name="queue-settings"></a>

**(선택 사항)** 클러스터가 동종 컴퓨팅 플릿 대신 대기열을 사용하도록 지정하고 사용되는 [`[queue]` 섹션을](queue-section.md) 지정합니다. 나열된 첫 번째 [`[queue]` 섹션은](queue-section.md) 기본 스케줄러 대기열입니다. `queue` 섹션 이름은 소문자로 시작해야 하고 30자 이내로 소문자, 숫자 및 하이픈(-)만 포함되어야 합니다.

**중요**  
[`queue_settings`](#queue-settings)은 [`scheduler`](#scheduler)가 `slurm`로 설정된 경우에만 지원됩니다. [`cluster_type`](#cluster-type), [`compute_instance_type`](#compute-instance-type), [`initial_queue_size`](#configuration-initial-queue-size), [`maintain_initial_size`](#maintain-initial-size), [`max_queue_size`](#configuration-max-queue-size), [`placement`](#placement), [`placement_group`](#placement-group) 및 [`spot_price`](#spot-price) 설정은 지정하지 않아야 합니다. [`disable_hyperthreading`](#disable-hyperthreading) 및 [`enable_efa`](#enable-efa) 설정은[`[cluster]` 섹션](#cluster-definition) 또는 [`[queue]` 섹션](queue-section.md)에서 지정할 수 있지만 둘 다에서 지정할 수는 없습니다.

[`[queue]` 섹션은](queue-section.md) 최대 5개까지 지원됩니다.

자세한 내용은 [`[queue]` 섹션](queue-section.md)을 참조하세요.

예를 들어, 다음 설정은 `[queue q1]` 및 `[queue q2]`을 시작하는 섹션을 지정합니다.

```
queue_settings = q1, q2
```

**참고**  
 AWS ParallelCluster 버전 2.9.0에서에 대한 지원이 [`queue_settings`](#queue-settings) 추가되었습니다.

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `raid_settings`
<a name="raid-settings"></a>

(선택 사항)**** Amazon EBS 볼륨 RAID 구성이 있는 `[raid]` 섹션을 식별합니다. 섹션 이름은 문자로 시작해야 하고, 30자 이내로 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

자세한 내용은 [`[raid]` 섹션](raid-section.md)을 참조하세요.

예를 들어, 다음 설정은 `[raid rs]`를 시작하는 섹션이 Auto Scaling 구성에 사용되도록 지정합니다.

```
raid_settings = rs
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `s3_read_resource`
<a name="s3-read-resource"></a>

**(선택 사항)** AWS ParallelCluster 노드에 읽기 전용 액세스 권한이 부여된 Amazon S3 리소스를 지정합니다.

예를 들어, `arn:aws:s3:::my_corporate_bucket*`은 *my\$1corporate\$1bucket* 버킷과 그 안에 있는 모든 객체에 대한 읽기 전용 액세스를 제공합니다.

형식에 대한 자세한 내용은 [Amazon S3 작업](s3_resources.md)을 참조하세요.

기본값이 없습니다.

```
s3_read_resource = arn:aws:s3:::my_corporate_bucket*
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `s3_read_write_resource`
<a name="s3-read-write-resource"></a>

(선택 사항)**** AWS ParallelCluster 노드에 읽기/쓰기 액세스를 부여할 Amazon S3 리소스를 지정합니다.

예를 들어, `arn:aws:s3:::my_corporate_bucket/Development/*`는 *my\$1corporate\$1bucket* 버킷의 `Development` 폴더에 있는 모든 객체에 대한 읽기/쓰기 액세스를 제공합니다.

형식에 대한 자세한 내용은 [Amazon S3 작업](s3_resources.md)을 참조하세요.

기본값이 없습니다.

```
s3_read_write_resource = arn:aws:s3:::my_corporate_bucket/*
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `scaling_settings`
<a name="scaling-settings"></a>

Auto Scaling 구성이 있는 `[scaling]` 섹션을 식별합니다. 섹션 이름은 문자로 시작해야 하고, 30자 이내로 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

자세한 내용은 [`[scaling]` 섹션](scaling-section.md)을 참조하세요.

예를 들어, 다음 설정은 `[scaling custom]`를 시작하는 섹션이 Auto Scaling 구성에 사용되도록 지정합니다.

```
scaling_settings = custom
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `scheduler`
<a name="scheduler"></a>

(필수)**** 클러스터 스케줄러를 정의합니다.

유효한 옵션은 다음과 같습니다.

`awsbatch`  
AWS Batch  
`awsbatch` 스케줄러에 대한 자세한 내용은 [네트워킹 설정](networking.md#awsbatch-networking) 및 [AWS Batch (`awsbatch`)](awsbatchcli.md)을 참조하세요.

`sge`  
버전 2.11.5부터 SGE 또는 Torque 스케줄러 사용을 지원하지 AWS ParallelCluster 않습니다.
Son of Grid Engine (SGE)

`slurm`  
Slurm Workload Manager (Slurm)

`torque`  
버전 2.11.5부터 SGE 또는 Torque 스케줄러 사용을 지원하지 AWS ParallelCluster 않습니다.
Torque Resource Manager (Torque)

**참고**  
 AWS ParallelCluster 버전 2.7.0 이전에는 `scheduler` 파라미터가 선택 사항이었고 기본값은 이었습니다`sge`. AWS ParallelCluster 버전 2.7.0부터는 `scheduler` 파라미터가 필요합니다.

```
scheduler = slurm
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="cluster-shared-dir"></a>

(선택 사항)**** 공유 Amazon EBS 볼륨이 탑재될 경로를 정의합니다.

다중 Amazon EBS 볼륨에는 이 옵션을 사용하지 마세요. 대신 각 [`[ebs]` 섹션](ebs-section.md)에 [`shared_dir`](#cluster-shared-dir) 값을 제공합니다.

여러 Amazon EBS 볼륨을 사용하는 방법에 대한 자세한 내용은 [`[ebs]` 섹션](ebs-section.md)을 참조하세요.

기본값은 `/shared`입니다.

다음 예제에서는 `/myshared`에 탑재된 공유 Amazon EBS 볼륨을 보여줍니다.

```
shared_dir = myshared
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `spot_bid_percentage`
<a name="spot-bid-percentage"></a>

(선택 사항)**** `awsbatch`가 스케줄러인 경우 ComputeFleet의 최고 스팟 가격을 계산하는 데 사용되는 온디맨드 비율을 설정합니다.

값을 지정하지 않으면 온디맨드 가격 이하의 현재 스팟 시장 가격이 선택됩니다.

```
spot_bid_percentage = 85
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `spot_price`
<a name="spot-price"></a>

**참고**  
버전 2.11.5부터 SGE 또는 Torque 스케줄러 사용을 지원하지 AWS ParallelCluster 않습니다.

(선택 사항)**** 기존 스케줄러(SGE, Slurm 및 Torque)에서 ComputeFleet에 대한 최고 스팟 가격을 설정할 수 있습니다. [`cluster_type`](#cluster-type) 설정이 `spot`으로 설정된 경우에만 사용됩니다. 값을 지정하지 않으면 온디맨드 가격 이하의 스팟 가격이 부과됩니다. [`queue_settings`](#queue-settings) 설정이 정의된 경우 이 설정을 제거한 다음 [`[compute_resource]` 섹션](compute-resource-section.md)의 [`spot_price`](compute-resource-section.md#compute-resource-spot-price) 설정으로 교체해야 합니다.

스케줄러가 `awsbatch`인 경우 [spot\$1bid\$1percentage](#spot-bid-percentage)를 사용합니다.

필요에 맞는 입찰 스팟 인스턴스를 찾는 데 도움이 필요한 경우 [스팟 인스턴스 어드바이저](https://aws.amazon.com/ec2/spot/instance-advisor/)를 참조하세요.

```
spot_price = 1.50
```

**참고**  
 AWS ParallelCluster 버전 2.5.0에서는 `cluster_type = spot` [`spot_price`](#spot-price)를 지정하지 않으면 ComputeFleet의 인스턴스 시작이 실패합니다. 이는 AWS ParallelCluster 버전 2.5.1에서 수정되었습니다.

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `tags`
<a name="tags"></a>

**(선택 사항)** 사용할 태그를 정의합니다 CloudFormation.

--tags**를 통해 명령줄 태그를 지정하면 이러한 태그는 구성 태그와 병합됩니다.

명령줄 태그는 동일한 키가 있는 구성 태그를 덮어씁니다.

태그는 JSON 형식입니다. 중괄호 밖에 따옴표를 사용하지 마세요.

자세한 내용을 알아보려면AWS CloudFormation 사용 설명서**의 [CloudFormation 리소스 태그 유형](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html)을 참조하세요.

```
tags = {"key" : "value", "key2" : "value2"}
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

**참고**  
업데이트 정책에서는 AWS ParallelCluster 버전 2.8.0에서 버전 2.9.1까지의 `tags` 설정 변경을 지원하지 않았습니다.  
버전 2.10.0에서 버전 2.11.7의 경우 `tags` 설정 변경을 지원하는 나열된 업데이트 정책이 정확하지 않습니다. 이 설정을 수정할 때는 클러스터 업데이트가 지원되지 않습니다.

## `template_url`
<a name="template-url"></a>

**(선택 사항)** 클러스터를 생성하는 데 사용되는 AWS CloudFormation 템플릿의 경로를 정의합니다.

업데이트는 원래 스택을 생성하는 데 사용된 템플릿을 사용합니다.

기본값은 `https://aws_region_name-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version.cfn.json`입니다.

**주의**  
이것은 고급 파라미터입니다. 이 설정을 변경할 때는 사용자의 주의가 필요합니다.

```
template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json
```

[업데이트 정책: 이 설정은 업데이트 중에 분석되지 않습니다.](using-pcluster-update.md#update-policy-setting-ignored)

## `vpc_settings`
<a name="vpc-settings"></a>

(필수)**** 클러스터가 배포되는 Amazon VPC 구성이 있는 `[vpc]` 섹션을 식별합니다. 섹션 이름은 문자로 시작해야 하고, 30자 이내로 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

자세한 내용은 [`[vpc]` 섹션](vpc-section.md)을 참조하세요.

예를 들어, 다음 설정은 `[vpc public]`을 시작하는 섹션이 Amazon VPC 구성에 사용되도록 지정합니다.

```
vpc_settings = public
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

# `[compute_resource]` 섹션
<a name="compute-resource-section"></a>

컴퓨팅 리소스의 구성 설정을 정의합니다. [`[queue]` 섹션의](queue-section.md) [`compute_resource_settings`](queue-section.md#queue-compute-resource-settings) 설정은 [`[compute_resource]` 섹션](#compute-resource-section)을 참조합니다. [`[compute_resource]` 섹션](#compute-resource-section)은 [`scheduler`](cluster-definition.md#scheduler)이 `slurm`로 설정된 경우에만 지원됩니다.

형식은 `[compute_resource <compute-resource-name>]`입니다. *compute-resource-name*은 문자로 시작해야 하고, 30자 이하여야 하며, 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

```
[compute_resource cr1]
instance_type = c5.xlarge
min_count = 0
initial_count = 2
max_count = 10
spot_price = 0.5
```

**참고**  
[`[compute_resource]` 섹션](#compute-resource-section) 지원이 AWS ParallelCluster 버전 2.9.0에 추가되었습니다.

**Topics**
+ [`initial_count`](#compute-resource-initial-count)
+ [`instance_type`](#compute-resource-instance-type)
+ [`max_count`](#compute-resource-max-count)
+ [`min_count`](#compute-resource-min-count)
+ [`spot_price`](#compute-resource-spot-price)

## `initial_count`
<a name="compute-resource-initial-count"></a>

(선택 사항)**** 이 컴퓨팅 리소스에 대해 시작할 Amazon EC2 인스턴스의 초기 수를 설정합니다. 클러스터 생성은 최소한 이만큼의 노드가 컴퓨팅 리소스로 실행되기 전까지는 완료되지 않습니다. 대기열의 [`compute_type`](queue-section.md#queue-compute-type) 설정이 `spot`이고 사용 가능한 스팟 인스턴스가 충분하지 않은 경우 클러스터 생성 시간이 초과되어 실패할 수 있습니다. [`min_count`](#compute-resource-min-count) 설정보다 큰 개수는 동적 용량이 [`scaledown_idletime`](scaling-section.md#scaledown-idletime) 설정의 영향을 받습니다. 이 설정은 [`initial_queue_size`](cluster-definition.md#configuration-initial-queue-size) 설정을 대체합니다.

기본값은 `0`입니다.

```
initial_count = 2
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `instance_type`
<a name="compute-resource-instance-type"></a>

(필수)**** 이 컴퓨팅 리소스에 사용되는 Amazon EC2 인스턴스 유형을 정의합니다. 인스턴스 유형의 아키텍처는 [`master_instance_type`](cluster-definition.md#master-instance-type) 설정에 사용된 아키텍처와 동일해야 합니다. `instance_type` 설정은 [`[queue]` 섹션](queue-section.md)에서 참조하는 각 [`[compute_resource]` 섹션](#compute-resource-section)마다 고유해야 합니다. 이 설정은 [`compute_instance_type`](cluster-definition.md#compute-instance-type) 설정을 대체합니다.

```
instance_type = t2.micro
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `max_count`
<a name="compute-resource-max-count"></a>

(선택 사항)**** 이 컴퓨팅 리소스에서 시작할 수 있는 Amazon EC2 인스턴스의 최대 개수를 설정합니다. [`initial_count`](#compute-resource-initial-count) 설정보다 큰 개수는 전원 차단 모드에서 시작됩니다. 이 설정은 [`max_queue_size`](cluster-definition.md#configuration-max-queue-size) 설정을 대체합니다.

기본값은 `10`입니다.

```
max_count = 10
```

[업데이트 정책: 대기열 크기를 현재 노드 수 미만으로 줄이려면 먼저 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-max-count)

**참고**  
업데이트 정책은 버전 2.0.0부터 AWS ParallelCluster 버전 2.9.1까지 컴퓨팅 플릿이 중지될 때까지 `max_count` 설정 변경을 지원하지 않았습니다.

## `min_count`
<a name="compute-resource-min-count"></a>

(선택 사항)**** 이 컴퓨팅 리소스에서 시작할 수 있는 Amazon EC2 인스턴스의 최소 수를 설정합니다. 이러한 노드는 모두 정적 용량입니다. 클러스터 생성은 최소한 이 수만큼의 노드가 컴퓨팅 리소스로 실행되기 전까지는 완료되지 않습니다.

기본값은 `0`입니다.

```
min_count = 1
```

[업데이트 정책: 대기열의 정적 노드 수를 줄이려면 먼저 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-min-count)

**참고**  
업데이트 정책은 버전 2.0.0부터 AWS ParallelCluster 버전 2.9.1까지 컴퓨팅 플릿이 중지될 때까지 `min_count` 설정 변경을 지원하지 않았습니다.

## `spot_price`
<a name="compute-resource-spot-price"></a>

(선택 사항)**** 이 컴퓨팅 리소스의 최대 스팟 가격을 설정합니다. 이 컴퓨팅 리소스가 포함된 대기열의 [`compute_type`](queue-section.md#queue-compute-type) 설정이 `spot`로 설정된 경우에만 사용됩니다. 이 설정은 [`spot_price`](cluster-definition.md#spot-price) 설정을 대체합니다.

값을 지정하지 않으면 온디맨드 가격 이하의 스팟 가격이 부과됩니다.

필요에 맞는 입찰 스팟 인스턴스를 찾는 데 도움이 필요한 경우 [스팟 인스턴스 어드바이저](https://aws.amazon.com/ec2/spot/instance-advisor/)를 참조하세요.

```
spot_price = 1.50
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

# `[cw_log]` 섹션
<a name="cw-log-section"></a>

CloudWatch Logs의 구성 설정을 정의합니다.

형식은 `[cw_log cw-log-name]`입니다. *cw-Log-name*은 문자로 시작해야 하고 30자 이하여야 하며 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함할 수 있습니다.

```
[cw_log custom-cw-log]
enable = true
retention_days = 14
```

자세한 내용은 [Amazon CloudWatch Logs와 통합](cloudwatch-logs.md), [Amazon CloudWatch 대시보드](cloudwatch-dashboard.md), [Amazon CloudWatch Logs와 통합](cloudwatch-logs.md) 섹션을 참조하세요.

**참고**  
 AWS ParallelCluster 버전 2.6.0에서에 대한 지원이 `cw_log` 추가되었습니다.

## `enable`
<a name="cw-log-section-enable"></a>

 (선택 사항)**** CloudWatch Logs가 활성화되었는지 여부를 나타냅니다.

기본값은 `true`입니다. `false`는 CloudWatch Logs를 비활성화하는 데 사용합니다.

다음 예는 CloudWatch Logs를 활성화합니다.

```
enable = true
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `retention_days`
<a name="cw-log-section-retention-days"></a>

 (선택 사항)**** CloudWatch Logs가 개별 로그 이벤트를 유지하는 일 수를 나타냅니다.

기본값은 `14`입니다. 지원되는 값은 1, 3, 5, 7, 14, 30, 60, 90, 120, 150, 180, 365, 400, 545, 731, 1827, 3653입니다.

다음 예에서는 30일 동안 로그 이벤트를 유지하도록 CloudWatch Logs를 구성합니다.

```
retention_days = 30
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

# `[dashboard]` 섹션
<a name="dashboard-section"></a>

CloudWatch 대시보드의 구성 설정을 정의합니다.

형식은 `[dashboard dashboard-name]`입니다. *dashboard-name*은 문자로 시작해야 하고, 30자 이하여야 하며 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함할 수 있습니다.

```
[dashboard custom-dashboard]
enable = true
```

**참고**  
 AWS ParallelCluster 버전 2.10.0에서에 대한 지원이 `dashboard` 추가되었습니다.

## `enable`
<a name="dashboard-section-enable"></a>

 (선택 사항)**** CloudWatch 대시보드가 활성화되었는지 여부를 나타냅니다.

기본값은 `true`입니다. `false`는 CloudWatch 대시보드를 비활성화합니다.

다음 예는 CloudWatch 대시보드를 활성화합니다.

```
enable = true
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

# `[dcv]` 섹션
<a name="dcv-section"></a>

헤드 노드에서 실행 중인 Amazon DCV 서버에 대한 구성 설정을 정의합니다.

Amazon DCV 서버를 생성하고 구성하려면 `dcv` 섹션에서 정의한 이름으로 [`dcv_settings`](cluster-definition.md#dcv-settings) 클러스터를 지정하고, [`enable`](#dcv-section-enable)은 `master`로, [`base_os`](cluster-definition.md#base-os)는 `alinux2`, `centos7`, `ubuntu1804` 또는 `ubuntu2004`로 설정합니다. 헤드 노드가 ARM 인스턴스인 경우 [`base_os`](cluster-definition.md#base-os)는 `alinux2`, `centos7` 또는 `ubuntu1804`로 설정합니다.

형식은 `[dcv dcv-name]`입니다. *dcv-name*은 문자로 시작해야 하고, 30자 이하여야 하며 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함할 수 있습니다.

```
[dcv custom-dcv]
enable = master
port = 8443
access_from = 0.0.0.0/0
```

자세한 내용은 [Amazon DCV를 통해 헤드 노드에 연결합니다.](dcv.md) 섹션을 참조하세요.

**중요**  
기본적으로의 Amazon DCV 포트 설정은 모든 IPv4 주소에 AWS ParallelCluster 열려 있습니다. 그러나 사용자는 Amazon DCV 세션에 대한 URL이 있는 경우에만 Amazon DCV 포트에 연결하고 `pcluster dcv connect`에서 URL이 반환된 후 30초 이내에 Amazon DCV 세션에 연결할 수 있습니다. [`access_from`](#dcv-section-access-from) 설정을 사용해 CIDR 형식 IP 범위의 Amazon DCV 포트로의 액세스를 추가 제한하고, [`port`](#dcv-section-port) 설정을 사용하여 비표준 포트를 설정합니다.

**참고**  
[`centos8`의 `[dcv]` 섹션](#dcv-section)에 대한 지원은 AWS ParallelCluster 버전 2.10.4에서 제거되었습니다. 의 [`[dcv]` 섹션에](#dcv-section) 대한 지원이 AWS ParallelCluster 버전 2.10.0에 `centos8` 추가되었습니다. AWS Graviton 기반 인스턴스의 [`[dcv]` 섹션에](#dcv-section) 대한 지원이 AWS ParallelCluster 버전 2.9.0에 추가되었습니다. `alinux2` 및의 [`[dcv]` 섹션에](#dcv-section) 대한 지원이 AWS ParallelCluster 버전 2.6.0에 `ubuntu1804` 추가되었습니다. 의 [`[dcv]` 섹션에](#dcv-section) 대한 지원이 AWS ParallelCluster 버전 2.5.0에 `centos7` 추가되었습니다.

## `access_from`
<a name="dcv-section-access-from"></a>

 (선택 및 권장 사항)**** Amazon DCV에 연결할 CIDR 형식의 IP 범위를 지정합니다. 이 설정은가 보안 그룹을 AWS ParallelCluster 생성하는 경우에만 사용됩니다.

기본값은 어떤 인터넷 주소에서도 액세스할 수 있는 `0.0.0.0/0`입니다.

```
access_from = 0.0.0.0/0
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `enable`
<a name="dcv-section-enable"></a>

 (필수)**** Amazon DCV가 헤드 노드에서 활성화되었는지 여부를 나타냅니다. 헤드 노드에서 Amazon DCV를 활성화하고 필요한 보안 그룹 규칙을 구성하려면 `enable` 설정을 `master`로 설정합니다.

다음 예에서는 헤드 노드에서 Amazon DCV를 활성화합니다.

```
enable = master
```

**참고**  
Amazon DCV는 Amazon DCV 클라이언트와 헤드 노드에서 실행 중인 Amazon DCV 서버 간의 트래픽을 보호하는 데 사용되는 자체 서명된 인증서를 자동으로 생성합니다. 자체 인증서를 구성하려면 [Amazon DCV HTTPS 인증서](dcv.md#dcv-certificate) 섹션을 참조하세요.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `port`
<a name="dcv-section-port"></a>

 (선택 사항)**** Amazon DCV에 대한 포트를 지정합니다.

기본값은 `8443`입니다.

```
port = 8443
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

# `[ebs]` 섹션
<a name="ebs-section"></a>

헤드 노드에 탑재되고 NFS를 통해 컴퓨팅 노드에 공유되는 볼륨에 대한 Amazon EBS 볼륨 구성 설정을 정의합니다.

클러스터 정의에 Amazon EBS 볼륨을 포함하는 방법을 알아보려면 ``[cluster]` 섹션`/``ebs_settings``를 참조하세요.

클러스터 수명 주기에 구애받지 않는 장기 영구 스토리지에 기존 Amazon EBS 볼륨을 사용하려면 [`ebs_volume_id`](#ebs-volume-id)을 지정하세요.

를 지정하지 않으면는 클러스터를 [`ebs_volume_id`](#ebs-volume-id) AWS ParallelCluster 생성할 때 `[ebs]` 설정에서 EBS 볼륨을 생성하고 클러스터가 삭제될 때 볼륨과 데이터를 삭제합니다.

자세한 내용은 [모범 사례: 클러스터를 새 AWS ParallelCluster 마이너 또는 패치 버전으로 이동](best-practices.md#best-practices-cluster-upgrades) 단원을 참조하십시오.

형식은 `[ebs ebs-name]`입니다. *ebs-name*은 문자로 시작해야 하고, 30자 이하여야 하며, 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

```
[ebs custom1]
shared_dir = vol1
ebs_snapshot_id = snap-xxxxx
volume_type = io1
volume_iops = 200
...

[ebs custom2]
shared_dir = vol2
...

...
```

**Topics**
+ [`shared_dir`](#ebs-shared-dir)
+ [`ebs_kms_key_id`](#ebs-kms-key-id)
+ [`ebs_snapshot_id`](#ebs-snapshot-id)
+ [`ebs_volume_id`](#ebs-volume-id)
+ [`encrypted`](#encrypted)
+ [`volume_iops`](#volume-iops)
+ [`volume_size`](#volume-size)
+ [`volume_throughput`](#volume-throughput)
+ [`volume_type`](#volume-type)

## `shared_dir`
<a name="ebs-shared-dir"></a>

(필수)**** 공유 Amazon EBS 볼륨이 탑재될 경로를 지정합니다.

이 파라미터는 여러 Amazon EBS 볼륨을 사용할 때 필요합니다.

Amazon EBS 볼륨 하나를 사용하는 경우 이 옵션은 [`[cluster]` 섹션](cluster-definition.md)에 지정된 [`shared_dir`](cluster-definition.md#cluster-shared-dir)을 덮어씁니다. 다음 예에서는 볼륨이 `/vol1`에 탑재됩니다.

```
shared_dir = vol1
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="ebs-kms-key-id"></a>

**(선택 사항)** 암호화에 사용할 사용자 지정 AWS KMS 키를 지정합니다.

이 파라미터는 `encrypted = true`와 함께 사용해야 합니다. 또한 사용자 지정 [`ec2_iam_role`](cluster-definition.md#ec2-iam-role)이 있어야 합니다.

자세한 내용은 [사용자 지정 KMS 키를 사용한 디스크 암호화](tutorials_04_encrypted_kms_fs.md) 항목을 참조하세요.

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `ebs_snapshot_id`
<a name="ebs-snapshot-id"></a>

(선택 사항)**** 스냅샷을 볼륨의 소스로 사용하는 경우 Amazon EBS 스냅샷 ID를 정의합니다.

기본값이 없습니다.

```
ebs_snapshot_id = snap-xxxxx
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `ebs_volume_id`
<a name="ebs-volume-id"></a>

(선택 사항)**** 헤드 노드에 연결할 기존 Amazon EBS 볼륨의 볼륨 ID를 정의합니다.

기본값이 없습니다.

```
ebs_volume_id = vol-xxxxxx
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="encrypted"></a>

(선택 사항)**** Amazon EBS 볼륨을 암호화할지 여부를 지정합니다. 참고: 스냅샷과 함께 사용하지 마세요**.

기본값은 `false`입니다.

```
encrypted = false
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="volume-iops"></a>

(선택 사항)**** `io1`, `io2` 및 `gp3` 유형 볼륨의 IOPS 수를 정의합니다.

기본값, 지원되는 값, `volume_iops`와 `volume_size`의 비율 등은 [`volume_type`](raid-section.md#raid-volume-type) 및 [`volume_size`](#volume-size)에 따라 달라집니다.

`volume_type` = `io1`  
기본 `volume_iops` = 100  
지원되는 값 `volume_iops` = 100-64000 †  
최대 `volume_iops`:`volume_size` 비율은 GiB당 50 IOPS입니다. 5000 IOPS에는 최소 100GiB의 `volume_size` 필요합니다.

`volume_type` = `io2`  
기본 `volume_iops` = 100  
지원되는 값 `volume_iops` = 100-64000 (`io2` 블록 익스프레스 볼륨의 경우 256000) †  
최대 `volume_iops`:`volume_size` 비율은 GiB당 500 IOPS입니다. 5000 IOPS에는 최소 10GiB의 `volume_size`가 필요합니다.

`volume_type` = `gp3`  
기본 `volume_iops` = 3000  
지원되는 값 `volume_iops` = 3000-16000 †  
최대 `volume_iops`:`volume_size` 비율은 GiB당 500 IOPS입니다. 5000 IOPS에는 최소 10GiB의 `volume_size` 필요합니다.

```
volume_iops = 200
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

† 최대 IOPS는 32,000 IOPS 이상으로 프로비저닝된 [Nitro 시스템 기반 인스턴스에](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances)서만 보장됩니다. 다른 인스턴스는 최대 32,000 IOPS를 보장합니다. [볼륨을 수정하지 않는 한](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html) 이전 `io1` 볼륨은 전체 성능에 도달할 수 없습니다. `io2` 블록 익스프레스 볼륨은 최대 256,000의 `volume_iops` 값을 지원합니다. 자세한 내용을 알아보려면 *Amazon EC2 사용 설명서*의 [`io2` Block Express 볼륨(평가판)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express)를 참조하세요.

## `volume_size`
<a name="volume-size"></a>

(선택 사항)**** 생성할 볼륨의 크기(GiB)를 지정합니다(스냅샷을 사용하지 않는 경우).

기본 값과 지원되는 값은 [`volume_type`](#volume-type)에 따라 달라집니다.

`volume_type` = `standard`  
기본 `volume_size` = 20GiB  
지원되는 값 `volume_size` = 1\$11024GiB

`volume_type` = `gp2`, `io1`, `io2` 및 `gp3`  
기본 `volume_size` = 20GiB  
지원되는 값 `volume_size` = 1\$116384GiB

`volume_type` = `sc1` 및 `st1`  
기본 `volume_size` = 500GiB  
지원되는 값 `volume_size` = 500\$116384GiB

```
volume_size = 20
```

**참고**  
 AWS ParallelCluster 버전 2.10.1 이전에는 모든 볼륨 유형의 기본값이 20GiB였습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="volume-throughput"></a>

(선택 사항)**** `gp3` 볼륨 유형의 처리량을 MiB/s 단위로 정의합니다.

기본값은 `125`입니다.

지원되는 값 `volume_throughput` = 125\$11000MiB/s

`volume_throughput`:`volume_iops`의 비율은 0.25를 초과할 수 없습니다. 1000MiB/s의 최대 처리량을 위해서는 `volume_iops` 설정이 최소 4000이어야 합니다.

```
volume_throughput = 1000
```

**참고**  
 AWS ParallelCluster 버전 2.10.1에서에 대한 지원이 `volume_throughput` 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="volume-type"></a>

(선택 사항)**** 시작할 볼륨의 [Amazon EBS 볼륨 유형](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)을 지정합니다.

유효한 옵션은 다음 볼륨 유형입니다.

`gp2`, `gp3`  
General Purpose SSD

`io1`, `io2`  
Provisioned IOPS SSD

`st1`  
처리량 최적화 HDD

`sc1`  
콜드 HDD

`standard`  
이전 세대 마그네틱

자세한 내용을 알아보려면 Amazon EC2 사용 설명서**의 [Amazon EBS 볼륨 유형](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)을 참조하세요.

기본값은 `gp2`입니다.

```
volume_type = io2
```

**참고**  
 AWS ParallelCluster 버전 2.10.1에서 `gp3` 및에 대한 지원이 `io2` 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

# `[efs]` 섹션
<a name="efs-section"></a>

헤드 및 컴퓨팅 노드에 탑재된 Amazon EFS에 대한 구성 설정을 정의합니다. 자세한 내용은 Amazon EFS API Reference**의 [CreateFileSystem](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html)을 참조하세요.

클러스터 정의에 Amazon EFS 파일 시스템을 포함하는 방법을 알아보려면 ``[cluster]` 섹션`/``efs_settings``를 참조하세요.

클러스터 수명 주기에 구애받지 않는 장기 영구 스토리지에 기존 Amazon EFS 파일 시스템을 사용하려면 [`efs_fs_id`](#efs-efs-fs-id)을 지정하세요.

를 지정하지 않으면는 클러스터를 [`efs_fs_id`](#efs-efs-fs-id) AWS ParallelCluster 생성할 때 `[efs]` 설정에서 Amazon EFS 파일 시스템을 생성하고 클러스터가 삭제될 때 파일 시스템 및 데이터를 삭제합니다.

자세한 내용은 [모범 사례: 클러스터를 새 AWS ParallelCluster 마이너 또는 패치 버전으로 이동](best-practices.md#best-practices-cluster-upgrades) 단원을 참조하십시오.

형식은 `[efs efs-name]`입니다. *efs-name*은 문자로 시작해야 하고, 30자 이하여야 하며, 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

```
[efs customfs]
shared_dir = efs
encrypted = false
performance_mode = generalPurpose
```

**Topics**
+ [`efs_fs_id`](#efs-efs-fs-id)
+ [`efs_kms_key_id`](#efs-efs-kms-key-id)
+ [`encrypted`](#efs-encrypted)
+ [`performance_mode`](#efs-performance-mode)
+ [`provisioned_throughput`](#efs-provisioned-throughput)
+ [`shared_dir`](#efs-shared-dir)
+ [`throughput_mode`](#efs-throughput-mode)

## `efs_fs_id`
<a name="efs-efs-fs-id"></a>

(선택 사항)**** 기존 파일 시스템의 Amazon EFS 파일 시스템 ID를 정의합니다.

이 옵션을 지정하면 [`shared_dir`](cluster-definition.md#cluster-shared-dir)을 제외한 기타 모든 Amazon EFS 옵션이 무효화됩니다.

이 옵션을 설정하면 다음과 같은 파일 시스템 유형만 지원됩니다.
+ 스택의 가용 영역에 탑재 대상이 없는 파일 시스템
+ 스택의 가용 영역에 기존 탑재 대상이 있으며 `0.0.0.0/0`에서 허용된 인바운드 및 아웃바운드 NFS 트래픽이 있는 파일 시스템

[`efs_fs_id`](#efs-efs-fs-id)를 확인하기 위한 안전성 검사를 수행하려면 IAM 역할에 다음 권한이 있어야 합니다.
+ `elasticfilesystem:DescribeMountTargets`
+ `elasticfilesystem:DescribeMountTargetSecurityGroups`
+ `ec2:DescribeSubnets`
+ `ec2:DescribeSecurityGroups`
+ `ec2:DescribeNetworkInterfaceAttribute`

오류를 방지하려면 이러한 권한을 IAM 역할에 추가하거나 `sanity_check = false`를 설정해야 합니다.

**중요**  
에서 허용되는 인바운드 및 아웃바운드 NFS 트래픽으로 탑재 대상을 설정하면 탑재 대상의 가용 영역에 있는 모든 위치에서 NFS 탑재 요청에 파일 시스템이 `0.0.0.0/0`노출됩니다. 스택의 가용 영역에 탑재 대상을 생성하는 AWS 것은 권장하지 않습니다. 대신이 단계를 AWS 처리해 보겠습니다. 스택의 가용 영역에 탑재 대상이 있어야 하는 경우 [`[vpc]` 섹션](vpc-section.md)에서 [`vpc_security_group_id`](vpc-section.md#vpc-security-group-id) 옵션을 제공하여 사용자 지정 보안 그룹을 사용하는 것을 고려합니다. 그런 다음 해당 보안 그룹을 탑재 대상에 추가하고 `sanity_check`을 해제하여 클러스터를 생성합니다.

기본값이 없습니다.

```
efs_fs_id = fs-12345
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `efs_kms_key_id`
<a name="efs-efs-kms-key-id"></a>

**(선택 사항)** 암호화된 파일 시스템을 보호하는 데 사용할 AWS Key Management Service (AWS KMS) 고객 관리형 키를 식별합니다. 이 옵션이 설정된 경우 [`encrypted`](#efs-encrypted) 설정을 `true`로 지정해야 합니다. 이는 Amazon EFS API 참조**의 [KmsKeyId](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-KmsKeyId) 파라미터에 대응합니다.

기본값이 없습니다.

```
efs_kms_key_id = 1234abcd-12ab-34cd-56ef-1234567890ab
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="efs-encrypted"></a>

(선택 사항)**** 파일 시스템이 암호화되는지 여부를 나타냅니다. 이는 Amazon EFS API 참조**의 [Encrypted](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-Encrypted) 파라미터에 대응합니다.

기본값은 `false`입니다.

```
encrypted = true
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `performance_mode`
<a name="efs-performance-mode"></a>

(선택 사항)**** 파일 시스템의 성능 모드를 정의합니다. 이는 Amazon EFS API 참조**의 [PerformanceMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-PerformanceMode) 파라미터에 대응합니다.

유효한 옵션은 다음과 같습니다.
+ `generalPurpose`
+ `maxIO`

 두 값 모두 대소문자를 구분합니다.

대부분의 파일 시스템에 `generalPurpose` 성능 모드를 사용하는 것이 좋습니다.

`maxIO` 성능 모드를 사용하는 파일 시스템은 더 높은 수준의 집계 처리량 및 초당 작업으로 확장할 수 있습니다. 그러나 대부분의 파일 작업에서 대기 시간이 조금 더 길다는 단점이 있습니다.

파일 시스템을 생성한 후에는 이 파라미터를 변경할 수 없습니다.

기본값은 `generalPurpose`입니다.

```
performance_mode = generalPurpose
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `provisioned_throughput`
<a name="efs-provisioned-throughput"></a>

(선택 사항)**** MiB/s로 측정되는 프로비저닝된 파일 시스템 처리량을 정의합니다. 이는 Amazon EFS API 참조**의 [ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps) 파라미터에 대응합니다.

이 파라미터를 사용할 경우 [`throughput_mode`](#efs-throughput-mode)를 `provisioned`로 설정해야 합니다.

처리량 할당량은 `1024`MiB/s입니다. 할당량 증가를 요청하려면 지원에 문의하십시오.

최소값은 `0.0`MiB/s입니다.

```
provisioned_throughput = 1024
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `shared_dir`
<a name="efs-shared-dir"></a>

(필수)**** 헤드 및 컴퓨팅 노드의 Amazon EFS 탑재 지점을 정의합니다.

이 파라미터는 필수 사항입니다. Amazon EFS 섹션은 [`shared_dir`](cluster-definition.md#cluster-shared-dir)이 지정되는 경우에만 사용됩니다.

`NONE` 또는 `/NONE`을 공유 디렉터리로 사용하지 마세요.

다음 예에서는 Amazon EFS를 `/efs`에 탑재합니다.

```
shared_dir = efs
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `throughput_mode`
<a name="efs-throughput-mode"></a>

(선택 사항)**** 파일 시스템의 처리량 모드를 정의합니다. 이는 Amazon EFS API 참조**의 [ThroughputMode](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-request-ThroughputMode) 파라미터에 대응합니다.

유효한 옵션은 다음과 같습니다.
+ `bursting`
+ `provisioned`

기본값은 `bursting`입니다.

```
throughput_mode = provisioned
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

# `[fsx]` 섹션
<a name="fsx-section"></a>

연결된 FSx for Lustre 파일 시스템에 대한 구성 설정을 정의합니다. 자세한 내용을 알아보려면 Amazon FSx API 참조**의 [Amazon FSx CreateFileSystem](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html)을 참조하세요.

[`base_os`](cluster-definition.md#base-os)이 `alinux2`, `centos7`, `ubuntu1804` 또는 `ubuntu2004`인 경우, FSx for Lustre가 지원됩니다.

Amazon Linux를 사용할 때는 커널이 `4.14.104-78.84.amzn1.x86_64` 또는 그 이후 버전이어야 합니다. 지침은 Amazon FSx for Lustre용 사용 설명서**의 [lustre 클라이언트 설치](https://docs.aws.amazon.com/fsx/latest/LustreGuide/install-lustre-client.html)를 참조하세요.

**참고**  
FSx for Lustre는 현재 `awsbatch`를 스케줄러로 사용할 경우에는 지원되지 않습니다.

**참고**  
 AWS ParallelCluster 버전 2.10.4에서의 FSx for Lustre에 대한 지원이 제거`centos8`되었습니다. AWS ParallelCluster 버전 2.11.0에서의 FSx for Lustre에 대한 지원이 `ubuntu2004` 추가되었습니다. `centos8`에서의 FSx for Lustre에 대한 지원은 AWS ParallelCluster 버전 2.10.0에서 추가되었습니다. 버전 2.6.0에서 `ubuntu1604`, 및 `alinux2`에 대한 AWS ParallelCluster FSx for Lustre 지원이 `ubuntu1804` 추가되었습니다. `centos7`에서의 FSx for Lustre에 대한 지원은 AWS ParallelCluster 버전 2.4.0에서 추가되었습니다.

기존 파일 시스템을 사용하는 경우 `988` 포트까지 인바운드 및 아웃바운드 TCP 트래픽을 허용하는 보안 그룹에 연결해야 합니다. 보안 그룹 규칙에서 소스를 `0.0.0.0/0`으로 설정하면 클라이언트가 해당 규칙의 프로토콜 및 포트 범위에 대해 VPC 보안 그룹 내의 모든 IP 범위에서 액세스할 수 있습니다. 파일 시스템에 대한 액세스를 추가로 제한하려면 보안 그룹 규칙에 보다 제한적인 소스를 사용하는 것이 좋습니다. 예를 들어 보다 구체적인 CIDR 범위, IP 주소 또는 보안 그룹 ID를 사용할 수 있습니다. [`vpc_security_group_id`](vpc-section.md#vpc-security-group-id)를 사용하지 않을 경우 이 작업이 자동으로 수행됩니다.

클러스터 수명 주기에 구애받지 않는 장기 영구 스토리지에 기존 Amazon FSx 파일 시스템을 사용하려면 [`fsx_fs_id`](#fsx-fs-id)을 지정하세요.

를 지정하지 않으면는 클러스터를 [`fsx_fs_id`](#fsx-fs-id) AWS ParallelCluster 생성할 때 `[fsx]` 설정에서 FSx for Lustre 파일 시스템을 생성하고 클러스터가 삭제될 때 파일 시스템 및 데이터를 삭제합니다.

자세한 내용은 [모범 사례: 클러스터를 새 AWS ParallelCluster 마이너 또는 패치 버전으로 이동](best-practices.md#best-practices-cluster-upgrades) 단원을 참조하십시오.

형식은 `[fsx fsx-name]`입니다. *fsx-name*은 문자로 시작해야 하고, 30자 이하여야 하며, 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

```
[fsx fs]
shared_dir = /fsx
fsx_fs_id = fs-073c3803dca3e28a6
```

새 파일 시스템을 생성하고 구성하려면 다음 파라미터를 사용합니다.

```
[fsx fs]
shared_dir = /fsx
storage_capacity = 3600
imported_file_chunk_size = 1024
export_path = s3://bucket/folder
import_path = s3://bucket
weekly_maintenance_start_time = 1:00:00
```

**Topics**
+ [`auto_import_policy`](#fsx-auto-import-policy)
+ [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)
+ [`copy_tags_to_backups`](#fsx-copy-tags-to-backups)
+ [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time)
+ [`data_compression_type`](#fsx-data-compression-type)
+ [`deployment_type`](#fsx-deployment-type)
+ [`drive_cache_type`](#fsx-drive-cache-type)
+ [`export_path`](#fsx-export-path)
+ [`fsx_backup_id`](#fsx-backup-id)
+ [`fsx_fs_id`](#fsx-fs-id)
+ [`fsx_kms_key_id`](#fsx-kms-key-id)
+ [`import_path`](#fsx-import-path)
+ [`imported_file_chunk_size`](#fsx-imported-file-chunk-size)
+ [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)
+ [`shared_dir`](#fsx-shared-dir)
+ [`storage_capacity`](#fsx-storage-capacity)
+ [`storage_type`](#fsx-storage-type)
+ [`weekly_maintenance_start_time`](#fsx-weekly-maintenance-start-time)

## `auto_import_policy`
<a name="fsx-auto-import-policy"></a>

(선택 사항)**** FSx for Lustre 파일 시스템을 생성하는 데 사용된 S3 버킷의 변경 사항을 반영하기 위한 자동 가져오기 정책을 지정합니다. 가능한 값은 다음과 같습니다.

`NEW`  
FSx for Lustre가 현재 FSx for Lustre 파일 시스템에 존재하지 않는 연결된 S3 버킷에 추가된 새 객체의 디렉터리 목록을 자동으로 가져옵니다.

`NEW_CHANGED`  
FSx for Lustre가 S3 버킷에 추가된 새 객체 및 S3 버킷에서 변경된 기존 객체의 파일 및 디렉터리 목록을 자동으로 가져옵니다.

이는 [AutoImportPolicy](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-autoimportpolicy) 속성에 해당합니다. 자세한 내용은 Amazon FSx for Lustre 사용 설명서**의 [S3 버킷에서 업데이트 자동 가져오기](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html)를 참조하세요. [`auto_import_policy`](#fsx-auto-import-policy) 파라미터를 지정할 때는, [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days), [`copy_tags_to_backups`](#fsx-copy-tags-to-backups), [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) 및 [`fsx_backup_id`](#fsx-backup-id) 파라미터를 지정하지 않아야 합니다.

`auto_import_policy` 설정을 지정하지 않으면 자동 가져오기가 비활성화됩니다. FSx for Lustre는 파일 시스템이 생성될 때 링크된 S3 버킷의 파일 및 디렉토리 목록만 업데이트합니다.

```
auto_import_policy = NEW_CHANGED
```

**참고**  
 AWS ParallelCluster 버전 2.10.0에서에 대한 지원이 [`auto_import_policy`](#fsx-auto-import-policy) 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `automatic_backup_retention_days`
<a name="fsx-automatic-backup-retention-days"></a>

(선택 사항)**** 자동 백업을 보존할 일수를 지정합니다. 이것은 `PERSISTENT_1` 배포 유형에서만 사용할 수 있습니다. [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days) 파라미터를 지정할 때는, [`auto_import_policy`](#fsx-auto-import-policy), [`export_path`](#fsx-export-path), [`import_path`](#fsx-import-path) 및 [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) 파라미터를 지정하지 않아야 합니다. 이는 [AutomaticBackupRetentionDays](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-automaticbackupretentiondays) 속성에 해당합니다.

기본값은 0입니다. 이 설정은 자동 백업을 비활성화합니다. 가능한 값은 0에서 35 사이의 정수(포함)입니다.

```
automatic_backup_retention_days = 35
```

**참고**  
 AWS ParallelCluster 버전 2.8.0에서 [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)에 대한 지원이 추가되었습니다.

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `copy_tags_to_backups`
<a name="fsx-copy-tags-to-backups"></a>

(선택 사항)**** 파일 시스템의 태그를 백업에 복사할지 여부를 지정합니다. 이것은 `PERSISTENT_1` 배포 유형에서만 사용할 수 있습니다. [`copy_tags_to_backups`](#fsx-copy-tags-to-backups) 파라미터를 지정할 때 [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)를 0보다 큰 값으로 지정해야 하며, [`auto_import_policy`](#fsx-auto-import-policy), [`export_path`](#fsx-export-path), [`import_path`](#fsx-import-path) 및 [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) 파라미터는 지정하지 않아야 합니다. 이는 [CopyTagsToBackups](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-copytagstobackups) 속성에 해당합니다.

기본값은 `false`입니다.

```
copy_tags_to_backups = true
```

**참고**  
 AWS ParallelCluster 버전 2.8.0에서에 대한 지원이 [`copy_tags_to_backups`](#fsx-copy-tags-to-backups) 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `daily_automatic_backup_start_time`
<a name="fsx-daily-automatic-backup-start-time"></a>

(선택 사항)**** 자동 백업을 시작할 시간(UTC)을 지정합니다. 이것은 `PERSISTENT_1` 배포 유형에서만 사용할 수 있습니다. [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) 파라미터를 지정할 때 [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days)를 0보다 큰 값으로 지정해야 하며, [`auto_import_policy`](#fsx-auto-import-policy), [`export_path`](#fsx-export-path), [`import_path`](#fsx-import-path) 및 [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) 파라미터는 지정하지 않아야 합니다. 이는 [DailyAutomaticBackupStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-dailyautomaticbackupstarttime) 속성에 해당합니다.

형식은 `HH:MM`입니다. `HH`는 하루 중 제로 패딩된 시간(0-23)이고, `MM`은 시간의 제로 패딩된 분입니다. 예를 들어, UTC 기준 오전 1:03 시간은 다음과 같습니다.

```
daily_automatic_backup_start_time = 01:03
```

기본값은 `00:00` 및 `23:59` 사이의 무작위 시간입니다.

**참고**  
 AWS ParallelCluster 버전 2.8.0에서 [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time)에 대한 지원이 추가되었습니다.

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `data_compression_type`
<a name="fsx-data-compression-type"></a>

**(선택 사항)**FSx for Lustre 데이터 압축 유형을 지정합니다. 이는 [DataCompressionType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-datacompressiontype) 속성에 해당합니다. 자세한 내용을 알아보려면 Amazon FSx for Lustre 사용 설명서**의 [Lustre 데이터 압축](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html)을 참조하세요.

유일한 유효 값은 `LZ4`입니다. 데이터 압축을 비활성화하려면 [`data_compression_type`](#fsx-data-compression-type) 파라미터를 제거하세요.

```
data_compression_type = LZ4
```

**참고**  
 AWS ParallelCluster 버전 2.11.0에서에 대한 지원이 [`data_compression_type`](#fsx-data-compression-type) 추가되었습니다.

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `deployment_type`
<a name="fsx-deployment-type"></a>

(선택 사항)**** FSx for Lustre 배포 유형을 지정합니다. 이는 [DeploymentType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-deploymenttype) 속성에 해당합니다. 자세한 내용은 Amazon FSx for Lustre 사용 설명서**의 [FSx for Lustre 배포 옵션](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html)을 참조하세요. 데이터의 임시 보관 및 단기 처리를 위한 스크래치 배포 유형을 선택합니다. `SCRATCH_2`는 최신 스크래치 파일 시스템입니다. 기본 처리량보다 높은 버스트 처리량과 전송 중 데이터 암호화를 제공합니다.

유효한 값은 `SCRATCH_1`, `SCRATCH_2` 및 `PERSISTENT_1`입니다.

`SCRATCH_1`  
FSx for Lustre의 기본 배포 유형입니다. 이 배포 유형에서는 [`storage_capacity`](#fsx-storage-capacity) 설정 값에 1200, 2400 및 3600의 배수가 가능합니다. AWS ParallelCluster 버전 2.4.0에서에 대한 지원이 `SCRATCH_1` 추가되었습니다.

`SCRATCH_2`  
최신 스크래치 파일 시스템입니다. 워크로드가 급증하는 경우 기준 처리량의 최대 6배를 지원합니다. 또한 지원되는 AWS 리전에서 지원되는 인스턴스 유형에 대해 전송 중 데이터 암호화를 지원합니다. 자세한 내용을 알아보려면 Amazon FSx for Lustre 사용 설명서**의 [전송 중 데이터 암호화](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html)를 참조하세요. 이 배포 유형에서는 [`storage_capacity`](#fsx-storage-capacity) 설정 값에 1200 및 2400의 배수가 가능합니다. `SCRATCH_2`에 대한 지원이 AWS ParallelCluster 버전 2.6.0에서 추가되었습니다.

`PERSISTENT_1`  
장기 보관을 위해 설계되었습니다. 파일 서버는 가용성이 높으며 파일 시스템이 위치한 AWS 가용 영역 내에 데이터가 자동으로 복제됩니다. 지원되는 인스턴스 유형에 대해 전송 중 데이터 암호화를 지원합니다. 이 배포 유형에서는 [`storage_capacity`](#fsx-storage-capacity) 설정 값에 1200 및 2400의 배수가 가능합니다. AWS ParallelCluster 버전 2.6.0에서에 대한 지원이 `PERSISTENT_1` 추가되었습니다.

기본값은 `SCRATCH_1`입니다.

```
deployment_type = SCRATCH_2
```

**참고**  
 AWS ParallelCluster 버전 2.6.0에서에 대한 지원이 [`deployment_type`](#fsx-deployment-type) 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `drive_cache_type`
<a name="fsx-drive-cache-type"></a>

**(선택 사항)**파일 시스템에 SSD 드라이브 캐시가 있도록 지정합니다. [`storage_type`](#fsx-storage-type) 설정을 `HDD`로 지정한 경우 이 옵션만 설정할 수 있습니다. 이는 [DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype) 속성에 해당합니다. 자세한 내용은 Amazon FSx for Lustre 사용 설명서**의 [FSx for Lustre 배포 옵션](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html)을 참조하세요.

유일한 유효 값은 `READ`입니다. SSD 드라이브 캐시를 비활성화하려면 `drive_cache_type` 설정을 지정하지 마세요.

```
drive_cache_type = READ
```

**참고**  
 AWS ParallelCluster 버전 2.10.0에서에 대한 지원이 [`drive_cache_type`](#fsx-drive-cache-type) 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `export_path`
<a name="fsx-export-path"></a>

(선택 사항)**** 파일 시스템의 루트를 내보내는 Amazon S3 경로를 지정합니다. [`export_path`](#fsx-export-path) 파라미터를 지정할 때는, [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days), [`copy_tags_to_backups`](#fsx-copy-tags-to-backups), [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) 및 [`fsx_backup_id`](#fsx-backup-id) 파라미터를 지정하지 않아야 합니다. 이는 [ExportPath](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-exportpath) 속성에 해당합니다. 파일 데이터와 메타데이터는 `export_path`로 자동으로 내보내지지 않습니다. 데이터 및 메타데이터를 내보내는 방법에 대한 자세한 내용은 Amazon FSx for Lustre 사용 설명서**의 [데이터 리포지토리에 대한 변경 내용 내보내기](https://docs.aws.amazon.com/fsx/latest/LustreGuide/export-changed-data-meta-dra.html)를 참조하세요.

기본값은 `s3://import-bucket/FSxLustre[creation-timestamp]`입니다. 여기서 `import-bucket`은 [`import_path`](#fsx-import-path) 파라미터에서 제공되는 버킷입니다.

```
export_path = s3://bucket/folder
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `fsx_backup_id`
<a name="fsx-backup-id"></a>

(선택 사항)**** 기존 백업에서 파일 시스템을 복원하는 데 사용할 백업 ID를 지정합니다. [`fsx_backup_id`](#fsx-backup-id) 파라미터를 지정할 때는, [`auto_import_policy`](#fsx-auto-import-policy), [`deployment_type`](#fsx-deployment-type), [`export_path`](#fsx-export-path), [`fsx_kms_key_id`](#fsx-kms-key-id), [`import_path`](#fsx-import-path), [`imported_file_chunk_size`](#fsx-imported-file-chunk-size), [`storage_capacity`](#fsx-storage-capacity) 및 [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) 파라미터를 지정하지 않아야 합니다. 이러한 파라미터는 백업에서 읽혀집니다. 또한, [`auto_import_policy`](#fsx-auto-import-policy), [`export_path`](#fsx-export-path), [`import_path`](#fsx-import-path) 및 [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) 파라미터를 지정하지 않아야 합니다.

이는 [BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid) 속성에 해당합니다.

```
fsx_backup_id = backup-fedcba98
```

**참고**  
 AWS ParallelCluster 버전 2.8.0에서에 대한 지원이 [`fsx_backup_id`](#fsx-backup-id) 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `fsx_fs_id`
<a name="fsx-fs-id"></a>

(선택 사항)**** 기존 FSx for Lustre 파일 시스템을 연결합니다.

이 옵션을 지정하면 [`[fsx]` 섹션](#fsx-section)의 [`shared_dir`](#fsx-shared-dir) 및 [`fsx_fs_id`](#fsx-fs-id) 설정만 사용되고 [`[fsx]` 섹션](#fsx-section)의 다른 설정은 무시됩니다.

```
fsx_fs_id = fs-073c3803dca3e28a6
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `fsx_kms_key_id`
<a name="fsx-kms-key-id"></a>

**(선택 사항)** AWS Key Management Service (AWS KMS) 고객 관리형 키의 키 ID를 지정합니다.

이 키는 유휴 파일 시스템에서 데이터를 암호화하는 데 사용됩니다.

이 항목은 사용자 지정 [`ec2_iam_role`](cluster-definition.md#ec2-iam-role)과 함께 사용해야 합니다. 자세한 내용은 [사용자 지정 KMS 키를 사용한 디스크 암호화](tutorials_04_encrypted_kms_fs.md) 단원을 참조하십시오. 이는 Amazon FSx API 참조**의 [KmsKeyId](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystem.html#FSx-CreateFileSystem-request-KmsKeyId) 파라미터에 해당합니다.

```
fsx_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

**참고**  
 AWS ParallelCluster 버전 2.6.0에서에 대한 지원이 [`fsx_kms_key_id`](#fsx-kms-key-id) 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `import_path`
<a name="fsx-import-path"></a>

(선택 사항)**** 파일 시스템으로 데이터를 로드하고 내보내기 버킷으로 작동할 S3 버킷을 지정합니다. 자세한 내용은 [`export_path`](#fsx-export-path) 단원을 참조하십시오. [`import_path`](#fsx-import-path) 파라미터를 지정하는 경우, [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days), [`copy_tags_to_backups`](#fsx-copy-tags-to-backups), [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) 및 [`fsx_backup_id`](#fsx-backup-id) 파라미터를 지정해서는 안 됩니다. 이는 Amazon FSx API 참조**의 [ImportPath](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateFileSystemLustreConfiguration.html#FSx-Type-CreateFileSystemLustreConfiguration-ImportPath) 파라미터에 해당합니다.

클러스터 생성 시 가져오기가 수행됩니다. 자세한 내용은 Amazon FSx for Lustre 사용 설명서**의 [데이터 리포지토리에서 데이터 가져오기](https://docs.aws.amazon.com/fsx/latest/LustreGuide/importing-files.html)를 참조하세요. 가져올 때는 파일 메타데이터(이름, 소유권, 타임스탬프, 권한)만 가져옵니다. 파일 데이터는 파일에 처음 액세스할 때까지 S3 버킷에서 가져오지 않습니다. 파일 콘텐츠 사전 로드에 대한 자세한 내용은 *Amazon FSx for Lustre 사용 설명서*의 [파일 시스템에 파일 사전 로드를 참조하세요](https://docs.aws.amazon.com/fsx/latest/LustreGuide/preload-file-contents-hsm-dra.html).

값을 제공하지 않으면 파일 시스템이 비어 있습니다.

```
import_path =  s3://bucket
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `imported_file_chunk_size`
<a name="fsx-imported-file-chunk-size"></a>

(선택 사항)**** 데이터 리포지토리에서 가져온 파일의 경우([`import_path`](#fsx-import-path) 사용) 이 값은 단일 물리적 디스크에 저장된 파일당 스트라이프 수 및 최대 데이터 양(MiB)을 결정합니다. 단일 파일을 스트라이프할 수 있는 최대 디스크 수는 파일 시스템을 구성하는 총 디스크 수에 따라 제한됩니다. [`imported_file_chunk_size`](#fsx-imported-file-chunk-size) 파라미터를 지정할 때는, [`automatic_backup_retention_days`](#fsx-automatic-backup-retention-days), [`copy_tags_to_backups`](#fsx-copy-tags-to-backups), [`daily_automatic_backup_start_time`](#fsx-daily-automatic-backup-start-time) 및 [`fsx_backup_id`](#fsx-backup-id) 파라미터를 지정하지 않아야 합니다. 이 속성은 [ImportedFileChunkSize](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-importedfilechunksize) 속성에 해당합니다.

청크 크기 기본값은 `1024`(1GiB)이며 최대 512,000MiB(500GiB)까지 가능합니다. Amazon S3 객체의 크기는 최대 5TB입니다.

```
imported_file_chunk_size = 1024
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `per_unit_storage_throughput`
<a name="fsx-per-unit-storage-throughput"></a>

**(`PERSISTENT_1` 배포 유형에 필수)** [`deployment_type`](#fsx-deployment-type)` = PERSISTENT_1` 배포 유형의 경우 스토리지의 1테비바이트(TiB)당 읽기 및 쓰기 처리량(MB/s/TiB)을 설명합니다. 파일 시스템 처리량 용량은 파일 시스템 스토리지 용량(TiB)에 [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)(MB/s/TiB)를 곱하여 계산됩니다. 2.4TiB 파일 시스템의 경우 50MB/s/TiB의 [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)를 프로비저닝하여 120MB/s의 파일 시스템 처리량을 얻을 수 있습니다. 프로비저닝한 처리량에 대해 비용을 지불합니다. 이는 [PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput) 속성에 해당합니다.

가능한 값은 [`storage_type`](#fsx-storage-type) 설정의 값에 따라 달라집니다.

`storage\$1type = SSD`  
가능한 값은 50, 100, 200입니다.

`storage\$1type = HDD`  
가능한 값은 12, 40입니다.

```
per_unit_storage_throughput = 200
```

**참고**  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)에 대한 지원이 AWS ParallelCluster 버전 2.6.0에서 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `shared_dir`
<a name="fsx-shared-dir"></a>

(필수)**** 헤드 및 컴퓨팅 노드에서 FSx for Lustre 파일 시스템의 탑재 지점을 정의합니다.

`NONE` 또는 `/NONE`은 공유 디렉터리로 사용하지 마세요.

다음 예에서는 `/fsx`에 파일 시스템을 탑재합니다.

```
shared_dir = /fsx
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `storage_capacity`
<a name="fsx-storage-capacity"></a>

(필수 사항)**** 파일 시스템의 스토리지 용량(GiB)을 지정합니다. 이는 [StorageCapacity](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagecapacity) 속성에 해당합니다.

가능한 스토리지 용량 값은 [`deployment_type`](#fsx-deployment-type) 설정에 따라 다릅니다.

`SCRATCH_1`  
가능한 값은 1200, 2400 및 3600의 배수입니다.

`SCRATCH_2`  
가능한 값은 1200 및 2400의 배수입니다.

`PERSISTENT_1`  
가능한 값은 다른 설정의 값에 따라 다릅니다.    
`storage\$1type = SSD`  
가능한 값은 1200 및 2400의 배수입니다.  
`storage\$1type = HDD`  
가능한 값은 [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) 설정에 따라 다릅니다.    
`per\$1unit\$1storage\$1throughput = 12`  
가능한 값은 6000의 배수입니다.  
`per\$1unit\$1storage\$1throughput = 40`  
가능한 값은 1800의 배수입니다.

```
storage_capacity = 7200
```

**참고**  
 AWS ParallelCluster 버전 2.5.0 및 2.5.1의 경우는 가능한 값 1200, 2400 및 3600의 배수를 [`storage_capacity`](#fsx-storage-capacity) 지원했습니다. 버전 2.5.0 이전 AWS ParallelCluster 버전의 경우의 최소 크기는 3600[`storage_capacity`](#fsx-storage-capacity)입니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `storage_type`
<a name="fsx-storage-type"></a>

(선택 사항)**** 파일 시스템의 스토리지 유형을 지정합니다. 이는 [StorageType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-storagetype) 속성에 해당합니다. 가능한 값은 `SSD`와 `HDD`입니다. 기본값은 `SSD`입니다.

스토리지 유형에 따라 다른 설정의 가능한 값이 변경됩니다.

`storage_type = SSD`   
솔리드 스테이트 드라이브(SSD) 스토리지 유형을 지정합니다.  
`storage_type = SSD`는 다른 여러 설정의 가능한 값을 변경합니다.    
[`drive_cache_type`](#fsx-drive-cache-type)  
이 설정은 지정할 수 없습니다.  
[`deployment_type`](#fsx-deployment-type)  
이 설정은 `SCRATCH_1`, `SCRATCH_2` 또는 `PERSISTENT_1`로 설정할 수 있습니다.  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
[`deployment_type`](#fsx-deployment-type)가 `PERSISTENT_1`로 설정된 경우 이 설정을 지정해야 합니다. 가능한 값은 50, 100 또는 200입니다.  
[`storage_capacity`](#fsx-storage-capacity)  
이 설정은 지정되어야 합니다. 가능한 값은 [`deployment_type`](#fsx-deployment-type)에 따라 다릅니다.    
`deployment_type = SCRATCH_1`  
[`storage_capacity`](#fsx-storage-capacity)는 1200, 2400 또는 3600의 배수가 될 수 있습니다.  
`deployment_type = SCRATCH_2` 또는 `deployment_type = PERSISTENT_1`  
[`storage_capacity`](#fsx-storage-capacity)는 1200 또는 2400의 임의의 배수일 수 있습니다.

`storage_type = HDD`  
하드 디스크 드라이브(HDD) 스토리지 유형을 지정합니다.  
`storage_type = HDD`는 다른 설정의 가능한 값을 변경합니다.    
[`drive_cache_type`](#fsx-drive-cache-type)  
이 설정은 지정할 수 있습니다.  
[`deployment_type`](#fsx-deployment-type)  
이 설정은 `PERSISTENT_1`로 설정되어야 합니다.  
[`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput)  
이 설정은 지정되어야 합니다. 가능한 값은 12 또는 40입니다.  
[`storage_capacity`](#fsx-storage-capacity)  
이 설정은 지정되어야 합니다. 가능한 값은 [`per_unit_storage_throughput`](#fsx-per-unit-storage-throughput) 설정에 따라 다릅니다.    
`storage_capacity = 12`  
[`storage_capacity`](#fsx-storage-capacity)는 6000의 배수일 수 있습니다.  
`storage_capacity = 40`  
[`storage_capacity`](#fsx-storage-capacity)는 1800의 배수일 수 있습니다.

```
storage_type = SSD
```

**참고**  
[`storage_type`](#fsx-storage-type) 설정에 대한 지원이 AWS ParallelCluster 버전 2.10.0에 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `weekly_maintenance_start_time`
<a name="fsx-weekly-maintenance-start-time"></a>

(선택 사항)**** 주별 유지 관리를 수행할 기본 시간을 UTC 시간대로 지정합니다. 이는 [WeeklyMaintenanceStartTime](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-weeklymaintenancestarttime) 속성에 해당합니다.

형식은 [요일]:[시간]:[분]입니다. 예를 들어 월요일 자정은 다음과 같습니다.

```
weekly_maintenance_start_time = 1:00:00
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

# `[queue]` 섹션
<a name="queue-section"></a>

단일 대기열에 대한 구성 설정을 정의합니다. [`[queue]` 섹션](#queue-section)은 [`scheduler`](cluster-definition.md#scheduler)가 `slurm`로 설정된 경우에만 지원됩니다.

형식은 `[queue <queue-name>]`입니다. *대기열 이름*은 소문자로 시작해야 하고, 30자를 이내로 소문자, 숫자 및 하이픈(-)만 포함되어야 합니다.

```
[queue q1]
compute_resource_settings = i1,i2
placement_group = DYNAMIC
enable_efa = true
disable_hyperthreading = false
compute_type = spot
```

**참고**  
[`[queue]` 섹션](#queue-section) 지원이 AWS ParallelCluster 버전 2.9.0에 추가되었습니다.

**Topics**
+ [`compute_resource_settings`](#queue-compute-resource-settings)
+ [`compute_type`](#queue-compute-type)
+ [`disable_hyperthreading`](#queue-disable-hyperthreading)
+ [`enable_efa`](#queue-enable-efa)
+ [`enable_efa_gdr`](#queue-enable-efa-gdr)
+ [`placement_group`](#queue-placement-group)

## `compute_resource_settings`
<a name="queue-compute-resource-settings"></a>

(필수)**** 이 대기열의 컴퓨팅 리소스 구성이 포함된 [`[compute_resource]` 섹션](compute-resource-section.md)을 식별합니다. 섹션 이름은 문자로 시작해야 하고, 30자를 이내로, 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

최대 세(3) 개의 [`[compute_resource]` 섹션](compute-resource-section.md)이 각 [`[queue]` 섹션](#queue-section)에 지원됩니다.

예를 들어, 다음 설정은 `[compute_resource cr1]` 및 `[compute_resource cr2]`을 시작하는 섹션을 지정합니다.

```
compute_resource_settings = cr1, cr2
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `compute_type`
<a name="queue-compute-type"></a>

(선택 사항)**** 이 대기열에 대해 시작할 인스턴스 유형을 정의합니다. 이 설정은 [`cluster_type`](cluster-definition.md#cluster-type) 설정을 대체합니다.

유효한 옵션은 `ondemand` 및 `spot`입니다.

기본값은 `ondemand`입니다.

스팟 인스턴스에 대한 자세한 내용은 [스팟 인스턴스 작업](spot.md) 섹션을 참조하세요.

**참고**  
스팟 인스턴스를 사용하려면 계정에 `AWSServiceRoleForEC2Spot` 서비스 연결 역할이 있어야 합니다. 를 사용하여 계정에서이 역할을 생성하려면 다음 명령을 AWS CLI실행합니다.  

```
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
자세한 내용은 *Amazon EC2 사용 설명서*에서 [스팟 인스턴스 요청을 위한 서비스 연결 역할](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests)을 참조하세요.

다음 예제에서는 이 대기열의 컴퓨팅 노드에 SpotInstances를 사용합니다.

```
compute_type = spot
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `disable_hyperthreading`
<a name="queue-disable-hyperthreading"></a>

(선택 사항)**** 이 대기열의 노드에서 하이퍼스레딩을 비활성화합니다. 모든 인스턴스 유형이 하이퍼 스레딩을 비활성화할 수 있는 것은 아닙니다. 하이퍼스레딩 비활성화를 지원하는 인스턴스 유형 목록은 *Amazon EC2 사용 설명서*에서 [인스턴스 유형별 각 CPU 코어의 CPU 코어 및 스레드](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values)를 참조하세요. [`[cluster]` 섹션](cluster-definition.md)의 [`disable_hyperthreading`](cluster-definition.md#disable-hyperthreading) 설정이 정의된 경우 이 설정을 정의할 수 없습니다.

기본값은 `false`입니다.

```
disable_hyperthreading = true
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa`
<a name="queue-enable-efa"></a>

(선택 사항)**** `true`로 설정하면 이 대기열의 노드에 대해 Elastic Fabric Adapter(EFA)가 활성화되도록 지정합니다. EFA를 지원하는 EC2 인스턴스 목록을 보려면 Linux 인스턴스용 Amazon EC2 사용 설명서**의 [지원되는 인스턴스 유형](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types)을 참조하세요. [`[cluster]` 섹션](cluster-definition.md)의 [`enable_efa`](cluster-definition.md#enable-efa) 설정이 정의된 경우 이 설정을 정의할 수 없습니다. 클러스터 배치 그룹은 인스턴스 간의 대기 시간을 최소화하기 위해 사용해야 합니다. 자세한 내용은 [`placement`](cluster-definition.md#placement) 및 [`placement_group`](cluster-definition.md#placement-group) 섹션을 참조하세요.

```
enable_efa = true
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `enable_efa_gdr`
<a name="queue-enable-efa-gdr"></a>

**(선택 사항)** AWS ParallelCluster 버전 2.11.3부터는이 설정이 적용되지 않습니다. GPUDirect RDMA(원격 다이렉트 메모리 액세스)에 대한 Elastic Fabric Adapter(EFA) 지원은 컴퓨팅 노드에 대해 활성화되며, 인스턴스 유형에서 지원하는 경우 컴퓨팅 노드는 항상 활성화됩니다.

**참고**  
AWS ParallelCluster 버전 2.10.0\$12.11.2: `true`인 경우이 대기열의 노드에 대해 EFA(Elastic Fabric Adapter) GPUDirect RDMA(원격 직접 메모리 액세스)가 활성화되도록 지정합니다. 이를 `true`으로 설정하려면 [`enable_efa`](#queue-enable-efa) 설정을 `true`으로 설정해야 합니다. EFA GPUDirect RDMA는 이러한 운영 체제(`alinux2`, `centos7`, `ubuntu1804`, `ubuntu2004`)의 다음 인스턴스 유형(`p4d.24xlarge`)에서 지원됩니다. [`[cluster]` 섹션](cluster-definition.md)의 [`enable_efa_gdr`](cluster-definition.md#enable-efa-gdr) 설정이 정의된 경우 이 설정을 정의할 수 없습니다. 클러스터 배치 그룹은 인스턴스 간의 대기 시간을 최소화하기 위해 사용해야 합니다. 자세한 내용은 [`placement`](cluster-definition.md#placement) 및 [`placement_group`](cluster-definition.md#placement-group) 섹션을 참조하세요.

기본값은 `false`입니다.

```
enable_efa_gdr = true
```

**참고**  
 AWS ParallelCluster 버전 2.10.0에서에 대한 지원이 `enable_efa_gdr` 추가되었습니다.

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `placement_group`
<a name="queue-placement-group"></a>

(선택 사항)**** 존재하는 경우 이 대기열의 배치 그룹을 정의합니다. 이 설정은 [`placement_group`](cluster-definition.md#placement-group) 설정을 대체합니다.

유효한 옵션은 다음과 같습니다.
+ `DYNAMIC`
+ 기존의 Amazon EC2 클러스터 배치 그룹 이름입니다.

`DYNAMIC`으로 설정하면 이 대기열에 대한 고유의 배치 그룹이 클러스터 스택의 일부로 생성되고 삭제됩니다.

배치 그룹에 대한 자세한 내용은 *Amazon EC2 사용 설명서*의 [배치 그룹](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html)을 참조하세요. 다른 인스턴스 유형에 동일한 배치 그룹을 사용하는 경우 용량 부족 오류로 인해 요청이 실패할 가능성이 높습니다. 자세한 내용은 *Amazon EC2 사용 설명서*의 [부족한 인스턴스 용량](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/troubleshooting-launch.html#troubleshooting-launch-capacity)을 참조하세요.

기본값이 없습니다.

모든 인스턴스 유형이 클러스터 배치 그룹을 지원하는 것은 아닙니다. 예를 들어,`t2.micro`는 클러스터 배치 그룹을 지원하지 않습니다. 클러스터 배치 그룹을 지원하는 인스턴스 유형에 대한 자세한 내용은 *Amazon EC2 사용 설명서*의 [클러스터 배치 그룹의 규칙 및 제한 사항](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-limitations-cluster)을 참조하세요. 배치 그룹 작업 시 팁은 [배치 그룹 및 인스턴스 시작 문제](troubleshooting.md#placement-groups-and-instance-launch-issues) 단원을 참고하세요.

```
placement_group = DYNAMIC
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

# `[raid]` 섹션
<a name="raid-section"></a>

수많은 동일 Amazon EBS 볼륨에서 빌드된 RAID 배열에 대한 구성 설정을 정의합니다. RAID 드라이브는 헤드 노드에 탑재되고 NFS를 통해 컴퓨팅 노드로 내보내집니다.

형식은 `[raid raid-name]`입니다. *raid-name은* 문자로 시작해야 하고 30자 이하여야 하며 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함할 수 있습니다.

```
[raid rs]
shared_dir = raid
raid_type = 1
num_of_raid_volumes = 2
encrypted = true
```

**Topics**
+ [`shared_dir`](#raid-shared-dir)
+ [`ebs_kms_key_id`](#raid-ebs_kms_key_id)
+ [`encrypted`](#raid-encrypted)
+ [`num_of_raid_volumes`](#num-of-raid-volumes)
+ [`raid_type`](#raid-type)
+ [`volume_iops`](#raid-volume-iops)
+ [`volume_size`](#raid-volume-size)
+ [`volume_throughput`](#raid-volume-throughput)
+ [`volume_type`](#raid-volume-type)

## `shared_dir`
<a name="raid-shared-dir"></a>

(필수)**** 헤드 및 컴퓨팅 노드에서 RAID 배열의 탑재 지점을 정의합니다.

이 파라미터가 지정된 경우에만 RAID 드라이브가 생성됩니다.

`NONE` 또는 `/NONE`은 공유 디렉터리로 사용하지 마세요.

다음 예에서는 배열을 `/raid`에 탑재합니다.

```
shared_dir = raid
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `ebs_kms_key_id`
<a name="raid-ebs_kms_key_id"></a>

**(선택 사항)** 암호화에 사용할 사용자 지정 AWS KMS 키를 지정합니다.

이 파라미터는 `encrypted = true`와 함께 사용해야 하며 사용자 지정 [`ec2_iam_role`](cluster-definition.md#ec2-iam-role)이 있어야 합니다.

자세한 내용은 [사용자 지정 KMS 키를 사용한 디스크 암호화](tutorials_04_encrypted_kms_fs.md) 단원을 참조하십시오.

```
ebs_kms_key_id = xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `encrypted`
<a name="raid-encrypted"></a>

(선택 사항)**** 파일 시스템이 암호화되는지 여부를 지정합니다.

기본값은 `false`입니다.

```
encrypted = false
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `num_of_raid_volumes`
<a name="num-of-raid-volumes"></a>

(선택 사항)**** RAID 배열을 어셈블할 Amazon EBS 볼륨 수를 정의합니다.

최소 볼륨 수는 `2`입니다.

최대 볼륨 수는 `5`입니다.

기본값은 `2`입니다.

```
num_of_raid_volumes = 2
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `raid_type`
<a name="raid-type"></a>

(필수)**** RAID 배열의 RAID 유형을 정의합니다.

이 파라미터가 지정된 경우에만 RAID 드라이브가 생성됩니다.

유효한 옵션은 다음과 같습니다.
+ `0`
+ `1`

RAID 유형에 대한 자세한 내용은 *Amazon EC2 사용 설명서*의 [RIAD 정보](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/raid-config.html)를 참조하세요.

다음은 RAID `0` 배열을 생성하는 예입니다.

```
raid_type = 0
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `volume_iops`
<a name="raid-volume-iops"></a>

(선택 사항)**** `io1`, `io2` 및 `gp3` 유형 볼륨의 IOPS 수를 정의합니다.

기본값, 지원되는 값, `volume_iops`와 `volume_size`의 비율 등은 [`volume_type`](#raid-volume-type) 및 [`volume_size`](#raid-volume-size)에 따라 달라집니다.

`volume_type` = `io1`  
기본 `volume_iops` = 100  
지원되는 값 `volume_iops` = 100\$164000†  
최대 `volume_iops`와 `volume_size`의 비율 = 50IOPS/GiB. 5000 IOPS는 최소 100GiB의 `volume_size`가 필요합니다.

`volume_type` = `io2`  
기본 `volume_iops` = 100  
지원되는 값 `volume_iops` = 100\$164000(`io2` Block Express 볼륨의 경우 256000)†  
최대 `volume_iops`와 `volume_size` 비율 = 500IOPS/GiB. 5000 IOPS에는 최소 10GiB의 `volume_size`가 필요합니다.

`volume_type` = `gp3`  
기본 `volume_iops` = 3000  
지원되는 값 `volume_iops` = 3000\$116000  
최대 `volume_iops`와 `volume_size` 비율 = 500IOPSIOPS/GiB. 5000 IOPS에는 최소 10GiB`volume_size`가 필요합니다.

```
volume_iops = 3000
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

† 최대 IOPS는 32,000 IOPS 이상으로 프로비저닝된 [Nitro 시스템 기반 인스턴스에](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances)서만 보장됩니다. 다른 인스턴스는 최대 32,000 IOPS를 보장합니다. 이전 `io1` 볼륨은 `io2` [볼륨을 수정](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html)하지 않는 한 전체 성능에 도달할 수 없습니다. Block Express 볼륨은 최대 256000의 `volume_iops` 값을 지원합니다. 자세한 내용을 알아보려면 *Amazon EC2 사용 설명서*의 [`io2` Block Express 볼륨(평가판)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express)를 참조하세요.

## `volume_size`
<a name="raid-volume-size"></a>

(선택 사항)**** 생성할 볼륨의 크기를 GiB 단위로 정의합니다.

기본값 및 지원되는 값은 [`volume_type`](#raid-volume-type)에 따라 다릅니다.

`volume_type` = `standard`  
기본 `volume_size` = 20GiB  
지원되는 값 `volume_size` = 1\$11024GiB

`volume_type` = `gp2`, `io1`, `io2` 및 `gp3`  
기본 `volume_size` = 20GiB  
지원되는 값 `volume_size` = 1\$116384GiB

`volume_type` = `sc1` 및 `st1`  
기본 `volume_size` = 500GiB  
지원되는 값 `volume_size` = 500\$116384GiB

```
volume_size = 20
```

**참고**  
 AWS ParallelCluster 버전 2.10.1 이전에는 모든 볼륨 유형의 기본값이 20GiB였습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `volume_throughput`
<a name="raid-volume-throughput"></a>

(선택 사항)**** `gp3` 볼륨 유형의 처리량을 MiB/s 단위로 정의합니다.

기본값은 `125`입니다.

지원되는 값 `volume_throughput` = 125\$11000MiB/s

`volume_throughput`:`volume_iops`의 비율은 0.25를 초과할 수 없습니다. 1000MiB/s의 최대 처리량을 위해서는 `volume_iops` 설정이 최소 4000이어야 합니다.

```
volume_throughput = 1000
```

**참고**  
 AWS ParallelCluster 버전 2.10.1에서에 대한 지원이 `volume_throughput` 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `volume_type`
<a name="raid-volume-type"></a>

(선택 사항)**** 빌드할 볼륨의 유형을 정의합니다.

유효한 옵션은 다음과 같습니다.

`gp2`, `gp3`  
General Purpose SSD

`io1`, `io2`  
Provisioned IOPS SSD

`st1`  
처리량 최적화 HDD

`sc1`  
콜드 HDD

`standard`  
이전 세대 마그네틱

자세한 내용을 알아보려면 Amazon EC2 사용 설명서**의 [Amazon EBS 볼륨 유형](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)을 참조하세요.

기본값은 `gp2`입니다.

```
volume_type = io2
```

**참고**  
 AWS ParallelCluster 버전 2.10.1에서 `gp3` 및에 대한 지원이 `io2` 추가되었습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

# `[scaling]` 섹션
<a name="scaling-section"></a>

**Topics**
+ [`scaledown_idletime`](#scaledown-idletime)

컴퓨팅 노드가 규모 조정되는 방식을 정의하는 설정을 지정합니다.

형식은 `[scaling scaling-name]`과 같습니다. *scaling-name*은 문자로 시작해야 하고, 30자 이하여야 하며, 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함할 수 있습니다.

```
[scaling custom]
scaledown_idletime = 10
```

## `scaledown_idletime`
<a name="scaledown-idletime"></a>

(선택 사항)**** 컴퓨팅 노드가 종료될 때까지 작업이 없는 시간(분)을 지정합니다.

스케줄러가 `awsbatch`인 경우에는 이 파라미터가 사용되지 않습니다.

기본값은 `10`입니다.

```
scaledown_idletime = 10
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

# `[vpc]` 섹션
<a name="vpc-section"></a>

Amazon VPC 구성 설정을 지정합니다. VPC에 대한 자세한 내용은 [Amazon VPC란 무엇인가?](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html) 및 Amazon VPC 사용 설명서**의 [VPC에 대한 보안 모범 사례](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-security-best-practices.html)를 참조하세요.

형식은 `[vpc vpc-name]`입니다. *vpc-name*은 문자로 시작해야 하고, 30자 이하여야 하고, 문자, 숫자, 하이픈(-) 및 밑줄(\$1)만 포함되어야 합니다.

```
[vpc public]
vpc_id = vpc-xxxxxx
master_subnet_id = subnet-xxxxxx
```

**Topics**
+ [`additional_sg`](#additional-sg)
+ [`compute_subnet_cidr`](#compute-subnet-cidr)
+ [`compute_subnet_id`](#compute-subnet-id)
+ [`master_subnet_id`](#master-subnet-id)
+ [`ssh_from`](#ssh-from)
+ [`use_public_ips`](#use-public-ips)
+ [`vpc_id`](#vpc-id)
+ [`vpc_security_group_id`](#vpc-security-group-id)

## `additional_sg`
<a name="additional-sg"></a>

(선택 사항)**** 모든 인스턴스에 대한 추가 Amazon VPC 보안 그룹 ID를 제공합니다.

기본값이 없습니다.

```
additional_sg = sg-xxxxxx
```

## `compute_subnet_cidr`
<a name="compute-subnet-cidr"></a>

(선택 사항)**** Classless Inter-Domain Routing(CIDR) 블록을 지정합니다. 컴퓨팅 서브넷 AWS ParallelCluster 을 생성하려면이 파라미터를 사용합니다.

```
compute_subnet_cidr = 10.0.100.0/24
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `compute_subnet_id`
<a name="compute-subnet-id"></a>

(선택 사항)**** 컴퓨팅 노드를 프로비저닝할 기존 서브넷의 ID를 지정합니다.

지정하지 않으면 [`compute_subnet_id`](#compute-subnet-id)는 [`master_subnet_id`](#master-subnet-id) 값을 사용합니다.

서브넷이 비공개인 경우 웹 액세스를 위한 NAT를 설정해야 합니다.

```
compute_subnet_id = subnet-xxxxxx
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `master_subnet_id`
<a name="master-subnet-id"></a>

(필수)**** 헤드 노드를 프로비저닝할 기존 서브넷의 ID를 지정합니다.

```
master_subnet_id = subnet-xxxxxx
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `ssh_from`
<a name="ssh-from"></a>

(선택 사항)**** SSH 액세스를 허용할 CIDR 형식의 IP 범위를 지정합니다.

이 파라미터는가 보안 그룹을 AWS ParallelCluster 생성하는 경우에만 사용됩니다.

기본값은 `0.0.0.0/0`입니다.

```
ssh_from = 0.0.0.0/0
```

[업데이트 정책: 업데이트 중에 이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-setting-supported)

## `use_public_ips`
<a name="use-public-ips"></a>

(선택 사항)**** 컴퓨팅 인스턴스에 공개 IP 주소를 할당할지 여부를 정의합니다.

`true`로 설정하면 탄력적 IP 주소가 헤드 노드에 연결됩니다.

`false`로 설정하면 "공개 IP 자동 할당" 서브넷 구성 파라미터의 값에 따라 헤드 노드에 공개 IP가 있거나 없게 됩니다.

예는 [네트워킹 구성](networking.md) 섹션을 참조하세요.

기본값은 `true`입니다.

```
use_public_ips = true
```

**중요**  
기본적으로 모든 AWS 계정 는 각각에 대해 다섯(5) 개의 탄력적 IP 주소로 제한됩니다 AWS 리전. 자세한 내용은 *Amazon EC2 사용 설명서*에서 [탄력적 IP 주소 제한](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/elastic-ip-addresses-eip.html#using-instance-addressing-limit)을 참조하세요.

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update.md#update-policy-compute-fleet)

## `vpc_id`
<a name="vpc-id"></a>

(필수)**** 클러스터를 프로비저닝할 Amazon VPC의 ID를 지정합니다.

```
vpc_id = vpc-xxxxxx
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update.md#update-policy-fail)

## `vpc_security_group_id`
<a name="vpc-security-group-id"></a>

(선택 사항)**** 모든 인스턴스에 기존 보안 그룹을 사용하도록 지정합니다.

기본값이 없습니다.

```
vpc_security_group_id = sg-xxxxxx
```

에서 생성한 보안 그룹은 [`ssh_from`](#ssh-from) 설정에 지정된 주소 또는 [`ssh_from`](#ssh-from) 설정이 지정되지 않은 경우 모든 IPv4 주소(`0.0.0.0/0`)에서 포트 22를 사용하여 SSH 액세스를 AWS ParallelCluster 허용합니다. Amazon DCV가 활성화된 경우 보안 그룹은 [`access_from`](dcv-section.md#dcv-section-access-from) 설정에 지정된 주소 또는 [`access_from`](dcv-section.md#dcv-section-access-from) 설정이 지정되지 않은 모든 IPv4 주소(`0.0.0.0/0`)에서 8443 포트(또는 [`port`](dcv-section.md#dcv-section-port) 설정에 지정된 포트)를 사용하여 Amazon DCV에 액세스할 수 있습니다.

**주의**  
[`[cluster]`](cluster-definition.md) [`fsx_settings`](cluster-definition.md#fsx-settings)이 지정되지 않거나 `fsx_settings`과 기존 외부 FSx for Lustre 파일 시스템 모두 [`[fsx fs]`](fsx-section.md)에서 [`fsx-fs-id`](fsx-section.md#fsx-fs-id)가 지정된 경우 이 파라미터의 값을 변경하고 클러스터를 업데이트할 수 있습니다.  
 AWS ParallelCluster 관리형 FSx for Lustre 파일 시스템이 `fsx_settings` 및에 지정된 경우이 파라미터의 값을 변경할 수 없습니다`[fsx fs]`.

[업데이트 정책: 구성에 AWS ParallelCluster 관리형 Amazon FSx for Lustre 파일 시스템이 지정되지 않은 경우 업데이트 중에이 설정을 변경할 수 있습니다.](using-pcluster-update.md#update-policy-no-managed-fsx-lustre)

# 예시
<a name="examples"></a>

다음 예제 구성은 Slurm, Torque및 AWS Batch 스케줄러를 사용한 AWS ParallelCluster 구성을 보여줍니다.

**참고**  
버전 2.11.5부터 SGE 또는 Torque 스케줄러 사용을 지원하지 AWS ParallelCluster 않습니다.

**Contents**
+ [Slurm Workload Manager (`slurm`)](#example.slurm)
+ [Son of Grid Engine(`sge`) 및 Torque Resource Manager(`torque`)](#example.torque)
+ [AWS Batch (`awsbatch`)](#example.awsbatch)

## Slurm Workload Manager (`slurm`)
<a name="example.slurm"></a>

다음 예제는 `slurm` 스케줄러를 사용하는 클러스터를 시작합니다. 예제 구성에서는 2개의 작업 대기열이 있는 클러스터 1개를 시작합니다. 첫 번째 대기열에는 처음에 `spot` 사용할 수 있는 `t3.micro` 스팟 인스턴스 2개가 있습니다. 최대 10개의 인스턴스까지 스케일 업할 수 있으며, 10분 동안 작업이 실행되지 않은 경우 최소 1개의 인스턴스로 스케일 다운할 수 있습니다([`scaledown_idletime`](scaling-section.md#scaledown-idletime) 설정을 사용하여 조정 가능). 두 번째 대기열인 `ondemand`는 인스턴스 없이 시작하여 최대 5개의 `t3.micro` 온디맨드 인스턴스까지 스케일 업할 수 있습니다.

```
[global]
update_check = true
sanity_check = true
cluster_template = slurm

[aws]
aws_region_name = <your AWS 리전>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster slurm]
key_name = <your EC2 keypair name>
base_os = alinux2                   # optional, defaults to alinux2
scheduler = slurm
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
queue_settings = spot,ondemand

[queue spot]
compute_resource_settings = spot_i1
compute_type = spot                 # optional, defaults to ondemand

[compute_resource spot_i1]
instance_type = t3.micro
min_count = 1                       # optional, defaults to 0
initial_count = 2                   # optional, defaults to 0

[queue ondemand]
compute_resource_settings = ondemand_i1

[compute_resource ondemand_i1]
instance_type = t3.micro
max_count = 5                       # optional, defaults to 10
```

## Son of Grid Engine(`sge`) 및 Torque Resource Manager(`torque`)
<a name="example.torque"></a>

**참고**  
이 예제는 AWS ParallelCluster 버전 2.11.4까지의 버전에만 적용됩니다. 버전 2.11.5부터는 AWS ParallelCluster 가 SGE 또는 Torque 스케줄러의 사용을 지원하지 않습니다.

다음 예제는 `torque` 또는 `sge` 스케줄러를 사용하는 클러스터를 시작합니다. SGE을 사용하려면 `scheduler = torque`를 `scheduler = sge`로 변경하세요. 예제 구성은 최대 5개의 동시 실행 노드를 허용하고 10분 동안 작업이 실행되지 않으면 2개로 스케일 다운됩니다.

```
[global]
update_check = true
sanity_check = true
cluster_template = torque

[aws]
aws_region_name = <your AWS 리전>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster torque]
key_name = <your EC2 keypair name>but they aren't eligible for future updates
base_os = alinux2                   # optional, defaults to alinux2
scheduler = torque                  # optional, defaults to sge
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
initial_queue_size = 2              # optional, defaults to 0
maintain_initial_size = true        # optional, defaults to false
max_queue_size = 5                  # optional, defaults to 10
```

**참고**  
버전 2.11.5부터 SGE 또는 Torque 스케줄러 사용을 지원하지 AWS ParallelCluster 않습니다. 이러한 버전을 사용하는 경우 해당 버전을 계속 사용하거나 AWS 서비스 및 지원 팀의 AWS 지원 문제를 해결할 수 있습니다.

## AWS Batch (`awsbatch`)
<a name="example.awsbatch"></a>

다음 예제는 `awsbatch` 스케줄러를 사용하는 클러스터를 시작합니다. 작업 리소스 요구 사항에 따라 더 나은 인스턴스 유형을 선택하도록 설정되어 있습니다.

예제 구성은 최대 40개의 동시 실행 vCPU를 허용하고 10분 동안 작업이 실행되지 않으면 0으로 스케일 다운됩니다([`scaledown_idletime`](scaling-section.md#scaledown-idletime) 설정을 사용하여 조정 가능).

```
[global]
update_check = true
sanity_check = true
cluster_template = awsbatch

[aws]
aws_region_name = <your AWS 리전>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster awsbatch]
scheduler = awsbatch
compute_instance_type = optimal # optional, defaults to optimal
min_vcpus = 0                   # optional, defaults to 0
desired_vcpus = 0               # optional, defaults to 4
max_vcpus = 40                  # optional, defaults to 20
base_os = alinux2               # optional, defaults to alinux2, controls the base_os of
                                # the head node and the docker image for the compute fleet
key_name = <your EC2 keypair name>
vpc_settings = public
```