

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 구성 파일
<a name="configuration-v3"></a>

AWS ParallelCluster 는 구성 파라미터에 YAML 1.1 파일을 사용합니다.

**Topics**
+ [클러스터 구성 파일](cluster-configuration-file-v3.md)
+ [빌드 이미지 구성 파일](image-builder-configuration-file-v3.md)

# 클러스터 구성 파일
<a name="cluster-configuration-file-v3"></a>

AWS ParallelCluster 버전 3에서는 별도의 구성 파일을 사용하여 클러스터 인프라의 정의와 사용자 지정 AMIs. 모든 구성 파일은 YAML 1.1 파일을 사용합니다. 각 구성 파일에 대한 자세한 정보는 아래에 링크되어 있습니다. 일부 구성 예제는 [https://github.com/aws/aws-parallelcluster/tree/release-3.0/cli/tests/pcluster/example\$1configs](https://github.com/aws/aws-parallelcluster/tree/release-3.0/cli/tests/pcluster/example_configs)를 참조하세요.

이러한 객체는 AWS ParallelCluster 버전 3 클러스터 구성에 사용됩니다.

**Topics**
+ [클러스터 구성 파일 속성](#cluster-configuration-file-v3.properties)
+ [`Imds` 섹션](Imds-cluster-v3.md)
+ [`Image` 섹션](Image-v3.md)
+ [`HeadNode` 섹션](HeadNode-v3.md)
+ [`Scheduling` 섹션](Scheduling-v3.md)
+ [`SharedStorage` 섹션](SharedStorage-v3.md)
+ [`Iam` 섹션](Iam-v3.md)
+ [`LoginNodes` 섹션](LoginNodes-v3.md)
+ [`Monitoring` 섹션](Monitoring-v3.md)
+ [`Tags` 섹션](Tags-v3.md)
+ [`AdditionalPackages` 섹션](AdditionalPackages-v3.md)
+ [`DirectoryService` 섹션](DirectoryService-v3.md)
+ [`DeploymentSettings` 섹션](DeploymentSettings-cluster-v3.md)

## 클러스터 구성 파일 속성
<a name="cluster-configuration-file-v3.properties"></a>

`Region`(선택 사항****, `String`)  
클러스터에 AWS 리전 대한를 지정합니다. 예: `us-east-2`  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomS3Bucket`(선택 사항****, `String`)  
 AWS 계정에서 생성된 Amazon S3 버킷의 이름을 지정하여 클러스터 구성 파일과 같이 클러스터에서 사용하는 리소스를 저장하고 로그를 내보냅니다. 클러스터를 생성하는 각 AWS 리전에 하나의 Amazon S3 버킷을 AWS ParallelCluster 유지합니다. 기본적으로 이러한 Amazon S3 버킷은 `parallelcluster-hash-v1-DO-NOT-DELETE`으로 명명됩니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다. 강제로 업데이트하면 새 값이 무시되고 이전 값이 사용됩니다.](using-pcluster-update-cluster-v3.md#update-policy-read-only-resource-bucket-v3)

`AdditionalResources`(선택 사항****, `String`)  
클러스터와 함께 시작할 추가 AWS CloudFormation 템플릿을 정의합니다. 이 추가 템플릿은 클러스터 외부에 있지만 클러스터 수명 주기의 일부인 리소스를 생성하는 데 사용됩니다.  
해당 값은 모든 파라미터가 제공된 퍼블릭 템플릿의 HTTP URL이어야 합니다.  
기본값이 없습니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

# `Imds` 섹션
<a name="Imds-cluster-v3"></a>

(선택 사항)**** 글로벌 인스턴스 메타데이터 서비스(IMDS) 구성을 지정합니다.

```
Imds:
  ImdsSupport: string
```

## `Imds` 속성
<a name="Imds-cluster-v3.properties"></a>

`ImdsSupport`(선택 사항****, `String`)  
클러스터 노드에서 지원되는 IMDS 버전을 지정합니다. 지원되는 값은 `v1.0` 및 `v2.0`입니다. 기본값은 `v2.0`입니다.  
`ImdsSupport`이 `v1.0`로 설정되어 있으면 IMDSv1 및 IMDSv2가 모두 지원됩니다.  
`ImdsSupport`이 `v2.0`로 설정되어 있으면 IMDSv2만 지원됩니다.  
자세한 내용은 [Linux 인스턴스용 Amazon EC2 사용 설명서](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html)의 *IMDSv2 사용*을 참조하세요.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 AWS ParallelCluster 3.7.0부터 `ImdsSupport` 기본값은 입니다`v2.0`. 사용자 지정 작업 호출에서 IMDSv1을 IMDSv2를 교체하고 `ImdsSupport`을 `v2.0`로 설정하는 것이 좋습니다.  
 AWS ParallelCluster 버전 3.3.0[`ImdsSupport`](#yaml-cluster-Imds-ImdsSupport)에서 [`Imds`](#Imds-cluster-v3) /에 대한 지원이 추가되었습니다.

# `Image` 섹션
<a name="Image-v3"></a>

**참고**  
에서 배포한 공식 AMIs의 지원되지 않는 버전 AWS ParallelCluster 은 18개월 동안 사용하지 않으면 사용할 수 없습니다. 이러한 이전 이미지에는 오래된 소프트웨어가 포함되어 있으며 문제가 발생할 경우 지원을 받을 수 없습니다. 지원되는 최신 버전으로 이동하는 것이 좋습니다.

(필수)**** 클러스터의 운영 체제를 정의합니다.

```
Image:
  Os: string
  CustomAmi: string
```

## `Image` 속성
<a name="Image-v3.properties"></a>

`Os`(필수****, `String`)  
클러스터에 사용할 운영 체제를 지정합니다. 지원되는 값은 `alinux2`, `alinux2023`, `ubuntu2404`, `ubuntu2204`, `rhel8`, `rocky8`, `rhel9`, `rocky9`입니다.  
RedHat Enterprise Linux 8.7(`rhel8`)은 AWS ParallelCluster 버전 3.6.0부터 추가됩니다.  
`rhel`를 사용하도록 클러스터를 구성하면 지원되는 다른 운영 체제를 사용하도록 클러스터를 구성할 때보다 모든 인스턴스 유형에 대한 온디맨드 비용이 더 높습니다. 요금에 대한 자세한 내용은 [온디맨드 요금](https://aws.amazon.com/ec2/pricing/on-demand) 및 [Amazon EC2용 Red Hat Enterprise Linux는 어떻게 제공되고 가격이 책정되나요?](https://aws.amazon.com/partners/redhat/faqs/#Pricing_and_Billing)를 참조하세요.  
RedHat Enterprise Linux 9(rhel9)는 AWS ParallelCluster 버전 3.9.0부터 추가됩니다.
모든 AWS 상용 리전은 다음 운영 체제를 모두 지원합니다.      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/parallelcluster/latest/ug/Image-v3.html)
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 AWS ParallelCluster 3.8.0은 Rocky Linux 8을 지원하지만 사전 구축된 Rocky Linux 8 AMIs(x86 및 ARM 아키텍처용)는 사용할 수 없습니다. AWS ParallelCluster 3.8.0은 사용자 지정 AMIs를 사용하여 Rocky Linux 8로 클러스터 생성을 지원합니다. 자세한 내용은 단원을 참조하십시오[운영 체제 고려 사항](operating-systems-v3.md#OS-Consideration-v3). AWS ParallelCluster 3.9.0은 Rocky Linux 9를 지원하지만 사전 구축된 Rocky Linux 9 AMIs(x86 및 ARM 아키텍처용)는 사용할 수 없습니다. AWS ParallelCluster 3.9.0은 사용자 지정 AMIs를 사용하여 Rocky Linux 9로 클러스터 생성을 지원합니다. 자세한 내용은 [운영 체제 고려 사항](operating-systems-v3.md#OS-Consideration-v3)을 참조하세요.  
 

`CustomAmi`(선택 사항****, `String`)  
기본 AMI 대신 헤드 및 컴퓨팅 노드에 사용할 사용자 지정 AMI의 ID를 지정합니다. 자세한 내용은 [AWS ParallelCluster AMI 사용자 지정](custom-ami-v3.md) 항목을 참조하세요.  
사용자 지정 AMI를 시작하기 위해 추가 권한이 필요한 경우 이러한 권한을 사용자 및 헤드 노드 정책 모두에 추가해야 합니다.  
예를 들어 사용자 지정 AMI에 암호화된 스냅샷이 연결된 경우 사용자 및 헤드 노드 정책 모두에 다음과 같은 추가 정책이 필요합니다.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
RedHat Enterprise Linux 사용자 지정 AMI를 구축하려면 RHUI(AWS) 리포지토리에서 제공하는 패키지 `rhel-<version>-baseos-rhui-rpms`, `rhel-<version>-appstream-rhui-rpms` 및 `codeready-builder-for-rhel-<version>-rhui-rpms`를 설치하도록 OS를 구성해야 합니다. 또한 사용자 지정 AMI의 리포지토리에는 실행 중인 커널 버전과 동일한 버전의 `kernel-devel` 패키지가 포함되어야 합니다.  

**알려진 제한 사항:**
+ RHEL 8.2 이상 버전에서만 FSx for Lustre를 지원합니다.
+ RHEL 8.7 커널 버전 4.18.0-425.3.1.el8은 FSx for Lustre를 지원하지 않습니다.
+ RHEL 8.4 이상 버전만 EFA를 지원합니다.
+ AL23에는 NICE DCV 실행에 필요한 그래픽 데스크톱 환경이 포함되어 있지 않으므로 NICE DCV를 지원하지 않습니다. 자세한 내용은 [NICE DCV의 설명서](https://docs.aws.amazon.com//dcv/)를 참조하세요.
사용자 지정 AMI 검증 경고 문제를 해결하려면 [사용자 지정 AMI 문제 해결](troubleshooting-v3-custom-amis.md)을 참조하세요.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `HeadNode` 섹션
<a name="HeadNode-v3"></a>

(필수)**** 헤드 노드의 구성을 지정합니다.

```
HeadNode:
  InstanceType: string
  Networking:
    SubnetId: string
    ElasticIp: string/boolean
    SecurityGroups:
      - string
    AdditionalSecurityGroups:
      - string
    Proxy:
      HttpProxyAddress: string
  DisableSimultaneousMultithreading: boolean
  Ssh:
    KeyName: string
    AllowedIps: string
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
      DeleteOnTermination: boolean
    EphemeralVolume:
      MountDir: string
  SharedStorageType: string
  Dcv:
    Enabled: boolean
    Port: integer
    AllowedIps: string
  CustomActions:
    OnNodeStart:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeConfigured:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeUpdated:
      Sequence:
        - Script: string
          Args: 
            - string
      Script: string
      Args:
        - string
  Iam:
    InstanceRole: string
    InstanceProfile: string
    S3Access:
      - BucketName: string
        EnableWriteAccess: boolean
        KeyName: string
    AdditionalIamPolicies:
      - Policy: string
  Imds:
    Secured: boolean
  Image:
    CustomAmi: string
```

## `HeadNode` 속성
<a name="HeadNode-v3.properties"></a>

`InstanceType` (**필수**, `String`)  
헤드 노드의 인스턴스 유형을 지정합니다.  
헤드 노드에 사용되는 Amazon EC2 인스턴스 유형을 지정합니다. 인스턴스 유형의 아키텍처는 [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-AwsBatchQueues-ComputeResources-InstanceTypes) 또는 Slurm [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType) 설정에 사용되는 AWS Batch 아키텍처와 동일해야 합니다.  
AWS ParallelCluster 는 `HeadNode` 설정에 대해 다음 인스턴스 유형을 지원하지 않습니다.  
+ hpc6id
여러 네트워크 인터페이스 또는 네트워크 인터페이스 카드가 있는 p4d 인스턴스 유형 또는 다른 인스턴스 유형을 정의하는 경우 퍼블릭 액세스를 제공하도록 `true`를 [`ElasticIp`](#yaml-HeadNode-Networking-ElasticIp) 로 설정해야 합니다. AWS 퍼블릭 IPs는 단일 네트워크 인터페이스로 시작된 인스턴스에만 할당할 수 있습니다. 이 경우 [ NAT 게이트웨이](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html)를 사용하여 클러스터 컴퓨팅 노드에 대한 퍼블릭 액세스를 제공하는 것이 좋습니다. 자세한 내용은 Linux 인스턴스용 Amazon EC2 사용 설명서**의 [인스턴스 시작 중 퍼블릭 IPv4 주소 할당](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses)을 참조하세요.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DisableSimultaneousMultithreading`(선택 사항****, `Boolean`)  
`true`인 경우 헤드 노드에서 하이퍼 스레딩을 비활성화합니다. 기본값은 `false`입니다.  
모든 인스턴스 유형이 하이퍼 스레딩을 비활성화할 수 있는 것은 아닙니다. 하이퍼스레딩 비활성화를 지원하는 인스턴스 유형 목록은 *Amazon EC2 사용 설명서*의 [ 인스턴스 유형당 각 CPU 코어의 CPU 코어 및 스레드](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values)를 참조하세요.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SharedStorageType`(선택 사항****, `String`)  
내부 공유 데이터에 사용되는 스토리지 유형을 지정합니다. 내부 공유 데이터에는가 클러스터를 관리하는 데 AWS ParallelCluster 사용하는 데이터와에 공유 파일 시스템 볼륨을 탑재하기 위한 탑재 디렉터리[`SharedStorage` 섹션](SharedStorage-v3.md)로 지정되지 않은 `/home` 경우 기본 공유 데이터가 포함됩니다. 내부 공유 데이터에 대한 자세한 내용은 [AWS ParallelCluster 내부 디렉터리](directories-v3.md) 섹션을 참조하세요.  
기본 스토리지 유형으로 `Ebs`인 경우 헤드 노드는 NFS를 사용하여 루트 볼륨의 일부를 컴퓨팅 노드 및 로그인 노드의 공유 디렉터리로 내보냅니다.  
`Efs`인 경우 ParallelCluster는 공유 내부 데이터 및에 사용할 EFS 파일 시스템을 생성합니다`/home`.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
클러스터가 스케일 아웃되면 헤드 노드가 NFS 내보내기를 사용하여 루트 볼륨의 데이터를 컴퓨팅 노드와 공유하므로 EBS 스토리지 유형에 성능 병목 현상이 발생할 수 있습니다. EFS를 사용하면 클러스터가 스케일 아웃될 때 NFS 내보내기를 방지하고 이와 관련된 성능 병목 현상을 방지할 수 있습니다. 작은 파일 및 설치 프로세스의 최대 읽기/쓰기 가능성을 위해 EBS를 선택하는 것이 좋습니다. 규모 조정을 위해 EFS를 선택합니다.

## `Networking`
<a name="HeadNode-v3-Networking"></a>

(필수)**** 헤드 노드의 네트워킹 구성을 정의합니다.

```
Networking:
  SubnetId: string
  ElasticIp: string/boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  Proxy:
    HttpProxyAddress: string
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Networking` 속성
<a name="HeadNode-v3-Networking.properties"></a>

`SubnetId`(필수****, `String`)  
헤드 노드를 프로비저닝할 기존 서브넷의 ID를 지정합니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ElasticIp`(선택 사항****, `String`)  
헤드 노드에 탄력적 IP 주소를 생성하거나 할당합니다. 지원되는 값은 `true`, `false` 또는 기존 탄력적 IP 주소의 ID입니다. 기본값은 `false`입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SecurityGroups`(선택 사항****, `[String]`)  
헤드 노드에 사용할 Amazon VPC 보안 그룹 ID 목록입니다. 이 속성이 포함되지 않은 경우에서 AWS ParallelCluster 생성하는 보안 그룹을 대체합니다.  
보안 그룹이 [공유 스토리지](SharedStorage-v3.md) 시스템에 맞게 구성되어 있는지 확인하세요.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AdditionalSecurityGroups`(선택 사항****, `[String]`)  
헤드 노드에 사용할 추가 Amazon VPC 보안 그룹 ID 목록입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Proxy` (**선택 사항**)  
헤드 노드의 프록시 설정을 지정합니다.  

```
Proxy:
                            HttpProxyAddress: 
                            string
```  
` HttpProxyAddress`(선택 사항****, `String`)  
HTTP 또는 HTTPS 프록시 서버, 일반적으로 `https://x.x.x.x:8080`을 정의합니다.  
기본값이 없습니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Ssh`
<a name="HeadNode-v3-Ssh"></a>

**(선택 사항)** 헤드 노드에 대한 SSH 액세스를 위한 구성을 정의합니다.

```
Ssh:
      KeyName: string
      AllowedIps: string
```

[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Ssh` 속성
<a name="HeadNode-v3-Ssh.properties"></a>

`KeyName` (**선택 사항**, `String`)  
헤드 노드로의 SSH 액세스가 가능하도록 기존 Amazon EC2 키 쌍의 이름을 지정합니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps`(선택 사항****, `String`)  
헤드 노드에 SSH 연결을 위한 CIDR 형식의 IP 범위 또는 접두사 목록 ID를 지정합니다. 기본값은 `0.0.0.0/0`입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `LocalStorage`
<a name="HeadNode-v3-LocalStorage"></a>

(선택 사항)**** 헤드 노드의 로컬 스토리지 구성을 정의합니다.

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
    DeleteOnTermination: boolean
  EphemeralVolume:
    MountDir: string
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `LocalStorage` 속성
<a name="HeadNode-v3-LocalStorage.properties"></a>

`RootVolume` (필수)****  
헤드 노드의 루트 볼륨 스토리지를 지정합니다.  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
  DeleteOnTermination: boolean
```
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Size`(선택 사항****, `Integer`)  
헤드 노드 루트 볼륨 크기를 기비바이트(GiB) 단위로 지정합니다. 기본 크기는 AMI에서 가져옵니다. 다른 크기를 사용하려면 AMI에서 `growroot`를 지원해야 합니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Encrypted`(선택 사항****, `Boolean`)  
루트 볼륨이 암호화되는지 여부를 지정합니다. 기본값은 `true`입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
` VolumeType`(선택 사항****, `String`)  
[ Amazon EBS 볼륨 유형을](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) 지정합니다. 지원되는 값은 `gp2`, `gp3`, `io1`, `io2`, `sc1`, `st1`, `standard`입니다. 기본값은 `gp3`입니다.  
자세한 내용을 알아보려면 Amazon EC2 사용 설명서**의 [Amazon EBS 볼륨 유형](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)을 참조하세요.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Iops`(선택 사항****, `Integer`)  
`io1`, `io2`, `gp3` 유형 볼륨의 IOPS 수를 정의합니다.  
기본 값, 지원되는 값, `volume_iops`:`volume_size` 비율은 `VolumeType` 및 `Size`에 따라 달라집니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`VolumeType` = `io1`  
기본 `Iops` = 100  
지원되는 값 `Iops` = 100\$164000†  
최대 `Iops`와 `Size`의 비율 = 50IOPS/GiB. 5000 IOPS는 최소 100GiB의 `Size`가 필요합니다.  
`VolumeType` = `io2`  
기본 `Iops` = 100  
지원되는 값 `Iops` = 100\$164000(`io2` Block Express 볼륨의 경우 256000)†  
최대 `Iops`와 `Size` 비율 = 500IOPS/GiB. 5000 IOPS에는 최소 10GiB의 `Size`가 필요합니다.  
`VolumeType` = `gp3`  
기본 `Iops` = 3000  
지원되는 값 `Iops` = 3000\$116000  
최대 `Iops`와 `Size` 비율 = 500IOPSIOPS/GiB. 5000 IOPS에는 최소 10GiB`Size`가 필요합니다.
† 최대 IOPS는 32,000 IOPS 이상으로 프로비저닝된 [ Nitro 시스템에 구축된 인스턴스](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances)에서만 보장됩니다. 다른 인스턴스는 최대 32,000 IOPS를 보장합니다. `io1` 볼륨을 [ 수정하지 않으면 이전 볼륨](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html)이 전체 성능에 도달하지 못할 수 있습니다. `io2` 블록 익스프레스 볼륨은 `R5b` 인스턴스 유형에서 최대 256000의 `Iops` 값을 지원합니다. 자세한 내용은 *Amazon EC2 사용 설명서*에서 [`io2` Block Express 볼륨](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express)을 참조하세요.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Throughput`(선택 사항****, `Integer`)  
`gp3` 볼륨 유형의 처리량을 MiB/s 단위로 정의합니다. 이 설정은 `VolumeType`가 `gp3`일 때만 유효합니다. 기본값은 `125`입니다. 지원되는 값: 125-1000MiB/s  
`Throughput`:`Iops`의 비율은 0.25를 초과할 수 없습니다. 1000MiB/s의 최대 처리량을 위해서는 `Iops` 설정이 최소 4000이어야 합니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 `DeleteOnTermination` (**선택 사항**, `Boolean`)  
헤드 노드가 종료될 때 루트 볼륨을 삭제할지 여부를 지정합니다. 기본값은 `true`입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EphemeralVolume` (**선택 사항**)  
모든 인스턴스 스토어 볼륨의 세부 정보를 지정합니다. 자세한 내용은 *Amazon EC2 사용 설명서*의 [ 인스턴스 스토어 볼륨](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes)을 참조하세요.  

```
EphemeralVolume:
  MountDir: string
```
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
 `MountDir` (**선택 사항**, `String`)  
인스턴스 스토어 볼륨의 탑재 디렉터리를 지정합니다. 기본값은 `/scratch`입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Dcv`
<a name="HeadNode-v3-Dcv"></a>

**(선택 사항)** 헤드 노드에서 실행되는 Amazon DCV 서버의 구성 설정을 정의합니다.

자세한 내용은 [Amazon DCV를 통해 헤드 및 로그인 노드에 연결](dcv-v3.md) 단원을 참조하십시오.

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```

**중요**  
기본적으로의 Amazon DCV 포트 설정은 모든 IPv4 주소에 AWS ParallelCluster 열려 있습니다. 그러나 사용자는 Amazon DCV 세션에 대한 URL이 있는 경우에만 Amazon DCV 포트에 연결하고 `pcluster dcv-connect`에서 URL이 반환된 후 30초 이내에 Amazon DCV 세션에 연결할 수 있습니다. `AllowedIps` 설정을 사용해 CIDR 형식 IP 범위의 Amazon DCV 포트로의 액세스를 추가 제한하고, `Port` 설정을 사용하여 비표준 포트를 설정합니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Dcv` 속성
<a name="HeadNode-v3-Dcv.properties"></a>

`Enabled` (**필수**, `Boolean`)  
헤드 노드에서의 Amazon DCV 활성화 여부를 지정합니다. 기본값은 `false`입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Amazon DCV는 Amazon DCV 클라이언트와 헤드 노드에서 실행되는 Amazon DCV 서버 간의 트래픽을 보호하는 데 사용되는 자체 서명된 인증서를 자동으로 생성합니다. 자체 인증서를 구성하려면 [Amazon DCV HTTPS 인증서](dcv-v3.md#dcv-v3-certificate) 섹션을 참조하세요.

`Port` (**선택 사항**, `Integer`)  
Amazon DCV의 포트를 지정합니다. 기본값은 `8443`입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps` (선택 사항, 권장됨****, `String`)  
Amazon DCV에 연결할 CIDR 형식의 IP 범위를 지정합니다. 이 설정은가 보안 그룹을 AWS ParallelCluster 생성하는 경우에만 사용됩니다. 기본값은 어떤 인터넷 주소에서도 액세스할 수 있는 `0.0.0.0/0`입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `CustomActions`
<a name="HeadNode-v3-CustomActions"></a>

(선택 사항)**** 헤드 노드상에서 실행할 사용자 지정 스크립트를 지정합니다.

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args: 
      - string
```

### `CustomActions` 속성
<a name="HeadNode-v3-CustomActions.properties"></a>

`OnNodeStart` (**선택 사항**)  
노드 배포 부트스트랩 작업이 시작되기 전에 헤드 노드에서 실행할 단일 스크립트 또는 스크립트 시퀀스를 지정합니다. 자세한 내용은 [사용자 지정 부트스트랩 작업](custom-bootstrap-actions-v3.md) 항목을 참조하세요.    
 `Sequence` (**선택 사항**)  
run.runs할 스크립트 목록은 첫 번째부터 시작하여 구성 파일에 나열된 것과 동일한 순서로 스크립트를 AWS ParallelCluster 실행합니다.    
 `Script` (필수****, `String`)  
사용할 파일을 지정합니다. 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
 `Args` (**선택 사항**, `[String]`)  
스크립트에 전달할 인수 목록  
 `Script` (필수****, `String`)  
단일 스크립트에 사용할 파일을 지정합니다. 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
`Args`(선택 사항****, `[String]`)  
단일 스크립트에 전달할 인수 목록
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeConfigured` (**선택 사항**)  
노드 부트스트랩 작업이 완료된 후 헤드 노드에서 실행할 단일 스크립트 또는 스크립트 시퀀스를 지정합니다. 자세한 내용은 [사용자 지정 부트스트랩 작업](custom-bootstrap-actions-v3.md) 항목을 참조하세요.    
 `Sequence` (**선택 사항**)  
실행할 스크립트 목록을 지정합니다.    
 `Script` (필수****, `String`)  
사용할 파일을 지정합니다. 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
 `Args` (**선택 사항**, `[String]`)  
스크립트에 전달할 인수 목록  
 `Script` (필수****, `String`)  
단일 스크립트에 사용할 파일을 지정합니다. 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
 `Args` (**선택 사항**, `[String]`)  
단일 스크립트에 전달할 인수 목록
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeUpdated` (**선택 사항**)  
노드 업데이트 작업이 완료된 후 헤드 노드에서 실행할 단일 스크립트 또는 스크립트 시퀀스를 지정합니다. 자세한 내용은 [사용자 지정 부트스트랩 작업](custom-bootstrap-actions-v3.md) 항목을 참조하세요.    
 `Sequence` (**선택 사항**)  
실행할 스크립트 목록을 지정합니다.    
 `Script` (필수****, `String`)  
사용할 파일을 지정합니다. 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
 `Args` (**선택 사항**, `[String]`)  
스크립트에 전달할 인수 목록  
 `Script` (필수****, `String`)  
단일 스크립트에 사용할 파일을 지정합니다. 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
 `Args` (**선택 사항**, `[String]`)  
단일 스크립트에 전달할 인수 목록
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`OnNodeUpdated`는 AWS ParallelCluster 3.4.0부터 추가됩니다.  
`Sequence`는 AWS ParallelCluster 버전 3.6.0부터 추가됩니다. 를 지정할 때 사용자 지정 작업에 대한 여러 스크립트를 나열`Sequence`할 수 있습니다.를 포함하지 않고 단일 스크립트로 사용자 지정 작업을 구성할 수 있도록 AWS ParallelCluster 계속합니다`Sequence`.  
AWS ParallelCluster 는 동일한 사용자 지정 작업에 `Sequence` 대해 단일 스크립트와를 모두 포함하는 것을 지원하지 않습니다.

## `Iam`
<a name="HeadNode-v3-Iam"></a>

(선택 사항)**** 헤드 노드에서 클러스터의 기본 인스턴스 역할 또는 인스턴스 프로파일을 재정의하는 데 사용할 인스턴스 역할 또는 인스턴스 프로파일을 지정합니다.

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
```

[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Iam` 속성
<a name="HeadNode-v3-Iam.properties"></a>

`InstanceProfile`(선택 사항****, `String`)  
기본 헤드 노드 인스턴스 프로파일을 재정의할 인스턴스 프로파일을 지정합니다. `InstanceProfile` 및 `InstanceRole`를 둘 다 지정할 수 없습니다. 형식은 `arn:Partition:iam::Account:instance-profile/InstanceProfileName`입니다.  
이를 지정하면 `S3Access` 및 `AdditionalIamPolicies` 설정을 지정할 수 없습니다.  
`S3Access`에 추가된 특성은 새로운 권한을 요구하는 경우가 많으므로 `AdditionalIamPolicies` 및 AWS ParallelCluster 중 하나 또는 모두를 지정하는 것이 좋습니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`InstanceRole`(선택 사항****, `String`)  
기본 헤드 노드 인스턴스 역할을 재정의할 인스턴스 역할을 지정합니다. `InstanceProfile` 및 `InstanceRole`를 둘 다 지정할 수 없습니다. 형식은 `arn:Partition:iam::Account:role/RoleName`입니다.  
이를 지정하면 `S3Access` 및 `AdditionalIamPolicies` 설정을 지정할 수 없습니다.  
`S3Access`에 추가된 특성은 새로운 권한을 요구하는 경우가 많으므로 `AdditionalIamPolicies` 및 AWS ParallelCluster 중 하나 또는 모두를 지정하는 것이 좋습니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `S3Access`
<a name="HeadNode-v3-Iam-S3Access.properties"></a>

`S3Access` (**선택 사항**)  
버킷을 지정합니다. 이는 버킷에 지정된 액세스 권한을 부여하는 정책을 생성하는 데 사용됩니다.  
이를 지정하면 `InstanceProfile` 및 `InstanceRole` 설정을 지정할 수 없습니다.  
`S3Access`에 추가된 특성은 새로운 권한을 요구하는 경우가 많으므로 `AdditionalIamPolicies` 및 AWS ParallelCluster 중 하나 또는 모두를 지정하는 것이 좋습니다.  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`BucketName`(필수****, `String`)  
버킷의 이름입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`KeyName`(선택 사항****, `String`)  
버킷의 키입니다. 기본값은 “`*`”입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
` EnableWriteAccess`(선택 사항****, `Boolean`)  
버킷에 대해 쓰기 액세스가 활성화되어 있는지 여부를 나타냅니다. 기본값은 `false`입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `AdditionalIamPolicies`
<a name="HeadNode-v3-Iam-AdditionalIamPolicies.properties"></a>

`AdditionalIamPolicies`(선택 사항****)  
Amazon EC2에 대한 IAM 정책의 Amazon 리소스 이름(ARN) 목록을 쉼표로 구분하여 지정합니다. 이 목록은에 필요한 권한 외에도 헤드 노드에 사용되는 루트 역할에 연결됩니다 AWS ParallelCluster.  
IAM 정책 이름과 해당 ARN은 서로 다릅니다. 이름은 사용할 수 없습니다.  
이를 지정하면 `InstanceProfile` 및 `InstanceRole` 설정을 지정할 수 없습니다.  
`AdditionalIamPolicies`을 사용하는 것이 좋습니다. AWS ParallelCluster 가 요구하는 권한에 `AdditionalIamPolicies`가 추가되며, `InstanceRole`에는 요구되는 권한이 모두 포함되어 있어야 하기 때문입니다. 기능이 추가됨에 따라 필요한 권한은 종종 릴리스마다 변경됩니다.  
기본값이 없습니다.  

```
AdditionalIamPolicies:
  - Policy: string
```
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
` Policy`(선택 사항****, `[String]`)  
IAM 정책 목록  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Imds`
<a name="HeadNode-v3-Imds"></a>

(선택 사항)**** 인스턴스 메타데이터 서비스(IMDS)를 위한 속성을 지정합니다. 자세한 내용은 *Amazon EC2*[2 사용 설명서의 인스턴스 메타데이터 서비스 버전 2 작동 방식을](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html#instance-metadata-v2-how-it-works) 참조하세요.

```
Imds:
    Secured: boolean
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Imds` 속성
<a name="HeadNode-v3-Imds.properties"></a>

`Secured`(선택 사항****, `Boolean`)  
`true`이면 헤드 노드의 IMDS(및 인스턴스 프로파일 보안 인증)에 대한 액세스를 수퍼유저의 하위 집합으로 제한합니다.  
`false`이면 헤드 노드의 모든 사용자가 헤드 노드의 IMDS에 액세스할 수 있습니다.  

다음 사용자는 헤드 노드의 IMDS에 액세스할 수 있습니다.
+ 루트 사용자
+ 클러스터 관리 사용자(기본값 `pc-cluster-admin`)
+ 운영 체제별 기본 사용자(Amazon Linux 2 및 RedHat의 경우 `ec2-user`, Ubuntu 18.04의 경우 `ubuntu`).
기본값은 `true`입니다.  
`default` 사용자는 클러스터가 AWS 리소스와 상호 작용하는 데 필요한 권한을 갖도록 할 책임이 있습니다. `default` 사용자 IMDS 액세스를 비활성화하면 AWS ParallelCluster 가 컴퓨팅 노드를 관리할 수 없으며 작동이 중지됩니다. `default` 사용자 IMDS 액세스를 비활성화하지 마세요.  
헤드 노드의 IMDS에 대한 액세스 권한이 부여된 사용자는 [헤드 노드의 인스턴스 프로파일](iam-roles-in-parallelcluster-v3.md)에 포함된 권한을 사용할 수 있습니다. 예를 들어 이러한 권한을 사용하여 Amazon EC2 인스턴스를 시작하거나 클러스터가 인증에 사용하도록 구성된 AD 도메인의 비밀번호를 읽을 수 있습니다.  
IMDS 액세스를 제한하기 위해는 체인을 AWS ParallelCluster 관리합니다`iptables`.  
`sudo` 액세스 권한이 있는 클러스터 사용자는 다음 명령을 실행하여 `default` 사용자를 포함한 다른 개별 사용자의 헤드 노드의 IMDS 액세스를 선택적으로 활성화 또는 비활성화할 수 있습니다.  

```
$ sudo /opt/parallelcluster/scripts/imds/imds-access.sh --allow <USERNAME>
```
이 명령의 `--deny` 옵션으로 사용자 IMDS 액세스를 비활성화할 수 있습니다.  
`default` 사용자 IMDS 액세스를 모르는 사이에 비활성화한 경우 `--allow` 옵션을 사용하여 권한을 복원할 수 있습니다.  
`iptables` 또는 `ip6tables` 규칙을 사용자 지정하면 헤드 노드에서 IMDS 액세스를 제한하는 데 사용되는 메커니즘이 방해될 수 있습니다.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Image`
<a name="HeadNode-v3-Image"></a>

(선택 사항)**** 헤드 노드의 사용자 지정 이미지를 정의합니다.

```
Image:
     CustomAmi: string
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Image` 속성
<a name="HeadNode-v3-Image.properties"></a>

`CustomAmi`(선택 사항****, `String`)  
기본 AMI 대신 헤드 노드에 사용할 사용자 지정 AMI의 ID를 지정합니다. 자세한 내용은 [AWS ParallelCluster AMI 사용자 지정](custom-ami-v3.md) 항목을 참조하세요.  
사용자 지정 AMI를 시작하기 위해 추가 권한이 필요한 경우 이러한 권한을 사용자 및 헤드 노드 정책 모두에 추가해야 합니다.  
예를 들어 사용자 지정 AMI에 암호화된 스냅샷이 연결된 경우 사용자 및 헤드 노드 정책 모두에 다음과 같은 추가 정책이 필요합니다.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
사용자 지정 AMI 검증 경고 문제를 해결하려면 [사용자 지정 AMI 문제 해결](troubleshooting-v3-custom-amis.md)을 참조하세요.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Scheduling` 섹션
<a name="Scheduling-v3"></a>

(필수)**** 클러스터에서 사용되는 작업 스케줄러와 작업 스케줄러가 관리하는 컴퓨팅 인스턴스를 정의합니다. Slurm 또는 AWS Batch 스케줄러를 사용할 수 있습니다. 각각은 서로 다른 설정 및 속성 세트를 지원합니다.

**Topics**
+ [`Scheduling` 속성](#Scheduling-v3.properties)
+ [`AwsBatchQueues`](#Scheduling-v3-AwsBatchQueues)
+ [`SlurmQueues`](#Scheduling-v3-SlurmQueues)
+ [`SlurmSettings`](#Scheduling-v3-SlurmSettings)

```
Scheduling:
  Scheduler: slurm
  ScalingStrategy: string    
  SlurmSettings:
    MungeKeySecretArn: string        
    ScaledownIdletime: integer    
    QueueUpdateStrategy: string
    EnableMemoryBasedScheduling: boolean
    CustomSlurmSettings: [dict]
    CustomSlurmSettingsIncludeFile: string
    Database:
      Uri: string
      UserName: string
      PasswordSecretArn: string
      DatabaseName: string    
    ExternalSlurmdbd: boolean
      Host: string
      Port: integer  
    Dns:
      DisableManagedDns: boolean
      HostedZoneId: string
      UseEc2Hostnames: boolean  
  SlurmQueues:
    - Name: string  
      ComputeSettings:
        LocalStorage:
          RootVolume:
            Size: integer
            Encrypted: boolean
            VolumeType: string
            Iops: integer
            Throughput: integer
          EphemeralVolume:
            MountDir: string
      CapacityReservationTarget:
        CapacityReservationId: string
        CapacityReservationResourceGroupArn: string
      CapacityType: string
      AllocationStrategy: string
      JobExclusiveAllocation: boolean
      CustomSlurmSettings: dict
      Tags:
        - Key: string
          Value: string
      HealthChecks:
        Gpu:
          Enabled: boolean
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
        PlacementGroup:
          Enabled: boolean
          Id: string
          Name: string
        Proxy:
          HttpProxyAddress: string
      ComputeResources:
        - Name: string
          InstanceType: string
          Instances:
            - InstanceType: string
          MinCount: integer
          MaxCount: integer
          DynamicNodePriority: integer
          StaticNodePriority: integer
          SpotPrice: float
          DisableSimultaneousMultithreading: boolean
          SchedulableMemory: integer
          HealthChecks:
            Gpu:
              Enabled: boolean
          Efa:
            Enabled: boolean
            GdrSupport: boolean          
          CapacityReservationTarget:
            CapacityReservationId: string
            CapacityReservationResourceGroupArn: string
          Networking:   
            PlacementGroup:
              Enabled: boolean
              Name: string
          CustomSlurmSettings: dict
          Tags:
            - Key: string
              Value: string
          LaunchTemplateOverrides:
            LaunchTemplateId: string
            Version: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceProfile: string
        InstanceRole: string
        S3Access:
          - BucketName: string
            EnableWriteAccess: boolean
            KeyName: string
        AdditionalIamPolicies:
          - Policy: string
      Image:
        CustomAmi: string
```

```
Scheduling:
  Scheduler: awsbatch
  AwsBatchQueues:
    - Name: string
      CapacityType: string
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
        - Name: string
          InstanceTypes:
            - string
          MinvCpus: integer
          DesiredvCpus: integer
          MaxvCpus: integer
          SpotBidPercentage: float
```

## `Scheduling` 속성
<a name="Scheduling-v3.properties"></a>

**`Scheduler`(필수****, `String`)**  
사용되는 스케줄러 유형을 지정합니다. 지원되는 값은 `slurm` 및 `awsbatch`입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`awsbatch`은 `alinux2` 운영 체제 및 `x86_64` 플랫폼만 지원합니다.

**`ScalingStrategy`(선택 사항****, `String`)**  
동적 Slurm 노드의 스케일 업 방식을 선택할 수 있습니다. 지원되는 값은 `all-or-nothing`, `greedy-all-or-nothing` 및 `best-effort`이고 기본값은 `all-or-nothing`입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
규모 조정 전략은 Slurm에서 재개할 노드에만 적용되며, 최종적으로 이미 실행 중인 노드에는 적용되지 않습니다.
+ `all-or-nothing`이 전략은 조정 프로세스가 끝날 때 유휴 인스턴스를 피하는 것을 목표로 하여 all-or-nothing 접근 방식을 엄격하게 따릅니다. 이는 all-or-nothing을 기반으로 작동하므로 완전히 스케일 업되거나 전혀 스케일 업되지 않습니다. 작업에 500개 이상의 노드가 필요하거나 여러 컴퓨팅 리소스에 걸쳐 있는 경우 일시적으로 시작된 인스턴스로 인해 추가 비용이 발생할 수 있습니다. 이 전략은 세 가지 가능한 규모 조정 전략 중에서 처리량이 가장 낮습니다. 규모 조정 시간은 Slurm 재개 프로그램 실행당 제출된 작업 수에 따라 달라집니다. 또한 실행당 기본 RunInstances 리소스 계정 한도인 인스턴스 1000개를 초과하여 규모를 조정할 수 없습니다. 자세한 내용은 [Amazon EC2 API 스로틀링 설명서](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/throttling.html)에서 확인할 수 있습니다.
+ `greedy-all-or-nothing `all-or-nothing 전략과 유사하게, 이는 규모 조정 후 유휴 인스턴스를 방지하는 것을 목표로 합니다. 이 전략은 규모 조정 프로세스 중에 all-or-nothing 방식보다 높은 처리량을 달성하기 위해 임시 초과 규모 조정을 허용하지만 RunInstances 리소스 계정 제한에 따라 1,000개의 인스턴스에 대한 동일한 규모 조정 제한도 제공합니다.
+ `best-effort `이 전략은 규모 조정 프로세스가 끝날 때 일부 인스턴스가 유휴 상태일 수 있다고 하더라도 높은 처리량을 우선시합니다. 작업에서 요청한 만큼의 노드를 할당하려고 시도하지만 전체 요청을 이행하지 못할 가능성이 있습니다. 다른 전략과 달리 best-effort 접근 방식은 다중 규모 조정 프로세스 실행을 따라 리소스를 유휴 상태로 두는 대신 표준 RunInstances 제한보다 많은 인스턴스를 누적할 수 있습니다.

각 전략은 다양한 규모 조정 요구 사항에 맞게 설계되었으므로 특정 요구 사항 및 제약 조건을 충족하는 전략을 선택할 수 있습니다.

## `AwsBatchQueues`
<a name="Scheduling-v3-AwsBatchQueues"></a>

**(선택 사항)** AWS Batch 대기열 설정입니다. 대기열은 하나만 지원됩니다. [`Scheduler`](#yaml-Scheduling-Scheduler)이 `awsbatch`로 설정된 경우 이 섹션은 필수입니다. `awsbatch` 스케줄러에 대한 자세한 내용은 [네트워킹 설정](network-configuration-v3-batch.md) 및 [에서 AWS Batch (`awsbatch`) 스케줄러 사용 AWS ParallelCluster](awsbatchcli-v3.md)을 참조하세요.

```
AwsBatchQueues:
  - Name: string
    CapacityType: string
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
      - Name: string
        InstanceTypes:
          - string
        MinvCpus: integer
        DesiredvCpus: integer
        MaxvCpus: integer
        SpotBidPercentage: float
```

[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `AwsBatchQueues` 속성
<a name="Scheduling-v3-AwsBatchQueues.properties"></a>

**`Name`(필수****, `String`)**  
 AWS Batch 대기열의 이름입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityType`(선택 사항****, `String`)**  
 AWS Batch 대기열에서 사용하는 컴퓨팅 리소스의 유형입니다. 지원되는 값은 `ONDEMAND`, `SPOT` 또는 `CAPACITY_BLOCK`입니다. 기본값은 `ONDEMAND`입니다.  
`CapacityType`을 `SPOT`로 설정하는 경우 계정에 `AWSServiceRoleForEC2Spot` 서비스 연결 역할이 포함되어야 합니다. 다음 AWS CLI 명령을 사용하여이 역할을 생성할 수 있습니다.  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
자세한 내용은 *Linux 인스턴스용 Amazon EC2 사용 설명서*의 [스팟 인스턴스 요청의 서비스 연결 역할](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests)을 참조하세요.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### `Networking`
<a name="Scheduling-v3-AwsBatchQueues-Networking"></a>

**(필수)** AWS Batch 대기열의 네트워킹 구성을 정의합니다.

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```

##### `Networking` 속성
<a name="Scheduling-v3-AwsBatchQueues-Networking.properties"></a>

**`SubnetIds`(필수****, `[String]`)**  
 AWS Batch 대기열을 프로비저닝할 기존 서브넷의 ID를 지정합니다. 현재 하나의 서브넷만 지원됩니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`AssignPublicIp`(선택 사항****, `String`)**  
 AWS Batch 대기열의 노드에 퍼블릭 IP 주소를 생성하거나 할당합니다. 지원되는 값은 `true` 및 `false`입니다. 기본값은 지정한 서브넷에 따라 달라집니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups`(선택 사항****, `[String]`)**  
 AWS Batch 대기열에서 사용하는 보안 그룹 목록입니다. 보안 그룹을 지정하지 않으면가 새 보안 그룹을 AWS ParallelCluster 생성합니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups`(선택 사항****, `[String]`)**  
 AWS Batch 대기열에서 사용하는 보안 그룹 목록입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

#### `ComputeResources`
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources"></a>

**(필수)** AWS Batch 대기열에 대한 ComputeResources 구성을 정의합니다.

```
ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
  - Name: string
    InstanceTypes:
      - string
    MinvCpus: integer
    DesiredvCpus: integer
    MaxvCpus: integer
    SpotBidPercentage: float
```

##### `ComputeResources` 속성
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources.properties"></a>

**`Name`(필수****, `String`)**  
 AWS Batch 대기열 컴퓨팅 환경의 이름입니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceTypes`(필수****, `[String]`)**  
인스턴스 유형의 AWS Batch 컴퓨팅 환경 배열입니다. 모든 인스턴스 유형은 `x86_64` 아키텍처를 사용해야 합니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MinvCpus`(선택 사항****, `Integer`)**  
 AWS Batch 컴퓨팅 환경에서 사용할 수 있는 최소 VCPUs.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`DesiredVcpus`(선택 사항****, `Integer`)**  
 AWS Batch 컴퓨팅 환경에서 원하는 VCPUs 수입니다. AWS Batch 는 작업 대기열의 수요에 `MaxvCpus` 따라 `MinvCpus`와 사이에서이 값을 조정합니다.  
[업데이트 정책: 이 설정은 업데이트 중에 분석되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

**`MaxvCpus`(선택 사항****, `Integer`)**  
 AWS Batch 컴퓨팅 환경의 최대 VCPUs. 이 값은 `DesiredVcpus`보다 낮은 값으로 설정할 수 없습니다.  
[업데이트 정책: 업데이트 중에는 이 설정을 줄일 수 없습니다.](using-pcluster-update-cluster-v3.md#update-policy-no-decrease-v3)

**`SpotBidPercentage`(선택 사항****, `Float`)**  
인스턴스가 시작되기 전에 Amazon EC2 스팟 인스턴스 가격이 도달할 수 있는 인스턴스 유형의 주문형 가격의 최대 백분율입니다. 기본값은 `100`(100%)입니다. 지원되는 범위는 `1`\$1`100`입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmQueues`
<a name="Scheduling-v3-SlurmQueues"></a>

**(선택 사항)** Slurm 대기열 설정. [`Scheduler`](#yaml-Scheduling-Scheduler)이 `slurm`로 설정된 경우 이 섹션은 필수입니다.

```
SlurmQueues:
  - Name: string
    ComputeSettings:
      LocalStorage:
        RootVolume:
          Size: integer
          Encrypted: boolean
          VolumeType: string
          Iops: integer
          Throughput: integer
        EphemeralVolume:
          MountDir: string
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    CapacityType: string
    AllocationStrategy: string
    JobExclusiveAllocation: boolean
    CustomSlurmSettings: dict
    Tags:
      - Key: string
        Value: string
    HealthChecks:
      Gpu:
        Enabled: boolean
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
      PlacementGroup:
        Enabled: boolean
        Id: string
        Name: string
      Proxy:
        HttpProxyAddress: string
    ComputeResources:
      - Name: string
        InstanceType: string
        Instances:
          - InstanceType: string        
        MinCount: integer
        MaxCount: integer
        DynamicNodePriority: integer
        StaticNodePriority: integer
        SpotPrice: float
        DisableSimultaneousMultithreading: boolean
        SchedulableMemory: integer
        HealthChecks:
          Gpu:
            Enabled: boolean
        Efa:
          Enabled: boolean
          GdrSupport: boolean    
        CapacityReservationTarget:
          CapacityReservationId: string
          CapacityReservationResourceGroupArn: string     
        Networking:   
          PlacementGroup:
            Enabled: boolean
            Name: string
        CustomSlurmSettings: dict
        Tags:
          - Key: string
            Value: string
        LaunchTemplateOverrides:
          LaunchTemplateId: string
          Version: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string        
        Script: string
        Args:
          - string
    Iam:
      InstanceProfile: string
      InstanceRole: string
      S3Access:
        - BucketName: string
          EnableWriteAccess: boolean
          KeyName: string
      AdditionalIamPolicies:
        - Policy: string
    Image:
      CustomAmi: string
```

[업데이트 정책: 이 목록 값 설정의 경우 업데이트 중에 새 값을 추가할 수 있으며, 또는 기존 값을 제거할 때 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

### `SlurmQueues` 속성
<a name="Scheduling-v3-SlurmQueues.properties"></a>

**`Name`(필수****, `String`)**  
Slurm 대기열의 이름입니다.  
업데이트 중에 클러스터 크기가 변경될 수 있습니다. 자세한 내용은 [클러스터 용량 크기 및 업데이트](slurm-workload-manager-v3.md)를 참조하세요.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityReservationTarget`**  
`CapacityReservationTarget`는 AWS ParallelCluster 버전 3.3.0에 추가되었습니다.

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
대기열의 컴퓨팅 리소스에 대한 온디맨드 용량 예약을 지정합니다.    
**`CapacityReservationId`(선택 사항****, `String`)**  
대기열의 컴퓨팅 리소스를 대상으로 하는 기존 용량 예약의 ID입니다. ID는 [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) 또는 [ML용 용량 블록](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html)을 참조할 수 있습니다.  
예약은 인스턴스가 사용하는 것과 동일한 플랫폼을 사용해야 합니다. 예를 들어, 인스턴스가 `rhel8`에서 실행되는 경우 용량 예약은 Red Hat Enterprise Linux 플랫폼에서 실행되어야 합니다. 자세한 내용은 *Linux 인스턴스용 Amazon EC2 사용 설명서*의 [지원되는 플랫폼](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html#capacity-reservations-platforms)을 참조하세요.  
클러스터 구성에 [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)를 포함하는 경우 이 대기열 레벨 `CapacityReservationId` 설정을 구성에서 제외해야 합니다.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`CapacityReservationResourceGroupArn`(선택 사항****, `String`)**  
대기열의 컴퓨팅 리소스에 대해 서비스에 연결된 용량 예약 그룹 역할을 하는 리소스 그룹의 Amazon 리소스 이름(ARN)입니다. AWS ParallelCluster 은 다음 조건에 따라 리소스 그룹에서 가장 적절한 용량 예약을 식별하고 사용합니다.  
+ / [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking) 또는 [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`SlurmQueues`](#Scheduling-v3-SlurmQueues) /에서 [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) `PlacementGroup`가 활성화된 경우 컴퓨팅 리소스가 있는 경우는 컴퓨팅 리소스에 `PlacementGroup` 대해 인스턴스 유형 및를 대상으로 하는 리소스 그룹을 [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking) AWS ParallelCluster 선택합니다.

  `PlacementGroup`는 [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)에 정의된 인스턴스 유형 중 하나를 대상으로 해야 합니다.
+ / [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking) 또는 [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`SlurmQueues`](#Scheduling-v3-SlurmQueues) /에서 [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) `PlacementGroup`가 활성화되지 않은 경우 컴퓨팅 리소스가 있는 경우 컴퓨팅 리소스의 인스턴스 유형만 대상으로 하는 리소스 그룹을 [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking) AWS ParallelCluster 선택합니다.
리소스 그룹에는 대기열의 모든 컴퓨팅 리소스 및 가용 영역에 걸쳐 가용 영역에 예약된 각 인스턴스 유형에 대해 하나 이상의 ODCR이 있어야 합니다. 자세한 내용은 [ODCR(온디맨드 용량 예약)로 인스턴스 시작](launch-instances-odcr-v3.md) 항목을 참조하세요.  
다중 서브넷 구성 요구 사항에 대한 자세한 내용은 [`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds)를 참조하세요.  
 AWS ParallelCluster 버전 3.4.0에는 여러 가용 영역이 추가되었습니다.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityType`(선택 사항****, `String`)**  
Slurm 대기열에 사용되는 컴퓨팅 리소스의 유형입니다. 지원되는 값은 `ONDEMAND`, `SPOT` 또는 `CAPACITY_BLOCK`입니다. 기본값은 `ONDEMAND`입니다.  
`CapacityType`을 `SPOT`로 설정하는 경우 계정에 `AWSServiceRoleForEC2Spot` 서비스 연결 역할이 있어야 합니다. 다음 AWS CLI 명령을 사용하여이 역할을 생성할 수 있습니다.  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
자세한 내용은 *Linux 인스턴스용 Amazon EC2 사용 설명서*의 [스팟 인스턴스 요청의 서비스 연결 역할](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests)을 참조하세요.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AllocationStrategy`(선택 사항****, `String`)**  
[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)에 정의된 모든 컴퓨팅 리소스에 대한 할당 전략을 지정합니다.  
유효한 값: `lowest-price` \$1 `capacity-optimized` \$1 `price-capacity-optimized` \$1 `prioritized` \$1 `capacity-optimized-prioritized`       
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/parallelcluster/latest/ug/Scheduling-v3.html)
기본값: `lowest-price`    
**`lowest-price`**  
+ `CapacityType = ONDEMAND`를 사용하면 Amazon EC2 Fleet이 가격을 통해 순서를 결정하여 최저 가격의 인스턴스를 먼저 시작합니다.
+ `CapacityType = SPOT`을 사용하면 Amazon EC2 Fleet이 사용 가능한 용량이 있는 최저 가격의 스팟 인스턴스 풀에서 인스턴스를 시작합니다. 풀이 필요한 용량을 충족하기 전에 용량이 부족한 경우 Amazon EC2 플릿은 인스턴스를 시작하여 요청을 이행합니다. 특히 Amazon EC2 Fleet은 가용 용량이 있는 최저 가격의 스팟 인스턴스 풀에서 인스턴스를 시작합니다. Amazon EC2 Fleet은 여러 다른 풀에서 스팟 인스턴스를 시작할 수 있습니다.
+ `CapacityType = CAPACITY_BLOCK`을 설정하면 할당 전략이 없으므로 `AllocationStrategy` 파라미터를 구성할 수 없습니다.  
**`capacity-optimized`**  
+ `CapacityType = ONDEMAND`을 설정하면 `capacity-optimized`는 사용할 수 없습니다.
+ `CapacityType = SPOT`을 설정하면 Amazon EC2 Fleet은 시작할 인스턴스 수에 대해 최적의 용량을 가진 스팟 인스턴스 풀에서 인스턴스를 시작합니다.  
**`price-capacity-optimized`**  
+ `CapacityType = ONDEMAND`을 설정하면 `capacity-optimized`는 사용할 수 없습니다.
+ `CapacityType = SPOT`를 설정하면, Amazon EC2 Fleet은 시작하는 인스턴스의 수에 맞추어 용량 가용성이 가장 높은 풀을 가져옵니다. 즉, 가까운 시일 내에 중단될 가능성이 가장 낮다고 판단되는 풀에서 스팟 인스턴스를 요청합니다. 그러면 Amazon EC2 Fleet이 해당 풀에서 가장 가격이 낮은 스팟 인스턴스를 요청합니다.  
**`prioritized`**  
+ 를 설정하면 `CapacityType = ONDEMAND` Amazon EC2 플릿은 여러 서브넷이 지정될 때 LaunchTemplate 재정의에 AWS ParallelCluster 적용되는 우선 순위 순서를 준수합니다.는 첫 번째 서브넷`priority`이 가장 높은 우선 순위를 갖는 `SlurmQueues/Networking/SubnetIds`의 대상 서브넷 위치에서 재정의를 AWS ParallelCluster 파생합니다. 우선 순위는에서 내림차순으로 AWS ParallelCluster 에 의해 결정되며`SlurmQueues/Networking/SubnetIds`, 첫 번째 SubnetId는 우선 순위가 가장 높고 마지막 SubnetID는 우선 순위가 가장 낮습니다.
+ `CapacityType = SPOT`을 설정하면 `prioritized`는 사용할 수 없습니다.  
**`capacity-optimized-prioritized`**  
+ `CapacityType = ONDEMAND`을 설정하면 `capacity-optimized-prioritized`는 사용할 수 없습니다.
+ 를 설정하면 `CapacityType = SPOT` Amazon EC2 플릿은 먼저 용량을 최적화한 다음가 LaunchTemplate에 AWS ParallelCluster 할당하는 우선 순위가 재정의됩니다. 우선 순위는에서 내림차순으로 AWS ParallelCluster 에 의해 결정되며`SlurmQueues/Networking/SubnetIds`, 첫 번째 SubnetId는 우선 순위가 가장 높고 마지막 SubnetID는 우선 순위가 가장 낮습니다. 동일한 서브넷을 대상으로 하는 모든 재정의는 동일한 우선 순위 값을 받습니다.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`AllocationStrategy`은 AWS ParallelCluster 버전 3.3.0부터 지원됩니다.  
**3.14.0의 새로운 기능**: `prioritized` (온디맨드용) 및 `capacity-optimized-prioritized` (스팟용).

**`JobExclusiveAllocation`(선택 사항****, `String`)**  
`true`로 설정하면 Slurm 파티션 `OverSubscribe` 플래그가 `EXCLUSIVE`로 설정됩니다. `OverSubscribe`=`EXCLUSIVE`인 경우 파티션의 작업은 할당된 모든 노드에 독점적으로 액세스할 수 있습니다. 자세한 내용은 Slurm 설명서의 [EXCLUSIVE](https://slurm.schedmd.com/slurm.conf.html#OPT_EXCLUSIVE)를 참조하세요.  
유효한 값: `true` \$1 `false`  
기본값: `false`  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`JobExclusiveAllocation`은 AWS ParallelCluster 버전 3.7.0부터 지원됩니다.

**`CustomSlurmSettings`(선택 사항****, `Dict`)**  
사용자 지정 Slurm 파티션(대기열) 구성 설정을 정의합니다.  
대기열(파티션)에 적용되는 사용자 지정 Slurm 구성 파라미터 키-값 쌍의 사전을 지정합니다.  
각 개별 키-값 쌍(예: `Param1: Value1`)은 Slurm 파티션 구성 라인 끝에 `Param1=Value1` 형식으로 별도로 추가됩니다.  
`CustomSlurmSettings` 거부 목록에 없는 Slurm 구성 파라미터만 지정할 수 있습니다. 거부 목록에 있는 Slurm 구성 파라미터에 관한 자세한 내용은 [`CustomSlurmSettings`을 위한 거부 목록에 등록된 Slurm 구성 파라미터](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)를 참조하세요.  
AWS ParallelCluster 는 파라미터가 거부 목록에 있는지만 확인합니다. AWS ParallelCluster 는 사용자 지정 Slurm 구성 파라미터 구문 또는 의미 체계를 검증하지 않습니다. 사용자 지정 Slurm 구성 파라미터를 검증하는 것은 사용자의 책임입니다. 잘못된 사용자 지정 Slurm 구성 파라미터로 인해 Slurm 대몬(daemon) 장애가 발생하여 클러스터 생성 및 업데이트 실패로 이어질 수 있습니다.  
를 사용하여 사용자 지정 Slurm 구성 파라미터를 지정하는 방법에 대한 자세한 내용은 섹션을 AWS ParallelCluster참조하세요[Slurm 구성 사용자 지정](slurm-configuration-settings-v3.md).  
Slurm 구성 파라미터에 대한 자세한 내용은 Slurm의 [slurm.conf](https://slurm.schedmd.com/slurm.conf.html)를 참조하세요.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`은 AWS ParallelCluster 버전 3.6.0부터 지원됩니다.

**`Tags`(선택 사항****, [문자열])**  
태그 키-값 쌍의 목록입니다. [`ComputeResource`](#yaml-Scheduling-SlurmQueues-ComputeResources-Tags) 태그는 [`Tags` 섹션](Tags-v3.md) 또는 `SlurmQueues`/`Tags`에 지정된 중복 태그보다 우선합니다.    
**`Key`(선택 사항****, `String`)**  
태그 키  
**`Value`(선택 사항****, `String`)**  
태그 값
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks` (**선택 사항**)**  
대기열에 있는 모든 컴퓨팅 리소스에 대해 컴퓨팅 노드 상태 확인을 지정하세요.    
`Gpu` (**선택 사항**)  
대기열에 있는 모든 컴퓨팅 리소스에 대한 GPU 상태 확인을 지정하세요.  
AWS ParallelCluster 는 `HealthChecks` ARM 운영 체제를 사용하는 노드`Gpu`에서 `alinux2` /를 지원하지 않습니다. 이러한 플랫폼은 [NVIDIA 데이터 센터 GPU 관리자(DCGM)](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions)를 지원하지 않습니다.  
총 GPU 메모리 크기가 327680MiB보다 큰 인스턴스 유형을 사용할 때는 GPU 상태 확인을 활성화하지 않는 것이 좋습니다.  
`Enabled`(선택 사항****, `Boolean`)  
가 컴퓨팅 노드에서 GPU 상태 확인을 AWS ParallelCluster 수행하는지 여부입니다. 기본값은 `false`입니다.

**`Gpu` 상태 확인 동작**
+ `Gpu`/`Enabled`가 `true`로 설정된 경우 AWS ParallelCluster 는 대기열의 컴퓨팅 리소스에 대해 GPU 상태 확인을 수행합니다.
+ `Gpu` 상태 확인은 컴퓨팅 리소스에서 GPU 상태 확인을 수행하여 성능이 저하된 GPU가 있는 노드에서 작업을 제출하지 못하도록 합니다.
+ 컴퓨팅 노드가 `Gpu` 상태 확인에 실패하면 컴퓨팅 노드 상태가 `DRAIN`로 변경됩니다. 이 노드에서는 새 작업이 시작되지 않습니다. 기존 작업이 완료될 때까지 실행됩니다. 실행 중인 모든 작업이 완료된 후 동적 노드인 경우 컴퓨팅 노드가 종료되고 정적 노드인 경우 대체됩니다.
+ `Gpu` 상태 확인 기간은 선택한 인스턴스 유형, 인스턴스의 GPUs 수, 총 GPU 메모리 및 `Gpu` 상태 확인 대상 수(작업 GPU 대상 수와 동일)에 따라 달라집니다. 예를 들어 p4d.24xlarge의 경우 일반적인 지속 시간은 3분입니다.
+ 지원되지 않는 인스턴스에서 `Gpu`가 상태 확인을 실행하면 인스턴스가 종료되고 작업이 컴퓨팅 노드에서 실행됩니다. 예를 들어 인스턴스에 GPU가 없거나 인스턴스에 GPU가 있지만 NVIDIA GPU가 아닌 경우 상태 확인이 종료되고 작업이 컴퓨팅 노드에서 실행됩니다. NVIDIA GPU만 지원됩니다.
+ `Gpu` 상태 확인은 `dcgmi` 도구를 사용하여 노드에서 상태 확인을 수행하고 다음 단계를 수행합니다.

  노드에서 `Gpu` 상태 확인이 시작되는 경우:

  1. `nvidia-dcgm` 및 `nvidia-fabricmanager` 서비스가 실행 중인지 여부를 감지합니다.

  1. 이러한 서비스가 실행되고 있지 않으면 `Gpu` 상태 확인이 시작됩니다.

  1. 지속성 모드가 활성화되었는지 여부를 감지합니다.

  1. 지속성 모드가 활성화되지 않은 경우 `Gpu` 상태 확인을 통해 활성화됩니다.

  상태 확인이 끝나면 상태 확인은 `Gpu` 이러한 서비스와 리소스를 초기 상태로 복원합니다.
+ 작업이 특정 노드 GPU 세트에 할당된 경우 `Gpu` 상태 확인은 해당 세트에서만 실행됩니다. 그렇지 않으면 노드의 모든 GPU에서 `Gpu` 상태 확인이 실행됩니다.
+ 컴퓨팅 노드가 2개 이상의 `Gpu` 상태 확인 요청을 동시에 수신하면 첫 번째 상태 확인만 실행되고 나머지는 건너뛰게 됩니다. 이는 노드 GPUs. 로그 파일에서 이 상황과 관련된 추가 정보를 확인할 수 있습니다.
+ 특정 컴퓨팅 노드의 상태 확인 로그는 `/var/log/parallelcluster/slurm_health_check.log` 파일에서 확인할 수 있습니다. 이 파일은 Amazon CloudWatch의 클러스터 CloudWatch 로그 그룹에서 사용할 수 있으며, 여기에서 다음을 찾을 수 있습니다.
  + 서비스 및 지속성 모드의 활성화/비활성화를 포함하여 `Gpu` 상태 확인에서 실행한 작업에 대한 세부 정보
  + GPU 식별자, 시리얼 ID, UUID.
  + 상태 확인 출력
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`는 AWS ParallelCluster 버전 3.6.0부터 지원됩니다.

#### `Networking`
<a name="Scheduling-v3-SlurmQueues-Networking"></a>

(필수)**** Slurm 대기열의 네트워킹 구성을 정의합니다.

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  PlacementGroup:
    Enabled: boolean
    Id: string
    Name: string
  Proxy:
    HttpProxyAddress: string
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `Networking` 속성
<a name="Scheduling-v3-SlurmQueues-Networking.properties"></a>

**`SubnetIds`(필수****, `[String]`)**  
Slurm 대기열을 프로비저닝하는 기존 서브넷의 ID  
[`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)에서 인스턴스 유형을 구성하는 경우 서브넷을 하나만 정의할 수 있습니다.  
[`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)에서 인스턴스 유형을 구성하는 경우 단일 서브넷 또는 여러 서브넷을 정의할 수 있습니다.  
여러 서브넷을 사용하는 경우 대기열에 정의된 모든 서브넷은 동일한 VPC에 있어야 하며 각 서브넷은 별도의 가용 영역(AZ)에 있어야 합니다.  
예를 들어 대기열에 서브넷-1과 서브넷-2를 정의한다고 가정해 보겠습니다.  
`subnet-1`과 `subnet-2` 모두 AZ-1에 있을 수는 없습니다.  
`subnet-1`은 AZ-1에 있을 수 있고 `subnet-2`는 AZ-2에 있을 수 있습니다.  
인스턴스 유형을 하나만 구성하고 여러 서브넷을 사용하려면 `InstanceType` 대신에 `Instances`에서 인스턴스 유형을 정의하세요.  
예를 들어 `ComputeResources`/`InstanceType`=`instance.type` 대신 `ComputeResources`/`Instances`/`InstanceType`=`instance.type`를 정의하세요.  
여러 가용 영역에 걸친 Elastic Fabric Adapter(EFA)는 지원되지 않습니다.
가용 영역을 여러 개 사용하면 스토리지 네트워킹 지연 시간이 늘어나고 AZ 간 데이터 전송 비용이 추가될 수 있습니다. 예를 들어 인스턴스가 다른 AZ에 있는 파일 스토리지에 액세스할 때 이런 현상이 발생할 수 있습니다. 자세한 내용은 [동일 AWS 리전내 데이터 전송](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer_within_the_same_AWS_Region)을 참조하세요.  

**단일 서브넷 사용에서 다중 서브넷으로 변경하기 위한 클러스터 업데이트:**
+ 클러스터의 서브넷 정의가 단일 서브넷과 AWS ParallelCluster 관리형 FSx for Lustre 파일 시스템으로 정의되어 있다고 가정해 보겠습니다. 그러면 업데이트된 서브넷 ID 정의로 이 클러스터를 직접 업데이트할 수 없습니다. 클러스터를 업데이트하려면 먼저 관리 파일 시스템을 외부 파일 시스템으로 변경해야 합니다. 자세한 내용은 [AWS ParallelCluster 관리형 스토리지를 외부 스토리지로 변환](shared-storage-conversion-v3.md) 항목을 참조하세요.
+ 추가하도록 정의된 여러 서브넷의 모든 AZ에 EFS 탑재 대상이 없는 경우 클러스터의 서브넷 정의가 단일 서브넷과 외부 Amazon EFS 파일 시스템으로 정의된다고 가정해 보겠습니다. 그러면 업데이트된 서브넷 ID 정의로 이 클러스터를 직접 업데이트할 수 없습니다. 클러스터를 업데이트하거나 클러스터를 만들려면 먼저 정의된 여러 서브넷의 모든 AZ에 대한 탑재 대상을 모두 만들어야 합니다.

**[CapacityReservementResourceGroupARN](#yaml-Scheduling-SlurmQueues-CapacityReservationResourceGroupArn)에 정의된 가용 영역 및 클러스터 용량 예약:**
+ 정의된 용량 예약 리소스 그룹에 포함되는 인스턴스 유형 및 가용 영역 집합과 대기열에 정의된 인스턴스 유형 및 가용 영역 집합 간에 중복이 없으면 클러스터를 생성할 수 없습니다.
+ 정의된 용량 예약 리소스 그룹에서 다루는 인스턴스 유형 및 가용 영역 집합과 대기열에 대해 정의된 인스턴스 유형 및 가용 영역 집합 간에 부분 중복이 있는 경우 클러스터를 생성할 수 있습니다.는이 경우 부분 중복에 대한 경고 메시지를 AWS ParallelCluster 보냅니다.
+ 자세한 내용은 [ODCR(온디맨드 용량 예약)로 인스턴스 시작](launch-instances-odcr-v3.md) 단원을 참조하십시오.
 AWS ParallelCluster 버전 3.4.0에는 여러 가용 영역이 추가되었습니다.
이 경고는 AWS ParallelCluster 이 파라미터가 변경된 경우 버전 3.3.1. AWS ParallelCluster 버전 3.3.1 이전의 모든 3.x.y 버전에 적용되지 않습니다.  
버전 AWS ParallelCluster 3.3.1 이전의 3 버전:  
이 파라미터를 변경하고 클러스터를 업데이트하면 새 관리형 FSx for Lustre 파일 시스템이 생성되고 기존 데이터를 보존하지 않고 기존 관리형 FSx for Lustre 파일 시스템이 삭제됩니다. 이로 인해 데이터가 손실됩니다. 데이터를 보존하려면 진행하기 전에 기존 FSx for Lustre 파일 시스템의 데이터를 백업해야 합니다. 자세한 내용은 FSx for Lustre 사용 설명서**의 [백업 작업](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html)을 참조하세요.
새 서브넷 값이 추가된 경우, [업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)   
서브넷 값이 제거된 경우, [업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3) 

**`AssignPublicIp`(선택 사항****, `String`)**  
퍼블릭 IP 주소를 생성하거나 Slurm 대기열의 노드에 할당합니다. 지원되는 값은 `true` 및 `false`입니다. 지정하는 서브넷에 따라 기본값이 결정됩니다. 퍼블릭 IP가 있는 서브넷은 기본적으로 퍼블릭 IP 주소를 할당합니다.  
p4d 또는 hpc6id 인스턴스 유형 또는 여러 네트워크 인터페이스 또는 네트워크 인터페이스 카드가 있는 다른 인스턴스 유형을 정의하는 경우 퍼블릭 액세스를 제공하도록 [`HeadNode`](HeadNode-v3.md) / /를 [`Networking`](HeadNode-v3.md#HeadNode-v3-Networking) [`ElasticIp`](HeadNode-v3.md#yaml-HeadNode-Networking-ElasticIp)`true`로 설정해야 합니다. AWS 퍼블릭 IPs 단일 네트워크 인터페이스로 시작된 인스턴스에만 할당할 수 있습니다. 이 경우 [NAT 게이트웨이](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html)를 사용하여 클러스터 컴퓨팅 노드에 대한 퍼블릭 액세스를 제공하는 것이 좋습니다. 이 경우 `AssignPublicIp`를 `false`로 설정합니다. IP 주소에 고나한 자세한 내용은 Linux 인스턴스용 Amazon EC2 사용 설명서**의 [인스턴스 시작 중 퍼블릭 IPv4 주소 할당](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses)을 참조하세요.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups`(선택 사항****, `[String]`)**  
Slurm 대기열에 사용할 보안 그룹의 목록입니다. 보안 그룹을 지정하지 않으면가 보안 그룹을 AWS ParallelCluster 생성합니다.  
보안 그룹이 [공유 스토리지](SharedStorage-v3.md) 시스템에 맞게 구성되어 있는지 확인하세요.  
이 경고는이 파라미터가 변경된 경우 버전 3.3.0. AWS ParallelCluster 버전 3.3.0 이전의 모든 3.*x*.*y* AWS ParallelCluster 버전에 적용되지 않습니다.  
버전 AWS ParallelCluster 3.3.0 이전 3 버전의 경우:  
이 파라미터를 변경하고 클러스터를 업데이트하면 새 관리형 FSx for Lustre 파일 시스템이 생성되고 기존 데이터를 보존하지 않고 기존 관리형 FSx for Lustre 파일 시스템이 삭제됩니다. 이로 인해 데이터가 손실됩니다. 데이터를 보존하려면 기존 FSx for Lustre 파일 시스템의 데이터를 백업해야 합니다. 자세한 내용은 FSx for Lustre 사용 설명서**의 [백업 작업](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html)을 참조하세요.
컴퓨팅 인스턴스에 Efa를 사용하도록 설정하는 경우 [EFA](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa) 지원 인스턴스가 자체 내의 모든 인바운드 및 아웃바운드 트래픽을 허용하는 보안 그룹에 구성되어야 합니다.
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups`(선택 사항****, `[String]`)**  
Slurm 대기열에 사용할 추가 보안 그룹의 목록입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`PlacementGroup` (**선택 사항**)**  
Slurm 대기열의 배치 그룹 설정을 지정합니다.  

```
PlacementGroup:
  Enabled: boolean
  Id: string
  Name: string
```
[업데이트 정책: 관리형 배치 그룹 삭제를 위해서는 모든 컴퓨팅 노드를 중지해야 합니다. 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`Enabled`(선택 사항****, `Boolean`)**  
Slurm대기열에 배치 그룹을 사용할지 여부를 나타냅니다. 기본값은 `false`입니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Id`(선택 사항****, `String`)**  
Slurm 대기열에서 사용하는 기존 클러스터 배치 그룹의 배치 그룹 ID입니다. 이름이 아닌 배치 그룹 *ID*를 제공해야 합니다. **   
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name`(선택 사항****, `String`)**  
Slurm 대기열이 사용하는 기존 클러스터 배치 그룹의 배치 그룹 이름 ID가 아닌** 배치 그룹 이름을** 입력해야 합니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ `Name` 또는 `Id` 정의되지 않은 상태로 `PlacementGroup`/`Enabled`가 `true`으로 지정된 경우, [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking-PlacementGroup)가 이 설정을 재정의하도록 정의되지 않는 한 각 컴퓨팅 리소스에 자체 관리형 배치 그룹이 할당됩니다.
+  AWS ParallelCluster 버전 3.3.0부터 [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / / [`Networking`](#Scheduling-v3-SlurmQueues-Networking) /를 [`Networking`](#Scheduling-v3-SlurmQueues-Networking) / [`SlurmQueues`](#Scheduling-v3-SlurmQueues) /의 기본 대안으로 추가[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)했습니다[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id).

  [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)와 [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)는 동일합니다. 어느 것이든 사용할 수 있습니다.

   [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) /[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)와 [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) /를 모두 포함하면 [`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name) AWS ParallelCluster 실패합니다. 둘 중 하나만 선택할 수 있습니다.

  [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)를 사용하기 위해 클러스터를 업데이트할 필요는 없습니다.
+ 용량 블록 예약을 사용하는 경우 용량 예약에 남은 용량이 있더라도 예약 외부의 배치 제약으로 인해 용량 부족 오류가 발생할 수 있으므로 배치 그룹 제약 조건을 설정해서는 안 됩니다.

**`Proxy`(선택 사항****)**  
Slurm 대기열의 프록시 설정을 지정합니다.  

```
Proxy:
  HttpProxyAddress: string
```
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`HttpProxyAddress`(선택 사항****, `String`)**  
Slurm 대기열의 HTTP 또는 HTTPS 프록시 서버를 정의합니다. 보통은 `https://x.x.x.x:8080`입니다.  
기본값이 없습니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `Image`
<a name="Scheduling-v3-SlurmQueues-Image"></a>

(선택 사항)**** Slurm 대기열에 사용할 이미지를 지정합니다. 모든 노드에 동일한 AMI를 사용하려면 [`Image` 섹션](Image-v3.md)의 [CustomAMI](Image-v3.md#yaml-Image-CustomAmi) 설정을 사용하세요.

```
Image:
  CustomAmi: string
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `Image` 속성
<a name="Scheduling-v3-SlurmQueues-Image.properties"></a>

**`CustomAmi`(선택 사항****, `String`)**  
기본 AMI 대신 Slurm 대기열에 사용할 AMI입니다. pcluster CLI 명령을 사용하여 기본 AMI 목록을 볼 수 있습니다.  
AMI는 헤드 노드에서 사용하는 것과 동일한 운영 체제를 기반으로 해야 합니다.

```
pcluster list-official-images
```
사용자 지정 AMI를 시작하기 위해 추가 권한이 필요한 경우 헤드 노드 정책에 이러한 권한을 추가해야 합니다.  
예를 들어, 사용자 지정 AMI에 암호화된 스냅샷이 연결된 경우 헤드 노드 정책에 다음과 같은 추가 정책이 필요합니다.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
사용자 지정 AMI 검증 경고 문제를 해결하려면 [사용자 지정 AMI 문제 해결](troubleshooting-v3-custom-amis.md)을 참조하세요.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeResources`
<a name="Scheduling-v3-SlurmQueues-ComputeResources"></a>

(필수)**** Slurm 대기열의 `ComputeResources` 구성을 정의합니다.

**참고**  
업데이트 중에 클러스터 크기가 변경될 수 있습니다. 자세한 내용은 [클러스터 용량 크기 및 업데이트를](slurm-workload-manager-v3.md) 참조하세요.
새 컴퓨팅 리소스는 클러스터 생성 시 존재하는 CIDR 블록에 속하는 서브넷에 배포된 경우에만 클러스터에 추가할 수 있습니다.

```
ComputeResources:
  - Name: string
    InstanceType: string
    Instances:
      - InstanceType: string    
    MinCount: integer
    MaxCount: integer
    DynamicNodePriority: integer
    StaticNodePriority: integer
    SpotPrice: float
    DisableSimultaneousMultithreading: boolean
    SchedulableMemory: integer
    HealthChecks:
      Gpu:    
        Enabled: boolean
    Efa:
      Enabled: boolean
      GdrSupport: boolean
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    Networking:   
      PlacementGroup:
        Enabled: boolean
        Name: string
    CustomSlurmSettings: dict   
    Tags:
      - Key: string
        Value: string
    LaunchTemplateOverrides:
      LaunchTemplateId: string
      Version: string
```

[업데이트 정책: 이 목록 값 설정의 경우 업데이트 중에 새 값을 추가할 수 있으며, 또는 기존 값을 제거할 때 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

##### `ComputeResources` 속성
<a name="Scheduling-v3-SlurmQueues-ComputeResources.properties"></a>

**`Name`(필수****, `String`)**  
Slurm 대기열 컴퓨팅 환경의 이름 계획 이름은 최대 25자까지 가능합니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`InstanceType`(필수****, `String`)**  
이 Slurm 컴퓨팅 리소스에 사용되는 인스턴스 유형입니다. 클러스터의 모든 인스턴스 유형은 동일한 프로세서 아키텍처를 사용해야 합니다. 인스턴스는 `x86_64` 또는 `arm64` 아키텍처 중 하나를 사용할 수 있습니다.  
클러스터 구성은 [InstanceType](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType) 또는 [인스턴스](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)를 정의해야 합니다. 둘 다 정의되면 AWS ParallelCluster 실패합니다.  
`InstanceType`를 정의할 때는 여러 서브넷을 정의할 수 없습니다. 인스턴스 유형을 하나만 구성하고 여러 서브넷을 사용하려면 `InstanceType` 대신에 `Instances`에서 인스턴스 유형을 정의하세요. 자세한 내용은 [`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds) 항목을 참조하세요.  
p4d 또는 hpc6id 인스턴스 유형 또는 여러 네트워크 인터페이스 또는 네트워크 인터페이스 카드가 있는 다른 인스턴스 유형을 정의하는 경우에 설명된 대로 프라이빗 서브넷에서 컴퓨팅 인스턴스를 시작해야 합니다[AWS ParallelCluster 서브넷 2개 사용](network-configuration-v3-two-subnets.md). AWS 퍼블릭 IPs는 단일 네트워크 인터페이스로 시작된 인스턴스에만 할당할 수 있습니다. 자세한 내용은 Linux 인스턴스용 Amazon EC2 사용 설명서**의 [인스턴스 시작 중 퍼블릭 IPv4 주소 할당](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses)을 참조하세요.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`Instances`(필수****)**  
컴퓨팅 리소스의 인스턴스 유형 목록을 지정합니다. 인스턴스 유형 목록에 대한 할당 전략을 지정하려면 [`AllocationStrategy`](#yaml-Scheduling-SlurmQueues-AllocationStrategy)을 참조하세요.  
클러스터 구성은 [`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType) 또는 [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) 중 하나를 정의해야 합니다. 둘 다 정의하면 AWS ParallelCluster 은 실패합니다.  
자세한 내용은 [Slurm을 사용하여 여러 인스턴스 유형 할당](slurm-multiple-instance-allocation-v3.md) 단원을 참조하십시오.  

```
`Instances`:
   - `InstanceType`: string
```
 AWS ParallelCluster 버전 3.7.0부터 인스턴스에서 여러 인스턴스 유형을 구성하는 경우를 활성화`EnableMemoryBasedScheduling`할 수 있습니다. [](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)   
 AWS ParallelCluster 버전 3.2.0\$13.6.*x*의 경우 인스턴스에서 [여러 인스턴스 유형을 구성하는 경우를](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) 활성화`EnableMemoryBasedScheduling`할 수 없습니다.
[업데이트 정책: 이 목록 값 설정의 경우 업데이트 중에 새 값을 추가할 수 있으며, 또는 기존 값을 제거할 때 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)    
**`InstanceType`(필수****, `String`)**  
이 Slurm 컴퓨팅 리소스에 사용할 인스턴스 유형입니다. 클러스터의 모든 인스턴스 유형은 동일한 프로세서 아키텍처, `x86_64` 또는 `arm64`를 사용해야 합니다.  
[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)에 나열된 인스턴스 유형은 다음을 가지고 있어야 합니다.  
+ 동일한 수의 vCPU. [`DisableSimultaneousMultithreading`](#yaml-Scheduling-SlurmQueues-ComputeResources-DisableSimultaneousMultithreading)이 `true`으로 설정되었다면 동일한 수의 코어.
+ 동일한 제조사의 동일한 수의 액셀러레이터
+ [`Efa`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa)/[`Enabled`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa-Enabled)이 `true`로 설정되어 있으면 EFA 지원
[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) 목록에 있는 인스턴스 유형은 다음을 가지고 있을 수 있습니다:  
+ 메모리 용량이 다릅니다.

  이 경우 최소 메모리를 사용 가능한 Slurm 리소스로 설정해야 합니다.
**참고**  
 AWS ParallelCluster 버전 3.7.0부터 인스턴스에서 여러 인스턴스 유형을 구성하는 경우를 활성화`EnableMemoryBasedScheduling`할 수 있습니다. [](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)   
 AWS ParallelCluster 버전 3.2.0\$13.6.*x*의 경우 [인스턴스](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)에서 여러 인스턴스 유형을 구성하는 경우를 활성화`EnableMemoryBasedScheduling`할 수 없습니다.
+ 다른 네트워크 카드

  이 경우 컴퓨팅 리소스에 구성된 네트워크 인터페이스 수는 네트워크 카드 수가 가장 적은 인스턴스 유형에 따라 정의됩니다.
+ 네트워크 대역폭 차이
+ 다양한 인스턴스 스토어 크기
p4d 또는 hpc6id 인스턴스 유형 또는 여러 네트워크 인터페이스 또는 네트워크 인터페이스 카드가 있는 다른 인스턴스 유형을 정의하는 경우에 설명된 대로 프라이빗 서브넷에서 컴퓨팅 인스턴스를 시작해야 합니다[AWS ParallelCluster 서브넷 2개 사용](network-configuration-v3-two-subnets.md). AWS 퍼블릭 IPs는 단일 네트워크 인터페이스로 시작된 인스턴스에만 할당할 수 있습니다. 자세한 내용은 Linux 인스턴스용 Amazon EC2 사용 설명서**의 [인스턴스 시작 중 퍼블릭 IPv4 주소 할당](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses)을 참조하세요.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)
`Instances`는 AWS ParallelCluster 버전 3.3.0부터 지원됩니다.

**`MinCount`(선택 사항****, `Integer`)**  
Slurm 컴퓨팅 리소스가 사용하는 최소 인스턴스 수입니다. 기본값은 0입니다.  
업데이트 중에 클러스터 크기가 변경될 수 있습니다. 자세한 내용은 [클러스터 용량 크기 및 업데이트](slurm-workload-manager-v3.md)를 참조하세요.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MaxCount`(선택 사항****, `Integer`)**  
Slurm 컴퓨팅 리소스가 사용하는 최대 인스턴스 수입니다. 기본값은 10입니다.  
`CapacityType = CAPACITY_BLOCK`를 사용하는 경우 용량 블록 예약의 모든 인스턴스 부분이 정적 노드로 관리되므로는 0보다 크`MinCount`거나 같아야 `MaxCount` 합니다.  
클러스터 생성 시 헤드 노드는 클러스터 생성 성공 신호를 보내기 전에 모든 정적 노드가 준비될 때까지 기다립니다. 그러나 `CapacityType = CAPACITY_BLOCK`를 사용하는 경우 용량 블록과 연결된 컴퓨팅 리소스의 노드 부분은이 검사에 고려되지 않습니다. 구성된 용량 블록이 모두 활성화되지 않은 경우에도 클러스터가 생성됩니다.  
업데이트 중에 클러스터 크기가 변경될 수 있습니다. 자세한 내용은 [클러스터 용량 크기 및 업데이트](slurm-workload-manager-v3.md)를 참조하세요.
 

**`DynamicNodePriority`(선택 사항****, `Integer`)**  
대기열 컴퓨팅 리소스에 있는 동적 노드의 우선 순위 우선 순위는 컴퓨팅 리소스 동적 Slurm 노드의 노드 [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight) 구성 파라미터에 매핑됩니다. 기본값은 `1000`입니다.  
Slurm은 `Weight` 값이 가장 낮은 노드부터 우선 순위를 지정합니다.  
Slurm 파티션(대기열)에 여러 `Weight` 값을 사용하면 대기열의 작업 예약 속도가 느려질 수 있습니다.  
 AWS ParallelCluster 버전 3.7.0 이전 버전에서는 정적 노드와 동적 노드 모두에의 동일한 기본 가중치가 할당되었습니다`1`. 이 경우 정적 및 동적 노드의 이름 지정 스키마로 인해 Slurm가 유휴 정적 노드보다 유휴 동적 노드를 우선할 수 있습니다. 다른 모든 조건이 같으면 Slurm는 노드 이름을 알파벳순으로 스케줄링합니다.
`DynamicNodePriority`는 AWS ParallelCluster 버전 3.7.0에 추가되었습니다.
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`StaticNodePriority`(선택 사항****, `Integer`)**  
대기열 컴퓨팅 리소스에 있는 정적 노드의 우선 순위 우선 순위는 컴퓨팅 리소스 정적 Slurm 노드 [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight) 구성 파라미터에 매핑됩니다. 기본값은 `1`입니다.  
Slurm은 `Weight` 값이 가장 낮은 노드부터 우선 순위를 지정합니다.  
Slurm 파티션(대기열)에 여러 `Weight` 값을 사용하면 대기열의 작업 예약 속도가 느려질 수 있습니다.
`StaticNodePriority`는 AWS ParallelCluster 버전 3.7.0에 추가되었습니다.
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`SpotPrice`(선택 사항****, `Float`)**  
인스턴스가 시작되기 전에 Amazon EC2 스팟 인스턴스에 지불한 최고 가격입니다. 기본값은 온디맨드 요금입니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`DisableSimultaneousMultithreading`(선택 사항****, `Boolean`)**  
`true`이면 Slurm 대기열에 있는 노드의 멀티스레딩이 비활성화됩니다. 기본값은 `false`입니다.  
일부 인스턴스 유형은 멀티스레딩을 비활성화할 수 없습니다. 멀티스레딩 비활성화를 지원하는 인스턴스 유형 목록은 Amazon EC2 사용 설명서**에서 [인스턴스 유형별 각 CPU 코어의 CPU 코어 및 스레드](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values)를 참조하세요.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`SchedulableMemory`(선택 사항****, `Integer`)**  
컴퓨팅 리소스의 컴퓨팅 노드에 대한 Slurm 파라미터 `RealMemory`에 구성된 메모리 양(MiB) 이 값은 [`SlurmSettings`](#Scheduling-v3-SlurmSettings)/[`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling)가 활성화된 경우 작업에 사용할 수 있는 노드 메모리의 상한값입니다. 기본값은 [Amazon EC2 인스턴스 유형](https://aws.amazon.com/ec2/instance-types)에 나열되고 Amazon EC2 API [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html)에서 반환되는 메모리의 95% 입니다. GiB 단위로 지정된 값을 MiB로 변환해야 합니다.  
지원되는 값: `1-EC2Memory`  
`EC2Memory`은 [Amazon EC2 인스턴스 유형](https://aws.amazon.com/ec2/instance-types)에 나열되고 Amazon EC2 API [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html)에서 반환되는 메모리(MiB 단위)입니다. GiB 단위로 지정된 값을 MiB로 변환해야 합니다.  
이 옵션은 [`SlurmSettings`](#Scheduling-v3-SlurmSettings)/[`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling)가 활성화된 경우에 가장 적합합니다. 자세한 내용은 [Slurm 메모리 기반 스케줄링](slurm-mem-based-scheduling-v3.md) 항목을 참조하세요.  
`SchedulableMemory`은 AWS ParallelCluster 버전 3.2.0부터 지원됩니다.  
버전 3.2.0부터는 기본적으로 Slurm 컴퓨팅 노드`RealMemory`를 Amazon EC2 API에서 반환되는 메모리의 95%로 AWS ParallelCluster 구성합니다`DescribeInstanceTypes`. 이 구성은 `EnableMemoryBasedScheduling`의 값과는 무관합니다.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks` (**선택 사항**)**  
컴퓨팅 리소스의 상태 확인을 지정하세요.    
`Gpu` (**선택 사항**)  
컴퓨팅 리소스에 대한 GPU 상태 확인을 지정합니다.    
`Enabled`(선택 사항****, `Boolean`)  
가 대기열의 리소스를 계산할 때 GPU 상태 확인을 AWS ParallelCluster 수행할지 여부입니다. 기본값은 `false`입니다.  
AWS ParallelCluster 는 `HealthChecks` ARM 운영 체제를 사용하는 노드`Gpu`에서 `alinux2` /를 지원하지 않습니다. 이러한 플랫폼은 [NVIDIA 데이터 센터 GPU 관리자(DCGM)](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions)를 지원하지 않습니다.

**`Gpu` 상태 확인 동작**
+ `Gpu` /`Enabled`가 로 설정된 경우는 컴퓨팅 리소스에 대한 상태 GPU 상태 확인을 `true` AWS ParallelCluster 수행합니다.
+ `Gpu` 상태 확인은 컴퓨팅 리소스에서 상태 확인을 수행하여 성능이 저하된 GPU가 있는 노드에서 작업을 제출하지 못하도록 합니다.
+ 컴퓨팅 노드가 `Gpu` 상태 확인에 실패하면 컴퓨팅 노드 상태가 `DRAIN`로 변경됩니다. 이 노드에서는 새 작업이 시작되지 않습니다. 기존 작업이 완료될 때까지 실행됩니다. 실행 중인 모든 작업이 완료된 후 동적 노드인 경우 컴퓨팅 노드가 종료되고 정적 노드인 경우 대체됩니다.
+ `Gpu` 상태 확인 기간은 선택한 인스턴스 유형, 인스턴스의 GPU 수, `Gpu` 상태 확인 대상 수(작업 GPU 대상 수와 동일)에 따라 다릅니다. GPU가 8개인 인스턴스의 경우 일반적인 지속 시간은 3분 미만입니다.
+ 지원되지 않는 인스턴스에서 `Gpu`가 상태 확인을 실행하면 인스턴스가 종료되고 작업이 컴퓨팅 노드에서 실행됩니다. 예를 들어 인스턴스에 GPU가 없거나 인스턴스에 GPU가 있지만 NVIDIA GPU가 아닌 경우 상태 확인이 종료되고 작업이 컴퓨팅 노드에서 실행됩니다. NVIDIA GPU만 지원됩니다.
+ `Gpu` 상태 확인은 `dcgmi` 도구를 사용하여 노드에서 상태 확인을 수행하고 다음 단계를 수행합니다.

  노드에서 `Gpu` 상태 확인이 시작되는 경우:

  1. `nvidia-dcgm` 및 `nvidia-fabricmanager` 서비스가 실행 중인지 여부를 감지합니다.

  1. 이러한 서비스가 실행되고 있지 않으면 `Gpu` 상태 확인이 시작됩니다.

  1. 지속성 모드가 활성화되었는지 여부를 감지합니다.

  1. 지속성 모드가 활성화되지 않은 경우 `Gpu` 상태 확인을 통해 활성화됩니다.

  상태 확인이 끝나면 상태 확인은 `Gpu` 이러한 서비스와 리소스를 초기 상태로 복원합니다.
+ 작업이 특정 노드 GPU 세트에 할당된 경우 `Gpu` 상태 확인은 해당 세트에서만 실행됩니다. 그렇지 않으면 노드의 모든 GPU에서 `Gpu` 상태 확인이 실행됩니다.
+ 컴퓨팅 노드가 2개 이상의 `Gpu` 상태 확인 요청을 동시에 수신하면 첫 번째 상태 확인만 실행되고 나머지는 건너뛰게 됩니다. 노드 GPU를 대상으로 하는 상태 확인의 경우도 마찬가지입니다. 로그 파일에서 이 상황과 관련된 추가 정보를 확인할 수 있습니다.
+ 특정 컴퓨팅 노드의 상태 확인 로그는 `/var/log/parallelcluster/slurm_health_check.log` 파일에서 확인할 수 있습니다. 이 파일은 Amazon CloudWatch의 클러스터 CloudWatch 로그 그룹에서 사용할 수 있으며, 여기에서 다음을 찾을 수 있습니다.
  + 서비스 및 지속성 모드의 활성화/비활성화를 포함하여 `Gpu` 상태 확인에서 실행한 작업에 대한 세부 정보
  + GPU 식별자, 시리얼 ID, UUID.
  + 상태 확인 출력
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`는 AWS ParallelCluster 버전 3.6.0부터 지원됩니다.

**`Efa`(선택 사항****)**  
Slurm 대기열에 있는 노드의 Elastic Fabric Adapter(EFA) 설정을 지정합니다.  

```
Efa:
  Enabled: boolean
  GdrSupport: boolean
```
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Enabled`(선택 사항****, `Boolean`)**  
Elastic Fabric Adapter(EFA)를 활성화하도록 지정합니다. EFA를 지원하는 Amazon EC2 인스턴스 목록을 보려면 *Linux 인스턴스용 Amazon EC2 사용 설명서*의 [지원되는 인스턴스 유형](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types)을 참조하세요. 자세한 내용은 [Elastic Fabric Adapter](efa-v3.md) 단원을 참조하십시오. 클러스터 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)를 사용하여 인스턴스 간 지연 시간을 최소화하는 것이 좋습니다.  
기본값은 `false`입니다.  
여러 가용 영역에 걸친 Elastic Fabric Adapter(EFA)는 지원되지 않습니다. 자세한 내용은 [SubNetID를](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds) 참조하세요.
[SecurityGroups](#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)에서 사용자 지정 보안 그룹을 정의하는 경우 EFA 지원 인스턴스가 자체 내의 모든 인바운드 및 아웃바운드 트래픽을 허용하는 보안 그룹에 구성되어야 합니다.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`GdrSupport`(선택 사항****, `Boolean`)**  
(선택 사항)**** AWS ParallelCluster 버전 3.0.2부터는 이 설정이 적용되지 않습니다. Slurm 컴퓨팅 리소스 및 운영 체제의 인스턴스 유형에서 지원되는 경우 GPUDirect RDMA(remote direct memory access)에 대한 Elastic Fabric Adapter(EFA) 지원이 항상 활성화됩니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityReservationTarget`**  

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
컴퓨팅 리소스에 사용할 온디맨드 용량 예약을 지정합니다.    
**`CapacityReservationId`(선택 사항****, `String`)**  
대기열의 컴퓨팅 리소스를 대상으로 하는 기존 용량 예약의 ID입니다. ID는 [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) 또는 [ML용 용량 블록](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html)을 참조할 수 있습니다.  
이 파라미터가 컴퓨팅 리소스 수준에서 지정되면 InstanceType은 선택 사항이며 예약에서 자동으로 검색됩니다.  
**`CapacityReservationResourceGroupArn`(선택 사항****, `String`)**  
컴퓨팅 리소스의 서비스 연결 용량 예약 그룹 역할을 하는 리소스 그룹에 Amazon 리소스 이름(ARN)을 나타냅니다. AWS ParallelCluster 는 그룹에서 가장 적절한 용량 예약을 식별하여 사용합니다. 리소스 그룹에는 컴퓨팅 리소스에 대해 나열된 각 인스턴스 유형에 대해 하나 이상의 ODCR이 있어야 합니다. 자세한 내용은 [ODCR(온디맨드 용량 예약)로 인스턴스 시작](launch-instances-odcr-v3.md) 단원을 참조하십시오.  
+ / [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking) 또는 [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`SlurmQueues`](#Scheduling-v3-SlurmQueues) /에서 [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) `PlacementGroup`가 활성화된 경우 [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)는 존재하는 경우 컴퓨팅 리소스에 `PlacementGroup` 대해 인스턴스 유형 및를 대상으로 하는 리소스 그룹을 AWS ParallelCluster 선택합니다.

  `PlacementGroup`는 [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)에 정의된 인스턴스 유형 중 하나를 대상으로 해야 합니다.
+ / [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking) 또는 [`SlurmQueues`](#Scheduling-v3-SlurmQueues) / [`SlurmQueues`](#Scheduling-v3-SlurmQueues) /에서 [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources) `PlacementGroup`가 활성화되지 않은 경우는 컴퓨팅 리소스의 인스턴스 유형만 대상으로 하는 리소스 그룹이 있는 경우 이를 [`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking) AWS ParallelCluster 선택합니다.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`CapacityReservationTarget`이 AWS ParallelCluster 버전 3.3.0에 추가되었습니다.

**`Networking`**  

```
Networking:   
  PlacementGroup:
    Enabled: boolean
    Name: string
```
[업데이트 정책: 관리형 배치 그룹 삭제를 위해서는 모든 컴퓨팅 노드를 중지해야 합니다. 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`PlacementGroup` (**선택 사항**)**  
컴퓨팅 리소스의 배치 그룹 설정을 지정합니다.    
**`Enabled`(선택 사항****, `Boolean`)**  
컴퓨팅 리소스에 배치 그룹을 사용할지 여부를 나타냅니다.  
+ `Name`가 정의되지 않은 상태로 `true`로 설정하면 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup) 설정에 관계없이 해당 컴퓨팅 리소스에 자체 관리형 배치 그룹이 할당됩니다.
+ `Name`가 정의된 상태로 `true`로 설정하면 `SlurmQueues`/`Networking`/`PlacementGroup` 설정에 관계없이 해당 컴퓨팅 리소스에 이름이 지정된 배치 그룹이 할당됩니다.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name`(선택 사항****, `String`)**  
컴퓨팅 리소스에 사용되는 기존 클러스터 배치 그룹의 배치 그룹 이름입니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ `PlacementGroup`/`Enabled` 및 `Name`가 모두 설정되지 않은 경우 각 값이 [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)로 디폴트됩니다.
+ 용량 블록 예약을 사용하는 경우 용량 예약에 남은 용량이 있더라도 예약 외부의 배치 제약으로 인해 용량 부족 오류가 발생할 수 있으므로 배치 그룹 제약 조건을 설정해서는 안 됩니다.
+ `ComputeResources` 버전 AWS ParallelCluster 3.3.0에 `Networking` /`PlacementGroup`가 추가되었습니다.

**`CustomSlurmSettings`(선택 사항****, `Dict`)**  
(선택 사항)**** 사용자 지정 Slurm 노드(컴퓨팅 리소스) 구성 설정을 정의합니다.  
Slurm 노드(컴퓨팅 리소스)에 적용되는 사용자 지정 Slurm 구성 파라미터 키-값 쌍의 사전을 지정합니다.  
각 개별 키-값 쌍(예: `Param1: Value1`)은 Slurm 노드 구성 라인 끝에 `Param1=Value1` 형식으로 별도로 추가됩니다.  
`CustomSlurmSettings` 거부 목록에 없는 Slurm 구성 파라미터만 지정할 수 있습니다. 거부 목록에 있는 Slurm 구성 파라미터에 관한 자세한 내용은 [`CustomSlurmSettings`을 위한 거부 목록에 등록된 Slurm 구성 파라미터](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)를 참조하세요.  
AWS ParallelCluster 는 파라미터가 거부 목록에 있는지만 확인합니다. AWS ParallelCluster 는 사용자 지정 Slurm 구성 파라미터 구문 또는 의미 체계를 검증하지 않습니다. 사용자 지정 Slurm 구성 파라미터를 검증하는 것은 사용자의 책임입니다. 잘못된 사용자 지정 Slurm 구성 파라미터로 인해 Slurm 대몬(daemon) 장애가 발생하여 클러스터 생성 및 업데이트 실패로 이어질 수 있습니다.  
를 사용하여 사용자 지정 Slurm 구성 파라미터를 지정하는 방법에 대한 자세한 내용은 섹션을 AWS ParallelCluster참조하세요[Slurm 구성 사용자 지정](slurm-configuration-settings-v3.md).  
Slurm 구성 파라미터에 대한 자세한 내용은 Slurm의 [slurm.conf](https://slurm.schedmd.com/slurm.conf.html)를 참조하세요.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`은 AWS ParallelCluster 버전 3.6.0부터 지원됩니다.

**`Tags`(선택 사항****, [문자열])**  
태그 키-값 쌍의 목록입니다. `ComputeResource` 태그는 [`Tags` 섹션](Tags-v3.md) 또는 [`SlurmQueues`](#yaml-Scheduling-SlurmQueues-Tags)/`Tags`에 지정된 중복 태그보다 우선합니다.    
**`Key`(선택 사항****, `String`)**  
태그 키  
**`Value`(선택 사항****, `String`)**  
태그 값
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LaunchTemplateOverrides`(선택 사항****)**  
`LaunchTemplateOverrides`는 버전 3.15.0에 AWS ParallelCluster 추가되었습니다.
컴퓨팅 리소스에 대해가 AWS ParallelCluster 생성하는 기본 시작 템플릿을 재정의할 시작 템플릿을 지정합니다. 시작 템플릿에는 네트워크 인터페이스 재정의만 포함되어야 합니다.는 시작 템플릿을 AWS ParallelCluster 검증하고 다른 파라미터의 재정의를 방지합니다. 이 재정의를 사용하는 방법에 대한 자세한 내용은 섹션을 참조하세요[시작 템플릿 재정의로 컴퓨팅 노드 네트워크 인터페이스 사용자 지정](tutorial-network-customization-v3.md).  

```
LaunchTemplateOverrides:
  LaunchTemplateId: string
  Version: string
```  
**`LaunchTemplateId`(필수****, `String`)**  
시작 템플릿의 ID입니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Version`(필수****, `String`)**  
시작 템플릿 버전 번호입니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeSettings`
<a name="Scheduling-v3-SlurmQueues-ComputeSettings"></a>

(필수)**** Slurm 대기열의 `ComputeSettings` 구성을 정의합니다.

##### `ComputeSettings` 속성
<a name="Scheduling-v3-SlurmQueues-ComputeSettings.properties"></a>

Slurm 대기열에 있는 `ComputeSettings` 노드의 속성을 지정합니다.

```
ComputeSettings:
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
     EphemeralVolume:
      MountDir: string
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LocalStorage` (**선택 사항**)**  
Slurm 대기열에 있는 `LocalStorage` 노드의 속성을 지정합니다.  

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
  EphemeralVolume:
    MountDir: string
```
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`RootVolume` (**선택 사항**)**  
Slurm 대기열에 있는 노드의 루트 볼륨 세부 정보를 지정합니다.  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
```
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Size`(선택 사항****, `Integer`)**  
Slurm 대기열에 있는 노드의 루트 볼륨 크기를 기비바이트(GiB) 단위로 지정합니다. 기본 크기는 AMI에서 가져옵니다. 다른 크기를 사용하려면 AMI에서 `growroot`를 지원해야 합니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Encrypted`(선택 사항****, `Boolean`)**  
`true` 경우 Slurm 대기열에 있는 노드의 루트 볼륨이 암호화됩니다. 기본값은 `true`입니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`VolumeType`(선택 사항****, `String`)**  
Slurm 대기열에 있는 노드의 [Amazon EBS 볼륨 유형](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)을 지정합니다. 지원되는 값은 `gp2`, `gp3`, `io1`, `io2`, `sc1`, `st1`, `standard`입니다. 기본값은 `gp3`입니다.  
자세한 내용을 알아보려면 Amazon EC2 사용 설명서**의 [Amazon EBS 볼륨 유형](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)을 참조하세요.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Iops`(선택 사항****, `Boolean`)**  
`io1`, `io2`, `gp3` 유형 볼륨의 IOPS 수를 정의합니다.  
기본 값, 지원되는 값, `volume_iops`:`volume_size` 비율은 `VolumeType` 및 `Size`에 따라 달라집니다.    
**`VolumeType` = `io1`**  
기본 `Iops` = 100  
지원되는 값 `Iops` = 100\$164000†  
최대 `volume_iops`와 `volume_size`의 비율 = 50IOPS/GiB. 5000 IOPS는 최소 100GiB의 `volume_size`가 필요합니다.  
**`VolumeType` = `io2`**  
기본 `Iops` = 100  
지원되는 값 `Iops` = 100\$164000(`io2` Block Express 볼륨의 경우 256000)†  
최대 `Iops`와 `Size` 비율 = 500IOPS/GiB. 5000 IOPS에는 최소 10GiB의 `Size`가 필요합니다.  
**`VolumeType` = `gp3`**  
기본 `Iops` = 3000  
지원되는 값 `Iops` = 3000-16000 †  
최대 `Iops`:`Size` 비율 = IOPS가 3000보다 큰 볼륨의 경우 GiB당 500 IOPS입니다.
† 최대 IOPS는 32,000 IOPS 이상으로 프로비저닝된 [Nitro 시스템에 구축된 인스턴스에서만](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) 보장됩니다. 다른 인스턴스는 최대 32,000 IOPS를 가질 수 있습니다. 이전 `io1` 볼륨은 [볼륨을 수정](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html)하지 않는 한 전체 성능에 도달할 수 없습니다. `io2` 블록 익스프레스 볼륨은 `R5b` 인스턴스 유형에서 최대 256000의 `volume_iops` 값을 지원합니다. 자세한 내용은 *Amazon EC2 사용 설명서*에서 [`io2` Block Express 볼륨](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express)을 참조하세요.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Throughput`(선택 사항****, `Integer`)**  
`gp3` 볼륨 유형의 처리량을 MiB/s 단위로 정의합니다. 이 설정은 `VolumeType`가 `gp3`일 때만 유효합니다. 기본값은 `125`입니다. 지원되는 값: 125-1000MiB/s  
`Throughput`:`Iops`의 비율은 0.25를 초과할 수 없습니다. 1000MiB/s의 최대 처리량을 위해서는 `Iops` 설정이 최소 4000이어야 합니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`EphemeralVolume`(선택 사항****, `Boolean`)**  
임시 볼륨의 설정을 지정합니다. 임시 볼륨은 모든 인스턴스 스토어 볼륨을 `ext4` 파일 시스템으로 포맷된 단일 논리 볼륨으로 결합하여 생성됩니다. 기본값은 `/scratch`입니다. 인스턴스 스토어 볼륨이 없는 인스턴스 유형의 경우 임시 볼륨이 생성되지 않습니다. 자세한 내용은 Amazon EC2 사용 설명서**의 [인스턴스 저장소 볼륨](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes)을 참조하세요.  

```
EphemeralVolume:
  MountDir: string
```
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`MountDir`(선택 사항****, `String`)**  
Slurm 대기열에 있는 각 노드에 대한 임시 볼륨의 탑재 디렉터리입니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `CustomActions`
<a name="Scheduling-v3-SlurmQueues-CustomActions"></a>

(선택 사항)**** Slurm 대기열 내 노드상에서 실행할 사용자 지정 스크립트를 지정합니다.

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `CustomActions` 속성
<a name="Scheduling-v3-SlurmQueues-CustomActions.properties"></a>

**`OnNodeStart`(선택 사항****, `String`)**  
노드 배포 부트스트랩 작업이 시작되기 전에 Slurm 대기열의 노드에서 실행할 스크립트 시퀀스 또는 단일 스크립트를 지정합니다. AWS ParallelCluster 는 동일한 사용자 지정 작업에 단일 스크립트와 `Sequence`를 모두 포함하는 것은 지원하지 않습니다. 자세한 내용은 [사용자 지정 부트스트랩 작업](custom-bootstrap-actions-v3.md) 항목을 참조하세요.    
**`Sequence` (**선택 사항**)**  
실행할 스크립트 목록  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script`(필수****, `String`)**  
사용할 파일 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(선택 사항****, `[String]`)**  
스크립트에 전달할 인수 목록  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script`(필수****, `String`)**  
단일 스크립트에 사용할 파일 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(선택 사항****, `[String]`)**  
단일 스크립트에 전달할 인수 목록  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`OnNodeConfigured`(선택 사항****, `String`)**  
노드 부트스트랩 작업이 모두 완료된 후 Slurm 대기열의 노드에서 실행할 스크립트 시퀀스 또는 단일 스크립트를 지정합니다. AWS ParallelCluster 는 동일한 사용자 지정 작업에 단일 스크립트와 `Sequence`를 모두 포함하는 것은 지원하지 않습니다. 자세한 내용은 [사용자 지정 부트스트랩 작업](custom-bootstrap-actions-v3.md) 항목을 참조하세요.    
**`Sequence` (**선택 사항**)**  
실행할 스크립트 목록  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script`(필수****, `String`)**  
사용할 파일 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(선택 사항****, `[String]`)**  
스크립트에 전달할 인수 목록  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script`(필수****, `String`)**  
단일 스크립트에 사용할 파일 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(선택 사항****, `[String]`)**  
단일 스크립트에 전달할 인수 목록  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`Sequence`는 AWS ParallelCluster 버전 3.6.0부터 추가됩니다. 를 지정할 때 사용자 지정 작업에 대한 여러 스크립트를 나열`Sequence`할 수 있습니다.를 포함하지 않고 단일 스크립트로 사용자 지정 작업을 구성할 수 있도록 AWS ParallelCluster 계속합니다`Sequence`.  
AWS ParallelCluster 는 동일한 사용자 지정 작업에 `Sequence` 대해 단일 스크립트와를 모두 포함하는 것을 지원하지 않습니다.

#### `Iam`
<a name="Scheduling-v3-SlurmQueues-Iam"></a>

(선택 사항)**** Slurm 대기열의 선택적 IAM 설정을 정의합니다.

```
Iam:
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
  InstanceProfile: string
  InstanceRole: string
```

[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

##### `Iam` 속성
<a name="Scheduling-v3-SlurmQueues-Iam.properties"></a>

**`InstanceProfile`(선택 사항****, `String`)**  
Slurm 대기열의 기본 인스턴스 역할 또는 인스턴스 프로파일을 재정의할 인스턴스 프로파일을 지정합니다. `InstanceProfile` 및 `InstanceRole`를 둘 다 지정할 수 없습니다. 형식은 `arn:${Partition}:iam::${Account}:instance-profile/${InstanceProfileName}`입니다.  
이를 지정하면 `S3Access` 및 `AdditionalIamPolicies` 설정을 지정할 수 없습니다.  
`S3Access`에 추가된 특성은 새로운 권한을 요구하는 경우가 많으므로 `AdditionalIamPolicies` 및 AWS ParallelCluster 중 하나 또는 모두를 지정하는 것이 좋습니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceRole`(선택 사항****, `String`)**  
Slurm 대기열의 기본 인스턴스 역할 또는 인스턴스 프로파일을 재정의할 인스턴스 역할을 지정합니다. `InstanceProfile` 및 `InstanceRole`를 둘 다 지정할 수 없습니다. 형식은 `arn:${Partition}:iam::${Account}:role/${RoleName}`입니다.  
이를 지정하면 `S3Access` 및 `AdditionalIamPolicies` 설정을 지정할 수 없습니다.  
`S3Access`에 추가된 특성은 새로운 권한을 요구하는 경우가 많으므로 `AdditionalIamPolicies` 및 AWS ParallelCluster 중 하나 또는 모두를 지정하는 것이 좋습니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`S3Access` (**선택 사항**)**  
Slurm 대기열의 버킷을 지정합니다. 이는 Slurm 대기열의 버킷에 지정된 액세스 권한을 부여하는 정책을 생성하는 데 사용됩니다.  
이를 지정하면 `InstanceProfile` 및 `InstanceRole` 설정을 지정할 수 없습니다.  
`S3Access`에 추가된 특성은 새로운 권한을 요구하는 경우가 많으므로 `AdditionalIamPolicies` 및 AWS ParallelCluster 중 하나 또는 모두를 지정하는 것이 좋습니다.  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`BucketName`(필수****, `String`)**  
버킷의 이름입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`KeyName`(선택 사항****, `String`)**  
버킷의 키입니다. 기본값은 `*`입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`EnableWriteAccess`(선택 사항****, `Boolean`)**  
버킷에 대해 쓰기 액세스가 활성화되어 있는지 여부를 나타냅니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalIamPolicies` (**선택 사항**)**  
Amazon EC2에 대한 IAM 정책의 Amazon 리소스 이름(ARN) 목록을 쉼표로 구분하여 지정합니다. 이 목록은에 필요한 권한 외에도 Slurm 대기열에 사용되는 루트 역할에 연결됩니다 AWS ParallelCluster.  
IAM 정책 이름과 해당 ARN은 서로 다릅니다. 이름은 사용할 수 없습니다.  
이를 지정하면 `InstanceProfile` 및 `InstanceRole` 설정을 지정할 수 없습니다.  
`AdditionalIamPolicies`을 사용하는 것이 좋습니다. AWS ParallelCluster 가 요구하는 권한에 `AdditionalIamPolicies`가 추가되며, `InstanceRole`에는 요구되는 권한이 모두 포함되어 있어야 하기 때문입니다. 기능이 추가됨에 따라 필요한 권한은 종종 릴리스마다 변경됩니다.  
기본값이 없습니다.  

```
AdditionalIamPolicies:
  - Policy: string
```
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`Policy`(필수****, `[String]`)**  
IAM 정책 목록  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmSettings`
<a name="Scheduling-v3-SlurmSettings"></a>

(선택 사항)**** 전체 클러스터에 적용되는 Slurm 설정을 정의합니다.

```
SlurmSettings:
  ScaledownIdletime: integer
  QueueUpdateStrategy: string
  EnableMemoryBasedScheduling: boolean
  CustomSlurmSettings: [dict] 
  CustomSlurmSettingsIncludeFile: string
  Database:
    Uri: string
    UserName: string
    PasswordSecretArn: string
  ExternalSlurmdbd:
    Host: string
    Port: integer
  Dns:
    DisableManagedDns: boolean
    HostedZoneId: string
    UseEc2Hostnames: boolean
```

### `SlurmSettings` 속성
<a name="Scheduling-v3-SlurmSettings.properties"></a>

**`ScaledownIdletime`(선택 사항****, `Integer`)**  
작업이 없고 Slurm 노드가 종료되는 시간(분)을 정의합니다.  
기본값은 `10`입니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MungeKeySecretArn`(선택 사항****, `String`)**  
 Slurm 클러스터에서 사용할 base64로 인코딩된 munge 키가 포함된 일반 텍스트 AWS Secrets Manager 보안 암호의 Amazon 리소스 이름(ARN)입니다. 이 munge 키는 Slurm 클라이언트 명령과 원격 서버 역할을 하는 Slurm 대몬 간의 RPC 직접 호출을 인증하는 데 사용됩니다. MungeKeySecretArn이 제공되지 않은 경우는 클러스터에 대한 임의 munge 키를 AWS ParallelCluster 생성합니다.  
`MungeKeySecretArn`은 AWS ParallelCluster 버전 3.8.0부터 지원됩니다.
MungeKeySecretArn이 기존 클러스터에 새로 추가된 경우, ParallelCluster는 롤백이 발생하거나 나중에 MungeKeySecretArn을 제거할 때 이전 munge 키를 복원하지 않습니다. 대신 새 랜덤 munge 키가 생성됩니다.
 AWS ParallelCluster 사용자에게 특정 보안 암호 리소스에 대한 [ DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html) 권한이 있는 경우 MungeKeySecretArn이 검증됩니다. MungeKeySecretArn은 다음과 같은 경우에 유효합니다.  
+ 지정된 보안 암호가 존재하는 경우,
+ 보안 암호는 일반 텍스트이며 유효한 base64 인코딩 문자열을 포함하는 경우,
+ 디코딩된 바이너리 munge 키의 크기가 256\$18,192비트인 경우입니다.
pcluster 사용자 IAM 정책에 DescribeSecret이 포함되지 않은 경우, MungeKeySecretArn의 유효성이 검사되지 않고 경고 메시지가 표시됩니다. 자세한 내용은 [기본 AWS ParallelCluster `pcluster` 사용자 정책](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy) 단원을 참조하십시오.  
MungeKeySecretArn을 업데이트할 때 컴퓨팅 플릿과 모든 로그인 노드를 중지해야 합니다.  
ARN이 동일한 상태로 유지되는 동안 보안 암호 ARN의 보안 암호 값이 수정되면 클러스터가 새 munge 키로 자동 업데이트되지 않습니다. 보안 암호 ARN의 새 munge 키를 사용하려면 컴퓨팅 플릿 및 로그인 노드를 중지한 다음 헤드 노드에서 다음 명령을 실행해야 합니다.  
`sudo /opt/parallelcluster/scripts/slurm/update_munge_key.sh`  
명령을 실행한 후 컴퓨팅 플릿과 로그인 노드를 모두 재개할 수 있습니다. 새로 프로비저닝된 컴퓨팅 및 로그인 노드는 새 munge 키를 자동으로 사용하기 시작합니다.  
base64로 인코딩된 사용자 지정 munge 키를 생성하려면 munge 소프트웨어와 함께 배포된 [mungekey 유틸리티](https://github.com/dun/munge/wiki/Man-8-mungekey)를 사용한 다음 OS에서 일반적으로 사용할 수 있는 base64 유틸리티를 사용하여 인코딩할 수 있습니다. 또는 bash를 사용합니다(bs 파라미터를 32\$11024로 설정하세요).  
`dd if=/dev/random bs=128 count=1 2>/dev/null | base64 -w 0`  
또는 Python은 다음과 같습니다.  

```
import random
import os
import base64

# key length in bytes
key_length=128

base64.b64encode(os.urandom(key_length)).decode("utf-8")
```
[업데이트 정책: 업데이트를 위해이 설정을 변경하려면 컴퓨팅 플릿 및 로그인 노드를 중지해야 합니다.](using-pcluster-update-cluster-v3.md)

**`QueueUpdateStrategy`(선택 사항****, `String`)**  
다음 업데이트 정책이 있는 [`SlurmQueues`](#Scheduling-v3-SlurmQueues) 섹션 파라미터의 대체 전략을 지정합니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 `QueueUpdateStrategy`를 설정해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
이 `QueueUpdateStrategy` 값은 클러스터 업데이트 프로세스가 시작될 때만 사용됩니다.  
유효한 값: `COMPUTE_FLEET_STOP` \$1 `DRAIN` \$1 `TERMINATE`  
기본값: `COMPUTE_FLEET_STOP`    
**`DRAIN`**  
파라미터 값이 변경된 대기열의 노드는 `DRAINING`로 설정됩니다. 이 상태의 노드는 새 작업을 수락하지 않으며 실행 중인 작업은 계속 완료됩니다.  
노드가 `idle`(`DRAINED`)가 된 후 노드가 정적이면 노드가 교체되고 동적이면 노드가 종료됩니다. 파라미터 값이 변경되지 않은 다른 대기열의 다른 노드는 영향을 받지 않습니다.  
이 전략으로 모든 대기열 노드를 변경된 파라미터 값으로 교체해야 하는 시간은 실행 중인 워크로드에 따라 달라집니다.  
**`COMPUTE_FLEET_STOP`**  
`QueueUpdateStrategy` 파라미터의 기본값입니다. 이 설정을 사용하면 [`SlurmQueues`](#Scheduling-v3-SlurmQueues) 섹션의 파라미터를 업데이트하려면 클러스터 업데이트를 수행하기 전에 [컴퓨팅 플릿을 중지](pcluster.update-compute-fleet-v3.md)해야 합니다.  

```
$ pcluster update-compute-fleet --status STOP_REQUESTED
```  
**`TERMINATE`**  
파라미터 값이 변경된 대기열에서는 실행 중인 작업이 종료되고 노드의 전원이 즉시 꺼집니다.  
정적 노드는 교체되고 동적 노드는 종료됩니다.  
파라미터 값이 변경되지 않은 다른 대기열의 다른 노드는 영향을 받지 않습니다.
[업데이트 정책: 이 설정은 업데이트 중에 분석되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)  
`QueueUpdateStrategy`은 AWS ParallelCluster 버전 3.2.0부터 지원됩니다.

**`EnableMemoryBasedScheduling`(선택 사항****, `Boolean`)**  
`true`이면 Slurm에 메모리 기반 스케줄링이 활성화됩니다. 자세한 내용은[`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`SchedulableMemory`](#yaml-Scheduling-SlurmQueues-ComputeResources-SchedulableMemory) 항목을 참조하세요.  
기본값은 `false`입니다.  
메모리 기반 스케줄링을 활성화하면 Slurm 스케줄러가 작업 및 노드 할당을 처리하는 방식에 영향을 줍니다.  
자세한 내용은 [Slurm 메모리 기반 스케줄링](slurm-mem-based-scheduling-v3.md) 항목을 참조하세요.
`EnableMemoryBasedScheduling`은 AWS ParallelCluster 버전 3.2.0부터 지원됩니다.
 AWS ParallelCluster 버전 3.7.0부터 인스턴스에서 여러 인스턴스 유형을 구성하는 경우를 활성화`EnableMemoryBasedScheduling`할 수 있습니다. [](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)   
 AWS ParallelCluster 버전 3.2.0\$13.6.*x*의 경우 [인스턴스](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)에서 여러 인스턴스 유형을 구성하는 경우를 활성화`EnableMemoryBasedScheduling`할 수 없습니다.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`CustomSlurmSettings`(선택 사항****, `[Dict]`)**  
전체 클러스터에 적용되는 사용자 지정 Slurm 설정을 정의합니다.  
 AWS ParallelCluster 가 생성하는 `slurm.conf` 파일 끝에 추가할 키-값 쌍의 Slurm 구성 사전 목록을 지정합니다.  
목록의 각 사전은 Slurm 구성 파일에 추가된 별도의 줄로 표시됩니다. 단순 또는 복합 파라미터를 지정할 수 있습니다.  
단순 파라미터는 다음 예제와 같이 단일 키 쌍으로 구성됩니다.  

```
 - Param1: 100
 - Param2: "SubParam1,SubParam2=SubValue2"
```
Slurm 구성으로 렌더링된 예제:  

```
Param1=100
Param2=SubParam1,SubParam2=SubValue2
```
복잡한 Slurm 구성 파라미터는 다음 예제와 같이 공백으로 구분된 여러 키-값 쌍으로 구성됩니다.  

```
 - NodeName: test-nodes[1-10]
   CPUs: 4
   RealMemory: 4196
   ... # other node settings
 - NodeSet: test-nodeset
   Nodes: test-nodes[1-10]
   ... # other nodeset settings
 - PartitionName: test-partition
   Nodes: test-nodeset
   ... # other partition settings
```
Slurm 구성으로 렌더링된 예제:  

```
NodeName=test-nodes[1-10] CPUs=4 RealMemory=4196 ... # other node settings
NodeSet=test-nodeset Nodes=test-nodes[1-10] ... # other nodeset settings
PartitionName=test-partition Nodes=test-nodeset ... # other partition settings
```
사용자 지정 Slurm 노드의 이름에 `-st-` 또는 `-dy-` 패턴을 포함해서는 안 됩니다. 이러한 패턴은 AWS ParallelCluster가 관리하는 노드에만 사용됩니다.
`CustomSlurmSettings`에서 사용자 지정 Slurm 구성 파라미터를 지정하는 경우 `CustomSlurmSettingsIncludeFile`에 대한 사용자 지정 Slurm 구성 파라미터를 지정해서는 안 됩니다.  
`CustomSlurmSettings` 거부 목록에 없는 Slurm 구성 파라미터만 지정할 수 있습니다. 거부 목록에 있는 Slurm 구성 파라미터에 관한 자세한 내용은 [`CustomSlurmSettings`을 위한 거부 목록에 등록된 Slurm 구성 파라미터](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)를 참조하세요.  
AWS ParallelCluster 는 파라미터가 거부 목록에 있는지만 확인합니다. AWS ParallelCluster 는 사용자 지정 Slurm 구성 파라미터 구문 또는 의미 체계를 검증하지 않습니다. 사용자 지정 Slurm 구성 파라미터를 검증하는 것은 사용자의 책임입니다. 잘못된 사용자 지정 Slurm 구성 파라미터로 인해 Slurm 대몬(daemon) 장애가 발생하여 클러스터 생성 및 업데이트 실패로 이어질 수 있습니다.  
를 사용하여 사용자 지정 Slurm 구성 파라미터를 지정하는 방법에 대한 자세한 내용은 섹션을 AWS ParallelCluster참조하세요[Slurm 구성 사용자 지정](slurm-configuration-settings-v3.md).  
Slurm 구성 파라미터에 대한 자세한 내용은 Slurm의 [slurm.conf](https://slurm.schedmd.com/slurm.conf.html)를 참조하세요.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`은 AWS ParallelCluster 버전 3.6.0부터 지원됩니다.

**`CustomSlurmSettingsIncludeFile`(선택 사항****, `String`)**  
전체 클러스터에 적용되는 사용자 지정 Slurm 설정을 정의합니다.  
 AWS ParallelCluster 가 생성하는 `slurm.conf` 파일 끝에 추가할 사용자 지정 Slurm 구성 파라미터로 구성된 사용자 지정 Slurm 파일을 지정합니다.  
파일의 경로를 포함해야 합니다. 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
`CustomSlurmSettingsIncludeFile`의 사용자 지정 Slurm 구성 파라미터를 지정하는 경우 `CustomSlurmSettings`에 대한 사용자 지정 Slurm 구성 파라미터를 지정해서는 안 됩니다.  
사용자 지정 Slurm 노드의 이름에 `-st-` 또는 `-dy-` 패턴을 포함해서는 안 됩니다. 이러한 패턴은 AWS ParallelCluster가 관리하는 노드에만 사용됩니다.
`CustomSlurmSettingsIncludeFile` 거부 목록에 없는 Slurm 구성 파라미터만 지정할 수 있습니다. 거부 목록에 있는 Slurm 구성 파라미터에 관한 자세한 내용은 [`CustomSlurmSettings`을 위한 거부 목록에 등록된 Slurm 구성 파라미터](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)를 참조하세요.  
AWS ParallelCluster 는 파라미터가 거부 목록에 있는지만 확인합니다. AWS ParallelCluster 는 사용자 지정 Slurm 구성 파라미터 구문 또는 의미 체계를 검증하지 않습니다. 사용자 지정 Slurm 구성 파라미터를 검증하는 것은 사용자의 책임입니다. 잘못된 사용자 지정 Slurm 구성 파라미터로 인해 Slurm 대몬(daemon) 장애가 발생하여 클러스터 생성 및 업데이트 실패로 이어질 수 있습니다.  
를 사용하여 사용자 지정 Slurm 구성 파라미터를 지정하는 방법에 대한 자세한 내용은 섹션을 AWS ParallelCluster참조하세요[Slurm 구성 사용자 지정](slurm-configuration-settings-v3.md).  
Slurm 구성 파라미터에 대한 자세한 내용은 Slurm의 [slurm.conf](https://slurm.schedmd.com/slurm.conf.html)를 참조하세요.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`은 AWS ParallelCluster 버전 3.6.0부터 지원됩니다.

### `Database`
<a name="Scheduling-v3-SlurmSettings-Database"></a>

(선택 사항)**** 클러스터에서 Slurm 회계를 활성화하기 위한 설정을 정의합니다. 자세한 내용은 [Slurm를 사용한 회계 AWS ParallelCluster](slurm-accounting-v3.md) 항목을 참조하세요.

```
Database:
   Uri: string
   UserName: string
   PasswordSecretArn: string
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### `Database` 속성
<a name="Scheduling-v3-SlurmSettings-Database.properties"></a>

**`Uri`(필수****, `String`)**  
Slurm 회계의 백엔드로 사용되는 데이터베이스 서버의 주소입니다. 이 URI는 `host:port` 형식을 따라야 하며 `mysql://`과 같은 체계를 포함해서는 안 됩니다. 호스트는 헤드 노드에서 확인할 수 있는 IP 주소 또는 DNS 이름일 수 있습니다. 포트가 제공되지 않은 경우 AWS ParallelCluster 은 MySQL 기본 포트 3306을 사용합니다.  
AWS ParallelCluster 는 Slurm 회계 데이터베이스를 클러스터로 부트스트래핑하고 데이터베이스에 액세스해야 합니다.  
다음과 같은 상황이 발생하기 전에 데이터베이스에 연결할 수 있어야 합니다.  
+ 클러스터가 생성됩니다.
+ Slurm 회계가 클러스터 업데이트로 활성화됩니다.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`UserName`(필수****, `String`)**  
Slurm가 데이터베이스에 연결하고, 계정 로그를 작성하고, 쿼리를 수행하는 데 사용되는 ID 사용자에게 데이터베이스에 대한 읽기 및 쓰기 권한이 모두 있어야 합니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`PasswordSecretArn`(필수****, `String`)**  
`UserName` 일반 텍스트 암호가 포함된 AWS Secrets Manager 보안 암호의 Amazon 리소스 이름(ARN)입니다. 이 비밀번호는 데이터베이스 서버에서 인증하기 위해 `UserName` 및 Slurm 회계와 함께 사용됩니다.  
+  AWS Secrets Manager 콘솔을 사용하여 보안 암호를 생성할 때는 "기타 보안 암호 유형"을 선택하고 일반 텍스트를 선택한 다음 보안 암호에 암호 텍스트만 포함해야 합니다.
+ Slurm은 slurmdbd.conf에서 지원하지 않으므로 데이터베이스 암호에 '\$1' 문자를 사용할 수 없습니다.
+ 를 사용하여 보안 암호를 AWS Secrets Manager 생성하는 방법에 대한 자세한 내용은 [AWS Secrets Manager 보안 암호 생성을 참조하세요](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret).
사용자에게 [DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html)에 대한 권한이 있는 경우 `PasswordSecretArn`의 유효성이 검증됩니다. 지정된 비밀이 존재하면 `PasswordSecretArn`이 유효합니다. 사용자 IAM 정책이 `DescribeSecret`을 포함하지 않는 경우 `PasswordSecretArn`가 검증되지 않고 경고 메시지가 표시됩니다. 자세한 내용은 [기본 AWS ParallelCluster `pcluster` 사용자 정책](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy) 항목을 참조하세요.  
`PasswordSecretArn`를 업데이트할 때는 컴퓨팅 플릿을 중지해야 합니다. 암호 값이 변경되고 암호 ARN이 변경되지 않는 경우 클러스터는 새 데이터베이스 암호로 자동 업데이트되지 않습니다. 새 암호 값에 맞게 클러스터를 업데이트하려면 컴퓨팅 플릿이 중지된 후 헤드 노드 내에서 다음 명령을 실행해야 합니다.  

```
$ sudo /opt/parallelcluster/scripts/slurm/update_slurm_database_password.sh
```
계정 데이터가 손실되지 않도록 컴퓨팅 플릿이 중지된 경우에만 데이터베이스 비밀번호를 변경하는 것이 좋습니다.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`DatabaseName`(선택 사항****, `String`)**  
Slurm 계정에서 사용할 데이터베이스 서버의 데이터베이스 이름(Uri 파라미터로 정의)입니다.  
데이터베이스 이름에는 소문자, 숫자, 밑줄이 포함될 수 있습니다. 이름은 64자를 초과할 수 없습니다.  
이 파라미터는 [slurmdbd.conf](https://slurm.schedmd.com/slurmdbd.conf.html#OPT_StorageLoc)의 `StorageLoc` 파라미터에 매핑됩니다.  
`DatabaseName`이 제공되지 않으면 ParallelCluster는 클러스터 이름을 사용하여 `StorageLoc`에 대한 값을 정의합니다.  
다음과 같은 고려 사항으로 `DatabaseName`을 업데이트할 수 있습니다.  
+ DatabaseName이라는 이름의 데이터베이스가 데이터베이스 서버에 아직 없는 경우 slurmdbd가 데이터베이스를 생성합니다. 필요에 따라 새 데이터베이스를 재구성하는 것은 사용자의 책임입니다(예: 클러스터, 계정, 사용자, 연결, QOSs 등 계정 엔터티 추가).
+ DatabaseName이라는 이름의 데이터베이스가 데이터베이스 서버에 이미 있는 경우 slurmdbd는 이를 Slurm 회계 기능에 사용합니다.
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**참고**  
`Database`이 릴리스 3.3.0부터 추가됩니다.

### ExternalSlurmdbd
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd"></a>

(선택 사항)**** 외부 slurmdbd 서버로 Slurm 회계 기능을 활성화하는 설정을 정의합니다. 자세한 내용은 [Slurm 회계를 AWS ParallelCluster](slurm-accounting-v3.md) 참조하세요.

```
ExternalSlurmdbd:
  Host: string
  Port: integer
```

#### `ExternalSlurmdbd` 속성
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd.properties"></a>

** `Host` (필수****, `String`)**  
Slurm 회계용 외부 slurmdbd 서버의 주소입니다. 호스트는 헤드 노드에서 확인할 수 있는 IP 주소 또는 DNS 이름일 수 있습니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

** `Port` (**선택 사항**, `Integer`)**  
slurmdbd 서비스가 수신 대기하는 포트입니다. 기본값은 `6819`입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Dns`
<a name="Scheduling-v3-SlurmSettings-Dns"></a>

(선택 사항)**** 전체 클러스터에 적용되는 Slurm 설정을 정의합니다.

```
Dns:
  DisableManagedDns: boolean
  HostedZoneId: string
  UseEc2Hostnames: boolean
```

#### `Dns` 속성
<a name="Scheduling-v3-SlurmSettings-Dns.properties"></a>

**`DisableManagedDns`(선택 사항****, `Boolean`)**  
`true`이면 클러스터의 DNS 항목이 생성되지 않고 Slurm 노드 이름을 확인할 수 없습니다.  
기본적으로는 시작 시 노드가 등록되는 Route 53 호스팅 영역을 AWS ParallelCluster 생성합니다. 기본값은 `false`입니다. `DisableManagedDns`이 로 설정된 경우 호스팅 영역은 `true`에서 생성되지 않습니다 AWS ParallelCluster.  
이 설정을 사용하여 인터넷에 액세스할 수 없는 서브넷에 클러스터를 배포하는 방법을 알아보려면 [AWS ParallelCluster 인터넷에 액세스할 수 없는 단일 서브넷의](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md)을 참조하세요.  
클러스터가 제대로 작동하려면 이름 확인 시스템이 필요합니다. `DisableManagedDns`이 `true`로 설정되어 있으면 이름 확인 시스템을 제공해야 합니다. Amazon EC2 기본 DNS를 사용하려면 `UseEc2Hostnames`을 `true`로 설정합니다. 또는 자체 DNS 해석기를 구성하고 인스턴스 시작 시 노드 이름이 등록되도록 하세요. 예를 들어 [`CustomActions`](#Scheduling-v3-SlurmQueues-CustomActions)/[`OnNodeStart`](#yaml-Scheduling-SlurmQueues-CustomActions-OnNodeStart)를 구성하여 이 작업을 수행할 수 있습니다.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`HostedZoneId`(선택 사항****, `String`)**  
클러스터의 DNS 이름 확인에 사용할 사용자 지정 Route 53 호스팅 영역 ID를 정의합니다. 제공된 경우 지정된 호스팅 영역에 클러스터 노드를 AWS ParallelCluster 등록하고 관리형 호스팅 영역을 생성하지 않습니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`UseEc2Hostnames`(선택 사항****, `Boolean`)**  
`true`이면 클러스터 컴퓨팅 노드가 기본 EC2 호스트 이름으로 구성됩니다. 또한 Slurm `NodeHostName`가 이 정보로 업데이트됩니다. 기본값은 `false`입니다.  
이 설정을 사용하여 인터넷에 액세스할 수 없는 서브넷에 클러스터를 배포하는 방법을 알아보려면 [AWS ParallelCluster 인터넷에 액세스할 수 없는 단일 서브넷의](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md)을 참조하세요.  
**이 노트는 AWS ParallelCluster 버전 3.3.0부터는 관련이 없습니다.**  
지원되는 3.3.0 이전 AWS ParallelCluster 버전의 경우:  
`UseEc2Hostnames`를 로 설정하면 `true`Slurm 구성 파일이 및 `epilog` 스크립트로 AWS ParallelCluster `prolog` 설정됩니다.  
+ `prolog`를 실행하여 각 작업이 할당될 때 컴퓨팅 노드의 `/etc/hosts`에 노드 정보를 추가합니다.
+ `epilog`를 실행하여 `prolog`가 작성한 내용을 정리합니다.
사용자 정의 `prolog` 또는 `epilog` 스크립트를 추가하려면 각각 `/opt/slurm/etc/pcluster/prolog.d/` 또는 `/opt/slurm/etc/pcluster/epilog.d/` 폴더에 추가하세요.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `SharedStorage` 섹션
<a name="SharedStorage-v3"></a>

(선택 사항)**** 클러스터의 공유 스토리지 설정

AWS ParallelCluster 는 [Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AmazonEBS.html), [FSx for ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/what-is-fsx-ontap.html) 및 [FSx for OpenZFS](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/what-is-fsx.html) 공유 스토리지 볼륨, [Amazon EFS](https://docs.aws.amazon.com/efs/latest/ug/whatisefs.html) 및 [FSx for Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html) 공유 스토리지 파일 시스템 또는 [파일 캐시](https://docs.aws.amazon.com/fsx/latest/FileCacheGuide/what-is.html) 사용을 지원합니다.

`SharedStorage` 섹션에서는 외부 또는 관리형 스토리지를 정의할 수 있습니다.
+ **외부 스토리지**는 사용자가 관리하며 생성하거나 삭제 AWS ParallelCluster 하지 않는 기존 볼륨 또는 파일 시스템을 말합니다.
+ **AWS ParallelCluster 관리형 스토리지**는가 AWS ParallelCluster 생성하고 삭제할 수 있는 볼륨 또는 파일 시스템을 말합니다.

[공유 스토리지 할당량](shared-storage-quotas-v3.md) 및 공유 스토리지 구성 방법에 대한 자세한 내용은 사용[공유 스토리지](shared-storage-quotas-integration-v3.md)의 섹션을 참조하세요. * AWS ParallelCluster* 

**참고**  
 AWS Batch 를 스케줄러로 사용하는 경우 FSx for Lustre는 클러스터 헤드 노드에서만 사용할 수 있습니다.

```
SharedStorage:
  - MountDir: string
    Name: string
    StorageType: Ebs
    EbsSettings:
      VolumeType: string
      Iops: integer
      Size: integer
      Encrypted: boolean
      KmsKeyId: string
      SnapshotId: string
      Throughput: integer
      VolumeId: string
      DeletionPolicy: string
      Raid:
        Type: string
        NumberOfVolumes: integer
  - MountDir: string
    Name: string
    StorageType: Efs
    EfsSettings:
      Encrypted: boolean
      KmsKeyId: string
      EncryptionInTransit: boolean
      IamAuthorization: boolean
      PerformanceMode: string
      ThroughputMode: string
      ProvisionedThroughput: integer
      FileSystemId: string
      DeletionPolicy: string
      AccessPointId: string
  - MountDir: string
    Name: string
    StorageType: FsxLustre
    FsxLustreSettings:
      StorageCapacity: integer
      DeploymentType: string
      ImportedFileChunkSize: integer
      DataCompressionType: string
      ExportPath: string
      ImportPath: string
      WeeklyMaintenanceStartTime: string
      AutomaticBackupRetentionDays: integer
      CopyTagsToBackups: boolean
      DailyAutomaticBackupStartTime: string
      PerUnitStorageThroughput: integer
      BackupId: string
      KmsKeyId: string
      FileSystemId: string
      AutoImportPolicy: string
      DriveCacheType: string
      StorageType: string
      DeletionPolicy: string
      DataRepositoryAssociations:
      - Name: string
        BatchImportMetaDataOnCreate: boolean
        DataRepositoryPath: string
        FileSystemPath: string
        ImportedFileChunkSize: integer
        AutoExportPolicy: string
        AutoImportPolicy: string
  - MountDir: string
    Name: string
    StorageType: FsxOntap
    FsxOntapSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FsxOpenZfs
    FsxOpenZfsSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FileCache
    FileCacheSettings:
      FileCacheId: string
```

## `SharedStorage` 업데이트된 정책
<a name="SharedStorage-v3.update-policies"></a>
+ 관리형/외부 EBS, 관리형 EFS 및 관리형 FSx Lustre의 경우 업데이트 정책은 [업데이트 정책: 이 목록 값 설정의 경우 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy가 새 값을 추가하도록 설정해야 합니다. 기존 값을 제거할 때는 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)입니다.
+ 외부 EFS, FSx Lustre, FSx ONTAP, FSx OpenZfs 및 File Cache의 경우 업데이트 정책은 [업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)입니다.

## `SharedStorage` 속성
<a name="SharedStorage-v3.properties"></a>

`MountDir`(필수****, `String`)  
공유 스토리지가 탑재된 경로입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Name`(필수****, `String`)  
공유 스토리지의 이름 설정을 업데이트할 때 이 이름을 사용합니다.  
 AWS ParallelCluster 관리형 공유 스토리지를 지정하고의 값을 변경하면 `Name`기존 관리형 공유 스토리지 및 데이터가 삭제되고 새 관리형 공유 스토리지가 생성됩니다. 클러스터 업데이트로 `Name`의 값을 변경하는 것은 기존의 관리형 공유 저장소를 새 저장소로 교체하는 것과 같습니다. 기존 공유 스토리지의 데이터를 보존해야 하는 `Name` 경우 변경하기 전에 데이터를 백업해야 합니다.
[업데이트 정책: 이 목록 값 설정의 경우 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy가 새 값을 추가하도록 설정해야 합니다. 기존 값을 제거할 때는 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)

`StorageType`(필수****, `String`)  
공유 스토리지의 유형 지원되는 값은 `Ebs`, `Efs`, `FsxLustre`, `FsxOntap`, `FsxOpenZfs`입니다.  
자세한 내용은 [`FsxLustreSettings`](#SharedStorage-v3-FsxLustreSettings), [`FsxOntapSettings`](#SharedStorage-v3-FsxOntapSettings), [`FsxOpenZfsSettings`](#SharedStorage-v3-FsxOpenZfsSettings) 항목을 참조하세요.  
를 스케줄러 AWS Batch 로 사용하는 경우 FSx for Lustre는 클러스터 헤드 노드에서만 사용할 수 있습니다.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EbsSettings`
<a name="SharedStorage-v3-EbsSettings"></a>

(선택 사항)**** Amazon EBS 볼륨 설정

```
EbsSettings:
  VolumeType: string
  Iops: integer
  Size: integer
  Encrypted: boolean
  KmsKeyId: string
  SnapshotId: string
  VolumeId: string
  Throughput: integer
  DeletionPolicy: string
  Raid:
    Type: string
    NumberOfVolumes: integer
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `EbsSettings` 속성
<a name="SharedStorage-v3-EbsSettings.properties"></a>

[DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy)가 `Delete`로 설정되어 있으면 클러스터가 삭제되거나 클러스터 업데이트로 볼륨이 제거되면 관리 볼륨과 해당 데이터가 삭제됩니다.

자세한 내용은 AWS ParallelCluster사용**에서 [공유 스토리지](shared-storage-quotas-integration-v3.md)를 참조하세요.

`VolumeType`(선택 사항****, `String`)  
[Amazon EBS 볼륨 유형](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)을 지정합니다. 지원되는 값은 `gp2`, `gp3`, `io1`, `io2`, `sc1`, `st1`, `standard`입니다. 기본값은 `gp3`입니다.  
자세한 내용을 알아보려면 Amazon EC2 사용 설명서**의 [Amazon EBS 볼륨 유형](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html)을 참조하세요.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Iops`(선택 사항****, `Integer`)  
`io1`, `io2`, `gp3` 유형 볼륨의 IOPS 수를 정의합니다.  
기본 값, 지원되는 값, `volume_iops`:`volume_size` 비율은 `VolumeType` 및 `Size`에 따라 달라집니다.    
`VolumeType` = `io1`  
기본 `Iops` = 100  
지원되는 값 `Iops` = 100-64000 †  
최대 `volume_iops`:`volume_size` 비율은 GiB당 50 IOPS입니다. 5000 IOPS에는 최소 100GiB의 `volume_size` 필요합니다.  
`VolumeType` = `io2`  
기본 `Iops` = 100  
지원되는 값 `Iops` = 100-64000 (`io2` 블록 익스프레스 볼륨의 경우 256000) †  
최대 `Iops`:`Size` 비율은 GiB당 500 IOPS입니다. 5000 IOPS에는 최소 10GiB의 `Size`가 필요합니다.  
`VolumeType` = `gp3`  
기본 `Iops` = 3000  
지원되는 값 `Iops` = 3000-16000 †  
최대 `Iops`:`Size` 비율은 GiB당 500 IOPS입니다. 5000 IOPS에는 최소 10GiB의 `Size` 필요합니다.
† 최대 IOPS는 32,000 IOPS 이상으로 프로비저닝된 [Nitro 시스템 기반 인스턴스에](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances)서만 보장됩니다. 다른 인스턴스는 최대 32,000 IOPS를 보장합니다. [볼륨을 수정하지 않는 한](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html) 이전 `io1` 볼륨은 전체 성능에 도달할 수 없습니다. `io2` 블록 익스프레스 볼륨은 `R5b` 인스턴스 유형에서 최대 256000의 `volume_iops` 값을 지원합니다. 자세한 내용은 *Amazon EC2 사용 설명서*에서 [`io2` Block Express 볼륨](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express)을 참조하세요.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Size`(선택 사항****, `Integer`)  
볼륨 크기를 기비바이트(GiB) 단위로 지정합니다. 기본값은 35입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Encrypted`(선택 사항****, `Boolean`)  
볼륨이 암호화되는지 여부를 지정합니다. 기본값은 `true`입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`(선택 사항****, `String`)  
암호화에 사용할 사용자 지정 AWS KMS 키를 지정합니다. 이 설정을 사용하려면 `Encrypted` 설정을 `true`로 설정해야 합니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SnapshotId`(선택 사항****, `String`)  
스냅샷을 볼륨의 소스로 사용하는 경우 Amazon EBS 스냅샷 ID를 지정합니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`VolumeId`(선택 사항****, `String`)  
Amazon EBS 볼륨 ID를 지정합니다. 이가 `EbsSettings` 인스턴스에 대해 지정되어 있는 경우 `MountDir` 파라미터만 지정할 수도 있습니다.  
볼륨은 `HeadNode`과 같은 가용 영역에 생성되어야 합니다.  
 AWS ParallelCluster 버전 3.4.0에는 여러 가용 영역이 추가되었습니다.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Throughput`(선택 사항****, `Integer`)  
볼륨에 대해 프로비저닝할 처리량(MiB/S 단위)입니다(최대 1000MiB/s).  
이 설정은 `VolumeType`가 `gp3`일 때만 유효합니다. 지원되는 범위는 125에서 1000까지이며 기본값은 125입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DeletionPolicy`(선택 사항****, `String`)  
클러스터를 삭제하거나 볼륨을 제거할 때 볼륨을 유지, 삭제 또는 스냅샷할지 여부를 지정합니다. 지원되는 값은 `Delete`, `Retain`, `Snapshot`입니다. 기본값은 `Delete`입니다.  
[DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy)가 `Delete`로 설정되어 있으면 클러스터가 삭제되거나 클러스터 업데이트로 볼륨이 제거되면 관리 볼륨과 해당 데이터가 삭제됩니다.  
자세한 내용은 [공유 스토리지](shared-storage-quotas-integration-v3.md) 단원을 참조하십시오.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`는 AWS ParallelCluster 버전 3.2.0부터 지원됩니다.

### `Raid`
<a name="SharedStorage-v3-EbsSettings-Raid"></a>

(선택 사항)**** RAID 볼륨의 구성을 정의합니다.

```
Raid:
  Type: string
  NumberOfVolumes: integer
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

#### `Raid` 속성
<a name="SharedStorage-v3-EbsSettings-Raid.properties"></a>

`Type`(필수****, `String`)  
RAID 어레이 유형을 정의합니다. 지원되는 값은 “0”(스트라이프) 및 “1”(미러링)입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`NumberOfVolumes`(선택 사항****, `Integer`)  
RAID 어레이를 생성하는 데 사용할 Amazon EBS 볼륨의 수를 정의합니다. 지원되는 값 범위는 2\$15입니다. 기본값(`Raid`설정이 정의된 경우)은 2입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EfsSettings`
<a name="SharedStorage-v3-EfsSettings"></a>

(선택 사항)**** Amazon EFS 파일 시스템 설정

```
EfsSettings:
  Encrypted: boolean
  KmsKeyId: string
  EncryptionInTransit: boolean
  IamAuthorization: boolean
  PerformanceMode: string
  ThroughputMode: string
  ProvisionedThroughput: integer
  FileSystemId: string
  DeletionPolicy: string
  AccessPointId: string
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `EfsSettings` 속성
<a name="SharedStorage-v3-EfsSettings.properties"></a>

[DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)가 `Delete`로 설정된 경우 클러스터가 삭제되거나 클러스터 업데이트로 파일 시스템이 제거되면 관리되는 파일 시스템과 해당 데이터가 삭제됩니다.

자세한 내용은 AWS ParallelCluster사용**에서 [공유 스토리지](shared-storage-quotas-integration-v3.md)를 참조하세요.

`Encrypted`(선택 사항****, `Boolean`)  
Amazon EFS 파일 시스템이 암호화되는지 여부를 지정합니다. 기본값은 `false`입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`(선택 사항****, `String`)  
암호화에 사용할 사용자 지정 AWS KMS 키를 지정합니다. 이 설정을 사용하려면 `Encrypted` 설정을 `true`로 설정해야 합니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EncryptionInTransit`(선택 사항****, `Boolean`)  
`true`로 설정된 경우 Amazon EFS 파일 시스템이 전송 계층 보안(TLS)을 사용하여 탑재됩니다. 기본값은 `false`로 설정되어 있습니다.  
 AWS Batch 를 스케줄러로 사용하는 경우 `EncryptionInTransit`는 지원되지 않습니다.
`EncryptionInTransit`이 AWS ParallelCluster 3.4.0부터 추가됩니다.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`IamAuthorization`(선택 사항****, `Boolean`)  
`IamAuthorization`는 AWS ParallelCluster 버전 3.4.0부터 추가됩니다.  
`true`로 설정된 경우 시스템의 IAM ID를 사용하여 Amazon EFS를 인증합니다. 기본값은 `false`로 설정되어 있습니다.  
`IamAuthorization`이 `true`으로 설정된 경우 `EncryptionInTransit`도 `true`으로 설정되어야 합니다.
 AWS Batch 를 스케줄러로 사용하는 경우 `IamAuthorization`는 지원되지 않습니다.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`PerformanceMode`(선택 사항****, `String`)  
Amazon EFS 파일 시스템의 성능 모드를 지정합니다. 지원되는 값은 `generalPurpose` 및 `maxIO`입니다. 기본값은 `generalPurpose`입니다. 자세한 내용을 알아보려면 *Amazon Elastic File System User Guide*(Amazon Elastic File System 사용 설명서)의 [Performance modes](https://docs.aws.amazon.com/efs/latest/ug/performance.html#performancemodes)(성능 모드)를 참조하세요.  
대부분의 파일 시스템에 `generalPurpose` 성능 모드를 사용하는 것이 좋습니다.  
`maxIO` 성능 모드를 사용하는 파일 시스템은 더 높은 수준의 집계 처리량 및 초당 작업으로 확장할 수 있습니다. 그러나 대부분의 파일 작업에서 대기 시간이 조금 더 길다는 단점이 있습니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ThroughputMode`(선택 사항****, `String`)  
Amazon EFS 파일 시스템의 처리량 모드를 지정합니다. 지원되는 값은 `bursting` 및 `provisioned`입니다. 기본값은 `bursting`입니다. `provisioned`가 사용되면 `ProvisionedThroughput`을 지정해야 합니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ProvisionedThroughput`(`ThroughputMode`가 `provisioned`, `Integer`면 필수****)  
MiB/s로 측정되는 Amazon EFS 파일 시스템의 프로비저닝된 처리량(MiB/s 단위)을 정의합니다. 이는 Amazon EFS API 참조**의 [ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps) 파라미터에 대응합니다.  
이 파라미터를 사용할 경우 `ThroughputMode`를 `provisioned`로 설정해야 합니다.  
지원되는 범위는 `1`\$1`1024`입니다. 제한 증가를 요청하려면 지원에 문의하세요.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`FileSystemId`(선택 사항****, `String`)  
기존 파일 시스템의 Amazon EFS 파일 시스템 ID를 정의합니다.  
클러스터가 여러 가용 영역에 걸쳐 있도록 구성된 경우 클러스터에서 사용하는 각 가용 영역에서 파일 시스템 탑재 대상을 정의해야 합니다.  
이것이 지정되어 있으면 `MountDir`만 지정될 수 있습니다. 다른 `EfsSettings`은 지정할 수 없습니다.  

**이 옵션을 설정하는 경우 정의한 파일 시스템에 대해 다음이 true여야 합니다.**
+ 각 클러스터의 가용 영역에 기존 탑재 대상이 있으며 `HeadNode` 및 `ComputeNodes`에서 허용된 인바운드 및 아웃바운드 NFS 트래픽이 있는 파일 시스템 [Scheduling](Scheduling-v3.md)/[SlurmQueues](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[Networking](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[SubnetIds](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SubnetIds)에서 여러 가용 영역이 구성되어 있습니다.

  

**클러스터와 파일 시스템 간에 트래픽이 허용되도록 하려면 다음 중 한 가지를 수행하세요.**
  + 클러스터 서브넷의 CIDR 또는 접두사 목록으로 들어오고 나가는 트래픽을 허용하도록 탑재 대상의 보안 그룹을 구성합니다.
**참고**  
AWS ParallelCluster 는 포트가 열려 있고 CIDR 또는 접두사 목록이 구성되어 있는지 확인합니다. AWS ParallelCluster 는 CIDR 블록 또는 접두사 목록의 내용을 검증하지 않습니다.
  + [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) 및 [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)를 사용하여 클러스터 노드의 사용자 지정 보안 그룹을 설정합니다. 클러스터와 파일 시스템 간의 트래픽을 허용하도록 사용자 지정 보안 그룹을 구성해야 합니다.
**참고**  
모든 클러스터 노드가 사용자 지정 보안 그룹을 사용하는 경우는 포트가 열려 있는지 AWS ParallelCluster 만 확인합니다. AWS ParallelCluster 는 소스와 대상이 제대로 구성되어 있는지 확인하지 않습니다.
EFS OneZone은 모든 컴퓨팅 노드와 헤드 노드가 동일한 가용 영역에 있는 경우에만 지원됩니다. EFS OneZone은 탑재 대상을 하나만 가질 수 있습니다.
 AWS ParallelCluster 버전 3.4.0에는 여러 가용 영역이 추가되었습니다.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy`(선택 사항****, `String`)  
클러스터에서 파일 시스템을 제거하거나 클러스터를 삭제할 때 파일 시스템을 유지할지 또는 삭제할지 여부를 지정합니다. 지원되는 값은 `Delete` 및 `Retain`입니다. 기본값은 `Delete`입니다.  
[DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)가 `Delete`로 설정된 경우 클러스터가 삭제되거나 클러스터 업데이트로 파일 시스템이 제거되면 관리되는 파일 시스템과 해당 데이터가 삭제됩니다.  
자세한 내용은 [공유 스토리지](shared-storage-quotas-integration-v3.md) 단원을 참조하십시오.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`는 AWS ParallelCluster 버전 3.3.0부터 지원됩니다.

`AccessPointId`(선택 사항****, `String`)  
이 옵션을 지정하면 파일 시스템 루트가 아닌 `access point ID`에서 정의한 파일 시스템 진입점이 마운트됩니다.  
자세한 내용은 [공유 스토리지](shared-storage-quotas-integration-v3.md) 단원을 참조하십시오.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxLustreSettings`
<a name="SharedStorage-v3-FsxLustreSettings"></a>

**참고**  
[`StorageType`](#yaml-SharedStorage-StorageType)에 `FsxLustre`가 지정되어 있으면 `FsxLustreSettings`를 정의해야 합니다.

**(선택 사항)** FSx for Lustre 파일 시스템 설정

```
FsxLustreSettings:
  StorageCapacity: integer
  DeploymentType: string
  ImportedFileChunkSize: integer
  DataCompressionType: string
  ExportPath: string
  ImportPath: string
  WeeklyMaintenanceStartTime: string
  AutomaticBackupRetentionDays: integer
  CopyTagsToBackups: boolean
  DailyAutomaticBackupStartTime: string
  PerUnitStorageThroughput: integer
  BackupId: string # BackupId cannot coexist with some of the fields
  KmsKeyId: string
  FileSystemId: string # FileSystemId cannot coexist with other fields
  AutoImportPolicy: string
  DriveCacheType: string
  StorageType: string
  DeletionPolicy: string
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**참고**  
 AWS Batch 를 스케줄러로 사용하는 경우 FSx for Lustre는 클러스터 헤드 노드에서만 사용할 수 있습니다.

### `FsxLustreSettings` 속성
<a name="SharedStorage-v3-FsxLustreSettings.properties"></a>

[DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)가 `Delete`로 설정된 경우 클러스터가 삭제되거나 클러스터 업데이트로 파일 시스템이 제거되면 관리되는 파일 시스템과 해당 데이터가 삭제됩니다.

자세한 내용은 [공유 스토리지](shared-storage-quotas-integration-v3.md) 항목을 참조하세요.

`StorageCapacity`(필수****, `Integer`)  
FSx for Lustre 파일 시스템의 스토리지 용량을 GiB 단위로 설정합니다. 새로운 파일 시스템을 생성할 경우 `StorageCapacity`가 필요합니다. `BackupId` 또는 `FileSystemId`가 지정된 경우에는 `StorageCapacity`을 포함하지 마세요.  
+ `SCRATCH_2`, `PERSISTENT_1`, `PERSISTENT_2` 배포 유형의 경우 유효한 값은 1200GiB, 2400GiB 및 2400GiB의 증분입니다.
+ `SCRATCH_1` 배포 유형의 경우 유효한 값은 1200GiB, 2400GiB 및 3600GiB의 증분입니다.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeploymentType`(선택 사항****, `String`)  
FSx for Lustre 파일 시스템의 배포 유형을 지정합니다. 지원되는 값은 `SCRATCH_1`, `SCRATCH_2`, `PERSISTENT_1` 및 `PERSISTENT_2`입니다. 기본값은 `SCRATCH_2`입니다.  
임시 스토리지 및 단기 데이터 처리가 필요한 경우 `SCRATCH_1` 및 `SCRATCH_2` 배포 유형을 선택합니다. `SCRATCH_2` 배포 유형은 전송 중 데이터 암호화와 `SCRATCH_1`보다 높은 버스트 처리량 용량을 제공합니다.  
지연 시간에 민감하지 않은 처리량 중심 워크로드와 장기 스토리지의 경우 `PERSISTENT_1` 배포 유형을 선택합니다.는 전송 중 데이터 암호화를 `PERSISTENT_1` 지원합니다. FSx for Lustre를 사용할 수 AWS 리전 있는 모든에서 사용할 수 있습니다.  
장기 스토리지와 최고 수준의 IOPS 및 처리량이 필요한 지연 시간에 민감한 워크로드의 경우 `PERSISTENT_2` 배포 유형을 선택합니다. `PERSISTENT_2`는 SSD 스토리지를 지원하며, 더 높은 `PerUnitStorageThroughput`(최대 1000MB/s/TiB)를 제공합니다. `PERSISTENT_2`는 제한된 수의 AWS 리전에서 사용할 수 있습니다. 배포 유형 및를 `PERSISTENT_2` 사용할 수 AWS 리전 있는 위치에 대한 자세한 내용은 Amazon [FSx for Lustre 사용 설명서의 FSx for Lustre에 대한 파일 시스템 배포 옵션을](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html#lustre-deployment-types) 참조하세요. * FSx *  
전송 중 데이터 암호화는 [이 특성](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/data-protection.html)을 지원하는 Amazon EC2 인스턴스에서 `SCRATCH_2`, `PERSISTENT_1` 또는 `PERSISTENT_2` 파일 시스템에 액세스할 때 자동으로 활성화됩니다.  
지원되는 AWS 리전의 지원되는 인스턴스 유형에서 액세스할 경우 `SCRATCH_2`, `PERSISTENT_1` 및 `PERSISTENT_2` 배포 유형에 대해 전송 중 데이터 암호화가 지원됩니다. 자세한 내용을 알아보려면 Amazon FSx for Lustre 사용 설명서**의 [전송 중 데이터 암호화](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html)를 참조하세요.  
`PERSISTENT_2` 배포 유형에 대한 지원이 AWS ParallelCluster 버전 3.2.0에 추가되었습니다.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize`(선택 사항****, `Integer`)  
데이터 리포지토리에서 가져온 파일의 경우 이 값은 단일 물리적 디스크에 저장된 파일당 스트라이프 수 및 최대 데이터 양(MiB 단위)을 결정합니다. 단일 파일을 스트라이프할 수 있는 최대 디스크 수는 파일 시스템을 구성하는 총 디스크 수에 따라 제한됩니다.  
청크 크기 기본값은 1,024MiB(1GiB)이며 최대 512,000MiB(500GiB)까지 가능합니다. Amazon S3 객체의 크기는 최대 5TB입니다.  
`PERSISTENT_2` 배포 유형을 사용하는 파일 시스템에서는이 파라미터가 지원되지 않습니다. 데이터 리포지토리 연결을 구성하는 방법에 대한 지침은 Amazon FSx for Lustre 사용 설명서**의 [S3 버킷에 파일 시스템 연결](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html)을 참조하세요.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataCompressionType`(선택 사항****, `String`)  
Amazon FSx for Lustre 파일 시스템의 데이터 압축 구성을 설정합니다. 지원되는 값은 `LZ4`입니다. `LZ4`는 LZ4 알고리즘으로 데이터 압축이 켜져 있음을 나타냅니다. `DataCompressionType`이 지정되지 않은 경우 파일 시스템이 생성될 때 데이터 압축이 꺼집니다.  
자세한 내용은 [Lustre 데이터 압축](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html)을 참조하세요.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ExportPath`(선택 사항****, `String`)  
FSx for Lustre 파일 시스템의 루트가 내보내지는 Amazon S3의 경로입니다. 이 설정은 `ImportPath` 파라미터가 지정된 경우에만 지원됩니다. 이 경로는 `ImportPath`에 지정된 것과 동일한 Amazon S3 버킷을 사용해야 합니다. FSx for Lustre 파일 시스템에서 새로운 데이터 및 변경된 데이터를 내보낼 선택적 접두사를 제공할 수 있습니다. `ExportPath` 값이 제공되지 않으면 FSx for Lustre는 기본 내보내기 경로를 `s3://amzn-s3-demo-bucket/FSxLustre[creation-timestamp]`로 설정합니다. 타임스탬프는 UTC 형식(예: `s3://amzn-s3-demo-bucket/FSxLustre20181105T222312Z`)입니다.  
Amazon S3 내보내기 버킷은 `ImportPath`에서 지정한 가져오기 버킷과 같아야 합니다. 버킷 이름만 지정하면(예: `s3://amzn-s3-demo-bucket`) 파일 시스템 객체와 Amazon S3 버킷 객체가 1:1로 매핑됩니다. 이 매핑은 내보내기 시 Amazon S3의 입력 데이터를 덮어쓴다는 뜻입니다. 내보내기 경로에 사용자 지정 접두사(예: `s3://amzn-s3-demo-bucket/[custom-optional-prefix]`)를 제공하면 FSx for Lustre는 파일 시스템의 콘텐츠를 Amazon S3 버킷의 해당 내보내기 접두사로 내보냅니다.  
`PERSISTENT_2` 배포 유형을 사용하는 파일 시스템에서는이 파라미터가 지원되지 않습니다. Amazon FSx for Lustre 사용 설명서**의 [S3 버킷에 파일 시스템 연결](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html)에 설명된 대로 데이터 리포지토리 연결을 구성하세요.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportPath`(선택 사항****, `String`)  
FSx for Luster 파일 시스템의 데이터 리포지토리로 사용 중인 Amazon S3 버킷(선택적 접두사 포함)의 경로입니다. FSx for Luster 파일 시스템의 루트는 선택한 Amazon S3 버킷의 루트에 매핑됩니다. 예를 들면, `s3://amzn-s3-demo-bucket/optional-prefix`입니다. Amazon S3 버킷 이름 뒤에 접두사를 지정하면 해당 접두사가 있는 객체 키만 파일 시스템에 로드됩니다.  
`PERSISTENT_2` 배포 유형을 사용하는 파일 시스템에서는이 파라미터가 지원되지 않습니다. Amazon FSx for Lustre 사용 설명서**의 [S3 버킷에 파일 시스템 연결](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html)에 설명된 대로 데이터 리포지토리 연결을 구성하세요.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`WeeklyMaintenanceStartTime`(선택 사항****, `String`)  
주별 유지 관리를 수행하기 위한 기본 시작 시간 UTC\$10 시간대의 `"d:HH:MM"` 형식입니다. 이 형식에서 `d`는 월요일로 시작해 일요일로 끝나는 1부터 7까지의 요일 숫자입니다. 이 필드에는 따옴표가 필요합니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutomaticBackupRetentionDays`(선택 사항****, `Integer`)  
자동 백업을 보존할 일수입니다. 이 값을 0으로 설정하면 자동 백업이 비활성화됩니다. 지원되는 범위는 0\$190입니다. 기본값은 0입니다. 이 설정은 `PERSISTENT_1` 및 `PERSISTENT_2` 배포 유형과 함께 사용할 때만 유효합니다. 자세한 내용은 Amazon FSx for Lustre 사용 설명서**의 [백업 작업](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html)을 참조하세요.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`CopyTagsToBackups`(선택 사항****, `Boolean`)  
`true`면 FSx for Lustre 파일 시스템의 태그를 백업에 복사합니다. 기본값은 `false`입니다. `true`로 설정하면 파일 시스템의 모든 태그는 사용자가 태그를 지정하지 않은 모든 자동 및 사용자 시작 백업에 복사됩니다. 이 값이 `true`이고 하나 이상의 태그를 지정하면 지정된 태그만 백업에 복사됩니다. 사용자 시작 백업을 생성할 때 하나 이상의 태그를 지정하면이 값에 관계없이 파일 시스템에서 태그가 복사되지 않습니다. 이 설정은 `PERSISTENT_1` 및 `PERSISTENT_2` 배포 유형과 함께 사용할 때만 유효합니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DailyAutomaticBackupStartTime`(선택 사항****, `String`)  
`HH:MM` 형식의 매일 반복되는 시간입니다. `HH`는 제로 패딩된 하루 중 시간(0\$123)이고, `MM`은 제로 패딩된 시간의 분(00\$159)입니다. 예를 들어, `05:00`은 매일 오전 5시를 지정합니다. 이 설정은 `PERSISTENT_1` 및 `PERSISTENT_2` 배포 유형과 함께 사용할 때만 유효합니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`PerUnitStorageThroughput`(`PERSISTENT_1` 및 `PERSISTENT_2` 배포 유형 사용 시 필수****, `Integer`)  
스토리지의 1테비바이트당 읽기 및 쓰기 처리량(MB/s/TiB)을 설명합니다. 파일 시스템 처리량 용량은 파일 시스템 스토리지 용량(TiB)에 `PerUnitStorageThroughput`(MB/s/TiB)를 곱하여 계산됩니다. 2.4TiB 파일 시스템의 경우 50MB/s/TiB의 `PerUnitStorageThroughput`를 프로비저닝하여 120MB/s의 파일 시스템 처리량을 얻을 수 있습니다. 프로비저닝한 처리량에 대해 비용을 지불합니다. 이는 [PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput) 처리량 속성에 대응합니다.  
유효한 값:  
+ PERTENTENT\$11 SSD 스토리지: 50, 100, 200MB/TiB
+ PERTENTENT\$11 HDD 스토리지: 12, 40 MB/TiB
+ PERSISTENT\$12 SSD 스토리지: 125, 250, 500, 1000MB/s/TiB
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BackupId`(선택 사항****, `String`)  
기존 백업에서 FSx for Lustre 파일 시스템을 복원하는 데 사용할 백업의 ID를 지정합니다. `BackupId` 설정이 지정되어 있으면 `AutoImportPolicy`, `DeploymentType`, `ExportPath`, `KmsKeyId`, `ImportPath`, `ImportedFileChunkSize`, `StorageCapacity` 및 `PerUnitStorageThroughput` 설정을 지정하지 않아야 합니다. 이러한 설정은 백업에서 읽습니다. 또한, `AutoImportPolicy`, `ExportPath`, `ImportPath` 및 `ImportedFileChunkSize` 설정을 지정하지 않아야 합니다. 이는 [BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid) 처리량 속성에 대응합니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`(선택 사항****, `String`)  
저장된 영구 FSx for Lustre 파일 시스템에 대한 FSx for Lustre 파일 시스템의 데이터를 암호화하는 데 사용되는 AWS Key Management Service (AWS KMS) 키 ID의 ID입니다. 지정하지 않으면 FSx for Lustre의 관리형 키가 사용됩니다. `SCRATCH_1` 및 `SCRATCH_2` FSx for Lustre 파일 시스템은 항상 FSx for Lustre 관리형 키를 사용하여 유휴 상태에서 암호화됩니다. 자세한 내용은AWS Key Management Service API 참조**의 [암호화](https://docs.aws.amazon.com//kms/latest/APIReference/API_Encrypt.html)를 참조하세요.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemId`(선택 사항****, `String`)  
기존 FSx for Lustre 파일 시스템의 ID를 지정합니다.  
이 옵션을 지정하면 `FsxLustreSettings`의 `MountDir` 및 `FileSystemId` 설정만 사용됩니다. `FsxLustreSettings`의 다른 모든 설정은 무시됩니다.  
 AWS Batch 스케줄러를 사용하는 경우 FSx for Lustre는 헤드 노드에서만 사용할 수 있습니다.
파일 시스템은 포트 988, 1021, 1022 및 1023을 통한 인바운드 및 아웃바운드 TCP 트래픽을 허용하는 보안 그룹에 연결되어 있어야 합니다.
다음 중 하나를 수행하여 클러스터와 파일 시스템 간에 트래픽이 허용되는지 확인합니다.  
+ 클러스터 서브넷의 CIDR 또는 접두사 목록으로 들어오고 나가는 트래픽을 허용하도록 파일 시스템의 보안 그룹을 구성합니다.
**참고**  
AWS ParallelCluster 는 포트가 열려 있고 CIDR 또는 접두사 목록이 구성되어 있는지 확인합니다. AWS ParallelCluster 는 CIDR 블록 또는 접두사 목록의 내용을 검증하지 않습니다.
+ [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) 및 [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)를 사용하여 클러스터 노드의 사용자 지정 보안 그룹을 설정합니다. 클러스터와 파일 시스템 간의 트래픽을 허용하도록 사용자 지정 보안 그룹을 구성해야 합니다.
**참고**  
모든 클러스터 노드가 사용자 지정 보안 그룹을 사용하는 경우는 포트가 열려 있는지 AWS ParallelCluster 만 확인합니다. AWS ParallelCluster 는 소스와 대상이 제대로 구성되어 있는지 확인하지 않습니다.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AutoImportPolicy`(선택 사항****, `String`)  
FSx for Lustre 파일 시스템을 생성하면 기존 Amazon S3 객체가 파일 및 디렉터리 목록에 표시됩니다. 이 속성을 사용하여, 연결된 Amazon S3 버킷에서 객체를 추가하거나 수정할 때 FSx for Lustre가 파일 및 디렉터리 목록을 최신 상태로 유지하는 방법을 선택할 수 있습니다. `AutoImportPolicy`는 다음 값을 가질 수 있습니다.  
+  `NEW` - 자동 가져오기가 켜져 있습니다. FSx for Lustre가 현재 FSx for Lustre 파일 시스템에 존재하지 않는 연결된 Amazon S3 버킷에 추가된 새 객체의 디렉터리 목록을 자동으로 가져옵니다.
+  `NEW_CHANGED` - 자동 가져오기가 켜져 있습니다. FSx for Lustre가 이 옵션을 선택한 후 Amazon S3 버킷에 추가된 새 객체 및 Amazon S3 버킷에서 변경된 기존 객체의 파일 및 디렉터리 목록을 자동으로 가져옵니다.
+  `NEW_CHANGED_DELETED` - 자동 가져오기가 켜져 있습니다. FSx for Lustre는 Amazon S3 버킷에 추가된 새 객체, Amazon S3 버킷에서 변경된 기존 객체, Amazon S3 버킷에서 삭제된 객체의 파일 및 디렉터리 목록을 자동으로 가져옵니다.
**참고**  
`NEW_CHANGED_DELETED`에 대한 지원이 AWS ParallelCluster 버전 3.1.1에서 추가되었습니다.
`AutoImportPolicy`가 지정되어 있지 않으면 자동 가져오기가 꺼집니다. FSx for Lustre는 파일 시스템이 생성될 때 링크된 Amazon S3 버킷의 파일 및 디렉토리 목록만 업데이트합니다. FSx for Lustre는 이 옵션을 선택한 후 새 개체 또는 변경된 개체에 대한 파일 및 디렉토리 목록을 업데이트하지 않습니다.  
자세한 내용은 Amazon FSx for Lustre 사용 설명서**의 [S3 버킷에서 업데이트 자동 가져오기를](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html) 참조하세요.  
이 파라미터는 `PERSISTENT_2` 배포 유형을 사용하는 파일 시스템에서 지원되지 않습니다. 데이터 리포지토리 연결을 구성하는 방법에 대한 지침은 Amazon FSx for Lustre 사용 설명서**의 [S3 버킷에 파일 시스템 연결](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html)을 참조하세요.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DriveCacheType`(선택 사항****, `String`)  
파일 시스템에 SSD 드라이브 캐시가 있는지 지정합니다. 이는 `StorageType` 설정이 `HDD`로 설정되어 있고, `DeploymentType` 설정이 `PERSISTENT_1`로 설정되어 있을 때만 설정할 수 있습니다. 이는 [DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype) 처리량 속성에 대응합니다. 자세한 내용은 Amazon FSx for Lustre 사용 설명서**의 [FSx for Lustre 배포 옵션](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html)을 참조하세요.  
유일한 유효 값은 `READ`입니다. SSD 드라이브 캐시를 비활성화하려면 `DriveCacheType` 설정을 지정하지 마세요.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`StorageType`(선택 사항****, `String`)  
생성 중인 FSx for Lustre 파일 시스템의 스토리지 유형을 설정합니다. 유효 값은 `SSD` 및 `HDD`입니다.  
+ 솔리드 스테이트 드라이브 스토리지를 사용하려면 `SSD`를 설정합니다.
+ 하드 디스크 드라이브 스토리지를 사용하려면 `HDD`로 설정합니다. `HDD`는 `PERSISTENT` 배포 유형에서 지원됩니다.
기본값은 `SSD`입니다. 자세한 내용은 Amazon FSx for Windows 사용 설명서**의 [ 스토리지 유형 옵션](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/optimize-fsx-costs.html#storage-type-options) 및 Amazon FSx for Lustre 사용 설명서**의 [다중 스토리지 옵션](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html#storage-options)을 참조하세요.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy`(선택 사항****, `String`)  
클러스터에서 파일 시스템을 제거하거나 클러스터를 삭제할 때 파일 시스템을 유지할지 또는 삭제할지 여부를 지정합니다. 지원되는 값은 `Delete` 및 `Retain`입니다. 기본값은 `Delete`입니다.  
[DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)가 `Delete`로 설정된 경우 클러스터가 삭제되거나 클러스터 업데이트로 파일 시스템이 제거되면 관리되는 파일 시스템과 해당 데이터가 삭제됩니다.  
자세한 내용은 [공유 스토리지](shared-storage-quotas-integration-v3.md) 단원을 참조하십시오.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`는 AWS ParallelCluster 버전 3.3.0부터 지원됩니다.

`DataRepositoryAssociations`(선택 사항****, `String`)  
DRAs 목록(파일 시스템당 최대 8개)  
각 데이터 리포지토리 연결에는 고유한 Amazon FSx 파일 시스템 디렉터리 및 이와 연결된 고유한 S3 버킷 또는 접두사가 있어야 합니다.  
FsxLustreSettings에서 DRAs를 사용하면서 동시에 [ExportPath](#yaml-SharedStorage-FsxLustreSettings-ExportPath) 및 [ImportPath](#yaml-SharedStorage-FsxLustreSettings-ImportPath)를 사용할 수 없습니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Name`(필수****, `String`)  
DRA.의 이름입니다. 설정을 업데이트할 때 이 이름을 사용합니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BatchImportMetaDataOnCreate`(선택 사항****, `Boolean`)  
데이터 리포지토리 연결이 생성된 후 메타데이터를 가져오기 위한 데이터 리포지토리 가져오기 태스크를 실행해야 하는지 여부를 나타내는 부울 플래그입니다. 이 플래그가 `true`로 설정된 경우 태스크가 실행됩니다.  
기본값: `false`  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataRepositoryPath`(필수****, `String`)  
파일 시스템에 연결될 Amazon S3 데이터 리포지토리의 경로입니다. 경로는 `s3://amzn-s3-demo-bucket/myPrefix/` 형식의 S3 버킷 또는 접두사일 수 있습니다. 이 경로는 S3 데이터 리포지토리에서 파일을 가져오거나 내보낼 위치를 지정합니다.  
다른 DRAs와 겹칠 수 없음  
패턴: `^[^\u0000\u0085\u2028\u2029\r\n]{3,4357}$`  
최소: `3`  
최대: `4357`  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemPath`(필수****, `String`)  
`DataRepositoryPath`와 1-1로 매핑될 상위 수준 디렉터리(예: `/ns1/`) 또는 하위 디렉터리(예: `/ns1/subdir/`)를 가리키는 Amazon FSx for Lustre 파일 시스템의 경로입니다. 이름 앞에 슬래시가 있어야 합니다. 두 개의 데이터 리포지토리 연결에 중복되는 파일 시스템 경로가 있을 수 없습니다. 예를 들어, 데이터 리포지토리가 파일 시스템 경로 `/ns1/`과 연결된 경우 다른 데이터 리포지토리를 파일 시스템 경로 `/ns1/ns2`와 연결할 수 없습니다.  
이 경로는 파일 시스템에서 파일을 내보내거나 가져올 위치를 지정합니다. 이 파일 시스템 디렉터리는 하나의 Amazon S3 버킷에만 연결할 수 있으며 다른 S3 버킷은 디렉터리에 연결할 수 없습니다.  
다른 DRAs와 겹칠 수 없음  
 슬래시(`/`)만 파일 시스템 경로로 지정하는 경우 파일 시스템에 하나의 데이터 리포지토리만 연결할 수 있습니다. 파일 시스템과 연결된 첫 번째 데이터 리포지토리의 파일 시스템 경로로 '`/`'만 지정할 수 있습니다.
패턴: `^[^\u0000\u0085\u2028\u2029\r\n]{1,4096}$`  
최소: `1`  
최대: `4096`  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize`(선택 사항****, `Integer`)  
데이터 리포지토리에서 가져온 파일의 경우 이 값은 단일 물리적 디스크에 저장된 파일당 스트라이프 수 및 최대 데이터 양(MiB)을 결정합니다. 단일 파일을 스트라이프할 수 있는 최대 디스크 수는 파일 시스템 또는 캐시를 구성하는 총 디스크 수에 따라 제한됩니다.  
청크 크기 기본값은 1,024MiB(1GiB)이며 최대 512,000MiB(500GiB)까지 가능합니다. Amazon S3 객체의 크기는 최대 5TB입니다.  
최소: `1`  
최대: `4096`  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoExportPolicy`(선택 사항****, `Array of strings`)  
리스트에는 다음 값 중 하나 이상이 포함될 수 있습니다.  
+ `NEW` - 새 파일과 디렉토리는 파일 시스템에 추가될 때 자동으로 데이터 리포지토리로 내보내집니다.
+ `CHANGED` - 파일 시스템의 파일 및 디렉터리에 대한 변경 사항은 자동으로 데이터 리포지토리로 내보내집니다.
+ `DELETED` - 파일과 디렉터리는 파일 시스템에서 삭제될 때 데이터 리포지토리에서 자동으로 삭제됩니다.
`AutoExportPolicy`에 대한 이벤트 유형의 조합을 정의할 수 있습니다.  
최대: `3`  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoImportPolicy`(선택 사항****, `Array of strings`)  
리스트에는 다음 값 중 하나 이상이 포함될 수 있습니다.  
+ `NEW` - Amazon FSx는 현재 FSx 파일 시스템에 존재하지 않는 연결된 S3 버킷에 추가된 파일의 메타데이터를 자동으로 가져옵니다.
+ `CHANGED` - 데이터 리포지토리에서 파일이 변경될 때 Amazon FSx가 파일 메타데이터를 자동으로 업데이트하고 파일 시스템의 기존 파일 콘텐츠를 무효화합니다.
+ `DELETED` - 데이터 리포지토리에서 파일이 삭제될 때 Amazon FSx가 파일 시스템의 해당 파일을 자동으로 삭제합니다.
`AutoImportPolicy`에 대한 이벤트 유형의 조합을 정의할 수 있습니다.  
최대: `3`  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `FsxOntapSettings`
<a name="SharedStorage-v3-FsxOntapSettings"></a>

**참고**  
[`StorageType`](#yaml-SharedStorage-StorageType)에 `FsxOntap`가 지정되어 있으면 `FsxOntapSettings`를 정의해야 합니다.

(선택 사항)**** FSx for ONTAP 파일 시스템 설정

```
FsxOntapSettings:
  VolumeId: string
```

### `FsxOntapSettings` 속성
<a name="SharedStorage-v3-FsxOntapSettings.properties"></a>

`VolumeId`(필수****, `String`)  
기존 FSx for ONTAP 시스템의 볼륨 ID를 지정합니다.

**참고**  
 AWS Batch 스케줄러를 사용하는 경우 FSx for ONTAP은 헤드 노드에서만 사용할 수 있습니다.
FSx for ONTAP 배포 유형이 `Multi-AZ`인 경우 헤드 노드 서브넷의 라우팅 테이블이 제대로 구성되었는지 확인하세요.
 AWS ParallelCluster 버전 3.2.0에서 FSx for ONTAP에 대한 지원이 추가되었습니다.
파일 시스템은 포트 111, 635, 2049 및 4046을 통한 인바운드 및 아웃바운드 TCP 및 UDP 트래픽을 허용하는 보안 그룹에 연결되어 있어야 합니다.

다음 작업 중 하나를 수행하여 클러스터와 파일 시스템 간에 트래픽이 허용되는지 확인합니다.
+ 클러스터 서브넷의 CIDR 또는 접두사 목록으로 들어오고 나가는 트래픽을 허용하도록 파일 시스템의 보안 그룹을 구성합니다.
**참고**  
AWS ParallelCluster 는 포트가 열려 있고 CIDR 또는 접두사 목록이 구성되어 있는지 확인합니다. AWS ParallelCluster 는 CIDR 블록 또는 접두사 목록의 내용을 검증하지 않습니다.
+ [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) 및 [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)를 사용하여 클러스터 노드의 사용자 지정 보안 그룹을 설정합니다. 클러스터와 파일 시스템 간의 트래픽을 허용하도록 사용자 지정 보안 그룹을 구성해야 합니다.
**참고**  
모든 클러스터 노드가 사용자 지정 보안 그룹을 사용하는 경우는 포트가 열려 있는지 AWS ParallelCluster 만 확인합니다. AWS ParallelCluster 는 소스와 대상이 제대로 구성되어 있는지 확인하지 않습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxOpenZfsSettings`
<a name="SharedStorage-v3-FsxOpenZfsSettings"></a>

**참고**  
[`StorageType`](#yaml-SharedStorage-StorageType)에 `FsxOpenZfs`가 지정되어 있으면 `FsxOpenZfsSettings`를 정의해야 합니다.

(선택 사항)**** FSx for OpenZFS 파일 시스템 설정

```
FsxOpenZfsSettings:
  VolumeId: string
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `FsxOpenZfsSettings` 속성
<a name="SharedStorage-v3-FsxOpenZfsSettings.properties"></a>

`VolumeId`(필수****, `String`)  
기존 FSx for OpenZFS 시스템의 볼륨 ID를 지정합니다.

**참고**  
 AWS Batch 스케줄러를 사용하는 경우 FSx for OpenZFS는 헤드 노드에서만 사용할 수 있습니다.
FSx for OpenZFS에 대한 지원이 AWS ParallelCluster 버전 3.2.0에 추가되었습니다.
파일 시스템은 포트 111, 2049, 20001, 20002 및 20003을 통한 인바운드 및 아웃바운드 TCP 및 UDP 트래픽을 허용하는 보안 그룹에 연결되어 있어야 합니다.

다음 중 하나를 수행하여 클러스터와 파일 시스템 간에 트래픽이 허용되는지 확인합니다.
+ 클러스터 서브넷의 CIDR 또는 접두사 목록으로 들어오고 나가는 트래픽을 허용하도록 파일 시스템의 보안 그룹을 구성합니다.
**참고**  
AWS ParallelCluster 는 포트가 열려 있고 CIDR 또는 접두사 목록이 구성되어 있는지 확인합니다. AWS ParallelCluster 는 CIDR 블록 또는 접두사 목록의 내용을 검증하지 않습니다.
+ [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) 및 [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)를 사용하여 클러스터 노드의 사용자 지정 보안 그룹을 설정합니다. 클러스터와 파일 시스템 간의 트래픽을 허용하도록 사용자 지정 보안 그룹을 구성해야 합니다.
**참고**  
모든 클러스터 노드가 사용자 지정 보안 그룹을 사용하는 경우는 포트가 열려 있는지 AWS ParallelCluster 만 확인합니다. AWS ParallelCluster 는 소스와 대상이 제대로 구성되어 있는지 확인하지 않습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FileCacheSettings`
<a name="SharedStorage-v3-FsxFileCacheSettings"></a>

**참고**  
[`StorageType`](#yaml-SharedStorage-StorageType)에 `FileCache`가 지정되어 있으면 `FileCacheSettings`를 정의해야 합니다.

(선택 사항)**** 파일 캐시에 대한 설정

```
FileCacheSettings:
  FileCacheId: string
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `FileCacheSettings` 속성
<a name="SharedStorage-v3-FsxFileCacheSettings.properties"></a>

`FileCacheId`(필수****, `String`)  
기존 파일 캐시의 파일 캐시 ID를 지정합니다.

**참고**  
파일 캐시는 AWS Batch 스케줄러를 지원하지 않습니다.
파일 캐시에 대한 지원이 AWS ParallelCluster 버전 3.7.0에 추가되었습니다.
파일 시스템은 포트 988을 통한 인바운드 및 아웃바운드 TCP 트래픽을 허용하는 보안 그룹에 연결되어 있어야 합니다.

다음 중 하나를 수행하여 클러스터와 파일 시스템 간에 트래픽이 허용되는지 확인합니다.
+ 클러스터 서브넷의 CIDR 또는 접두사 목록으로 들어오고 나가는 트래픽을 허용하도록 파일 캐시의 보안 그룹을 구성합니다.
**참고**  
AWS ParallelCluster 는 포트가 열려 있고 CIDR 또는 접두사 목록이 구성되어 있는지 확인합니다. AWS ParallelCluster 는 CIDR 블록 또는 접두사 목록의 내용을 검증하지 않습니다.
+ [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups) 및 [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups)를 사용하여 클러스터 노드의 사용자 지정 보안 그룹을 설정합니다. 클러스터와 파일 시스템 간의 트래픽을 허용하도록 사용자 지정 보안 그룹을 구성해야 합니다.
**참고**  
모든 클러스터 노드가 사용자 지정 보안 그룹을 사용하는 경우는 포트가 열려 있는지 AWS ParallelCluster 만 확인합니다. AWS ParallelCluster 는 소스와 대상이 제대로 구성되어 있는지 확인하지 않습니다.

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Iam` 섹션
<a name="Iam-v3"></a>

(선택 사항)**** 클러스터의 IAM 속성을 지정합니다.

```
Iam:
  Roles:
    LambdaFunctionsRole: string
  PermissionsBoundary: string
  ResourcePrefix: string
```

[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Iam` 속성
<a name="Iam-v3.properties"></a>

`PermissionsBoundary`(선택 사항****, `String`)  
 AWS ParallelCluster에서 생성한 모든 역할의 권한 경계로 사용할 IAM 정책의 ARN 자세한 정보는 *IAM 사용 설명서*의 [IAM 엔터티의 권한 범위](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_boundaries.html)를 참조하세요. 형식은 `arn:${Partition}:iam::${Account}:policy/${PolicyName}`입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Roles` (**선택 사항**)  
클러스터에서 사용하는 IAM 역할의 설정을 지정합니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`LambdaFunctionsRole`(선택 사항****, `String`)  
사용할 IAM 역할의 ARN입니다 AWS Lambda. 이렇게 하면 AWS CloudFormation 사용자 지정 리소스를 지원하는 모든 Lambda 함수에 연결된 기본 역할이 재정의됩니다. Lambda를 역할을 맡도록 허용된 보안 주체로 구성해야 합니다. 이렇게 해도에 사용되는 Lambda 함수의 역할은 재정의되지 않습니다 AWS Batch. 형식은 `arn:${Partition}:iam::${Account}:role/${RoleName}`입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ResourcePrefix`(선택 사항****)  
에서 생성한 IAM 리소스의 경로 또는 이름 접두사를 지정합니다 AWS ParallelCluster.  
리소스 접두사는 [IAM에서 지정한 이름 지정 규칙](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html)을 따라야 합니다.  
+ 이름은 최대 30자를 포함할 수 있습니다.
+ 이름은 슬래시(`/`) 문자가 없는 문자열만 사용할 수 있습니다.
+ 경로는 최대 512자까지 포함할 수 있습니다.
+ 경로는 슬래시(`/`)로 시작하고 끝나야 합니다. 시작 슬래시와 끝 슬래시(`/`) 사이에 여러 개의 슬래시(`/`)를 포함할 수 있습니다.
+ 경로와 이름 `/path/name`을 조합할 수 있습니다.
이름을 지정합니다.  

```
Iam:
  ResourcePrefix: my-prefix
```
경로를 지정합니다.  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/
```
경로와 이름을 지정합니다.  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/my-prefix
```
`/my-prefix`를 지정하면 오류가 반환됩니다.  

```
Iam:
  ResourcePrefix: /my-prefix
```
구성 오류가 반환됩니다. 경로에는 `/`가 두 개 있어야 합니다. 접두사 자체로는 `/`를 가질 수 없습니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `LoginNodes` 섹션
<a name="LoginNodes-v3"></a>

**참고**  
 AWS ParallelCluster 버전 3.7.0에서에 대한 지원이 `LoginNodes` 추가되었습니다.

(선택 사항)**** 로그인 노드 풀의 구성을 지정합니다.

```
LoginNodes:
  Pools:
    - Name: string
      Count: integer
      InstanceType: string
      GracetimePeriod: integer
      Image:
        CustomAmi: string
      Ssh:
        KeyName: string
        AllowedIps: string
      Networking:
        SubnetIds:
          - string
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      Dcv:
        Enabled: boolean
        Port: integer
        AllowedIps: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeUpdated:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceRole: string
        InstanceProfile: string
        AdditionalIamPolicies:
          - Policy: string
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 클러스터의 로그인 노드를 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-cluster)

## `LoginNodes` 속성
<a name="LoginNodes-v3.properties"></a>

### `Pools` 속성
<a name="LoginNodes-v3-Pools"></a>

리소스 구성이 동일한 로그인 노드 그룹을 정의합니다. 3.11.0부터 AWS ParallelCluster 최대 10개의 풀을 지정할 수 있습니다.

```
Pools:
  - Name: string
    Count: integer
    InstanceType: string
    GracetimePeriod: integer
    Image:
      CustomAmi: string
    Ssh:
      KeyName: string
      AllowedIps: string
    Networking:
      SubnetIds:
        - string
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    Dcv:
      Enabled: boolean
      Port: integer
      AllowedIps: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeUpdated:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
    Iam:
      InstanceRole: string
      InstanceProfile: string
      AdditionalIamPolicies:
        - Policy: string
```

[업데이트 정책: 로그인 노드 풀을 추가할 수 있지만 풀을 제거하려면 클러스터의 모든 로그인 노드가 중지되어야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-add-login-node-pools)

`Name`(필수**** `String`)  
`LoginNodes` 풀 이름을 지정합니다. 이는 `LoginNodes` 리소스에 태그를 지정하는 데 사용됩니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)   
 AWS ParallelCluster 버전 3.11.0부터 업데이트 정책은 다음과 같습니다. 업데이트를 위해이 설정을 변경하려면 풀의 로그인 노드를 중지해야 합니다.

`Count`(필수**** `Integer`)  
활성 상태를 유지할 로그인 노드 수를 지정합니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`InstanceType`(필수**** `String`)  
로그인 노드에 사용되는 Amazon EC2 인스턴스 유형을 지정합니다. 인스턴스 유형의 아키텍처는 Slurm `InstanceType` 설정에 사용된 아키텍처와 동일해야 합니다.  
[업데이트 정책](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3): 로그인 노드 풀이 중지된 경우 이 설정을 변경할 수 있습니다.  
 AWS ParallelCluster 버전 3.11.0부터 업데이트 정책은 다음과 같습니다. 업데이트를 위해이 설정을 변경하려면 풀의 로그인 노드를 중지해야 합니다.

`GracetimePeriod` (**선택 사항**`Integer`)  
로그인한 사용자에게 로그인 노드의 서비스 해제를 알리는 알림과 실제 중지 이벤트 사이의 최소 경과 시간(분)을 지정합니다. `GracetimePeriod`에 유효한 값은 3분에서 최대 120분 사이입니다. 기본값은 10분입니다.  
트리거 이벤트에는 여러 AWS 서비스 간의 상호 작용이 포함됩니다. 경우에 따라 네트워크 지연 시간과 정보 전파에 시간이 걸릴 수 있으므로 AWS 서비스의 내부 지연으로 인해 유예 기간이 예상보다 오래 걸릴 수 있습니다.
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Image`(선택 사항****)  
로그인 노드의 이미지 구성을 정의합니다.  

```
Image:
  CustomAmi: String
```  
`CustomAmi` (**선택 사항** `String`)  
로그인 노드를 프로비저닝하는 데 사용되는 사용자 지정 AMI를 지정합니다. 지정하지 않을 경우 값은 [`HeadNode` 섹션](HeadNode-v3.md)에 지정된 값으로 디폴트됩니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Ssh` (**선택 사항**)  
로그인 노드의 `ssh` 구성을 정의합니다.  

```
Ssh:
  KeyName: string
  AllowedIps: string
```
 AWS ParallelCluster 버전 3.11.0부터 업데이트 정책은 다음과 같습니다. 업데이트를 위해이 설정을 변경하려면 풀의 로그인 노드를 중지해야 합니다.  
`KeyName` (**선택 사항**`String`)  
로그인 노드에 로그인하는 데 사용되는 `ssh` 키를 지정합니다. 지정하지 않을 경우 값은 [`HeadNode` 섹션](HeadNode-v3.md)에 지정된 값으로 디폴트됩니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 풀의 로그인 노드를 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
더 이상 사용되지 않음 - 구성 파라미터`LoginNodes/Pools/Ssh/KeyName`는 더 이상 사용되지 않으며 향후 릴리스에서 제거될 예정입니다. 이제 CLI는 클러스터 구성에 사용될 때 경고 메시지를 반환합니다. 자세한 내용은 [ https://github.com/aws/aws-parallelcluster/issues/6811](https://github.com/aws/aws-parallelcluster/issues/6811) 참조하십시오.  
`AllowedIps` (**선택 사항**`String`)  
풀의 로그인 노드에 대한 SSH 연결의 CIDR 형식 IP 범위 또는 접두사 목록 ID를 지정합니다. 기본값은 헤드 노드 구성에 정의된 [AllowedIps](HeadNode-v3.md#yaml-HeadNode-Ssh-AllowedIps)이거나 지정되지 않은 경우 `0.0.0.0/0`입니다. [`HeadNode` 섹션](HeadNode-v3.md).  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 풀의 로그인 노드를 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
로그인 노드에 대한 AllowedIps 지원이 AWS ParallelCluster 버전 3.11.0에 추가되었습니다.

`Networking`(필수****)  
  

```
Networking:
  SubnetIds:
    - string
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```
 AWS ParallelCluster 버전 3.11.0부터 업데이트 정책은 다음과 같습니다. 업데이트를 위해이 설정을 변경하려면 풀의 로그인 노드를 중지해야 합니다.  
`SubnetIds`(필수**** `[String]`)  
로그인 노드 풀을 프로비저닝하는 기존 서브넷의 ID 하나의 서브넷만 정의할 수 있습니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`SecurityGroups` (**선택 사항** `[String]`)  
로그인 노드 풀에 사용할 보안 그룹의 목록입니다. 보안 그룹을 지정하지 않으면가 보안 그룹을 AWS ParallelCluster 생성합니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalSecurityGroups` (**선택 사항**`[String]`)  
로그인 노드 풀에 사용할 추가 보안 그룹의 목록입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dcv`(선택 사항****)  
[로그인 노드](#LoginNodes-v3)에서 실행되는 NICE DCV 서버의 구성 설정을 정의합니다. 자세한 내용은 [Amazon DCV를 통해 헤드 및 로그인 노드에 연결](dcv-v3.md) 섹션을 참조하세요.  

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```
기본적으로에 의해 설정된 NICE DCV 포트 AWS ParallelCluster 는 모든 IPv4 주소에 열려 있습니다. 사용자는 NICE DCV 세션에 대한 URL이 있는 경우에만 NICE DCV 포트에 연결하고 pcluster dcv-connect에서 URL이 반환된 후 30초 이내에 NICE DCV 세션에 연결할 수 있습니다. `AllowedIps` 설정을 사용해 CIDR 형식 IP 범위의 NICE DCV 포트로의 액세스를 추가 제한하고, 포트 설정을 사용하여 비표준 포트를 설정합니다.
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
로그인 노드의 DCV에 대한 지원이 AWS ParallelCluster 버전 3.11.0에 추가되었습니다.  
`Enabled`(필수**** `Boolean`)  
풀의 로그인 노드에서의 NICE DCV 활성화 여부를 지정합니다. 기본값은 `false`입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
NICE DCV는 로그인 노드에서 실행되는 NICE DCV 클라이언트와 NICE DCV 서버 간의 트래픽을 보호하는 데 사용되는 자체 서명된 인증서를 자동으로 생성합니다. 자체 인증서를 구성하려면 [Amazon DCV HTTPS 인증서](dcv-v3.md#dcv-v3-certificate) 섹션을 참조하세요.  
`Port` (**선택 사항** `Integer`)  
NICE DCV의 포트를 지정합니다. 기본값은 `8443`입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AllowedIps` (**선택 사항** `String`)  
NICE DCV에 연결할 CIDR 형식의 IP 범위를 지정합니다. 이 설정은가 보안 그룹을 AWS ParallelCluster 생성하는 경우에만 사용됩니다. 기본값은 어떤 인터넷 주소에서도 액세스할 수 있는 `0.0.0.0/0`입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomActions` (**선택 사항**)  
로그인 노드상에서 실행할 사용자 지정 스크립트를 지정합니다.  

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```
로그인 노드의 사용자 지정 작업에 대한 지원이 AWS ParallelCluster 버전 3.11.0에 추가되었습니다.  
`OnNodeStart`(선택 사항****)  
노드 배포 부트스트랩 작업이 시작되기 전에 [로그인 노드](#LoginNodes-v3)에서 실행할 단일 스크립트 또는 스크립트 시퀀스를 지정합니다. 자세한 내용은 [사용자 지정 부트스트랩 작업](custom-bootstrap-actions-v3.md) 단원을 참조하십시오.    
`Sequence`(선택 사항****)  
run.runs할 스크립트 목록은 첫 번째부터 시작하여 구성 파일에 나열된 것과 동일한 순서로 스크립트를 AWS ParallelCluster 실행합니다.    
`Script`(필수**** `String`)  
사용할 파일을 지정합니다. 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
`Args` (**선택 사항**`[String]`)  
스크립트에 전달할 인수 목록  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script`(필수**** `String`)  
단일 스크립트에 사용할 파일을 지정합니다. 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
`Args` (**선택 사항** `[String]`)  
단일 스크립트에 전달할 인수 목록  
`OnNodeConfigured`(선택 사항****)  
노드 부트스트랩 프로세스가 완료된 후 [로그인 노드](#LoginNodes-v3)에서 실행할 단일 스크립트 또는 스크립트 시퀀스를 지정합니다. 자세한 내용은 [사용자 지정 부트스트랩 작업](custom-bootstrap-actions-v3.md) 단원을 참조하십시오.    
`Sequence`(선택 사항****)  
run.runs할 스크립트 목록은 첫 번째부터 시작하여 구성 파일에 나열된 것과 동일한 순서로 스크립트를 AWS ParallelCluster 실행합니다.    
`Script`(필수**** `String`)  
사용할 파일을 지정합니다. 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
`Args` (**선택 사항** `[String]`)  
스크립트에 전달할 인수 목록  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script`(필수**** `String`)  
단일 스크립트에 사용할 파일을 지정합니다. 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
`Args` (**선택 사항** `[String]`)  
단일 스크립트에 전달할 인수 목록  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`OnNodeUpdated`(선택 사항****)  
헤드 노드 업데이트가 완료되고 스케줄러 및 공유 스토리지가 최신 클러스터 구성 변경 사항에 맞게 조정된 후 실행할 단일 스크립트 또는 스크립트 시퀀스를 지정합니다. 자세한 내용은 [사용자 지정 부트스트랩 작업](custom-bootstrap-actions-v3.md) 단원을 참조하십시오.    
`Sequence`(선택 사항****)  
run.runs할 스크립트 목록은 첫 번째부터 시작하여 구성 파일에 나열된 것과 동일한 순서로 스크립트를 AWS ParallelCluster 실행합니다.    
`Script`(필수**** `String`)  
사용할 파일을 지정합니다. 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
`Args` (**선택 사항** `[String]`)  
스크립트에 전달할 인수 목록  
`Script`(필수**** `String`)  
단일 스크립트에 사용할 파일을 지정합니다. 파일 경로는 `https://` 또는 `s3://`로 시작되어야 합니다.  
`Args` (**선택 사항** `[String]`)  
단일 스크립트에 전달할 인수 목록  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
AWS ParallelCluster 는 동일한 사용자 지정 작업에 `Sequence` 대해 단일 스크립트와를 모두 포함하는 것을 지원하지 않습니다.

`Iam`(선택 사항****)  
로그인 노드에서 클러스터의 기본 인스턴스 역할 또는 인스턴스 프로파일을 재정의하는 데 사용할 인스턴스 역할 또는 인스턴스 프로파일을 지정합니다.  

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  AdditionalIamPolicies:
    - Policy: string
```
 AWS ParallelCluster 버전 3.11.0부터 업데이트 정책은 다음과 같습니다. 업데이트를 위해이 설정을 변경하려면 풀의 로그인 노드를 중지해야 합니다.  
`InstanceProfile` (**선택 사항**`String`)  
기본 로그인 노드 인스턴스 프로파일을 재정의할 인스턴스 프로파일을 지정합니다. `InstanceProfile` 및 `InstanceRole`를 둘 다 지정할 수 없습니다. 형식은 `arn:Partition:iam::Account:instance-profile/InstanceProfileName`입니다. 이를 지정하면 `InstanceRole` 및 `AdditionalIamPolicies` 설정을 지정할 수 없습니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`InstanceRole` (**선택 사항** `String`)  
기본 로그인 노드 인스턴스 역할을 재정의할 인스턴스 역할을 지정합니다. `InstanceProfile` 및 `InstanceRole`를 둘 다 지정할 수 없습니다. 형식은 `arn:Partition:iam::Account:role/RoleName`입니다. 이를 지정하면 `InstanceProfile` 및 `AdditionalIamPolicies` 설정을 지정할 수 없습니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalIamPolicies` (**선택 사항**)  

```
AdditionalIamPolicies:
  - Policy: string
```
IAM 정책 Amazon 리소스 이름(ARN)  
Amazon EC2에 대한 IAM 정책의 Amazon 리소스 이름(ARN) 목록을 쉼표로 구분하여 지정합니다. 이 목록은에 필요한 권한 외에도 로그인 노드에 사용되는 루트 역할에 연결됩니다 AWS ParallelCluster.  
IAM 정책 이름과 해당 ARN은 서로 다릅니다. 이름은 사용할 수 없습니다.  
이를 지정하면 `InstanceProfile` 및 `InstanceRole` 설정을 지정할 수 없습니다. `AdditionalIamPolicies`가 AWS ParallelCluster 필요한 권한에 추가되고에 필요한 모든 권한이 포함되어야 `InstanceRole` `AdditionalIamPolicies`하므로를 사용하는 것이 좋습니다. 기능이 추가됨에 따라 필요한 권한은 종종 릴리스마다 변경됩니다.  
기본값이 없습니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Policy`(필수**** `[String]`)  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# `Monitoring` 섹션
<a name="Monitoring-v3"></a>

(선택 사항)**** 클러스터의 모니터링 설정을 지정합니다.

```
Monitoring:
  Logs:
    CloudWatch:
      Enabled: boolean
      RetentionInDays: integer
      DeletionPolicy: string
    Rotation:
      Enabled: boolean
  Dashboards:
    CloudWatch:
      Enabled: boolean
  DetailedMonitoring: boolean
  Alarms:
   Enabled: boolean
```

[업데이트 정책: 이 설정은 업데이트 중에 분석되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

## `Monitoring` 속성
<a name="Monitoring-v3.properties"></a>

`Logs` (**선택 사항**)  
클러스터의 로그 설정  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`CloudWatch` (**선택 사항**)  
클러스터의 CloudWatch Logs 설정  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled`(필수****, `Boolean`)  
`true`면 클러스터 로그가 CloudWatch Logs로 스트리밍됩니다. 기본값은 `true`입니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`RetentionInDays`(선택 사항****, `Integer`)  
CloudWatch Logs에 로그 이벤트를 보관하는 일수입니다. 기본값은 180입니다. 지원되는 값은 0, 1, 3, 5, 7, 14, 30, 60, 90, 120, 150, 180, 365, 400, 545, 731, 1827, 3653입니다. 값이 0이면 기본 CloudWatch 로그 보존 설정이 사용됩니다. 즉, 만료되지 않습니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`(선택 사항****, `String`)  
클러스터가 삭제될 때 CloudWatch Logs에서 로그 이벤트를 삭제할지 여부를 나타냅니다. 가능한 값은 `Delete`와 `Retain`입니다. 기본값은 `Retain`입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Rotation` (**선택 사항**)  
클러스터의 로그 로테이션 설정  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled`(필수****, `Boolean`)  
`true`면 로그 로테이션이 활성화됩니다. 기본값은 `true`입니다. AWS ParallelCluster 구성된 로그 파일이 특정 크기에 도달하면 교체되고 단일 백업이 유지됩니다. 자세한 내용은 [AWS ParallelCluster 구성된 로그 교체](log-rotation-v3.md) 단원을 참조하십시오.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dashboards` (**선택 사항**)  
클러스터의 대시보드 설정  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`CloudWatch` (**선택 사항**)  
클러스터의 CloudWatch 대시보드 설정  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled`(필수****, `Boolean`)  
`true`면 CloudWatch 대시보드가 활성화되어 있습니다. 기본값은 `true`입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DetailedMonitoring`(선택 사항****, `Boolean`)  
`true`로 설정하면 컴퓨팅 플릿 Amazon EC2 인스턴스에 대한 세부 모니터링이 활성화됩니다. 활성화되면 Amazon EC2 콘솔에 1분 간격으로 인스턴스를 모니터링하기 위한 그래프가 표시됩니다. 이 기능을 활성화하면 추가 비용이 발생합니다. 기본값은 `false`입니다.  
자세한 내용은 *Linux 인스턴스용 Amazon EC2 사용 설명서*의 [인스턴스에 대한 세부 모니터링 활성화 또는 비활성화](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-cloudwatch-new.html)를 참조하세요.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)  
`DetailedMonitoring`는 AWS ParallelCluster 버전 3.6.0부터 추가됩니다.

`Alarms`(선택 사항****)  
클러스터에 대한 CloudWatch 경보입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled` (**선택 사항**)  
`true`인 경우 클러스터에 대한 CloudWatch 경보가 생성됩니다. 기본값은 `true`입니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
 AWS ParallelCluster 버전 3.8.0부터 헤드 노드에 대해 Amazon EC2 상태 확인, CPU/Memory/Disk 사용률 및 기타 모든 경보를 포함하는 복합 경보가 생성됩니다.

# `Tags` 섹션
<a name="Tags-v3"></a>

**(선택 사항), 배열**에서 사용하고 모든 클러스터 리소스에 CloudFormation 전파되는 태그를 정의합니다. 자세한 내용을 알아보려면AWS CloudFormation 사용 설명서**의 [CloudFormation 리소스 태그](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html)를 참조하세요.

```
Tags:
  - Key: string
    Value: string
```

[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Tags` 속성
<a name="Tags-v3.properties"></a>

`Key`(필수****, `String`)  
태그의 이름을 정의합니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Value`(필수****, `String`)  
태그의 값을 정의합니다.  
[업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**참고**  
 AWS ParallelCluster 3.15.0부터 태그 업데이트는 다음 제한 사항과 함께 지원됩니다.  
HeadNode의 EBS 볼륨 - 클러스터가 생성된 시점의 태그만 보존하며,이 EBS 볼륨의 태그 업데이트는 지원되지 않습니다.
실행 노드 - 태그 업데이트는 실행 중인 컴퓨팅 또는 로그인 노드에 적용되지 않습니다.

# `AdditionalPackages` 섹션
<a name="AdditionalPackages-v3"></a>

(선택 사항)**** 설치할 추가 패키지를 식별하는 데 사용됩니다.

```
AdditionalPackages:
  IntelSoftware:
    IntelHpcPlatform: boolean
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `IntelSoftware`
<a name="AdditionalPackages-v3-IntelSoftware"></a>

(선택 사항)**** Intel 선택 솔루션의 구성을 정의합니다.

```
IntelSoftware:
  IntelHpcPlatform: boolean
```

[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `IntelSoftware` 속성
<a name="AdditionalPackages-v3-IntelSoftware.properties"></a>

` IntelHpcPlatform`(선택 사항****, `Boolean`)  
`true`이면 Intel Parallel Studio에 대한 [ 최종 사용자 라이선스 계약이](https://software.intel.com/en-us/articles/end-user-license-agreement) 수락되었음을 나타냅니다. 이렇게 하면 Intel Parallel Studio가 헤드 노드에 설치되고 컴퓨팅 노드와 공유됩니다. 이로 인해 헤드 노드의 부트스트랩을 수행하는 데 걸리는 시간이 몇 분 더 추가됩니다.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 AWS ParallelCluster 버전 3.10.0부터는 `IntelHpcPlatform` 파라미터가 더 이상 지원되지 않습니다.

# `DirectoryService` 섹션
<a name="DirectoryService-v3"></a>

**참고**  
 AWS ParallelCluster 버전 3.1.1에서에 대한 지원이 `DirectoryService` 추가되었습니다.

(선택 사항)**** 다중 사용자 액세스를 지원하는 클러스터의 디렉토리 서비스 설정

AWS ParallelCluster 는 [시스템 보안 서비스 데몬(SSSD](https://sssd.io/docs/introduction.html))에서 지원하는 LDAP(Lightweight Directory Access Protocol)를 통해 Active Directory(AD) 클러스터에 대한 여러 사용자 액세스를 지원하는 권한을 관리합니다. 자세한 내용은 *AWS Directory Service 관리 안내서*의 [ What is AWS Directory Service?](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/what_is.html)를 참조하세요.

잠재적으로 민감한 정보가 암호화된 채널을 통해 전송되도록 하려면 TLS/SSL을 통한 LDAP(줄여서 LDAPS)를 사용하는 것이 좋습니다.

```
DirectoryService:
  DomainName: string
  DomainAddr: string
  PasswordSecretArn: string
  DomainReadOnlyUser: string
  LdapTlsCaCert: string
  LdapTlsReqCert: string
  LdapAccessFilter: string
  GenerateSshKeysForUsers: boolean
  AdditionalSssdConfigs: dict
```

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

## `DirectoryService` 속성
<a name="DirectoryService-v3.properties"></a>

**참고**  
인터넷에 액세스할 수 없는 단일 서브넷 AWS ParallelCluster 에서를 사용하려는 경우 추가 요구 사항은 섹션을 참조[AWS ParallelCluster 인터넷에 액세스할 수 없는 단일 서브넷의](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md)하세요.

`DomainName`(필수****, `String`)  
ID 정보로 사용하는 액티브 디렉터리(AD) 도메인  
`DomainName`은 Fully Qualified Domain Name(FQDN)과 LDAP Distinguished Name(DN) 형식을 모두 허용합니다.  
+ FQDN 예제: `corp.example.com`
+ LDAP DN 예제: `DC=corp,DC=example,DC=com`
이 속성은 `ldap_search_base`라는 sssd-ldap 파라미터에 대응합니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainAddr`(필수****, `String`)  
LDAP 서버로 사용되는 AD 도메인 컨트롤러를 가리키는 URI 또는 URI입니다. URI는 `ldap_uri`라는 SSSD-LDAP 파라미터에 대응합니다. 값은 쉼표로 구분된 URI 문자열일 수 있습니다. LDAP를 사용하려면 각 URI의 시작 부분에 `ldap://`를 추가해야 합니다.  
예제 값:  

```
ldap://192.0.2.0,ldap://203.0.113.0          # LDAP
ldaps://192.0.2.0,ldaps://203.0.113.0        # LDAPS without support for certificate verification
ldaps://abcdef01234567890.corp.example.com  # LDAPS with support for certificate verification
192.0.2.0,203.0.113.0                        # AWS ParallelCluster uses LDAPS by default
```
인증서 확인과 함께 LDAPS를 사용하는 경우 URI는 호스트 이름이어야 합니다.  
인증서 확인 또는 LDAP 없이 LDAPS를 사용하는 경우 URI는 호스트 이름 또는 IP 주소일 수 있습니다.  
TLS/SSL을 통한 LDAP(LDAPS)를 사용하여 암호와 기타 민감한 정보가 암호화되지 않은 채널을 통해 전송되지 않도록 하세요. AWS ParallelCluster 이 프로토콜을 찾지 못하면 각 URI 또는 호스트 이름의 시작 부분에 `ldaps://`이 추가됩니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`PasswordSecretArn`(필수****, `String`)  
`DomainReadOnlyUser` 일반 텍스트 암호가 포함된 AWS Secrets Manager 보안 암호의 Amazon 리소스 이름(ARN)입니다. 암호의 내용은 `ldap_default_authtok`라는 SSSD-LDAP 파라미터에 대응합니다.  
 AWS Secrets Manager 콘솔을 사용하여 보안 암호를 생성할 때는 "기타 보안 암호 유형"을 선택하고 일반 텍스트를 선택한 다음 보안 암호에 암호 텍스트만 포함해야 합니다.  
를 사용하여 보안 암호를 AWS Secrets Manager 생성하는 방법에 대한 자세한 내용은 [AWS Secrets Manager 보안 암호 생성을 참조하세요.](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret)
LDAP 클라이언트는 자격 증명 정보를 요청할 `DomainReadOnlyUser` 때 암호를 사용하여 AD 도메인을 로 인증합니다.  
사용자에게 [https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html)에 대한 권한이 있는 경우 `PasswordSecretArn`의 유효성이 검사됩니다. 지정된 비밀이 존재할 경우 `PasswordSecretArn`가 유효합니다. 사용자 IAM 정책이 `DescribeSecret`을 포함하지 않는 경우 `PasswordSecretArn`가 검증되지 않고 경고 메시지가 표시됩니다. 자세한 내용은 [기본 AWS ParallelCluster `pcluster` 사용자 정책](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy) 항목을 참조하세요.  
시크릿 값이 변경되더라도 클러스터는 자동으로 업데이트되지 *않습니다*. 새 암호 값에 맞게 클러스터를 업데이트하려면 [`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md) 명령으로 컴퓨팅 플릿을 중지한 다음 헤드 노드 내에서 다음 명령을 실행해야 합니다.  

```
$ sudo /opt/parallelcluster/scripts/directory_service/update_directory_service_password.sh
```
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainReadOnlyUser`(필수****, `String`)  
클러스터 사용자 로그인을 인증할 때 AD 도메인에 ID 정보를 쿼리하는 데 사용되는 ID입니다. 이는 `ldap_default_bind_dn`라는 SSSD-LDAP 파라미터에 대응합니다. 이 값에는 AD ID 정보를 사용하세요.  
노드에 있는 특정 LDAP 클라이언트에서 요구하는 형식으로 ID를 지정합니다.  
+ MicrosoftAD:

  ```
  cn=ReadOnlyUser,ou=Users,ou=CORP,dc=corp,dc=example,dc=com
  ```
+ SimpleAD:

  ```
  cn=ReadOnlyUser,cn=Users,dc=corp,dc=example,dc=com
  ```
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsCaCert`(선택 사항****, `String`)  
도메인 컨트롤러에 대한 인증서를 발급한 인증 체인의 모든 인증 기관에 대한 인증서가 포함된 인증서 번들의 절대 경로입니다. 이는 `ldap_tls_cacert`라는 SSSD-LDAP 파라미터에 대응합니다.  
인증서 번들은 PEM 형식의 개별 인증서를 연결하여 구성된 파일로, Windows에서는 DER Base64 형식이라고도 합니다. LDAP 서버 역할을 하는 AD 도메인 컨트롤러의 ID를 확인하는 데 사용됩니다.  
AWS ParallelCluster 는 노드에 인증서를 처음 배치할 책임이 없습니다. 클러스터 관리자는 클러스터를 생성한 후 헤드 노드에 인증서를 수동으로 구성하거나 [부트스트랩 스크립트](custom-bootstrap-actions-v3.md)를 사용할 수 있습니다. 또는 헤드 노드에 구성된 인증서가 포함된 Amazon Machine Image(AMI)를 사용할 수 있습니다.  
[Simple AD](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/directory_simple_ad.html)는 LDAPS를 지원하지 않습니다. Simple AD 디렉터리를와 통합하는 방법을 알아보려면 *AWS 보안 블로그*의 [Simple AD에 대한 LDAPS 엔드포인트를 구성하는 방법을](https://aws.amazon.com/blogs/security/how-to-configure-ldaps-endpoint-for-simple-ad/) AWS ParallelCluster참조하세요.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsReqCert`(선택 사항****, `String`)  
TLS 세션에서 서버 인증서에 대해 수행할 검사를 지정합니다. 이는 `ldap_tls_reqcert`라는 SSSD-LDAP 파라미터에 대응합니다.  
유효한 값: `never`, `allow`, `try`, `demand` 및 `hard`.  
`never`, `allow` 및 `try`는 인증서에 문제가 발견되더라도 연결을 계속할 수 있게 합니다.  
`demand` 및 `hard`는 인증서에 문제가 없는 경우 통신을 계속할 수 있게 합니다.  
클러스터 관리자가 인증서 유효성 검사에 성공할 필요가 없는 값을 사용하는 경우 관리자에게 경고 메시지가 반환됩니다. 보안상의 이유로 인증서 확인을 비활성화하지 않는 것이 좋습니다.  
기본값은 `hard`입니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapAccessFilter`(선택 사항****, `String`)  
디렉터리 액세스를 사용자 하위 집합으로 제한하는 필터를 지정합니다. 이 속성은 `ldap_access_filter`라는 SSSD-LDAP 파라미터에 대응합니다. 이를 사용하여 많은 사용자를 지원하는 AD로 쿼리를 제한할 수 있습니다.  
이 필터는 클러스터에 대한 사용자 액세스를 차단할 수 있습니다. 그러나 차단된 사용자의 검색 가능성에는 영향을 미치지 않습니다.  
이 속성이 설정되어 있으면 SSSD 파라미터 `access_provider`은 AWS ParallelCluster 에 의해 내부적으로 `ldap`로 설정되며, [`DirectoryService`](#DirectoryService-v3)/[`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs) 설정에 의해 변경되어서는 안 됩니다.  
이 속성을 생략하고 [`DirectoryService`](#DirectoryService-v3)/[`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs)에 사용자 지정된 사용자 액세스를 지정하지 않으면 디렉터리의 모든 사용자가 클러스터에 액세스할 수 있습니다.  
예시:  

```
"!(cn=SomeUser*)"  # denies access to every user with an alias that starts with "SomeUser"
"(cn=SomeUser*)"   # allows access to every user with alias that starts with "SomeUser"
"memberOf=cn=TeamOne,ou=Users,ou=CORP,dc=corp,dc=example,dc=com" # allows access only to users in group "TeamOne".
```
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`GenerateSshKeysForUsers`(선택 사항****, `Boolean`)  
가 헤드 노드에 대한 초기 인증 직후 클러스터 사용자를 위한 SSH 키를 AWS ParallelCluster 생성할지 여부를 정의합니다.  
`true`로 설정하면 헤드 노드에서 첫 인증을 받은 후 SSH 키가 생성되어 존재하지 않는 경우 모든 사용자에 대해 SSH 키가 생성되어 `USER_HOME_DIRECTORY/.ssh/id_rsa`에 저장됩니다.  

헤드 노드에서 아직 인증되지 않은 사용자의 경우 다음과 같은 경우에 첫 번째 인증이 발생할 수 있습니다.
+ 사용자가 자신의 비밀번호로 헤드 노드에 처음으로 로그인합니다.
+ 헤드 노드에서 sudoer가 처음으로 사용자로 전환합니다: `su USERNAME`
+ 헤드 노드에서 sudoer가 처음으로 사용자로서 명령을 실행합니다: `su -u USERNAME COMMAND`
사용자는 클러스터 헤드 노드와 컴퓨팅 노드에 대한 후속 로그인 시 SSH 키를 사용할 수 있습니다. 를 사용하면 클러스터 컴퓨팅 노드에 대한 AWS ParallelCluster암호 로그인이 설계상 비활성화됩니다. 사용자가 헤드 노드에 로그인하지 않은 경우 SSH 키는 생성되지 않으며 사용자는 컴퓨팅 노드에 로그인할 수 없습니다.  
기본값은 `true`입니다.  
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`AdditionalSssdConfigs`(선택 사항****, `Dict`)  
클러스터 인스턴스의 SSSD 구성 파일에 쓸 SSSD 파라미터 및 값을 포함하는 키-값 페어의 사전입니다. SSSD 구성 파일에 대한 전체 설명은 `SSSD` 및 관련 구성 파일의 온 인스턴스 매뉴얼 페이지를 참조하세요.  
SSSD 파라미터 및 값은 다음 목록에 설명된 대로 AWS ParallelCluster SSSD 구성과 호환되어야 합니다.  
+ `id_provider`는에 의해 `ldap` 내부적으로 로 설정 AWS ParallelCluster 되며 수정해서는 안 됩니다.
+ `access_provider`는 /가 [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter) 지정된 AWS ParallelCluster 경우 `ldap` 내부적으로 [`DirectoryService`](#DirectoryService-v3)에 의해 로 설정되며이 설정은 수정해서는 안 됩니다.

  [`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)가 생략되면 그것의 `access_provider` 사양도 생략됩니다. 예를 들어 [`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs)에서 `access_provider`를 `simple`로 설정하면 [`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)를 지정해서는 안 됩니다.
다음 구성 스니펫은 `AdditionalSssdConfigs`에 대한 유효한 구성의 예제입니다.  
이 예제는 SSSD 로그의 디버그 수준을 활성화하고, 검색 기준을 특정 조직 단위로 제한하고, 보안 인증 캐싱을 비활성화합니다.  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    debug_level: "0xFFF0"
    ldap_search_base: OU=Users,OU=CORP,DC=corp,DC=example,DC=com
    cache_credentials: False
```
이 예제는 SSSD [https://www.mankier.com/5/sssd-simple](https://www.mankier.com/5/sssd-simple) `access_provider`의 구성을 지정합니다. `EngineeringTeam`의 사용자에게 디렉터리 액세스 권한이 제공됩니다. 이 경우 [`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)를 설정해서는 안 됩니다.  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    access_provider: simple
    simple_allow_groups: EngineeringTeam
```
[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

# `DeploymentSettings` 섹션
<a name="DeploymentSettings-cluster-v3"></a>

**참고**  
`DeploymentSettings`는 AWS ParallelCluster 버전 3.4.0부터 추가됩니다.

(선택 사항)**** 배포 설정 구성을 지정합니다.

```
DeploymentSettings:
  LambdaFunctionsVpcConfig:
    SecurityGroupIds:
      - string
    SubnetIds:
      - string
  DisableSudoAccessForDefaultUser: Boolean
  DefaultUserHome: string # 'Shared' or 'Local'
```

## `DeploymentSettings` 속성
<a name="DeploymentSettings-cluster-v3.properties"></a>

### `LambdaFunctionsVpcConfig`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig"></a>

**(선택 사항)** AWS Lambda 함수 VPC 구성을 지정합니다. 자세한 내용은 [AWS Lambda 의 VPC 구성 AWS ParallelCluster](lambda-vpc-v3.md) 단원을 참조하십시오.

```
LambdaFunctionsVpcConfig:
  SecurityGroupIds:
    - string
  SubnetIds:
    - string
```

#### `LambdaFunctionsVpcConfig properties`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig.properties"></a>

 `SecurityGroupIds` (필수****, `[String]`)  
Lambda 함수에 연결된 Amazon VPC 보안 그룹 ID의 목록  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

 `SubnetIds` (필수****, `[String]`)  
Lambda 함수에 연결된 서브넷 ID의 목록  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**참고**  
서브넷과 보안 그룹이 동일한 VPC에 있어야 합니다.

### DisableSudoAccessForDefaultUser 속성
<a name="DeploymentSettings-cluster-v3-DisableSudoAccessForDefaultUser.property"></a>

**참고**  
이 구성 옵션은 Slurm 클러스터에서만 지원됩니다.

(선택 사항) `True`인 경우 기본 사용자의 sudo 권한이 비활성화됩니다. 이는 클러스터의 모든 노드에 적용됩니다.

```
# Main DeploymentSettings section in config yaml(applies to HN, CF and LN)
DeploymentSettings:
  DisableSudoAccessForDefaultUser: True
```

`DisableSudoAccessForDefaultUser`의 값을 업데이트하려면 컴퓨팅 플릿과 모든 로그인 노드를 중지해야 합니다.

[업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿 및 로그인 노드를 중지해야 합니다.](using-pcluster-update-cluster-v3.md#update-policy-compute-login-v3)

### DefaultUserHome 속성
<a name="DeploymentSettings-cluster-v3-DefaultUserHome.property"></a>

`Shared`로 설정하면 클러스터는 기본 설정을 사용하고 클러스터 전체에서 기본 사용자의 디렉터리를 `/home/<default user>`로 공유합니다.

`Local`로 설정하면 헤드 노드, 로그인 노드 및 컴퓨팅 노드 각각에 `local/home/<default user>`에 저장된 별도의 로컬 기본 사용자 디렉터리가 있습니다.

# 빌드 이미지 구성 파일
<a name="image-builder-configuration-file-v3"></a>

AWS ParallelCluster 버전 3은 빌드 이미지 구성 파라미터에 YAML 1.1 파일을 사용합니다. 구성 오류를 줄이려면 들여쓰기가 올바른지 확인하세요. 자세한 내용은 [https://yaml.org/spec/1.1/](https://yaml.org/spec/1.1/)에서 YAML 1.1 사양을 살펴보세요.

이러한 구성 파일은 EC2 Image Builder를 사용하여 사용자 지정 AWS ParallelCluster AMIs 빌드하는 방법을 정의하는 데 사용됩니다. 사용자 지정 AMI 구축 프로세스는 [`pcluster build-image`](pcluster.build-image-v3.md) 명령을 사용하여 트리거됩니다. 구성 파일 예제는 [https://github.com/aws/aws-parallelcluster/tree/release-3.0/cli/tests/pcluster/schemas/test\$1imagebuilder\$1schema/test\$1imagebuilder\$1schema](https://github.com/aws/aws-parallelcluster/tree/release-3.0/cli/tests/pcluster/schemas/test_imagebuilder_schema/test_imagebuilder_schema)를 참조하세요.

**Topics**
+ [빌드 이미지 구성 파일 속성](#build-image-v3.properties)
+ [`Build` 섹션](Build-v3.md)
+ [`Image` 섹션](build-Image-v3.md)
+ [`DeploymentSettings` 섹션](DeploymentSettings-build-image-v3.md)

## 빌드 이미지 구성 파일 속성
<a name="build-image-v3.properties"></a>

`Region`(선택 사항****, `String`)  
`build-image` 작업에 AWS 리전 대한를 지정합니다. 예: `us-east-2`

`CustomS3Bucket`(선택 사항****, `String`)  
사용자 지정 AMI 빌드 프로세스에서 사용하는 리소스를 저장하고 로그를 내보내기 위해 AWS 계정에 생성된 Amazon S3 버킷의 이름을 지정합니다. 이미지에서 사용하는 정보는 이미지 config의 사용자 지정 버킷에 있습니다.는 클러스터를 생성하는 각 AWS 리전에 하나의 Amazon S3 버킷을 AWS ParallelCluster 유지합니다. 기본적으로 이러한 Amazon S3 버킷은 `parallelcluster-hash-v1-DO-NOT-DELETE`으로 명명됩니다.

# `Build` 섹션
<a name="Build-v3"></a>

**(필수)** 이미지를 빌드할 구성을 지정합니다.

```
Build:
  Imds:
    ImdsSupport: string
  InstanceType: string
  SubnetId: string
  ParentImage: string
  Iam:
    InstanceRole: string
    InstanceProfile: string
    CleanupLambdaRole: string
    AdditionalIamPolicies:
      - Policy: string
    PermissionsBoundary: string
  Components:
    - Type: string
      Value: string
  Tags:
    - Key: string
      Value: string
  SecurityGroupIds:
    - string
  UpdateOsPackages:
    Enabled: boolean
  Installation:
    NvidiaSoftware: 
      Enabled: boolean
    LustreClient:
      Enabled: boolean
```

## `Build` 속성
<a name="Build-v3.properties"></a>

`InstanceType`(필수****, `String`)  
이미지를 빌드하는 데 사용되는 인스턴스의 인스턴스 유형을 지정합니다.

`SubnetId`(선택 사항****, `String`)  
이미지를 빌드할 인스턴스를 프로비저닝할 기존 서브넷의 ID를 지정합니다. 제공된 서브넷에는 인터넷 액세스가 필요합니다. 빌드에 실패하면 [ 서브넷의 IP 주소 지정 속성을 수정](https://docs.aws.amazon.com/vpc/latest/userguide/subnet-public-ip.html)해야 할 수 있습니다.  
`pcluster build-image`는 기본 VPC를 사용합니다. AWS Control Tower 또는 AWS 랜딩 영역을 사용하여 기본 VPC를 삭제한 경우 서브넷 ID를 지정해야 합니다.
SubnetId를 지정할 때는 SecurityGroupIds 속성도 지정하는 것이 좋습니다. SecurityGroupIds를 그대로 두면 AWS ParallelCluster는 기본 보안 그룹을 사용하거나 지정된 서브넷 내의 기본 동작에 의존합니다. 둘 다 사용하면 다음과 같은 이점을 얻을 수 있습니다.  
+ 세분화된 제어: 두 가지를 모두 명시적으로 정의하면 이미지 빌드 프로세스 중에 시작된 인스턴스가 올바른 서브넷에 배치되고 빌드 구성 요소 및 필요한 서비스(예: 빌드 스크립트를 위한 S3에 대한 액세스)에 필요한 정확한 네트워크 액세스 권한이 있는지 확인할 수 있습니다.
+ 보안 모범 사례: 적절한 보안 그룹을 정의하면 필요한 포트 및 서비스로만 네트워크 액세스를 제한하여 빌드 환경의 보안을 강화하는 데 도움이 됩니다.
+ 잠재적 문제 방지: 기본값에만 의존하면 보안 그룹이 너무 열려 있거나 너무 제한적이어서 빌드 프로세스 중에 문제가 발생할 수 있습니다.

`ParentImage`(필수****, `String`)  
기본 이미지를 지정합니다. 상위 이미지는 동일한 버전의 비 AWS ParallelCluster AMI 또는 공식 AWS ParallelCluster AMI일 수 있습니다. 다른 버전의 AWS ParallelCluster 공식 또는 사용자 지정 AMI는 사용할 수 없습니다 AWS ParallelCluster. 형식은 이미지 `arn:Partition:imagebuilder:Region:Account:image/ImageName/ImageVersion`의 ARN 또는 AMI ID `ami-12345678`여야 합니다.

`SecurityGroupIds`(선택 사항****, `[String]`)  
이미지의 보안 그룹 ID의 목록을 지정합니다.

### `Imds`
<a name="Build-v3-Imds"></a>

#### `Imds` 속성
<a name="Build-v3-Imds.properties"></a>

(선택 사항)**** Amazon EC2 ImageBuilder 빌드 및 테스트 인스턴스 메타데이터 서비스(IMDS) 설정을 지정합니다.

```
Imds:
  ImdsSupport: string
```

`ImdsSupport`(선택 사항****, `String`)  
Amazon EC2 ImageBuilder 빌드 및 테스트 인스턴스에서 지원되는 IMDS 버전을 지정합니다. 지원되는 값은 `v2.0` 및 `v1.0`입니다. 기본값은 `v2.0`입니다.  
`ImdsSupport`이 `v1.0`로 설정되어 있으면 IMDSv1 및 IMDSv2가 모두 지원됩니다.  
`ImdsSupport`이 `v2.0`로 설정되어 있으면 IMDSv2만 지원됩니다.  
자세한 내용은 [Linux 인스턴스용 Amazon EC2 사용 설명서](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html)의 *IMDSv2 사용*을 참조하세요.  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 AWS ParallelCluster 버전 3.7.0부터 `ImdsSupport` 기본값은 입니다`v2.0`. 사용자 지정 작업 호출에서 IMDSv1을 IMDSv2를 교체하고 `ImdsSupport`을 `v2.0`로 설정하는 것이 좋습니다.  
 AWS ParallelCluster 버전 3.3.0에서 [`Imds`](#Build-v3-Imds) /에 대한 지원이 [`ImdsSupport`](#yaml-build-image-Build-Imds-ImdsSupport) 추가되었습니다.

### `Iam`
<a name="Build-v3-Iam"></a>

#### `Iam` 속성
<a name="Build-v3-Iam.properties"></a>

(선택 사항****) 이미지 빌드의 IAM 리소스를 지정합니다.

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  CleanupLambdaRole: string
  AdditionalIamPolicies:
    - Policy: string
  PermissionsBoundary: string
```

`InstanceProfile`(선택 사항****, `String`)  
EC2 Image Builder 인스턴스의 기본 인스턴스 프로파일을 재정의할 인스턴스 프로파일을 지정합니다. `InstanceProfile`, `InstanceRole`, `AdditionalIamPolicies`는 함께 지정할 수 없습니다. 형식은 `arn:Partition:iam::Account:instance-profile/InstanceProfileName`입니다.

`InstanceRole`(선택 사항****, `String`)  
EC2 Image Builder 인스턴스의 기본 인스턴스 역할을 재정의할 인스턴스 역할을 지정합니다. `InstanceProfile`, `InstanceRole`, `AdditionalIamPolicies`는 함께 지정할 수 없습니다. 형식은 `arn:Partition:iam::Account:role/RoleName`입니다.

`CleanupLambdaRole`(선택 사항****, `String`)  
빌드 완료 시 빌드 아티팩트를 제거하는 CloudFormation 사용자 지정 리소스를 지원하는 AWS Lambda 함수에 사용할 IAM 역할의 ARN입니다. Lambda를 역할을 맡도록 허용된 보안 주체로 구성해야 합니다. 형식은 `arn:Partition:iam::Account:role/RoleName`입니다.

`AdditionalIamPolicies` (**선택 사항**)  
사용자 지정 AMI를 생성하는 데 사용되는 EC2 Image Builder 인스턴스에 연결할 추가 IAM 정책을 지정합니다.  

```
AdditionalIamPolicies:
  - Policy: string
```  
`Policy`(선택 사항****, `[String]`)  
IAM 정책 목록 형식은 `arn:Partition:iam::Account:policy/PolicyName`입니다.

`PermissionsBoundary`(선택 사항****, `String`)  
 AWS ParallelCluster에서 생성한 모든 역할의 권한 경계로 사용할 IAM 정책의 ARN IAM 권한 경계에 대한 자세한 정보는 IAM 사용 설명서**의 [IAM 엔터티에 대한 권한 경계](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_boundaries.html)를 참조하세요. 형식은 `arn:Partition:iam::Account:policy/PolicyName`입니다.

### `Components`
<a name="Build-v3-Components"></a>

#### `Components` 속성
<a name="Build-v3-Components.properties"></a>

(선택 사항****) AWS ParallelCluster에서 기본적으로 제공하는 구성 요소 외에 AMI 빌드 프로세스 중에 사용할 Amazon EC2 ImageBuilder 구성 요소를 지정합니다. 이러한 구성 요소를 사용하여 AMI 빌드 프로세스를 사용자 지정할 수 있습니다. 자세한 내용은 [AWS ParallelCluster AMI 사용자 지정](custom-ami-v3.md) 항목을 참조하세요.

```
Components:
  - Type: string
    Value: string
```

`Type`(선택 사항****, `String`)  
구성 요소의 유형-값 쌍의 유형을 지정합니다. 유형은 `arn` 또는 `script`일 수 있습니다.

`Value`(선택 사항****, `String`)  
구성 요소의 유형-값 쌍의 값을 지정합니다. 유형이 `arn`인 경우 이것이 EC2 Image Builder 구성 요소의 ARN입니다. 유형이 인 경우 EC2 Image Builder 구성 요소를 생성할 때 사용할 스크립트를 가리키는 https 또는 s3 링크`script`입니다.

### `Tags`
<a name="Build-v3-Tags"></a>

#### `Tags` 속성
<a name="Build-v3-Tags.properties"></a>

(선택 사항****) AMI를 구축하는 데 사용되는 리소스에 설정할 태그 목록을 지정합니다.

```
Tags:
  - Key: string
    Value: string
```

`Key`(선택 사항****, `String`)  
태그의 이름을 정의합니다.

`Value`(선택 사항****, `String`)  
태그의 값을 정의합니다.

### `UpdateOsPackages`
<a name="Build-v3-UpdateOsPackages"></a>

#### `UpdateOsPackages` 속성
<a name="Build-v3-UpdateOsPackages.properties"></a>

(**선택 사항**) AWS ParallelCluster 소프트웨어 스택을 설치하기 전에 운영 체제를 업데이트할지 여부를 지정합니다.

```
UpdateOsPackages:
  Enabled: boolean
```

`Enabled`(선택 사항****, `Boolean`)  
`true`인 경우 AWS ParallelCluster 소프트웨어를 설치하기 전에 OS가 업데이트되고 재부팅됩니다. 기본값은 `false`입니다.  
`UpdateOsPackages`가 활성화되면 커널을 포함하여 사용 가능한 모든 OS 패키지가 업데이트됩니다. 고객은 업데이트가 업데이트에 포함되지 않은 AMI 종속성과 호환되는지 확인할 책임이 있습니다.  
예를 들어 커널 AWS ParallelCluster 버전 Y.0 및 일부 구성 요소 버전 Z.0과 함께 제공되는 버전 X.0용 AMI를 빌드한다고 가정해 보겠습니다. 사용 가능한 업데이트에 구성 요소 Z.0에 대한 업데이트가 없는 업데이트된 커널 버전 Y.1이 포함되어 있다고 가정해 보겠습니다. `UpdateOsPackages`를 활성화하기 전에 구성 요소 Z.0이 커널 Y.1을 지원하는지 확인하는 것은 사용자의 책임입니다.

### `Installation`
<a name="Build-v3-Installation"></a>

#### `Installation` 속성
<a name="Build-v3-Installation.properties"></a>

**(선택 사항)** 이미지에 설치할 추가 소프트웨어를 지정합니다.

```
Installation:
  NvidiaSoftware: 
    Enabled: boolean
  LustreClient:
    Enabled: boolean
```

`NvidiaSoftware` 속성(**선택 사항**)  
설치할 Nvidia 소프트웨어를 지정합니다.  

```
NvidiaSoftware: 
    Enabled: boolean
```  
`Enabled`(선택 사항****, `boolean`)  
`true`인 경우 Nvidia GPU 드라이버와 CUDA가 설치됩니다. 기본값은 `false`입니다.

`LustreClient` 속성(**선택 사항**)  
Amazon FSx Lustre 클라이언트가 설치되도록 지정합니다.  

```
LustreClient:
    Enabled: boolean
```  
`Enabled`(선택 사항****, `boolean`)  
`true`인 경우 Lustre 클라이언트가 설치됩니다. 기본값은 `true`입니다.

# `Image` 섹션
<a name="build-Image-v3"></a>

(선택 사항)**** 이미지 빌드의 이미지 속성을 정의합니다.

```
Image:
  Name: string
  RootVolume:
    Size: integer
    Encrypted: boolean
    KmsKeyId: string
  Tags:
    - Key: string
      Value: string
```

## `Image` 속성
<a name="build-Image-v3.properties"></a>

`Name`(선택 사항****, `String`)  
AMI 이름을 지정합니다. 지정하지 않으면 [`pcluster build-image`](pcluster.build-image-v3.md) 명령을 호출할 때 사용한 이름이 사용됩니다.

### `Tags`
<a name="build-Image-v3-Tags"></a>

#### `Tags` 속성
<a name="build-Image-v3-Tags.properties"></a>

(선택 사항****) 이미지의 키-값 쌍을 지정합니다.

```
Tags:
  - Key: string
    Value: string
```

`Key`(선택 사항****, `String`)  
태그의 이름을 정의합니다.

`Value`(선택 사항****, `String`)  
태그의 값을 정의합니다.

### `RootVolume`
<a name="build-Image-v3-RootVolume"></a>

#### `RootVolume` 속성
<a name="build-Image-v3-RootVolume.properties"></a>

(선택 사항****) 이미지의 루트 볼륨 속성을 지정합니다.

```
RootVolume:
  Size: integer
  Encrypted: boolean
  KmsKeyId: string
```

`Size`(선택 사항****, `Integer`)  
이미지의 루트 볼륨 크기를 GiB 단위로 지정합니다. 기본 크기는 [`ParentImage`](Build-v3.md#yaml-build-image-Build-ParentImage)의 크기 더하기 27GiB입니다.

`Encrypted`(선택 사항****, `Boolean`)  
볼륨이 암호화되는지 여부를 지정합니다. 기본값은 `false`입니다.

`KmsKeyId`(선택 사항****, `String`)  
볼륨을 암호화하는 데 사용되는 AWS KMS 키의 ARN을 지정합니다. 형식은 `arn:Partition:kms:Region:Account:key/KeyId`입니다.

# `DeploymentSettings` 섹션
<a name="DeploymentSettings-build-image-v3"></a>

**참고**  
`DeploymentSettings`는 AWS ParallelCluster 버전 3.4.0부터 추가됩니다.

(선택 사항)**** 배포 설정 구성을 지정합니다.

```
DeploymentSettings:
  LambdaFunctionsVpcConfig:
    SecurityGroupIds:
      - string
    SubnetIds:
      - string
```

## `DeploymentSettings` 속성
<a name="DeploymentSettings-build-image-v3.properties"></a>

### `LambdaFunctionsVpcConfig`
<a name="DeploymentSettings-build-image-v3-LambdaFunctionsVpcConfig"></a>

**(선택 사항)** AWS Lambda 함수 VPC 구성을 지정합니다. 자세한 내용은 [AWS Lambda 의 VPC 구성 AWS ParallelCluster](lambda-vpc-v3.md) 단원을 참조하십시오.

```
LambdaFunctionsVpcConfig:
  SecurityGroupIds:
    - string
  SubnetIds:
    - string
```

#### `LambdaFunctionsVpcConfig properties`
<a name="DeploymentSettings-build-image-v3-LambdaFunctionsVpcConfig.properties"></a>

 `SecurityGroupIds` (필수****, `[String]`)  
Lambda 함수에 연결된 Amazon VPC 보안 그룹 ID의 목록  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

 `SubnetIds` (필수****, `[String]`)  
Lambda 함수에 연결된 서브넷 ID의 목록  
[업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**참고**  
서브넷과 보안 그룹이 동일한 VPC에 있어야 합니다.