

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# File konfigurasi cluster
<a name="cluster-configuration-file-v3"></a>

AWS ParallelCluster versi 3 menggunakan file konfigurasi terpisah untuk mengontrol definisi infrastruktur cluster dan definisi kustom AMIs. Semua file konfigurasi menggunakan file YAMAL 1.1. Informasi terperinci untuk masing-masing file konfigurasi ini ditautkan di bawah ini. Untuk beberapa contoh konfigurasi, lihat [https://github.com/aws/aws- parallelcluster/tree/release-3.0/cli/tests/pcluster/example \$1configs](https://github.com/aws/aws-parallelcluster/tree/release-3.0/cli/tests/pcluster/example_configs).

Objek ini digunakan untuk konfigurasi cluster AWS ParallelCluster versi 3.

**Topics**
+ [Properti file konfigurasi cluster](#cluster-configuration-file-v3.properties)
+ [Bagian `Imds`](Imds-cluster-v3.md)
+ [Bagian `Image`](Image-v3.md)
+ [Bagian `HeadNode`](HeadNode-v3.md)
+ [Bagian `Scheduling`](Scheduling-v3.md)
+ [Bagian `SharedStorage`](SharedStorage-v3.md)
+ [Bagian `Iam`](Iam-v3.md)
+ [Bagian `LoginNodes`](LoginNodes-v3.md)
+ [Bagian `Monitoring`](Monitoring-v3.md)
+ [Bagian `Tags`](Tags-v3.md)
+ [Bagian `AdditionalPackages`](AdditionalPackages-v3.md)
+ [Bagian `DirectoryService`](DirectoryService-v3.md)
+ [Bagian `DeploymentSettings`](DeploymentSettings-cluster-v3.md)

## Properti file konfigurasi cluster
<a name="cluster-configuration-file-v3.properties"></a>

`Region`(**Opsional**,`String`)  
Menentukan Wilayah AWS untuk cluster. Misalnya, `us-east-2`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomS3Bucket`(**Opsional**,`String`)  
Menentukan nama bucket Amazon S3 yang dibuat di akun AWS Anda untuk menyimpan sumber daya yang digunakan digunakan oleh cluster Anda, seperti file konfigurasi cluster, dan untuk mengekspor log. AWS ParallelCluster memelihara satu bucket Amazon S3 di setiap AWS Wilayah tempat Anda membuat cluster. Secara default, ember Amazon S3 ini diberi nama. `parallelcluster-hash-v1-DO-NOT-DELETE`  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan. Jika Anda memaksa pembaruan, nilai baru akan diabaikan dan nilai lama akan digunakan.](using-pcluster-update-cluster-v3.md#update-policy-read-only-resource-bucket-v3)

`AdditionalResources`(**Opsional**,`String`)  
Mendefinisikan AWS CloudFormation template tambahan untuk diluncurkan bersama dengan cluster. Template tambahan ini digunakan untuk membuat sumber daya yang berada di luar cluster tetapi merupakan bagian dari siklus hidup cluster.  
Nilai harus berupa URL HTTPS ke templat publik, dengan semua parameter yang disediakan.  
Tidak ada nilai default.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

# Bagian `Imds`
<a name="Imds-cluster-v3"></a>

**(Opsional)** Menentukan konfigurasi layanan metadata instance global (IMDS).

```
Imds:
  ImdsSupport: string
```

## `Imds`properti
<a name="Imds-cluster-v3.properties"></a>

`ImdsSupport`(**Opsional**,`String`)  
Menentukan versi IMDS yang didukung di node cluster. Nilai yang didukung adalah `v1.0` dan `v2.0`. Nilai default-nya adalah `v2.0`.  
Jika `ImdsSupport` disetel ke`v1.0`, keduanya IMDSv1 dan IMDSv2 didukung.  
Jika `ImdsSupport` disetel ke`v2.0`, hanya IMDSv2 didukung.  
Untuk informasi selengkapnya, lihat [Menggunakan IMDSv2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html) di *Panduan Pengguna Amazon EC2 untuk instans Linux*.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Dimulai dengan AWS ParallelCluster 3.7.0, nilai `ImdsSupport` defaultnya adalah. `v2.0` Kami menyarankan Anda mengatur `v2.0` dan `ImdsSupport` mengganti IMDSv1 dengan IMDSv2 panggilan tindakan kustom Anda.  
Support for [`Imds`](#Imds-cluster-v3)/[`ImdsSupport`](#yaml-cluster-Imds-ImdsSupport)ditambahkan dengan AWS ParallelCluster versi 3.3.0.

# Bagian `Image`
<a name="Image-v3"></a>

**catatan**  
Versi resmi yang tidak didukung yang AMIs didistribusikan oleh AWS ParallelCluster akan dibuat tidak tersedia setelah 18 bulan tidak aktif. Gambar-gambar lama ini berisi perangkat lunak yang sudah ketinggalan zaman dan tidak dapat menerima dukungan jika terjadi masalah. Kami sangat menyarankan untuk pindah ke versi terbaru yang didukung.

**(Wajib)** Mendefinisikan sistem operasi untuk cluster.

```
Image:
  Os: string
  CustomAmi: string
```

## `Image`properti
<a name="Image-v3.properties"></a>

`Os`(**Diperlukan**,`String`)  
Menentukan sistem operasi yang akan digunakan untuk cluster. Nilai yang didukung adalah`alinux2`,`alinux2023`,`ubuntu2404`,`ubuntu2204`,`rhel8`,`rocky8`,`rhel9`,`rocky9`.  
RedHat Enterprise Linux 8.7 (`rhel8`) ditambahkan mulai AWS ParallelCluster versi 3.6.0.  
Jika Anda mengonfigurasi klaster untuk digunakan`rhel`, biaya sesuai permintaan untuk jenis instans apa pun lebih tinggi daripada saat Anda mengonfigurasi klaster untuk menggunakan sistem operasi lain yang didukung. Untuk informasi selengkapnya tentang harga, lihat [Harga Sesuai Permintaan](https://aws.amazon.com/ec2/pricing/on-demand) dan [Bagaimana Red Hat Enterprise Linux di Amazon EC2 ditawarkan](https://aws.amazon.com/partners/redhat/faqs/#Pricing_and_Billing) dan diberi harga? .  
RedHat Enterprise Linux 9 (rhel9) ditambahkan mulai AWS ParallelCluster versi 3.9.0.
Semua Wilayah AWS komersial mendukung semua sistem operasi berikut.      
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/parallelcluster/latest/ug/Image-v3.html)
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
 AWS ParallelCluster 3.8.0 mendukung Rocky Linux 8, tetapi Rocky Linux 8 yang sudah dibangun sebelumnya AMIs (untuk arsitektur x86 dan ARM) tidak tersedia. AWS ParallelCluster 3.8.0 mendukung pembuatan cluster dengan Rocky Linux 8 menggunakan kustom. AMIs Untuk informasi lebih lanjut lihat[Pertimbangan sistem operasi](operating-systems-v3.md#OS-Consideration-v3). AWS ParallelCluster 3.9.0 mendukung Rocky Linux 9, tetapi Rocky Linux 9 yang sudah dibangun sebelumnya AMIs (untuk arsitektur x86 dan ARM) tidak tersedia. AWS ParallelCluster 3.9.0 mendukung pembuatan cluster dengan Rocky Linux 9 menggunakan kustom. AMIs Untuk informasi lebih lanjut lihat [Pertimbangan Sistem Operasi](operating-systems-v3.md#OS-Consideration-v3).   
 

`CustomAmi`(**Opsional**,`String`)  
Menentukan ID AMI kustom yang akan digunakan untuk node head dan compute, bukan AMI default. Untuk informasi selengkapnya, lihat [AWS ParallelCluster Kustomisasi AMI](custom-ami-v3.md).  
Jika AMI kustom memerlukan izin tambahan untuk peluncurannya, izin ini harus ditambahkan ke kebijakan pengguna dan node kepala.  
Misalnya, jika AMI kustom memiliki snapshot terenkripsi yang terkait dengannya, kebijakan tambahan berikut diperlukan dalam kebijakan pengguna dan node kepala:    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Untuk membangun AMI kustom RedHat Enterprise Linux, Anda harus mengkonfigurasi OS untuk menginstal paket yang disediakan oleh repositori RHUI (AWS):`rhel-<version>-baseos-rhui-rpms`,, `rhel-<version>-appstream-rhui-rpms` dan. `codeready-builder-for-rhel-<version>-rhui-rpms` Selain itu, repositori pada AMI khusus harus berisi `kernel-devel` paket pada versi yang sama dengan versi kernel yang sedang berjalan. kernel.  

**Keterbatasan yang diketahui:**
+ Hanya RHEL 8.2 dan versi yang lebih baru yang mendukung Lustre FSx .
+ RHEL 8.7 kernel versi 4.18.0-425.3.1.el8 tidak mendukung Lustre. FSx 
+ Hanya RHEL 8.4 dan versi yang lebih baru yang mendukung EFA.
+ AL23 tidak mendukung NICE DCV, karena tidak menyertakan lingkungan desktop grafis, yang diperlukan untuk menjalankan NICE DCV. Untuk informasi lebih lanjut, lihat dokumentasi resmi [NICE DCV](https://docs.aws.amazon.com//dcv/).
Untuk memecahkan masalah peringatan validasi AMI kustom, lihat. [Memecahkan masalah AMI khusus](troubleshooting-v3-custom-amis.md)  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Bagian `HeadNode`
<a name="HeadNode-v3"></a>

**(Wajib)** Menentukan konfigurasi untuk node kepala.

```
HeadNode:
  InstanceType: string
  Networking:
    SubnetId: string
    ElasticIp: string/boolean
    SecurityGroups:
      - string
    AdditionalSecurityGroups:
      - string
    Proxy:
      HttpProxyAddress: string
  DisableSimultaneousMultithreading: boolean
  Ssh:
    KeyName: string
    AllowedIps: string
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
      DeleteOnTermination: boolean
    EphemeralVolume:
      MountDir: string
  SharedStorageType: string
  Dcv:
    Enabled: boolean
    Port: integer
    AllowedIps: string
  CustomActions:
    OnNodeStart:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeConfigured:
      Sequence:
        - Script: string
          Args:
            - string
      Script: string
      Args:
        - string
    OnNodeUpdated:
      Sequence:
        - Script: string
          Args: 
            - string
      Script: string
      Args:
        - string
  Iam:
    InstanceRole: string
    InstanceProfile: string
    S3Access:
      - BucketName: string
        EnableWriteAccess: boolean
        KeyName: string
    AdditionalIamPolicies:
      - Policy: string
  Imds:
    Secured: boolean
  Image:
    CustomAmi: string
```

## `HeadNode`properti
<a name="HeadNode-v3.properties"></a>

`InstanceType`(**Diperlukan**,`String`)  
Menentukan jenis contoh untuk node kepala.  
Menentukan jenis instans Amazon EC2 yang digunakan untuk node kepala. Arsitektur tipe instance harus sama dengan arsitektur yang digunakan untuk Slurm [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)pengaturan AWS Batch [`InstanceType`](Scheduling-v3.md#yaml-Scheduling-AwsBatchQueues-ComputeResources-InstanceTypes)atau.  
AWS ParallelCluster tidak mendukung jenis instance berikut untuk `HeadNode` pengaturan.  
+ hpc6id
Jika Anda menentukan jenis instans p4d atau jenis instance lain yang memiliki beberapa antarmuka jaringan atau kartu antarmuka jaringan, Anda harus mengatur [`ElasticIp`](#yaml-HeadNode-Networking-ElasticIp)`true`untuk menyediakan akses publik. AWS public hanya IPs dapat ditugaskan ke instance yang diluncurkan dengan antarmuka jaringan tunggal. Untuk kasus ini, kami menyarankan Anda menggunakan [gateway NAT](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html) untuk menyediakan akses publik ke node komputasi cluster. Untuk informasi selengkapnya, lihat [Menetapkan IPv4 alamat publik selama peluncuran instans](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) di *Panduan Pengguna Amazon EC2 untuk* Instans Linux.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DisableSimultaneousMultithreading`(**Opsional**,`Boolean`)  
Jika`true`, nonaktifkan hyper-threading pada node kepala. Nilai default-nya adalah `false`.  
Tidak semua tipe instance dapat menonaktifkan hyper-threading. *Untuk daftar jenis instans yang mendukung penonaktifan hyperthreading, lihat [inti CPU dan thread untuk setiap inti CPU per jenis instans](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) di Panduan Pengguna Amazon EC2.*   
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SharedStorageType`(**Opsional**,`String`)  
Menentukan jenis penyimpanan yang digunakan untuk data bersama secara internal. Data yang dibagikan secara internal mencakup data yang AWS ParallelCluster digunakan untuk mengelola klaster dan default yang dibagikan `/home` jika tidak ditentukan dalam direktori [Bagian `SharedStorage`](SharedStorage-v3.md) as Mount untuk memasang volume sistem file bersama. Untuk detail selengkapnya tentang data bersama internal, lihat[AWS ParallelCluster direktori internal](directories-v3.md).  
Jika`Ebs`, yang merupakan tipe penyimpanan default, node kepala akan mengekspor sebagian volume akarnya sebagai direktori bersama untuk node komputasi dan node login menggunakan NFS.  
Jika`Efs`, ParallelCluster akan membuat sistem file EFS untuk digunakan untuk data internal bersama dan. `/home`  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Saat klaster keluar, tipe penyimpanan EBS dapat menghadirkan hambatan kinerja saat node kepala berbagi data dari volume root dengan node komputasi menggunakan ekspor NFS. Dengan menggunakan EFS, Anda dapat menghindari ekspor NFS saat klaster Anda mengurangi skala dan menghindari kemacetan kinerja yang terkait dengannya. Disarankan untuk memilih EBS untuk read/write potensi maksimal untuk file kecil dan proses instalasi. Pilih EFS untuk skala.

## `Networking`
<a name="HeadNode-v3-Networking"></a>

**(Wajib)** Mendefinisikan konfigurasi jaringan untuk node kepala.

```
Networking:
  SubnetId: string
  ElasticIp: string/boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  Proxy:
    HttpProxyAddress: string
```

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Networking`properti
<a name="HeadNode-v3-Networking.properties"></a>

`SubnetId`(**Diperlukan**,`String`)  
Menentukan ID dari subnet yang ada di mana untuk menyediakan node kepala.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ElasticIp`(**Opsional**,`String`)  
Membuat atau menetapkan alamat IP Elastis ke node kepala. Nilai yang didukung adalah`true`,`false`, atau ID dari alamat IP Elastis yang ada. Nilai default-nya `false`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SecurityGroups`(**Opsional**,`[String]`)  
Daftar id grup keamanan Amazon VPC yang akan digunakan untuk node kepala. Ini menggantikan grup keamanan yang AWS ParallelCluster dibuat jika properti ini tidak disertakan.  
Verifikasi bahwa grup keamanan dikonfigurasi dengan benar untuk [SharedStorage](SharedStorage-v3.md)sistem Anda.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AdditionalSecurityGroups`(**Opsional**,`[String]`)  
Daftar id grup keamanan Amazon VPC tambahan yang akan digunakan untuk node kepala.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Proxy`(**Opsional**)  
Menentukan pengaturan proxy untuk node kepala.  

```
Proxy:
                            HttpProxyAddress: 
                            string
```  
` HttpProxyAddress`(**Opsional**,`String`)  
Mendefinisikan server proxy HTTP atau HTTPS, biasanya`https://x.x.x.x:8080`.  
Tidak ada nilai default.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Ssh`
<a name="HeadNode-v3-Ssh"></a>

**(Opsional)** Mendefinisikan konfigurasi untuk akses SSH ke node kepala.

```
Ssh:
      KeyName: string
      AllowedIps: string
```

[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Ssh`properti
<a name="HeadNode-v3-Ssh.properties"></a>

`KeyName`(**Opsional**,`String`)  
Menamai key pair Amazon EC2 yang ada untuk mengaktifkan akses SSH ke node kepala.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps`(**Opsional**,`String`)  
Menentukan rentang IP berformat CIDR atau id daftar awalan untuk koneksi SSH ke node kepala. Nilai default-nya `0.0.0.0/0`.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `LocalStorage`
<a name="HeadNode-v3-LocalStorage"></a>

**(Opsional)** Mendefinisikan konfigurasi penyimpanan lokal untuk node kepala.

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
    DeleteOnTermination: boolean
  EphemeralVolume:
    MountDir: string
```

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `LocalStorage`properti
<a name="HeadNode-v3-LocalStorage.properties"></a>

`RootVolume`(**Diperlukan**)  
Menentukan penyimpanan volume root untuk node kepala.  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
  DeleteOnTermination: boolean
```
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Size`(**Opsional**,`Integer`)  
Menentukan ukuran volume akar simpul kepala di gibibytes (GiB). Ukuran default berasal dari AMI. Menggunakan ukuran yang berbeda mengharuskan AMI mendukung`growroot`.   
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Encrypted`(**Opsional**,`Boolean`)  
Menentukan apakah volume root dienkripsi. Nilai default-nya adalah `true`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
` VolumeType`(**Opsional**,`String`)  
Menentukan jenis [volume Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html). Nilai yang didukung adalah `gp2``gp3`,`io1`,`io2`,`sc1`,`st1`, dan`standard`. Nilai default-nya adalah `gp3`.  
Untuk informasi lebih lanjut, lihat [Jenis volume Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) di *Panduan Pengguna Amazon EC2*.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Iops`(**Opsional**,`Integer`)  
Mendefinisikan jumlah IOPS untuk`io1`,`io2`, dan `gp3` jenis volume.  
Nilai default, nilai yang didukung, dan `volume_iops` `volume_size` rasio bervariasi menurut `VolumeType` dan`Size`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`VolumeType` = `io1`  
Default `Iops` = 100  
Nilai yang didukung `Iops` = 100—64000 †  
`Size`Rasio maksimum `Iops` = 50 IOPS per GiB. 5000 IOPS membutuhkan `Size` setidaknya 100 GiB.  
`VolumeType` = `io2`  
Default `Iops` = 100  
Nilai yang didukung `Iops` = 100—64000 (256000 untuk `io2` volume Block Express) †  
`Size`Rasio maksimum `Iops` = 500 IOPS per GiB. 5000 IOPS membutuhkan `Size` minimal 10 GiB.  
`VolumeType` = `gp3`  
Default `Iops` = 3000  
Nilai yang didukung `Iops` = 3000—16000  
`Size`Rasio maksimum `Iops` = 500 IOPS per GiB. 5000 IOPS membutuhkan `Size` minimal 10 GiB.
† IOPS maksimum dijamin hanya pada [Instans yang dibangun di atas Sistem Nitro yang](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) disediakan dengan lebih dari 32.000 IOPS. Instans lain menjamin hingga 32.000 IOPS. `io1`Volume yang lebih lama mungkin tidak mencapai performa penuh kecuali Anda [memodifikasi volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html). `io2` Volume Block Express mendukung `Iops` nilai hingga 256000 pada jenis `R5b` instans. Untuk informasi selengkapnya, lihat [`io2`Blokir volume Express](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) di *Panduan Pengguna Amazon EC2*.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Throughput`(**Opsional**,`Integer`)  
Mendefinisikan throughput untuk tipe `gp3` volume, dalam MIB/s. Pengaturan ini hanya valid jika `VolumeType` ada`gp3`. Nilai default-nya adalah `125`. Nilai yang didukung: 125—1000 MiB/s  
Rasio `Throughput` to `Iops` bisa tidak lebih dari 0,25. Throughput maksimum 1000 MiB/s mengharuskan `Iops` pengaturan setidaknya 4000.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`DeleteOnTermination`(**Opsional**,`Boolean`)  
Menentukan apakah volume root harus dihapus ketika node kepala dihentikan. Nilai default-nya adalah `true`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EphemeralVolume`(**Opsional**)  
Menentukan rincian untuk setiap volume toko contoh. Untuk informasi selengkapnya, lihat [Volume penyimpanan instans](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes) di *Panduan Pengguna Amazon EC2*.  

```
EphemeralVolume:
  MountDir: string
```
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`MountDir`(**Opsional**,`String`)  
Menentukan direktori mount untuk volume toko contoh. Nilai default-nya `/scratch`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Dcv`
<a name="HeadNode-v3-Dcv"></a>

**(Opsional)** Mendefinisikan pengaturan konfigurasi untuk server Amazon DCV yang berjalan pada node kepala.

Untuk informasi selengkapnya, lihat [Hubungkan ke node head dan login melalui Amazon DCV](dcv-v3.md).

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```

**penting**  
Secara default, pengaturan port Amazon DCV terbuka AWS ParallelCluster untuk semua IPv4 alamat. Namun, Anda dapat terhubung ke port Amazon DCV hanya jika Anda memiliki URL untuk sesi Amazon DCV dan terhubung ke sesi Amazon DCV dalam waktu 30 detik sejak URL dikembalikan. `pcluster dcv-connect` Gunakan `AllowedIps` pengaturan untuk lebih membatasi akses ke port Amazon DCV dengan rentang IP berformat CIDR, dan gunakan `Port` pengaturan untuk menyetel port yang tidak standar.

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Dcv`properti
<a name="HeadNode-v3-Dcv.properties"></a>

`Enabled`(**Diperlukan**,`Boolean`)  
Menentukan apakah Amazon DCV diaktifkan pada node kepala. Nilai default-nya adalah `false`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Amazon DCV secara otomatis menghasilkan sertifikat yang ditandatangani sendiri yang digunakan untuk mengamankan lalu lintas antara klien Amazon DCV dan server Amazon DCV yang berjalan di node kepala. Untuk mengonfigurasi sertifikat Anda sendiri, lihat[Sertifikat Amazon DCV HTTPS](dcv-v3.md#dcv-v3-certificate).

`Port`(**Opsional**,`Integer`)  
Menentukan port untuk Amazon DCV. Nilai default-nya adalah `8443`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AllowedIps`(**Opsional, Direkomendasikan**,`String`)  
Menentukan rentang IP berformat CIDR untuk koneksi ke Amazon DCV. Pengaturan ini hanya digunakan saat AWS ParallelCluster membuat grup keamanan. Nilai defaultnya adalah`0.0.0.0/0`, yang memungkinkan akses dari alamat internet apa pun.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `CustomActions`
<a name="HeadNode-v3-CustomActions"></a>

**(Opsional)** Menentukan skrip kustom untuk berjalan pada node kepala.

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args: 
      - string
```

### `CustomActions`properti
<a name="HeadNode-v3-CustomActions.properties"></a>

`OnNodeStart`(**Opsional**)  
Menentukan skrip tunggal atau urutan skrip untuk dijalankan pada node kepala sebelum tindakan bootstrap penyebaran node dimulai. Untuk informasi selengkapnya, lihat [Tindakan bootstrap kustom](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opsional**)  
Daftar skrip untuk dijalankan. AWS ParallelCluster menjalankan skrip dalam urutan yang sama seperti yang tercantum dalam file konfigurasi, dimulai dengan yang pertama.    
`Script`(**Diperlukan**,`String`)  
Menentukan file yang akan digunakan. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
`Args`(**Opsional**,`[String]`)  
Daftar argumen untuk diteruskan ke skrip.  
`Script`(**Diperlukan**,`String`)  
Menentukan file yang akan digunakan untuk skrip tunggal. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
`Args`(**Opsional**,`[String]`)  
Daftar argumen untuk diteruskan ke skrip tunggal.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeConfigured`(**Opsional**)  
Menentukan skrip tunggal atau urutan skrip untuk dijalankan pada node kepala setelah tindakan bootstrap node selesai. Untuk informasi selengkapnya, lihat [Tindakan bootstrap kustom](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opsional**)  
Menentukan daftar skrip untuk menjalankan.    
`Script`(**Diperlukan**,`String`)  
Menentukan file yang akan digunakan. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
`Args`(**Opsional**,`[String]`)  
Daftar argumen untuk diteruskan ke skrip.  
`Script`(**Diperlukan**,`String`)  
Menentukan file yang akan digunakan untuk skrip tunggal. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
`Args`(**Opsional**,`[String]`)  
Daftar argumen untuk diteruskan ke skrip tunggal.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`OnNodeUpdated`(**Opsional**)  
Menentukan skrip tunggal atau urutan skrip untuk berjalan pada node kepala setelah tindakan pembaruan node selesai. Untuk informasi selengkapnya, lihat [Tindakan bootstrap kustom](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opsional**)  
Menentukan daftar skrip untuk menjalankan.    
`Script`(**Diperlukan**,`String`)  
Menentukan file yang akan digunakan. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
`Args`(**Opsional**,`[String]`)  
Daftar argumen untuk diteruskan ke skrip.  
`Script`(**Diperlukan**,`String`)  
Menentukan file yang akan digunakan untuk skrip tunggal. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
`Args`(**Opsional**,`[String]`)  
Daftar argumen untuk diteruskan ke skrip tunggal.
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`OnNodeUpdated`ditambahkan dimulai dengan AWS ParallelCluster 3.4.0.  
`Sequence`ditambahkan dimulai dengan AWS ParallelCluster versi 3.6.0. Saat Anda menentukan`Sequence`, Anda dapat membuat daftar beberapa skrip untuk tindakan kustom. AWS ParallelCluster terus mendukung konfigurasi tindakan khusus dengan satu skrip, tanpa menyertakan`Sequence`.  
AWS ParallelCluster tidak mendukung termasuk skrip tunggal dan `Sequence` untuk tindakan kustom yang sama.

## `Iam`
<a name="HeadNode-v3-Iam"></a>

**(Opsional)** Menentukan peran instance atau profil instance untuk digunakan pada node kepala untuk mengganti peran instance default atau profil instance untuk cluster.

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
```

[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Iam`properti
<a name="HeadNode-v3-Iam.properties"></a>

`InstanceProfile`(**Opsional**,`String`)  
Menentukan profil contoh untuk mengganti profil instance node kepala default. Anda tidak dapat menentukan `InstanceProfile` dan `InstanceRole` sekaligus. Formatnya adalah `arn:Partition:iam::Account:instance-profile/InstanceProfileName`.  
Jika ini ditentukan, `AdditionalIamPolicies` pengaturan `S3Access` dan tidak dapat ditentukan.  
Kami menyarankan Anda menentukan salah satu atau kedua `AdditionalIamPolicies` pengaturan `S3Access` dan karena fitur yang ditambahkan AWS ParallelCluster sering memerlukan izin baru.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`InstanceRole`(**Opsional**,`String`)  
Menentukan peran instance untuk mengganti peran instance head node default. Anda tidak dapat menentukan `InstanceProfile` dan `InstanceRole` sekaligus. Formatnya adalah `arn:Partition:iam::Account:role/RoleName`.  
Jika ini ditentukan, `AdditionalIamPolicies` pengaturan `S3Access` dan tidak dapat ditentukan.  
Kami menyarankan Anda menentukan salah satu atau kedua `AdditionalIamPolicies` pengaturan `S3Access` dan karena fitur yang ditambahkan AWS ParallelCluster sering memerlukan izin baru.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `S3Access`
<a name="HeadNode-v3-Iam-S3Access.properties"></a>

`S3Access`(**Opsional**)  
Menentukan ember. Ini digunakan untuk membuat kebijakan untuk memberikan akses yang ditentukan ke bucket.  
Jika ini ditentukan, `InstanceRole` pengaturan `InstanceProfile` dan tidak dapat ditentukan.  
Kami menyarankan Anda menentukan salah satu atau kedua `AdditionalIamPolicies` pengaturan `S3Access` dan karena fitur yang ditambahkan AWS ParallelCluster sering memerlukan izin baru.  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`BucketName`(**Diperlukan**,`String`)  
Nama ember.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`KeyName`(**Opsional**,`String`)  
Kunci untuk ember. Nilai defaultnya adalah "`*`”.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
` EnableWriteAccess`(**Opsional**,`Boolean`)  
Menunjukkan apakah akses tulis diaktifkan untuk bucket. Nilai default-nya adalah `false`.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `AdditionalIamPolicies`
<a name="HeadNode-v3-Iam-AdditionalIamPolicies.properties"></a>

`AdditionalIamPolicies`(**Opsional**)  
Menentukan daftar Nama Sumber Daya Amazon (ARN) kebijakan IAM untuk Amazon EC2. Daftar ini dilampirkan ke peran root yang digunakan untuk node kepala selain izin yang diperlukan oleh AWS ParallelCluster.  
Nama kebijakan IAM dan ARN-nya berbeda. Nama tidak bisa digunakan.  
Jika ini ditentukan, `InstanceRole` pengaturan `InstanceProfile` dan tidak dapat ditentukan.  
Kami menyarankan Anda menggunakan `AdditionalIamPolicies` karena `AdditionalIamPolicies` ditambahkan ke izin yang AWS ParallelCluster diperlukan, dan `InstanceRole` harus menyertakan semua izin yang diperlukan. Izin yang diperlukan sering berubah dari rilis ke rilis saat fitur ditambahkan.  
Tidak ada nilai default.  

```
AdditionalIamPolicies:
  - Policy: string
```
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
` Policy`(**Opsional**,`[String]`)  
Daftar kebijakan IAM.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Imds`
<a name="HeadNode-v3-Imds"></a>

**(Opsional)** Menentukan properti misalnya layanan metadata (IMDS). Untuk informasi selengkapnya, lihat [Cara kerja layanan metadata instans versi 2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/configuring-instance-metadata-service.html#instance-metadata-v2-how-it-works) di Panduan Pengguna *Amazon EC2*.

```
Imds:
    Secured: boolean
```

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Imds`properti
<a name="HeadNode-v3-Imds.properties"></a>

`Secured`(**Opsional**,`Boolean`)  
Jika`true`, membatasi akses ke IMDS node kepala (dan kredensyal profil instance) ke subset pengguna super.  
Jika`false`, setiap pengguna di node kepala memiliki akses ke IMDS node kepala.  

Pengguna berikut diizinkan mengakses IMDS node kepala:
+ pengguna root
+ pengguna administratif cluster (secara `pc-cluster-admin` default)
+ sistem operasi pengguna default tertentu (`ec2-user`di Amazon Linux 2 dan RedHat, dan `ubuntu` di Ubuntu 18.04.
Nilai default-nya `true`.  
`default`Pengguna bertanggung jawab untuk memastikan klaster memiliki izin yang dibutuhkan untuk berinteraksi dengan AWS sumber daya. Jika Anda menonaktifkan akses IMDS `default` pengguna, tidak AWS ParallelCluster dapat mengelola node komputasi dan berhenti bekerja. Jangan menonaktifkan akses IMDS `default` pengguna.  
Ketika pengguna diberikan akses ke IMDS node kepala, mereka dapat menggunakan izin yang disertakan dalam profil [instance node kepala](iam-roles-in-parallelcluster-v3.md). Misalnya, mereka dapat menggunakan izin ini untuk meluncurkan instans Amazon EC2 atau untuk membaca kata sandi untuk domain AD yang cluster dikonfigurasi untuk digunakan untuk otentikasi.  
Untuk membatasi akses IMDS, AWS ParallelCluster mengelola rantai. `iptables`  
Pengguna cluster dengan `sudo` akses dapat secara selektif mengaktifkan atau menonaktifkan akses ke IMDS head node untuk pengguna individu lainnya, termasuk `default` pengguna, dengan menjalankan perintah:  

```
$ sudo /opt/parallelcluster/scripts/imds/imds-access.sh --allow <USERNAME>
```
Anda dapat menonaktifkan akses IMDS pengguna dengan `--deny` opsi untuk perintah ini.  
Jika Anda tanpa sadar menonaktifkan akses IMDS `default` pengguna, Anda dapat mengembalikan izin dengan menggunakan opsi. `--allow`  
Setiap kustomisasi `iptables` atau `ip6tables` aturan dapat mengganggu mekanisme yang digunakan untuk membatasi akses IMDS pada node kepala.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `Image`
<a name="HeadNode-v3-Image"></a>

**(Opsional)** Mendefinisikan gambar kustom untuk node kepala.

```
Image:
     CustomAmi: string
```

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `Image`properti
<a name="HeadNode-v3-Image.properties"></a>

`CustomAmi`(**Opsional**,`String`)  
Menentukan ID AMI kustom yang akan digunakan untuk node kepala, bukan AMI default. Untuk informasi selengkapnya, lihat [AWS ParallelCluster Kustomisasi AMI](custom-ami-v3.md).  
Jika AMI kustom memerlukan izin tambahan untuk peluncurannya, izin ini harus ditambahkan ke kebijakan pengguna dan node kepala.  
Misalnya, jika AMI kustom memiliki snapshot terenkripsi yang terkait dengannya, kebijakan tambahan berikut diperlukan dalam kebijakan pengguna dan node kepala:    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Untuk memecahkan masalah peringatan validasi AMI kustom, lihat. [Memecahkan masalah AMI khusus](troubleshooting-v3-custom-amis.md)  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Bagian `Scheduling`
<a name="Scheduling-v3"></a>

**(Wajib)** Mendefinisikan penjadwal pekerjaan yang digunakan dalam klaster dan contoh komputasi yang dikelola oleh penjadwal pekerjaan. Anda dapat menggunakan AWS Batch penjadwal Slurm atau penjadwal. Masing-masing mendukung serangkaian pengaturan dan properti yang berbeda.

**Topics**
+ [`Scheduling`properti](#Scheduling-v3.properties)
+ [`AwsBatchQueues`](#Scheduling-v3-AwsBatchQueues)
+ [`SlurmQueues`](#Scheduling-v3-SlurmQueues)
+ [`SlurmSettings`](#Scheduling-v3-SlurmSettings)

```
Scheduling:
  Scheduler: slurm
  ScalingStrategy: string    
  SlurmSettings:
    MungeKeySecretArn: string        
    ScaledownIdletime: integer    
    QueueUpdateStrategy: string
    EnableMemoryBasedScheduling: boolean
    CustomSlurmSettings: [dict]
    CustomSlurmSettingsIncludeFile: string
    Database:
      Uri: string
      UserName: string
      PasswordSecretArn: string
      DatabaseName: string    
    ExternalSlurmdbd: boolean
      Host: string
      Port: integer  
    Dns:
      DisableManagedDns: boolean
      HostedZoneId: string
      UseEc2Hostnames: boolean  
  SlurmQueues:
    - Name: string  
      ComputeSettings:
        LocalStorage:
          RootVolume:
            Size: integer
            Encrypted: boolean
            VolumeType: string
            Iops: integer
            Throughput: integer
          EphemeralVolume:
            MountDir: string
      CapacityReservationTarget:
        CapacityReservationId: string
        CapacityReservationResourceGroupArn: string
      CapacityType: string
      AllocationStrategy: string
      JobExclusiveAllocation: boolean
      CustomSlurmSettings: dict
      Tags:
        - Key: string
          Value: string
      HealthChecks:
        Gpu:
          Enabled: boolean
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
        PlacementGroup:
          Enabled: boolean
          Id: string
          Name: string
        Proxy:
          HttpProxyAddress: string
      ComputeResources:
        - Name: string
          InstanceType: string
          Instances:
            - InstanceType: string
          MinCount: integer
          MaxCount: integer
          DynamicNodePriority: integer
          StaticNodePriority: integer
          SpotPrice: float
          DisableSimultaneousMultithreading: boolean
          SchedulableMemory: integer
          HealthChecks:
            Gpu:
              Enabled: boolean
          Efa:
            Enabled: boolean
            GdrSupport: boolean          
          CapacityReservationTarget:
            CapacityReservationId: string
            CapacityReservationResourceGroupArn: string
          Networking:   
            PlacementGroup:
              Enabled: boolean
              Name: string
          CustomSlurmSettings: dict
          Tags:
            - Key: string
              Value: string
          LaunchTemplateOverrides:
            LaunchTemplateId: string
            Version: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceProfile: string
        InstanceRole: string
        S3Access:
          - BucketName: string
            EnableWriteAccess: boolean
            KeyName: string
        AdditionalIamPolicies:
          - Policy: string
      Image:
        CustomAmi: string
```

```
Scheduling:
  Scheduler: awsbatch
  AwsBatchQueues:
    - Name: string
      CapacityType: string
      Networking:
        SubnetIds:
          - string
        AssignPublicIp: boolean
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
        - Name: string
          InstanceTypes:
            - string
          MinvCpus: integer
          DesiredvCpus: integer
          MaxvCpus: integer
          SpotBidPercentage: float
```

## `Scheduling`properti
<a name="Scheduling-v3.properties"></a>

**`Scheduler`(**Diperlukan**,`String`)**  
Menentukan jenis scheduler yang digunakan. Nilai yang didukung adalah `slurm` dan `awsbatch`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`awsbatch`hanya mendukung sistem `alinux2` operasi dan `x86_64` platform.

**`ScalingStrategy`(**Opsional**,`String`)**  
Memungkinkan Anda memilih bagaimana skala Slurm node dinamis. Nilai yang didukung adalah`all-or-nothing`, `greedy-all-or-nothing` dan `best-effort` Nilai defaultnya adalah`all-or-nothing`.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
Strategi penskalaan hanya berlaku untuk node yang akan dilanjutkan oleh Slurm, bukan untuk node yang akhirnya sudah berjalan.
+ `all-or-nothing`Strategi ini secara ketat mengikuti all-or-nothing-approach, yang bertujuan menghindari instance idle di akhir proses penskalaan. Ini beroperasi atas all-or-nothing dasar, yang berarti dapat ditingkatkan sepenuhnya atau tidak sama sekali. Ketahuilah bahwa mungkin ada biaya tambahan karena instans yang diluncurkan sementara, ketika pekerjaan membutuhkan lebih dari 500 node atau menjangkau beberapa sumber daya komputasi. Strategi ini memiliki throughput terendah di antara tiga Strategi Penskalaan yang mungkin. Waktu penskalaan tergantung pada jumlah pekerjaan yang dikirimkan per eksekusi program Slurm resume. Selain itu, Anda tidak dapat menskalakan jauh melampaui batas akun RunInstances sumber daya default per eksekusi, yaitu 1000 instance secara default. Detail lebih lanjut dapat ditemukan di dokumentasi [pelambatan API Amazon EC2](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/throttling.html)
+ `greedy-all-or-nothing `Mirip dengan all-or-nothing strategi, ini bertujuan untuk menghindari instance idle pasca-penskalaan. Strategi ini memungkinkan penskalaan berlebih sementara selama proses penskalaan untuk mencapai throughput yang lebih tinggi daripada all-or-nothing pendekatan tetapi juga dilengkapi dengan batas penskalaan yang sama yaitu 1000 instance sesuai batas akun sumber daya. RunInstances 
+ `best-effort `Strategi ini memprioritaskan throughput yang tinggi, bahkan jika itu berarti bahwa beberapa contoh mungkin menganggur di akhir proses penskalaan. Ini mencoba untuk mengalokasikan node sebanyak yang diminta oleh pekerjaan, tetapi ada kemungkinan tidak memenuhi seluruh permintaan. Berbeda dengan strategi lainnya, pendekatan upaya terbaik dapat mengakumulasi lebih banyak contoh daripada RunInstances batas standar, dengan biaya memiliki sumber daya yang menganggur di sepanjang eksekusi proses penskalaan ganda.

Setiap strategi dirancang untuk memenuhi kebutuhan penskalaan yang berbeda, memungkinkan Anda memilih salah satu yang memenuhi persyaratan dan kendala spesifik Anda.

## `AwsBatchQueues`
<a name="Scheduling-v3-AwsBatchQueues"></a>

**(Opsional)** Pengaturan AWS Batch antrian. Hanya satu antrian yang didukung. Jika [`Scheduler`](#yaml-Scheduling-Scheduler)diatur ke`awsbatch`, bagian ini diperlukan. Untuk informasi selengkapnya tentang `awsbatch` penjadwal, lihat [penyiapan jaringan](network-configuration-v3-batch.md) dan[Menggunakan AWS Batch (`awsbatch`) scheduler dengan AWS ParallelCluster](awsbatchcli-v3.md).

```
AwsBatchQueues:
  - Name: string
    CapacityType: string
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
      - Name: string
        InstanceTypes:
          - string
        MinvCpus: integer
        DesiredvCpus: integer
        MaxvCpus: integer
        SpotBidPercentage: float
```

[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `AwsBatchQueues`properti
<a name="Scheduling-v3-AwsBatchQueues.properties"></a>

**`Name`(**Diperlukan**,`String`)**  
Nama AWS Batch antrian.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityType`(**Opsional**,`String`)**  
Jenis sumber daya komputasi yang digunakan AWS Batch antrian. Nilai yang didukung adalah`ONDEMAND`, `SPOT` atau`CAPACITY_BLOCK`. Nilai default-nya adalah `ONDEMAND`.  
Jika disetel `CapacityType` ke`SPOT`, akun Anda harus berisi peran `AWSServiceRoleForEC2Spot` terkait layanan. Anda dapat membuat peran ini menggunakan AWS CLI perintah berikut.  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Untuk informasi selengkapnya, lihat [Peran terkait layanan untuk permintaan Instans Spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) di *Panduan Pengguna Amazon Amazon EC2* untuk Instans Linux.
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### `Networking`
<a name="Scheduling-v3-AwsBatchQueues-Networking"></a>

**(Wajib)** Mendefinisikan konfigurasi jaringan untuk AWS Batch antrian.

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```

##### `Networking`properti
<a name="Scheduling-v3-AwsBatchQueues-Networking.properties"></a>

**`SubnetIds`(**Diperlukan**,`[String]`)**  
Menentukan ID dari subnet yang ada untuk menyediakan AWS Batch antrian di. Saat ini hanya satu subnet yang didukung.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`AssignPublicIp`(**Opsional**,`String`)**  
Membuat atau menetapkan alamat IP publik ke node dalam AWS Batch antrian. Nilai yang didukung adalah `true` dan `false`. Default tergantung pada subnet yang Anda tentukan.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups`(**Opsional**,`[String]`)**  
Daftar grup keamanan yang digunakan AWS Batch antrian. Jika Anda tidak menentukan grup keamanan, AWS ParallelCluster buat grup keamanan baru.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups`(**Opsional**,`[String]`)**  
Daftar grup keamanan yang digunakan AWS Batch antrian.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

#### `ComputeResources`
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources"></a>

**(Wajib)** Mendefinisikan ComputeResources konfigurasi untuk AWS Batch antrian.

```
ComputeResources:  # this maps to a Batch compute environment (initially we support only 1)
  - Name: string
    InstanceTypes:
      - string
    MinvCpus: integer
    DesiredvCpus: integer
    MaxvCpus: integer
    SpotBidPercentage: float
```

##### `ComputeResources`properti
<a name="Scheduling-v3-AwsBatchQueues-ComputeResources.properties"></a>

**`Name`(**Diperlukan**,`String`)**  
Nama lingkungan komputasi AWS Batch antrian.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceTypes`(**Diperlukan**,`[String]`)**  
Array lingkungan AWS Batch komputasi dari tipe instance. Semua tipe instance harus menggunakan `x86_64` arsitektur.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MinvCpus`(**Opsional**,`Integer`)**  
Jumlah minimum VCPUs yang dapat digunakan oleh lingkungan AWS Batch komputasi.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`DesiredVcpus`(**Opsional**,`Integer`)**  
Jumlah yang diinginkan dari VCPUs dalam lingkungan AWS Batch komputasi. AWS Batch menyesuaikan nilai ini antara `MinvCpus` dan `MaxvCpus` berdasarkan permintaan dalam antrian pekerjaan.  
[Kebijakan pembaruan: Pengaturan ini tidak dianalisis selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

**`MaxvCpus`(**Opsional**,`Integer`)**  
Jumlah maksimum VCPUs untuk lingkungan AWS Batch komputasi. Anda tidak dapat mengatur ini ke nilai yang lebih rendah dari`DesiredVcpus`.  
[Kebijakan pembaruan: Pengaturan ini tidak dapat dikurangi selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-no-decrease-v3)

**`SpotBidPercentage`(**Opsional**,`Float`)**  
Persentase maksimum harga Sesuai Permintaan untuk jenis instans yang dapat dicapai oleh harga Instans Spot Amazon EC2 sebelum instans diluncurkan. Nilai defaultnya adalah `100` (100%). Rentang yang didukung adalah `1` -`100`.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmQueues`
<a name="Scheduling-v3-SlurmQueues"></a>

**(Opsional)** Pengaturan untuk Slurm antrian. Jika [`Scheduler`](#yaml-Scheduling-Scheduler)diatur ke`slurm`, bagian ini diperlukan.

```
SlurmQueues:
  - Name: string
    ComputeSettings:
      LocalStorage:
        RootVolume:
          Size: integer
          Encrypted: boolean
          VolumeType: string
          Iops: integer
          Throughput: integer
        EphemeralVolume:
          MountDir: string
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    CapacityType: string
    AllocationStrategy: string
    JobExclusiveAllocation: boolean
    CustomSlurmSettings: dict
    Tags:
      - Key: string
        Value: string
    HealthChecks:
      Gpu:
        Enabled: boolean
    Networking:
      SubnetIds:
        - string
      AssignPublicIp: boolean
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
      PlacementGroup:
        Enabled: boolean
        Id: string
        Name: string
      Proxy:
        HttpProxyAddress: string
    ComputeResources:
      - Name: string
        InstanceType: string
        Instances:
          - InstanceType: string        
        MinCount: integer
        MaxCount: integer
        DynamicNodePriority: integer
        StaticNodePriority: integer
        SpotPrice: float
        DisableSimultaneousMultithreading: boolean
        SchedulableMemory: integer
        HealthChecks:
          Gpu:
            Enabled: boolean
        Efa:
          Enabled: boolean
          GdrSupport: boolean    
        CapacityReservationTarget:
          CapacityReservationId: string
          CapacityReservationResourceGroupArn: string     
        Networking:   
          PlacementGroup:
            Enabled: boolean
            Name: string
        CustomSlurmSettings: dict
        Tags:
          - Key: string
            Value: string
        LaunchTemplateOverrides:
          LaunchTemplateId: string
          Version: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string        
        Script: string
        Args:
          - string
    Iam:
      InstanceProfile: string
      InstanceRole: string
      S3Access:
        - BucketName: string
          EnableWriteAccess: boolean
          KeyName: string
      AdditionalIamPolicies:
        - Policy: string
    Image:
      CustomAmi: string
```

[Kebijakan pembaruan: Untuk pengaturan nilai daftar ini, nilai baru dapat ditambahkan selama pembaruan atau armada komputasi harus dihentikan saat menghapus nilai yang ada.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

### `SlurmQueues`properti
<a name="Scheduling-v3-SlurmQueues.properties"></a>

**`Name`(**Diperlukan**,`String`)**  
Nama Slurm antrian.  
Ukuran cluster dapat berubah selama pembaruan. Untuk informasi selengkapnya, lihat [Ukuran dan pembaruan kapasitas cluster](slurm-workload-manager-v3.md)
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`CapacityReservationTarget`**  
`CapacityReservationTarget`ditambahkan dengan AWS ParallelCluster versi 3.3.0.

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
Menentukan reservasi kapasitas Sesuai Permintaan untuk sumber daya komputasi antrian.    
**`CapacityReservationId`(**Opsional**,`String`)**  
ID reservasi kapasitas yang ada untuk menargetkan sumber daya komputasi antrian. ID dapat merujuk ke [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) atau [Blok Kapasitas untuk](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html) ML.  
Reservasi harus menggunakan platform yang sama dengan yang digunakan instans. Misalnya, jika instans Anda berjalan`rhel8`, reservasi kapasitas Anda harus berjalan di platform Red Hat Enterprise Linux. Untuk informasi selengkapnya, lihat [Platform yang didukung](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html#capacity-reservations-platforms) di *Panduan Pengguna Amazon EC2 untuk Instans Linux*.  
Jika Anda menyertakan [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)dalam konfigurasi cluster, Anda harus mengecualikan `CapacityReservationId` pengaturan tingkat antrian ini dari konfigurasi.
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`CapacityReservationResourceGroupArn`(**Opsional**,`String`)**  
Nama Sumber Daya Amazon (ARN) dari grup sumber daya yang berfungsi sebagai grup reservasi kapasitas terkait layanan untuk sumber daya komputasi antrian. AWS ParallelCluster mengidentifikasi dan menggunakan reservasi kapasitas yang paling tepat dari kelompok sumber daya berdasarkan kondisi berikut:  
+ Jika `PlacementGroup` diaktifkan di [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)atau/[`SlurmQueues`[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster pilih grup sumber daya yang menargetkan jenis instance dan `PlacementGroup` untuk sumber daya komputasi, jika sumber daya komputasi ada.

  `PlacementGroup`Harus menargetkan salah satu jenis instance yang didefinisikan dalam [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources).
+ Jika `PlacementGroup` tidak diaktifkan di [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)atau/[`SlurmQueues`[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster pilih grup sumber daya yang hanya menargetkan jenis instance sumber daya komputasi, jika sumber daya komputasi ada.
Grup sumber daya harus memiliki setidaknya satu ODCR untuk setiap jenis instans yang dicadangkan di Availability Zone di semua sumber daya komputasi dan Availability Zone antrean. Untuk informasi selengkapnya, lihat [Luncurkan instans dengan Pemesanan Kapasitas Sesuai Permintaan (ODCR)](launch-instances-odcr-v3.md).  
Untuk informasi selengkapnya tentang beberapa persyaratan konfigurasi subnet, lihat [`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).  
Beberapa Availability Zones ditambahkan dalam AWS ParallelCluster versi 3.4.0.
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityType`(**Opsional**,`String`)**  
Jenis sumber daya komputasi yang digunakan Slurm antrian. Nilai yang didukung adalah`ONDEMAND`, `SPOT` atau`CAPACITY_BLOCK`. Nilai default-nya adalah `ONDEMAND`.  
Jika Anda menyetel `CapacityType` ke`SPOT`, akun Anda harus memiliki peran `AWSServiceRoleForEC2Spot` terkait layanan. Anda dapat menggunakan AWS CLI perintah berikut untuk membuat peran ini.  

```
$ aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
```
Untuk informasi selengkapnya, lihat [Peran terkait layanan untuk permintaan Instans Spot](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/spot-requests.html#service-linked-roles-spot-instance-requests) di *Panduan Pengguna Amazon Amazon EC2* untuk Instans Linux.
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AllocationStrategy`(**Opsional**,`String`)**  
Tentukan strategi alokasi untuk semua sumber daya komputasi yang ditentukan dalam. [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)  
Nilai yang valid: `lowest-price` \$1 `capacity-optimized` \$1 `price-capacity-optimized` \$1 `prioritized` \$1 `capacity-optimized-prioritized`       
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/parallelcluster/latest/ug/Scheduling-v3.html)
Default: `lowest-price`    
**`lowest-price`**  
+ Jika Anda menggunakannya`CapacityType = ONDEMAND`, Armada Amazon EC2 menggunakan harga untuk menentukan pesanan dan meluncurkan instans harga terendah terlebih dahulu.
+ Jika Anda menggunakannya`CapacityType = SPOT`, Amazon EC2 Fleet meluncurkan instans dari kumpulan Instans Spot harga terendah yang memiliki kapasitas yang tersedia. Jika kolam kehabisan kapasitas sebelum memenuhi kapasitas yang Anda butuhkan, Amazon EC2 Fleet memenuhi permintaan Anda dengan meluncurkan instans untuk Anda. Secara khusus, Amazon EC2 Fleet meluncurkan instans dari kumpulan Instans Spot harga terendah yang memiliki kapasitas yang tersedia. Armada Amazon EC2 mungkin meluncurkan Instans Spot dari beberapa kumpulan yang berbeda.
+ Jika Anda mengatur`CapacityType = CAPACITY_BLOCK`, tidak ada strategi alokasi, sehingga `AllocationStrategy` parameter tidak dapat dikonfigurasi.  
**`capacity-optimized`**  
+ Jika Anda mengatur`CapacityType = ONDEMAND`, `capacity-optimized` tidak tersedia.
+ Jika disetel`CapacityType = SPOT`, Amazon EC2 Fleet meluncurkan instans dari kumpulan Instans Spot dengan kapasitas optimal untuk jumlah instans yang akan diluncurkan.  
**`price-capacity-optimized`**  
+ Jika Anda mengatur`CapacityType = ONDEMAND`, `capacity-optimized` tidak tersedia.
+ Jika Anda menyetel`CapacityType = SPOT`, Amazon EC2 Fleet mengidentifikasi kumpulan dengan ketersediaan kapasitas tertinggi untuk jumlah instans yang diluncurkan. Hal ini berarti bahwa kami akan meminta Instans Spot dari kolam yang kami yakini memiliki peluang interupsi terendah dalam waktu dekat. Armada Amazon EC2 kemudian meminta Instans Spot dari harga terendah dari kumpulan ini.  
**`prioritized`**  
+ Jika Anda menyetel`CapacityType = ONDEMAND`, Armada Amazon EC2 menghormati urutan prioritas yang AWS ParallelCluster berlaku untuk LaunchTemplate penggantian saat beberapa subnet ditentukan. AWS ParallelCluster mendapatkan override `priority` dari posisi subnet target `SlurmQueues/Networking/SubnetIds` dengan Subnet pertama mendapatkan prioritas tertinggi. Prioritas didorong oleh AWS ParallelCluster dalam urutan menurun dari`SlurmQueues/Networking/SubnetIds`, dengan yang pertama SubnetId memiliki prioritas tertinggi dan SubnetID terakhir memiliki prioritas terendah. 
+ Jika Anda mengatur`CapacityType = SPOT`, `prioritized` tidak tersedia.  
**`capacity-optimized-prioritized`**  
+ Jika Anda mengatur`CapacityType = ONDEMAND`, `capacity-optimized-prioritized` tidak tersedia.
+ Jika Anda menetapkan`CapacityType = SPOT`, Armada Amazon EC2 mengoptimalkan kapasitas terlebih dahulu dan kemudian menerapkan, atas dasar upaya terbaik, urutan prioritas yang ditetapkan untuk penggantian. AWS ParallelCluster LaunchTemplate Prioritas didorong oleh AWS ParallelCluster dalam urutan menurun dari`SlurmQueues/Networking/SubnetIds`, dengan yang pertama SubnetId memiliki prioritas tertinggi dan SubnetID terakhir memiliki prioritas terendah. Semua penggantian yang menargetkan subnet yang sama menerima nilai prioritas yang sama.
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`AllocationStrategy`didukung mulai AWS ParallelCluster versi 3.3.0.  
**Baru di 3.14.0**: `prioritized` (untuk On-Demand) dan `capacity-optimized-prioritized` (untuk Spot).

**`JobExclusiveAllocation`(**Opsional**,`String`)**  
Jika diatur ke`true`, `OverSubscribe` bendera Slurm partisi diatur ke`EXCLUSIVE`. Ketika `OverSubscribe` =`EXCLUSIVE`, pekerjaan di partisi memiliki akses eksklusif ke semua node yang dialokasikan. Untuk informasi lebih lanjut, lihat [EKSKLUSIF](https://slurm.schedmd.com/slurm.conf.html#OPT_EXCLUSIVE) dalam Slurm dokumentasi.  
Nilai yang valid: `true` \$1 `false`  
Default: `false`  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`JobExclusiveAllocation`didukung mulai AWS ParallelCluster versi 3.7.0.

**`CustomSlurmSettings`(**Opsional**,`Dict`)**  
Mendefinisikan pengaturan konfigurasi Slurm partisi kustom (antrian).  
Menentukan kamus parameter Slurm konfigurasi kustom pasangan kunci-nilai yang berlaku untuk antrian (partisi).  
Setiap pasangan kunci-nilai yang terpisah`Param1: Value1`, seperti, ditambahkan secara terpisah ke akhir baris konfigurasi Slurm partisi dalam format. `Param1=Value1`  
Anda hanya dapat menentukan parameter Slurm konfigurasi yang tidak dicantumkan dalam daftar penolakan. `CustomSlurmSettings` Untuk informasi tentang parameter Slurm konfigurasi daftar penolakan, lihat. [Terdaftar penolakan Slurm parameter konfigurasi untuk `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)  
AWS ParallelCluster hanya memeriksa apakah parameter ada dalam daftar penolakan. AWS ParallelCluster tidak memvalidasi sintaks atau Slurm semantik parameter konfigurasi kustom Anda. Merupakan tanggung jawab Anda untuk memvalidasi parameter Slurm konfigurasi kustom Anda. Parameter Slurm konfigurasi kustom yang tidak valid dapat menyebabkan kegagalan Slurm daemon yang dapat menyebabkan kegagalan pembuatan dan pembaruan cluster.  
Untuk informasi selengkapnya tentang cara menentukan parameter Slurm konfigurasi kustom AWS ParallelCluster, lihat[Slurm kustomisasi konfigurasi](slurm-configuration-settings-v3.md).  
Untuk informasi selengkapnya tentang parameter Slurm konfigurasi, lihat [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) di dokumentasi. Slurm  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`didukung dimulai dengan AWS ParallelCluster versi 3.6.0.

**`Tags`(**Opsional**, [String])**  
Daftar pasangan nilai kunci tag. [`ComputeResource`](#yaml-Scheduling-SlurmQueues-ComputeResources-Tags)tag mengganti tag duplikat yang ditentukan dalam [Bagian `Tags`](Tags-v3.md) atau di`SlurmQueues`/. `Tags`    
**`Key`(**Opsional**,`String`)**  
Kunci tanda.  
**`Value`(**Opsional**,`String`)**  
Nilai tanda.
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks`(**Opsional**)**  
Tentukan pemeriksaan kesehatan node komputasi pada semua sumber daya komputasi dalam antrian.    
`Gpu`(**Opsional**)  
Tentukan pemeriksaan kesehatan GPU pada semua sumber daya komputasi dalam antrian.  
AWS ParallelCluster tidak mendukung`HealthChecks`/`Gpu`di node yang menggunakan sistem operasi `alinux2` ARM. Platform ini tidak mendukung [NVIDIA Data Center GPU Manager (DCGM](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions)).  
Mengaktifkan pemeriksaan kesehatan GPU saat menggunakan tipe instans yang ukuran memori GPU totalnya lebih tinggi dari 327680 MiB tidak disarankan.  
`Enabled`(**Opsional**,`Boolean`)  
Apakah AWS ParallelCluster melakukan pemeriksaan kesehatan GPU pada node komputasi. Nilai default-nya `false`.

**`Gpu`perilaku pemeriksaan kesehatan**
+ Jika`Gpu`/`Enabled`disetel ke`true`, AWS ParallelCluster melakukan pemeriksaan kesehatan GPU pada sumber daya komputasi dalam antrian.
+ Pemeriksaan `Gpu` kesehatan melakukan pemeriksaan kesehatan GPU pada sumber daya komputasi untuk mencegah pengajuan pekerjaan pada node dengan GPU yang terdegradasi.
+ Jika node komputasi gagal dalam pemeriksaan `Gpu` kesehatan, status node komputasi berubah menjadi. `DRAIN` Pekerjaan baru tidak dimulai pada node ini. Pekerjaan yang ada berjalan sampai selesai. Setelah semua pekerjaan berjalan selesai, node komputasi berakhir jika itu adalah node dinamis, dan diganti jika itu adalah node statis.
+ Durasi pemeriksaan `Gpu` kesehatan tergantung pada jenis instans yang dipilih, jumlah GPUs instans, total memori GPU dan jumlah target pemeriksaan `Gpu` kesehatan (setara dengan jumlah target GPU pekerjaan). Misalnya, pada p4d.24xlarge, durasi tipikal adalah 3 menit.
+ Jika pemeriksaan `Gpu` kesehatan berjalan pada instance yang tidak didukung, itu keluar dan pekerjaan berjalan pada node komputasi. Misalnya, jika sebuah instance tidak memiliki GPU, atau, jika instance memiliki GPU, tetapi itu bukan GPU NVIDIA, pemeriksaan kesehatan keluar dan pekerjaan berjalan pada node komputasi. Hanya NVIDIA GPUs yang didukung.
+ Pemeriksaan `Gpu` kesehatan menggunakan `dcgmi` alat untuk melakukan pemeriksaan kesehatan pada node dan mengambil langkah-langkah berikut: 

  Ketika pemeriksaan `Gpu` kesehatan dimulai di simpul:

  1. Ini mendeteksi apakah `nvidia-dcgm` dan `nvidia-fabricmanager` layanan berjalan.

  1. Jika layanan ini tidak berjalan, pemeriksaan `Gpu` kesehatan memulainya.

  1. Ini mendeteksi apakah mode persistensi diaktifkan.

  1. Jika mode persistensi tidak diaktifkan, pemeriksaan `Gpu` kesehatan mengaktifkannya.

  Pada akhir pemeriksaan kesehatan, pemeriksaan `Gpu` kesehatan mengembalikan layanan dan sumber daya ini ke keadaan awal.
+ Jika pekerjaan ditetapkan ke satu set node tertentu GPUs, pemeriksaan `Gpu` kesehatan hanya berjalan pada set tertentu. Jika tidak, pemeriksaan `Gpu` kesehatan berjalan pada semua GPUs di node.
+ Jika node komputasi menerima 2 atau lebih permintaan pemeriksaan `Gpu` kesehatan pada saat yang sama, hanya pemeriksaan kesehatan pertama yang berjalan dan yang lainnya dilewati. Ini juga berlaku untuk pemeriksaan kesehatan yang menargetkan simpul GPUs. Anda dapat memeriksa file log untuk informasi tambahan mengenai situasi ini.
+ Log pemeriksaan kesehatan untuk node komputasi tertentu tersedia dalam `/var/log/parallelcluster/slurm_health_check.log` file. File ini tersedia di Amazon CloudWatch, di grup CloudWatch log cluster, tempat Anda dapat menemukan:
  + Detail tentang tindakan yang dijalankan oleh pemeriksaan `Gpu` kesehatan, termasuk mengaktifkan dan menonaktifkan layanan dan mode persistensi.
  + Pengidentifikasi GPU, ID serial, dan UUID.
  + Output pemeriksaan kesehatan.
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`didukung mulai AWS ParallelCluster versi 3.6.0.

#### `Networking`
<a name="Scheduling-v3-SlurmQueues-Networking"></a>

**(Wajib)** Mendefinisikan konfigurasi jaringan untuk Slurm antrian.

```
Networking:
  SubnetIds:
    - string
  AssignPublicIp: boolean
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
  PlacementGroup:
    Enabled: boolean
    Id: string
    Name: string
  Proxy:
    HttpProxyAddress: string
```

[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `Networking`properti
<a name="Scheduling-v3-SlurmQueues-Networking.properties"></a>

**`SubnetIds`(**Diperlukan**,`[String]`)**  
Subnet IDs yang ada tempat Anda menyediakan Slurm antrean.  
Jika Anda mengonfigurasi jenis instance di [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType), Anda hanya dapat menentukan satu subnet.  
Jika Anda mengonfigurasi jenis instance di [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances), Anda dapat menentukan subnet tunggal atau beberapa subnet.  
Jika Anda menggunakan beberapa subnet, semua subnet yang ditentukan untuk antrian harus berada dalam VPC yang sama, dengan setiap subnet di Availability Zone (AZ) terpisah.  
Misalnya, Anda mendefinisikan subnet-1 dan subnet-2 untuk antrian Anda.  
`subnet-1`dan tidak `subnet-2` bisa keduanya berada di AZ-1.  
`subnet-1`bisa di AZ-1 dan `subnet-2` bisa di AZ-2.  
Jika Anda mengonfigurasi hanya satu jenis instans dan ingin menggunakan beberapa subnet, tentukan jenis instans Anda sebagai `Instances` pengganti. `InstanceType`  
Misalnya, definisikan`ComputeResources`/`Instances`/`InstanceType`= `instance.type` bukannya`ComputeResources`/`InstanceType`=`instance.type`.  
Elastic Fabric Adapter (EFA) tidak didukung pada zona ketersediaan yang berbeda.
Penggunaan beberapa Availability Zone dapat menyebabkan peningkatan latensi jaringan penyimpanan dan menambahkan biaya transfer data antar-AZ. Misalnya, ini dapat terjadi ketika sebuah instance mengakses penyimpanan file yang terletak di AZ yang berbeda. Untuk informasi selengkapnya, lihat [Transfer Data dalam hal yang sama Wilayah AWS](https://aws.amazon.com/ec2/pricing/on-demand/#Data_Transfer_within_the_same_AWS_Region).  

**Pembaruan cluster untuk mengubah dari penggunaan subnet tunggal ke beberapa subnet:**
+ Misalkan definisi subnet dari sebuah cluster didefinisikan dengan subnet tunggal dan AWS ParallelCluster dikelola FSx untuk sistem file Lustre. Kemudian, Anda tidak dapat memperbarui cluster ini dengan definisi subnet ID yang diperbarui secara langsung. Untuk membuat pembaruan cluster, Anda harus terlebih dahulu mengubah sistem file terkelola ke sistem file eksternal. Untuk informasi selengkapnya, lihat [Ubah penyimpanan AWS ParallelCluster terkelola ke penyimpanan eksternal](shared-storage-conversion-v3.md).
+ Misalkan definisi subnet cluster didefinisikan dengan subnet tunggal dan sistem file Amazon EFS eksternal jika target pemasangan EFS tidak ada untuk semua subnet yang ditentukan untuk ditambahkan. AZs Kemudian, Anda tidak dapat memperbarui cluster ini dengan definisi subnet ID yang diperbarui secara langsung. Untuk membuat pembaruan kluster atau membuat cluster, Anda harus terlebih dahulu membuat semua target pemasangan untuk semua subnet yang ditentukan. AZs 

**Availability Zone dan reservasi kapasitas cluster didefinisikan dalam [CapacityReservationResourceGroupArn](#yaml-Scheduling-SlurmQueues-CapacityReservationResourceGroupArn):**
+ Anda tidak dapat membuat klaster jika tidak ada tumpang tindih antara kumpulan tipe instans dan zona ketersediaan yang dicakup oleh grup sumber daya reservasi kapasitas yang ditentukan dan kumpulan tipe instans dan zona ketersediaan yang ditentukan untuk antrian.
+ Anda dapat membuat klaster jika ada tumpang tindih sebagian antara kumpulan tipe instans dan zona ketersediaan yang dicakup oleh grup sumber daya reservasi kapasitas yang ditentukan dan kumpulan tipe instans dan zona ketersediaan yang ditentukan untuk antrian. AWS ParallelCluster mengirim pesan peringatan tentang tumpang tindih sebagian untuk kasus ini.
+ Untuk informasi selengkapnya, lihat [Luncurkan instans dengan Pemesanan Kapasitas Sesuai Permintaan (ODCR)](launch-instances-odcr-v3.md).
Beberapa Availability Zones ditambahkan dalam AWS ParallelCluster versi 3.4.0.
Peringatan ini berlaku untuk semua versi 3.xy sebelum AWS ParallelCluster versi 3.3.1. AWS ParallelCluster versi 3.3.1 tidak terpengaruh jika parameter ini diubah.  
Untuk AWS ParallelCluster 3 versi sebelum versi 3.3.1:  
Jika Anda mengubah parameter ini dan memperbarui klaster, ini akan membuat sistem file Lustre dikelola FSx baru dan menghapus sistem file Lustre yang dikelola FSx untuk Lustre yang ada tanpa menyimpan data yang ada. Hal ini mengakibatkan hilangnya data. Sebelum Anda melanjutkan, pastikan Anda mencadangkan data dari yang ada FSx untuk sistem file Lustre jika Anda ingin menyimpan data. Untuk informasi selengkapnya, lihat [Bekerja dengan cadangan di Panduan](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) Pengguna *FSx untuk Lustre*.
Jika nilai subnet baru ditambahkan, [Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
Jika nilai subnet dihapus, [Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`AssignPublicIp`(**Opsional**,`String`)**  
Membuat atau menetapkan alamat IP publik ke node dalam Slurm antrian. Nilai yang didukung adalah `true` dan `false`. Subnet yang Anda tentukan menentukan nilai default. Subnet dengan IPs default publik untuk menetapkan alamat IP publik.  
Jika Anda menentukan jenis p4d atau hpc6id instance, atau jenis instance lain yang memiliki beberapa antarmuka jaringan atau kartu antarmuka jaringan, Anda harus menyetel [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`ElasticIp`](HeadNode-v3.md#yaml-HeadNode-Networking-ElasticIp)`true`untuk menyediakan akses publik. AWS public hanya IPs dapat ditugaskan ke instance yang diluncurkan dengan antarmuka jaringan tunggal. Untuk kasus ini, kami menyarankan Anda menggunakan [gateway NAT](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html) untuk menyediakan akses publik ke node komputasi cluster. Dalam hal ini, atur `AssignPublicIp` ke`false`. Untuk informasi selengkapnya tentang alamat IP, lihat [Menetapkan IPv4 alamat publik selama peluncuran instans](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) di *Panduan Pengguna Amazon EC2 untuk* Instans Linux.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`SecurityGroups`(**Opsional**,`[String]`)**  
Daftar grup keamanan yang akan digunakan untuk Slurm antrian. Jika tidak ada grup keamanan yang ditentukan, AWS ParallelCluster buat grup keamanan untuk Anda.  
Verifikasi bahwa grup keamanan dikonfigurasi dengan benar untuk [SharedStorage](SharedStorage-v3.md)sistem Anda.  
Peringatan ini berlaku untuk semua 3. *x*. *y* AWS ParallelCluster versi sebelum versi 3.3.0. AWS ParallelCluster versi 3.3.0 tidak terpengaruh jika parameter ini diubah.  
Untuk AWS ParallelCluster 3 versi sebelum versi 3.3.0:  
Jika Anda mengubah parameter ini dan memperbarui klaster, ini akan membuat sistem file Lustre dikelola FSx baru dan menghapus sistem file Lustre yang dikelola FSx untuk Lustre yang ada tanpa menyimpan data yang ada. Hal ini mengakibatkan hilangnya data. Pastikan untuk mencadangkan data dari yang ada FSx untuk sistem file Lustre jika Anda ingin menyimpan data. Untuk informasi selengkapnya, lihat [Bekerja dengan cadangan di Panduan](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) Pengguna *FSx untuk Lustre*.
Jika Anda mengaktifkan [EFA](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa) untuk instans komputasi, pastikan instans berkemampuan EFA Anda adalah anggota grup keamanan yang memungkinkan semua lalu lintas masuk dan keluar ke dirinya sendiri.
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalSecurityGroups`(**Opsional**,`[String]`)**  
Daftar grup keamanan tambahan yang akan digunakan untuk Slurm antrian.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`PlacementGroup`(**Opsional**)**  
Menentukan pengaturan grup penempatan untuk Slurm antrian.  

```
PlacementGroup:
  Enabled: boolean
  Id: string
  Name: string
```
[Kebijakan pembaruan: Semua node komputasi harus dihentikan untuk penghapusan grup penempatan terkelola. Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`Enabled`(**Opsional**,`Boolean`)**  
Menunjukkan apakah grup penempatan digunakan untuk Slurm antrian. Nilai default-nya `false`.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Id`(**Opsional**,`String`)**  
ID grup penempatan untuk grup penempatan klaster yang ada yang digunakan Slurm antrian. Pastikan untuk memberikan *ID* grup penempatan dan *bukan nama*.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name`(**Opsional**,`String`)**  
Nama grup penempatan untuk grup penempatan klaster yang ada yang digunakan Slurm antrean. Pastikan untuk memberikan *nama* grup penempatan dan *bukan ID*.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ Jika`PlacementGroup`/`Enabled`disetel ke`true`, tanpa `Name` atau `Id` didefinisikan, setiap sumber daya komputasi ditetapkan grup penempatan terkelolanya sendiri, kecuali [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking-PlacementGroup)didefinisikan untuk mengganti setelan ini.
+ Dimulai dengan AWS ParallelCluster versi 3.3.0, [`SlurmQueues`[`Networking`](#Scheduling-v3-SlurmQueues-Networking)](#Scheduling-v3-SlurmQueues)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)//[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)ditambahkan sebagai alternatif yang disukai untuk [`SlurmQueues`](#Scheduling-v3-SlurmQueues)//[`Networking`[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)](#Scheduling-v3-SlurmQueues-Networking)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id).

  [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)dan [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name)setara. Anda dapat menggunakan salah satunya.

   Jika Anda menyertakan keduanya [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Id`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Id)dan [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name), AWS ParallelCluster gagal. Anda hanya dapat memilih satu atau yang lain.

  Anda tidak perlu memperbarui cluster Anda untuk menggunakan [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)/[`Name`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup-Name).
+ Saat menggunakan reservasi blok kapasitas, batasan grup penempatan tidak boleh ditetapkan karena kesalahan kapasitas yang tidak mencukupi dapat terjadi karena kendala penempatan di luar reservasi bahkan jika reservasi kapasitas memiliki kapasitas yang tersisa.

**`Proxy`(**Opsional**)**  
Menentukan pengaturan proxy untuk Slurm antrian.  

```
Proxy:
  HttpProxyAddress: string
```
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`HttpProxyAddress`(**Opsional**,`String`)**  
Mendefinisikan server proxy HTTP atau HTTPS untuk Slurm antrian. Biasanya, itu`https://x.x.x.x:8080`.  
Tidak ada nilai default.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `Image`
<a name="Scheduling-v3-SlurmQueues-Image"></a>

**(Opsional)** Menentukan gambar yang akan digunakan untuk Slurm antrian. Untuk menggunakan AMI yang sama untuk semua node, gunakan [CustomAmi](Image-v3.md#yaml-Image-CustomAmi)pengaturan di [`Image`bagian](Image-v3.md).

```
Image:
  CustomAmi: string
```

[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `Image`Properti
<a name="Scheduling-v3-SlurmQueues-Image.properties"></a>

**`CustomAmi`(**Opsional**,`String`)**  
AMI yang akan digunakan untuk Slurm antrian bukan default AMIs. Anda dapat menggunakan perintah pcluster CLI untuk melihat daftar default. AMIs  
AMI harus didasarkan pada sistem operasi yang sama yang digunakan oleh node kepala.

```
pcluster list-official-images
```
Jika AMI kustom memerlukan izin tambahan untuk peluncurannya, Anda harus menambahkan izin ini ke kebijakan node kepala.  
Misalnya, jika AMI kustom memiliki snapshot terenkripsi yang terkait dengannya, kebijakan tambahan berikut diperlukan dalam kebijakan node kepala.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "kms:DescribeKey",
                "kms:ReEncrypt*",
                "kms:CreateGrant",
                "kms:Decrypt"
            ],
            "Resource": [
                "arn:aws:kms:us-east-1:111122223333:key/<AWS_KMS_KEY_ID>"
            ]
        }
    ]
}
```
Untuk memecahkan masalah peringatan validasi AMI kustom, lihat. [Memecahkan masalah AMI khusus](troubleshooting-v3-custom-amis.md)  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeResources`
<a name="Scheduling-v3-SlurmQueues-ComputeResources"></a>

**(Wajib)** Mendefinisikan `ComputeResources` konfigurasi untuk Slurm antrian.

**catatan**  
Ukuran cluster dapat berubah selama pembaruan. Untuk informasi selengkapnya, lihat [Ukuran dan pembaruan kapasitas cluster](slurm-workload-manager-v3.md).
Sumber daya komputasi baru dapat ditambahkan ke cluster hanya jika digunakan di subnet milik blok CIDR yang ada saat cluster dibuat.

```
ComputeResources:
  - Name: string
    InstanceType: string
    Instances:
      - InstanceType: string    
    MinCount: integer
    MaxCount: integer
    DynamicNodePriority: integer
    StaticNodePriority: integer
    SpotPrice: float
    DisableSimultaneousMultithreading: boolean
    SchedulableMemory: integer
    HealthChecks:
      Gpu:    
        Enabled: boolean
    Efa:
      Enabled: boolean
      GdrSupport: boolean
    CapacityReservationTarget:
      CapacityReservationId: string
      CapacityReservationResourceGroupArn: string
    Networking:   
      PlacementGroup:
        Enabled: boolean
        Name: string
    CustomSlurmSettings: dict   
    Tags:
      - Key: string
        Value: string
    LaunchTemplateOverrides:
      LaunchTemplateId: string
      Version: string
```

[Kebijakan pembaruan: Untuk pengaturan nilai daftar ini, nilai baru dapat ditambahkan selama pembaruan atau armada komputasi harus dihentikan saat menghapus nilai yang ada.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)

##### `ComputeResources`properti
<a name="Scheduling-v3-SlurmQueues-ComputeResources.properties"></a>

**`Name`(**Diperlukan**,`String`)**  
Nama lingkungan komputasi Slurm antrian. Nama dapat memiliki hingga 25 karakter.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`InstanceType`(**Diperlukan**,`String`)**  
Jenis instance yang digunakan dalam sumber daya Slurm komputasi ini. Semua jenis instance dalam cluster harus menggunakan arsitektur prosesor yang sama. Contoh dapat menggunakan `arm64` arsitektur `x86_64` atau.  
Konfigurasi cluster harus mendefinisikan salah satu [InstanceType](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)atau [Instance.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances) Jika keduanya didefinisikan, AWS ParallelCluster gagal.  
Ketika Anda mendefinisikan`InstanceType`, Anda tidak dapat mendefinisikan beberapa subnet. Jika Anda mengonfigurasi hanya satu jenis instance dan ingin menggunakan beberapa subnet, tentukan tipe instans Anda `Instances` daripada di`InstanceType`. Untuk informasi lebih lanjut, lihat [`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`SubnetIds`](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).  
Jika Anda menentukan jenis p4d atau hpc6id instance, atau jenis instans lain yang memiliki beberapa antarmuka jaringan atau kartu antarmuka jaringan, Anda harus meluncurkan instance komputasi di subnet pribadi seperti yang dijelaskan dalam. [AWS ParallelCluster menggunakan dua subnet](network-configuration-v3-two-subnets.md) AWS public hanya IPs dapat ditugaskan ke instance yang diluncurkan dengan antarmuka jaringan tunggal. Untuk informasi selengkapnya, lihat [Menetapkan IPv4 alamat publik selama peluncuran instans](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) di *Panduan Pengguna Amazon EC2 untuk* Instans Linux.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`Instances`(**Diperlukan**)**  
Menentukan daftar jenis contoh untuk sumber daya komputasi. Untuk menentukan strategi alokasi untuk daftar jenis instance, lihat [`AllocationStrategy`](#yaml-Scheduling-SlurmQueues-AllocationStrategy).  
Konfigurasi cluster harus mendefinisikan salah satu [`InstanceType`](#yaml-Scheduling-SlurmQueues-ComputeResources-InstanceType)atau [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances). Jika keduanya didefinisikan, AWS ParallelCluster gagal.  
Untuk informasi selengkapnya, lihat [Beberapa alokasi tipe instans dengan Slurm](slurm-multiple-instance-allocation-v3.md).  

```
`Instances`:
   - `InstanceType`: string
```
[Dimulai dengan AWS ParallelCluster versi 3.7.0, `EnableMemoryBasedScheduling` dapat diaktifkan jika Anda mengonfigurasi beberapa jenis instans di Instans.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)  
Untuk AWS ParallelCluster versi 3.2.0 hingga 3.6. *x*, tidak `EnableMemoryBasedScheduling` dapat diaktifkan jika Anda mengonfigurasi beberapa jenis instans di [Instans.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)
[Kebijakan pembaruan: Untuk pengaturan nilai daftar ini, nilai baru dapat ditambahkan selama pembaruan atau armada komputasi harus dihentikan saat menghapus nilai yang ada.](using-pcluster-update-cluster-v3.md#update-policy-list-values-v3)    
**`InstanceType`(**Diperlukan**,`String`)**  
Jenis instance untuk digunakan dalam sumber daya Slurm komputasi ini. Semua jenis instance dalam cluster harus menggunakan arsitektur prosesor yang sama, baik `x86_64` atau`arm64`.  
Jenis instance yang tercantum di [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)harus memiliki:  
+ Jumlah v yang samaCPUs, atau, jika [`DisableSimultaneousMultithreading`](#yaml-Scheduling-SlurmQueues-ComputeResources-DisableSimultaneousMultithreading)diatur ke`true`, jumlah inti yang sama.
+ Jumlah akselerator yang sama dari produsen yang sama.
+ EFA didukung, jika [`Efa`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa)/[`Enabled`](#yaml-Scheduling-SlurmQueues-ComputeResources-Efa-Enabled)diatur ke`true`.
Jenis instance yang tercantum dalam [`Instances`](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)dapat memiliki:  
+ Jumlah memori yang berbeda.

  Dalam hal ini, memori minimum harus ditetapkan sebagai Slurm sumber daya habis pakai.
**catatan**  
[Dimulai dengan AWS ParallelCluster versi 3.7.0, `EnableMemoryBasedScheduling` dapat diaktifkan jika Anda mengonfigurasi beberapa jenis instans di Instans.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)  
Untuk AWS ParallelCluster versi 3.2.0 hingga 3.6. *x*, tidak `EnableMemoryBasedScheduling` dapat diaktifkan jika Anda mengonfigurasi beberapa jenis instans di [Instans.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)
+ Kartu jaringan yang berbeda.

  Dalam hal ini, jumlah antarmuka jaringan yang dikonfigurasi untuk sumber daya komputasi ditentukan oleh jenis instance dengan jumlah kartu jaringan terkecil.
+ Bandwidth jaringan yang berbeda.
+ Ukuran toko instance yang berbeda.
Jika Anda menentukan jenis p4d atau hpc6id instance, atau jenis instans lain yang memiliki beberapa antarmuka jaringan atau kartu antarmuka jaringan, Anda harus meluncurkan instance komputasi di subnet pribadi seperti yang dijelaskan dalam. [AWS ParallelCluster menggunakan dua subnet](network-configuration-v3-two-subnets.md) AWS public hanya IPs dapat ditugaskan ke instance yang diluncurkan dengan antarmuka jaringan tunggal. Untuk informasi selengkapnya, lihat [Menetapkan IPv4 alamat publik selama peluncuran instans](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-instance-addressing.html#public-ip-addresses) di *Panduan Pengguna Amazon EC2 untuk* Instans Linux.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)
`Instances`didukung dimulai dengan AWS ParallelCluster versi 3.3.0.

**`MinCount`(**Opsional**,`Integer`)**  
Jumlah minimum instance yang digunakan sumber daya Slurm komputasi. Default-nya adalah 0.  
Ukuran cluster dapat berubah selama pembaruan. Untuk informasi selengkapnya, lihat [Ukuran dan pembaruan kapasitas cluster](slurm-workload-manager-v3.md)
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MaxCount`(**Opsional**,`Integer`)**  
Jumlah maksimum instance yang digunakan sumber daya Slurm komputasi. Default-nya adalah 10.  
Bila Anda menggunakan`CapacityType = CAPACITY_BLOCK`, `MaxCount` harus sama dengan `MinCount` dan lebih besar dari 0, karena semua instance bagian dari reservasi Blok Kapasitas dikelola sebagai node statis.  
Pada waktu pembuatan cluster, head node menunggu semua node statis siap sebelum menandakan keberhasilan pembuatan cluster. Namun, saat Anda menggunakan`CapacityType = CAPACITY_BLOCK`, bagian node dari sumber daya komputasi yang terkait dengan Blok Kapasitas tidak akan dipertimbangkan untuk pemeriksaan ini. Cluster akan dibuat bahkan jika tidak semua Blok Kapasitas yang dikonfigurasi aktif.  
Ukuran cluster dapat berubah selama pembaruan. Untuk informasi selengkapnya, lihat [Ukuran dan pembaruan kapasitas cluster](slurm-workload-manager-v3.md)
 

**`DynamicNodePriority`(**Opsional**,`Integer`)**  
Prioritas node dinamis dalam sumber daya komputasi antrian. Prioritas memetakan ke parameter [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight)konfigurasi Slurm node untuk node dinamis sumber daya komputasi. Nilai default-nya adalah `1000`.  
Slurmmemprioritaskan node dengan `Weight` nilai terendah terlebih dahulu.  
Penggunaan banyak `Weight` nilai yang berbeda dalam Slurm partisi (antrian) mungkin memperlambat laju penjadwalan pekerjaan dalam antrian.  
Dalam AWS ParallelCluster versi yang lebih awal dari versi 3.7.0, node statis dan dinamis diberi bobot default yang sama yaitu. `1` Dalam hal ini, Slurm mungkin memprioritaskan node dinamis idle di atas node statis idle karena skema penamaan untuk node statis dan dinamis. Ketika semuanya sama, Slurm menjadwalkan node menurut abjad berdasarkan nama.
`DynamicNodePriority`ditambahkan dalam AWS ParallelCluster versi 3.7.0.
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`StaticNodePriority`(**Opsional**,`Integer`)**  
Prioritas node statis dalam sumber daya komputasi antrian. Prioritas memetakan ke parameter [https://slurm.schedmd.com/slurm.conf.html#OPT_Weight](https://slurm.schedmd.com/slurm.conf.html#OPT_Weight)konfigurasi Slurm node untuk node statis sumber daya komputasi. Nilai default-nya adalah `1`.  
Slurmmemprioritaskan node dengan `Weight` nilai terendah terlebih dahulu.  
Penggunaan banyak `Weight` nilai yang berbeda dalam Slurm partisi (antrian) mungkin memperlambat laju penjadwalan pekerjaan dalam antrian.
`StaticNodePriority`ditambahkan dalam AWS ParallelCluster versi 3.7.0.
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`SpotPrice`(**Opsional**,`Float`)**  
Harga maksimum yang dibayarkan untuk Instans Spot Amazon EC2 sebelum instans diluncurkan. Nilai default adalah harga On-Demand.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`DisableSimultaneousMultithreading`(**Opsional**,`Boolean`)**  
Jika`true`, multithreading pada node dalam Slurm antrian dinonaktifkan. Nilai default-nya adalah `false`.  
Tidak semua tipe instance dapat menonaktifkan multithreading. *Untuk daftar jenis instans yang mendukung penonaktifan multithreading, lihat [inti CPU dan thread untuk setiap inti CPU per jenis instans](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-optimize-cpu.html#cpu-options-supported-instances-values) di Panduan Pengguna Amazon EC2.*   
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`SchedulableMemory`(**Opsional**,`Integer`)**  
Jumlah memori di MiB yang dikonfigurasi dalam Slurm parameter `RealMemory` untuk node komputasi sumber daya komputasi. Nilai ini adalah batas atas untuk memori node yang tersedia untuk pekerjaan saat [`SlurmSettings`](#Scheduling-v3-SlurmSettings)/[`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling)diaktifkan. Nilai defaultnya adalah 95 persen dari memori yang terdaftar di [Jenis Instans Amazon EC2](https://aws.amazon.com/ec2/instance-types) dan dikembalikan oleh Amazon EC2 API. [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html) Pastikan untuk mengonversi nilai yang diberikan dalam GiB ke MiB.  
Nilai yang didukung: `1-EC2Memory`  
`EC2Memory`adalah memori (dalam MiB) yang terdaftar di Jenis [Instans Amazon EC2](https://aws.amazon.com/ec2/instance-types) dan dikembalikan oleh Amazon EC2 API. [DescribeInstanceTypes](https://docs.aws.amazon.com/AWSEC2/latest/APIReference/API_DescribeInstanceTypes.html) Pastikan untuk mengonversi nilai yang diberikan dalam GiB ke MiB.  
Opsi ini paling relevan ketika [`SlurmSettings`](#Scheduling-v3-SlurmSettings)/[`EnableMemoryBasedScheduling`](#yaml-Scheduling-SlurmSettings-EnableMemoryBasedScheduling)diaktifkan. Untuk informasi selengkapnya, lihat [Slurm penjadwalan berbasis memori](slurm-mem-based-scheduling-v3.md).  
`SchedulableMemory`didukung dimulai dengan AWS ParallelCluster versi 3.2.0.  
Dimulai dengan versi 3.2.0, secara default, AWS ParallelCluster mengonfigurasi `RealMemory` node Slurm komputasi hingga 95 persen memori yang dikembalikan oleh Amazon EC2 API. `DescribeInstanceTypes` Konfigurasi ini tidak tergantung pada nilai`EnableMemoryBasedScheduling`.
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`HealthChecks`(**Opsional**)**  
Tentukan pemeriksaan kesehatan pada sumber daya komputasi.    
`Gpu`(**Opsional**)  
Tentukan pemeriksaan kesehatan GPU pada sumber daya komputasi.    
`Enabled`(**Opsional**,`Boolean`)  
Apakah AWS ParallelCluster melakukan pemeriksaan kesehatan GPU saat menghitung sumber daya dalam antrian. Nilai default-nya `false`.  
AWS ParallelCluster tidak mendukung`HealthChecks`/`Gpu`di node yang menggunakan sistem operasi `alinux2` ARM. Platform ini tidak mendukung [NVIDIA Data Center GPU Manager (DCGM](https://docs.nvidia.com/datacenter/dcgm/latest/user-guide/getting-started.html#supported-linux-distributions)).

**`Gpu`perilaku pemeriksaan kesehatan**
+ Jika`Gpu`/`Enabled`disetel ke`true`, AWS ParallelCluster lakukan pemeriksaan kesehatan GPU kesehatan pada sumber daya komputasi.
+ Pemeriksaan `Gpu` kesehatan melakukan pemeriksaan kesehatan pada sumber daya komputasi untuk mencegah pengajuan pekerjaan pada node dengan GPU terdegradasi.
+ Jika node komputasi gagal dalam pemeriksaan `Gpu` kesehatan, status node komputasi berubah menjadi. `DRAIN` Pekerjaan baru tidak dimulai pada node ini. Pekerjaan yang ada berjalan sampai selesai. Setelah semua pekerjaan berjalan selesai, node komputasi berakhir jika itu adalah node dinamis, dan diganti jika itu adalah node statis.
+ Durasi pemeriksaan `Gpu` kesehatan tergantung pada jenis instans yang dipilih, jumlah GPUs dalam instance, dan jumlah target pemeriksaan `Gpu` kesehatan (setara dengan jumlah target GPU pekerjaan). Misalnya dengan 8 GPUs, durasi tipikal kurang dari 3 menit.
+ Jika pemeriksaan `Gpu` kesehatan berjalan pada instance yang tidak didukung, itu keluar dan pekerjaan berjalan pada node komputasi. Misalnya, jika sebuah instance tidak memiliki GPU, atau, jika instance memiliki GPU, tetapi itu bukan GPU NVIDIA, pemeriksaan kesehatan keluar dan pekerjaan berjalan pada node komputasi. Hanya NVIDIA GPUs yang didukung.
+ Pemeriksaan `Gpu` kesehatan menggunakan `dcgmi` alat untuk melakukan pemeriksaan kesehatan pada node dan mengambil langkah-langkah berikut: 

  Ketika pemeriksaan `Gpu` kesehatan dimulai di simpul:

  1. Ini mendeteksi apakah `nvidia-dcgm` dan `nvidia-fabricmanager` layanan berjalan.

  1. Jika layanan ini tidak berjalan, pemeriksaan `Gpu` kesehatan memulainya.

  1. Ini mendeteksi apakah mode persistensi diaktifkan.

  1. Jika mode persistensi tidak diaktifkan, pemeriksaan `Gpu` kesehatan mengaktifkannya.

  Pada akhir pemeriksaan kesehatan, pemeriksaan `Gpu` kesehatan mengembalikan layanan dan sumber daya ini ke keadaan awal.
+ Jika pekerjaan ditetapkan ke satu set node tertentu GPUs, pemeriksaan `Gpu` kesehatan hanya berjalan pada set tertentu. Jika tidak, pemeriksaan `Gpu` kesehatan berjalan pada semua GPUs di node.
+ Jika node komputasi menerima 2 atau lebih permintaan pemeriksaan `Gpu` kesehatan pada saat yang sama, hanya pemeriksaan kesehatan pertama yang berjalan dan yang lainnya dilewati. Ini juga berlaku untuk pemeriksaan kesehatan yang menargetkan node GPUs. Anda dapat memeriksa file log untuk informasi tambahan mengenai situasi ini.
+ Log pemeriksaan kesehatan untuk node komputasi tertentu tersedia dalam `/var/log/parallelcluster/slurm_health_check.log` file. File ini tersedia di Amazon CloudWatch, di grup CloudWatch log cluster, tempat Anda dapat menemukan:
  + Detail tentang tindakan yang dijalankan oleh pemeriksaan `Gpu` kesehatan, termasuk mengaktifkan dan menonaktifkan layanan dan mode persistensi.
  + Pengidentifikasi GPU, ID serial, dan UUID.
  + Output pemeriksaan kesehatan.
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`HealthChecks`didukung mulai AWS ParallelCluster versi 3.6.0.

**`Efa`(**Opsional**)**  
Menentukan pengaturan Elastic Fabric Adapter (EFA) untuk node dalam antrian. Slurm  

```
Efa:
  Enabled: boolean
  GdrSupport: boolean
```
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Enabled`(**Opsional**,`Boolean`)**  
Menentukan bahwa Elastic Fabric Adapter (EFA) diaktifkan. Untuk melihat daftar instans Amazon EC2 yang mendukung EFA, lihat [Jenis instans yang didukung](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/efa.html#efa-instance-types) di Panduan Pengguna Amazon EC2 untuk Instans *Linux*. Untuk informasi selengkapnya, lihat [Elastic Fabric Adapter](efa-v3.md). Kami menyarankan Anda menggunakan cluster [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/[`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)untuk meminimalkan latensi antar instance.  
Nilai default-nya adalah `false`.  
Elastic Fabric Adapter (EFA) tidak didukung pada zona ketersediaan yang berbeda. Untuk informasi selengkapnya, lihat [SubnetIds](#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).
Jika Anda mendefinisikan grup keamanan khusus [SecurityGroups](#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups), pastikan instans berkemampuan EFA Anda adalah anggota grup keamanan yang memungkinkan semua lalu lintas masuk dan keluar ke dirinya sendiri.
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`GdrSupport`(**Opsional**,`Boolean`)**  
**(Opsional)** Dimulai dengan AWS ParallelCluster versi 3.0.2, pengaturan ini tidak berpengaruh. Dukungan Elastic Fabric Adapter (EFA) untuk GPUDirect RDMA (akses memori langsung jarak jauh) selalu diaktifkan jika didukung oleh jenis instans untuk sumber daya Slurm komputasi dan sistem operasi.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`CapacityReservationTarget`**  

```
CapacityReservationTarget:
   CapacityReservationId: string
   CapacityReservationResourceGroupArn: string
```
Menentukan reservasi kapasitas sesuai permintaan yang akan digunakan untuk sumber daya komputasi.    
**`CapacityReservationId`(**Opsional**,`String`)**  
ID reservasi kapasitas yang ada untuk menargetkan sumber daya komputasi antrian. Id dapat merujuk ke [ODCR](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html) atau [Blok Kapasitas untuk](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-blocks.html) ML.  
Ketika parameter ini ditentukan pada tingkat sumber daya komputasi, InstanceType adalah opsional, itu akan secara otomatis diambil dari reservasi.  
**`CapacityReservationResourceGroupArn`(**Opsional**,`String`)**  
Menunjukkan Nama Sumber Daya Amazon (ARN) dari grup sumber daya yang berfungsi sebagai grup reservasi kapasitas yang ditautkan layanan untuk sumber daya komputasi. AWS ParallelCluster mengidentifikasi dan menggunakan reservasi kapasitas yang paling tepat dari grup. Grup sumber daya harus memiliki setidaknya satu ODCR untuk setiap jenis instans yang terdaftar untuk sumber daya komputasi. Untuk informasi selengkapnya, lihat [Luncurkan instans dengan Pemesanan Kapasitas Sesuai Permintaan (ODCR)](launch-instances-odcr-v3.md).  
+ Jika `PlacementGroup` diaktifkan di [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)atau [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster pilih grup sumber daya yang menargetkan jenis instance dan `PlacementGroup` untuk sumber daya komputasi jika ada.

  `PlacementGroup`Harus menargetkan salah satu jenis instance yang didefinisikan dalam [`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources).
+ Jika `PlacementGroup` tidak diaktifkan di [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking)atau [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`Networking`](#yaml-Scheduling-SlurmQueues-ComputeResources-Networking), AWS ParallelCluster pilih grup sumber daya yang hanya menargetkan jenis instance sumber daya komputasi, jika ada.
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`CapacityReservationTarget`ditambahkan dengan AWS ParallelCluster versi 3.3.0.

**`Networking`**  

```
Networking:   
  PlacementGroup:
    Enabled: boolean
    Name: string
```
[Kebijakan pembaruan: Semua node komputasi harus dihentikan untuk penghapusan grup penempatan terkelola. Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-remove-placement-group-v3)    
**`PlacementGroup`(**Opsional**)**  
Menentukan pengaturan grup penempatan untuk sumber daya komputasi.    
**`Enabled`(**Opsional**,`Boolean`)**  
Menunjukkan apakah grup penempatan digunakan untuk sumber daya komputasi.  
+ Jika disetel ke`true`, tanpa `Name` didefinisikan, sumber daya komputasi tersebut ditetapkan grup penempatan terkelolanya sendiri, terlepas dari [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)pengaturan [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`Networking`](#Scheduling-v3-SlurmQueues-Networking)/.
+ Jika disetel ke`true`, dengan `Name` didefinisikan, sumber daya komputasi tersebut ditetapkan grup penempatan bernama, terlepas dari `PlacementGroup` pengaturan`SlurmQueues`/`Networking`/.
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Name`(**Opsional**,`String`)**  
Nama grup penempatan untuk grup penempatan klaster yang ada yang digunakan untuk sumber daya komputasi.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
+ Jika keduanya`PlacementGroup`/`Enabled`dan `Name` tidak disetel, nilainya masing-masing default ke [`PlacementGroup`](#yaml-Scheduling-SlurmQueues-Networking-PlacementGroup)pengaturan [`SlurmQueues`[`Networking`](#Scheduling-v3-SlurmQueues-Networking)](#Scheduling-v3-SlurmQueues)//.
+ Saat menggunakan reservasi blok kapasitas, batasan grup penempatan tidak boleh ditetapkan karena kesalahan kapasitas yang tidak mencukupi dapat terjadi karena kendala penempatan di luar reservasi bahkan jika reservasi kapasitas memiliki kapasitas yang tersisa.
+ `ComputeResources`/`Networking`/`PlacementGroup`ditambahkan dengan AWS ParallelCluster versi 3.3.0.

**`CustomSlurmSettings`(**Opsional**,`Dict`)**  
**(Opsional)** Mendefinisikan pengaturan konfigurasi Slurm node kustom (sumber daya komputasi).  
Menentukan kamus parameter Slurm konfigurasi kustom pasangan kunci-nilai yang berlaku untuk Slurm node (sumber daya komputasi).  
Setiap pasangan kunci-nilai yang terpisah`Param1: Value1`, seperti, ditambahkan secara terpisah ke akhir baris konfigurasi Slurm node dalam format. `Param1=Value1`  
Anda hanya dapat menentukan parameter Slurm konfigurasi yang tidak dicantumkan dalam daftar penolakan. `CustomSlurmSettings` Untuk informasi tentang parameter Slurm konfigurasi daftar penolakan, lihat. [Terdaftar penolakan Slurm parameter konfigurasi untuk `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)  
AWS ParallelCluster hanya memeriksa apakah parameter ada dalam daftar penolakan. AWS ParallelCluster tidak memvalidasi sintaks atau Slurm semantik parameter konfigurasi kustom Anda. Merupakan tanggung jawab Anda untuk memvalidasi parameter Slurm konfigurasi kustom Anda. Parameter Slurm konfigurasi kustom yang tidak valid dapat menyebabkan kegagalan Slurm daemon yang dapat menyebabkan kegagalan pembuatan dan pembaruan cluster.  
Untuk informasi selengkapnya tentang cara menentukan parameter Slurm konfigurasi kustom AWS ParallelCluster, lihat[Slurm kustomisasi konfigurasi](slurm-configuration-settings-v3.md).  
Untuk informasi selengkapnya tentang parameter Slurm konfigurasi, lihat [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) di dokumentasi. Slurm  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`didukung dimulai dengan AWS ParallelCluster versi 3.6.0.

**`Tags`(**Opsional**, [String])**  
Daftar pasangan nilai kunci tag. `ComputeResource`tag mengganti tag duplikat yang ditentukan dalam [Bagian `Tags`](Tags-v3.md) atau [`SlurmQueues`](#yaml-Scheduling-SlurmQueues-Tags)/. `Tags`    
**`Key`(**Opsional**,`String`)**  
Kunci tanda.  
**`Value`(**Opsional**,`String`)**  
Nilai tanda.
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LaunchTemplateOverrides`(**Opsional**)**  
`LaunchTemplateOverrides`ditambahkan dengan AWS ParallelCluster versi 3.15.0.
Menentukan template peluncuran untuk mengganti template peluncuran default yang AWS ParallelCluster dibuat untuk sumber daya komputasi. Template peluncuran seharusnya hanya berisi penggantian antarmuka jaringan. AWS ParallelCluster memvalidasi template peluncuran dan mencegah penggantian parameter lainnya. Untuk informasi selengkapnya tentang cara menggunakan penggantian ini, lihat[Sesuaikan antarmuka jaringan node komputasi dengan penggantian template peluncuran](tutorial-network-customization-v3.md).  

```
LaunchTemplateOverrides:
  LaunchTemplateId: string
  Version: string
```  
**`LaunchTemplateId`(**Diperlukan**,`String`)**  
ID templat peluncuran.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Version`(**Diperlukan**,`String`)**  
Nomor versi templat peluncuran.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `ComputeSettings`
<a name="Scheduling-v3-SlurmQueues-ComputeSettings"></a>

**(Wajib)** Mendefinisikan `ComputeSettings` konfigurasi untuk Slurm antrian.

##### `ComputeSettings`properti
<a name="Scheduling-v3-SlurmQueues-ComputeSettings.properties"></a>

Menentukan properti `ComputeSettings` dari node dalam Slurm antrian.

```
ComputeSettings:
  LocalStorage:
    RootVolume:
      Size: integer
      Encrypted: boolean
      VolumeType: string
      Iops: integer
      Throughput: integer
     EphemeralVolume:
      MountDir: string
```

[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`LocalStorage`(**Opsional**)**  
Menentukan properti `LocalStorage` dari node dalam Slurm antrian.  

```
LocalStorage:
  RootVolume:
    Size: integer
    Encrypted: boolean
    VolumeType: string
    Iops: integer
    Throughput: integer
  EphemeralVolume:
    MountDir: string
```
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`RootVolume`(**Opsional**)**  
Menentukan rincian volume root node dalam Slurm antrian.  

```
RootVolume:
  Size: integer
  Encrypted: boolean
  VolumeType: string
  Iops: integer
  Throughput: integer
```
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Size`(**Opsional**,`Integer`)**  
Menentukan ukuran volume root dalam gibibytes (GiB) untuk node dalam antrian. Slurm Ukuran default berasal dari AMI. Menggunakan ukuran yang berbeda mengharuskan AMI mendukung`growroot`.   
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Encrypted`(**Opsional**,`Boolean`)**  
Jika`true`, volume root node dalam Slurm antrian dienkripsi. Nilai default-nya adalah `true`.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`VolumeType`(**Opsional**,`String`)**  
Menentukan [jenis volume Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) dari node dalam antrian. Slurm Nilai yang didukung adalah `gp2``gp3`,`io1`,`io2`,`sc1`,`st1`, dan`standard`. Nilai default-nya adalah `gp3`.  
Untuk informasi lebih lanjut, lihat [Jenis volume Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) di *Panduan Pengguna Amazon EC2*.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Iops`(**Opsional**,`Boolean`)**  
Mendefinisikan jumlah IOPS untuk`io1`,`io2`, dan `gp3` jenis volume.  
Nilai default, nilai yang didukung, dan `volume_iops` `volume_size` rasio bervariasi menurut `VolumeType` dan`Size`.    
**`VolumeType` = `io1`**  
Default `Iops` = 100  
Nilai yang didukung `Iops` = 100—64000 †  
`volume_size`Rasio maksimum `volume_iops` = 50 IOPS per GiB. 5000 IOPS membutuhkan `volume_size` setidaknya 100 GiB.  
**`VolumeType` = `io2`**  
Default `Iops` = 100  
Nilai yang didukung `Iops` = 100—64000 (256000 untuk `io2` volume Block Express) †  
`Size`Rasio maksimum `Iops` = 500 IOPS per GiB. 5000 IOPS membutuhkan `Size` minimal 10 GiB.  
**`VolumeType` = `gp3`**  
Default `Iops` = 3000  
Nilai yang didukung `Iops` = 3000—16000 †  
`Size`Rasio maksimum `Iops` = 500 IOPS per GiB untuk volume dengan IOPS lebih besar dari 3000.
† IOPS maksimum dijamin hanya pada [Instans yang dibangun di atas Sistem Nitro](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) yang juga disediakan dengan lebih dari 32.000 IOPS. Instans lain dapat memiliki hingga 32.000 IOPS. `io1`Volume sebelumnya mungkin tidak mencapai performa penuh kecuali Anda [memodifikasi volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html). `io2` Volume Block Express mendukung `volume_iops` nilai hingga 256000 pada jenis `R5b` instans. Untuk informasi selengkapnya, lihat [`io2`Blokir volume Express](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) di *Panduan Pengguna Amazon EC2*.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Throughput`(**Opsional**,`Integer`)**  
Mendefinisikan throughput untuk tipe `gp3` volume, dalam MIB/s. Pengaturan ini hanya valid jika `VolumeType` ada`gp3`. Nilai default-nya adalah `125`. Nilai yang didukung: 125—1000 MiB/s  
Rasio `Throughput` to `Iops` bisa tidak lebih dari 0,25. Throughput maksimum 1000 MiB/s mengharuskan `Iops` pengaturan setidaknya 4000.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`EphemeralVolume`(**Opsional**,`Boolean`)**  
Menentukan pengaturan untuk volume fana. Volume sementara dibuat dengan menggabungkan semua volume penyimpanan instance ke dalam volume logis tunggal yang diformat dengan sistem file. `ext4` Nilai default-nya `/scratch`. Jika tipe instance tidak memiliki volume penyimpanan instance, tidak ada volume sementara yang dibuat. Untuk informasi selengkapnya, lihat [Volume penyimpanan instans](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes) di *Panduan Pengguna Amazon EC2*.  

```
EphemeralVolume:
  MountDir: string
```
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`MountDir`(**Opsional**,`String`)**  
Direktori mount untuk volume fana untuk setiap node dalam antrian. Slurm   
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

#### `CustomActions`
<a name="Scheduling-v3-SlurmQueues-CustomActions"></a>

**(Opsional)** Menentukan skrip kustom untuk berjalan pada node dalam antrian. Slurm

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```

[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

##### `CustomActions`Properti
<a name="Scheduling-v3-SlurmQueues-CustomActions.properties"></a>

**`OnNodeStart`(**Opsional**,`String`)**  
Menentukan urutan skrip atau skrip tunggal untuk dijalankan pada node dalam Slurm antrian sebelum tindakan bootstrap penyebaran node dimulai. AWS ParallelCluster tidak mendukung termasuk skrip tunggal dan `Sequence` untuk tindakan kustom yang sama. Untuk informasi selengkapnya, lihat [Tindakan bootstrap kustom](custom-bootstrap-actions-v3.md).    
**`Sequence`(**Opsional**)**  
Daftar skrip untuk dijalankan.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script`(**Diperlukan**,`String`)**  
File yang akan digunakan. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(**Opsional**,`[String]`)**  
Daftar argumen untuk diteruskan ke skrip.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script`(**Diperlukan**,`String`)**  
File yang akan digunakan untuk satu skrip. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(**Opsional**,`[String]`)**  
Daftar argumen untuk diteruskan ke skrip tunggal.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)

**`OnNodeConfigured`(**Opsional**,`String`)**  
Menentukan urutan skrip atau skrip tunggal untuk dijalankan pada node dalam Slurm antrian setelah semua tindakan bootstrap node selesai. AWS ParallelCluster tidak mendukung termasuk skrip tunggal dan `Sequence` untuk tindakan kustom yang sama. Untuk informasi selengkapnya, lihat [Tindakan bootstrap kustom](custom-bootstrap-actions-v3.md).    
**`Sequence`(**Opsional**)**  
Daftar skrip untuk dijalankan.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)    
**`Script`(**Diperlukan**,`String`)**  
File yang akan digunakan. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(**Opsional**,`[String]`)**  
Daftar argumen untuk diteruskan ke skrip.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Script`(**Diperlukan**,`String`)**  
File yang akan digunakan untuk satu skrip. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
**`Args`(**Opsional**,`[String]`)**  
Daftar argumen untuk diteruskan ke skrip tunggal.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`Sequence`ditambahkan dimulai dengan AWS ParallelCluster versi 3.6.0. Saat Anda menentukan`Sequence`, Anda dapat membuat daftar beberapa skrip untuk tindakan kustom. AWS ParallelCluster terus mendukung konfigurasi tindakan khusus dengan satu skrip, tanpa menyertakan`Sequence`.  
AWS ParallelCluster tidak mendukung termasuk skrip tunggal dan `Sequence` untuk tindakan kustom yang sama.

#### `Iam`
<a name="Scheduling-v3-SlurmQueues-Iam"></a>

**(Opsional)** Mendefinisikan pengaturan IAM opsional untuk antrian. Slurm

```
Iam:
  S3Access:
    - BucketName: string
      EnableWriteAccess: boolean
      KeyName: string
  AdditionalIamPolicies:
    - Policy: string
  InstanceProfile: string
  InstanceRole: string
```

[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

##### `Iam`Properti
<a name="Scheduling-v3-SlurmQueues-Iam.properties"></a>

**`InstanceProfile`(**Opsional**,`String`)**  
Menentukan profil contoh untuk mengganti peran contoh default atau profil contoh untuk antrian. Slurm Anda tidak dapat menentukan keduanya `InstanceProfile` dan`InstanceRole`. Formatnya adalah `arn:${Partition}:iam::${Account}:instance-profile/${InstanceProfileName}`.  
Jika ini ditentukan, `AdditionalIamPolicies` pengaturan `S3Access` dan tidak dapat ditentukan.  
Kami menyarankan Anda menentukan salah satu atau kedua `AdditionalIamPolicies` pengaturan `S3Access` dan karena fitur yang ditambahkan AWS ParallelCluster sering memerlukan izin baru.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`InstanceRole`(**Opsional**,`String`)**  
Menentukan peran contoh untuk mengganti peran contoh default atau profil contoh untuk antrian. Slurm Anda tidak dapat menentukan keduanya `InstanceProfile` dan`InstanceRole`. Formatnya adalah `arn:${Partition}:iam::${Account}:role/${RoleName}`.  
Jika ini ditentukan, `AdditionalIamPolicies` pengaturan `S3Access` dan tidak dapat ditentukan.  
Kami menyarankan Anda menentukan salah satu atau kedua `AdditionalIamPolicies` pengaturan `S3Access` dan karena fitur yang ditambahkan AWS ParallelCluster sering memerlukan izin baru.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`S3Access`(**Opsional**)**  
Menentukan ember untuk Slurm antrian. Ini digunakan untuk membuat kebijakan untuk memberikan akses yang ditentukan ke bucket dalam Slurm antrian.  
Jika ini ditentukan, `InstanceRole` pengaturan `InstanceProfile` dan tidak dapat ditentukan.  
Kami menyarankan Anda menentukan salah satu atau kedua `AdditionalIamPolicies` pengaturan `S3Access` dan karena fitur yang ditambahkan AWS ParallelCluster sering memerlukan izin baru.  

```
S3Access:
  - BucketName: string
    EnableWriteAccess: boolean
    KeyName: string
```
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`BucketName`(**Diperlukan**,`String`)**  
Nama ember.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`KeyName`(**Opsional**,`String`)**  
Kunci untuk ember. Nilai default-nya adalah `*`.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
**`EnableWriteAccess`(**Opsional**,`Boolean`)**  
Menunjukkan apakah akses tulis diaktifkan untuk bucket.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`AdditionalIamPolicies`(**Opsional**)**  
Menentukan daftar Nama Sumber Daya Amazon (ARN) kebijakan IAM untuk Amazon EC2. Daftar ini dilampirkan ke peran root yang digunakan untuk Slurm antrian selain izin yang diperlukan oleh. AWS ParallelCluster  
Nama kebijakan IAM dan ARN-nya berbeda. Nama tidak bisa digunakan.  
Jika ini ditentukan, `InstanceRole` pengaturan `InstanceProfile` dan tidak dapat ditentukan.  
Kami menyarankan Anda menggunakan `AdditionalIamPolicies` karena `AdditionalIamPolicies` ditambahkan ke izin yang AWS ParallelCluster diperlukan, dan `InstanceRole` harus menyertakan semua izin yang diperlukan. Izin yang diperlukan sering berubah dari rilis ke rilis saat fitur ditambahkan.  
Tidak ada nilai default.  

```
AdditionalIamPolicies:
  - Policy: string
```
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
**`Policy`(**Diperlukan**,`[String]`)**  
Daftar kebijakan IAM.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SlurmSettings`
<a name="Scheduling-v3-SlurmSettings"></a>

**(Opsional)** Mendefinisikan pengaturan untuk Slurm itu berlaku untuk seluruh cluster.

```
SlurmSettings:
  ScaledownIdletime: integer
  QueueUpdateStrategy: string
  EnableMemoryBasedScheduling: boolean
  CustomSlurmSettings: [dict] 
  CustomSlurmSettingsIncludeFile: string
  Database:
    Uri: string
    UserName: string
    PasswordSecretArn: string
  ExternalSlurmdbd:
    Host: string
    Port: integer
  Dns:
    DisableManagedDns: boolean
    HostedZoneId: string
    UseEc2Hostnames: boolean
```

### `SlurmSettings`Properti
<a name="Scheduling-v3-SlurmSettings.properties"></a>

**`ScaledownIdletime`(**Opsional**,`Integer`)**  
Mendefinisikan jumlah waktu (dalam menit) bahwa tidak ada pekerjaan dan Slurm node berakhir.  
Nilai default-nya adalah `10`.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`MungeKeySecretArn`(**Opsional**,`String`)**  
 Amazon Resource Name (ARN) dari rahasia Secrets AWS Manager plaintext yang berisi kunci munge yang dikodekan base64 untuk digunakan di cluster. Slurm Kunci munge ini akan digunakan untuk mengautentikasi panggilan RPC antara perintah Slurm klien dan Slurm daemon yang bertindak sebagai server jarak jauh. Jika tidak MungeKeySecretArn disediakan, AWS ParallelCluster akan menghasilkan kunci munge acak untuk cluster.  
`MungeKeySecretArn`didukung dimulai dengan AWS ParallelCluster versi 3.8.0.
Jika baru MungeKeySecretArn ditambahkan ke cluster yang ada, tidak ParallelCluster akan mengembalikan Kunci munge sebelumnya jika terjadi Rollback atau ketika kemudian menghapus. MungeKeySecretArn Sebagai gantinya, kunci munge acak baru akan dihasilkan.
Jika AWS ParallelCluster pengguna memiliki izin untuk [ DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html)pada sumber rahasia tertentu, MungeKeySecretArn divalidasi. MungeKeySecretArn berlaku jika:  
+ Rahasia yang ditentukan ada, dan
+ Rahasianya adalah plaintext dan berisi string berenkode base64 yang valid, dan
+ Kunci munge biner yang diterjemahkan memiliki ukuran antara 256 dan 8192 bit.
Jika kebijakan IAM pengguna pcluster tidak termasuk DescribeSecret, tidak MungeKeySecretArn divalidasi dan pesan peringatan ditampilkan. Untuk informasi selengkapnya, lihat [Kebijakan AWS ParallelCluster `pcluster` pengguna dasar](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Saat Anda memperbarui MungeKeySecretArn, armada komputasi dan semua node login harus dihentikan.  
Jika nilai rahasia di ARN rahasia dimodifikasi sementara ARN tetap sama, cluster tidak akan secara otomatis diperbarui dengan kunci munge baru. Untuk menggunakan kunci munge baru ARN rahasia, Anda harus menghentikan armada komputasi dan login node kemudian menjalankan perintah berikut dari node kepala.  
`sudo /opt/parallelcluster/scripts/slurm/update_munge_key.sh`  
Setelah menjalankan perintah, Anda dapat melanjutkan armada komputasi dan node login: node komputasi dan login yang baru disediakan akan secara otomatis mulai menggunakan kunci munge baru.  
Untuk menghasilkan kunci munge kustom yang dikodekan base64, Anda dapat menggunakan utilitas [mungekey](https://github.com/dun/munge/wiki/Man-8-mungekey) yang didistribusikan dengan perangkat lunak munge dan kemudian menyandikannya menggunakan utilitas base64 yang umumnya tersedia di OS Anda. Atau, Anda juga menggunakan bash (harap atur parameter bs antara 32 dan 1024)  
`dd if=/dev/random bs=128 count=1 2>/dev/null | base64 -w 0`  
atau Python sebagai berikut:  

```
import random
import os
import base64

# key length in bytes
key_length=128

base64.b64encode(os.urandom(key_length)).decode("utf-8")
```
[Kebijakan Pembaruan: Armada komputasi dan node login harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md)

**`QueueUpdateStrategy`(**Opsional**,`String`)**  
Menentukan strategi penggantian untuk parameter [`SlurmQueues`](#Scheduling-v3-SlurmQueues) bagian yang memiliki kebijakan pembaruan berikut:  
[Kebijakan pembaruan: Armada komputasi harus dihentikan atau `QueueUpdateStrategy` harus disetel agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-queue-update-strategy-v3)  
`QueueUpdateStrategy`Nilai hanya digunakan ketika proses pembaruan cluster dimulai.  
Nilai yang valid: `COMPUTE_FLEET_STOP` \$1 `DRAIN` \$1 `TERMINATE`  
Nilai default: `COMPUTE_FLEET_STOP`    
**`DRAIN`**  
Node dalam antrian dengan nilai parameter yang diubah diatur ke. `DRAINING` Node dalam keadaan ini tidak menerima pekerjaan baru dan menjalankan pekerjaan terus selesai.  
Setelah node menjadi `idle` (`DRAINED`), node diganti jika node statis, dan node dihentikan jika node dinamis. Node lain di antrian lain tanpa nilai parameter yang diubah tidak terpengaruh.  
Waktu yang dibutuhkan strategi ini untuk mengganti semua node antrian dengan nilai parameter yang diubah tergantung pada beban kerja yang sedang berjalan.  
**`COMPUTE_FLEET_STOP`**  
Nilai default `QueueUpdateStrategy` parameter. Dengan pengaturan ini, memperbarui parameter di bawah [`SlurmQueues`](#Scheduling-v3-SlurmQueues) bagian mengharuskan Anda [menghentikan armada komputasi](pcluster.update-compute-fleet-v3.md) sebelum Anda melakukan pembaruan klaster:  

```
$ pcluster update-compute-fleet --status STOP_REQUESTED
```  
**`TERMINATE`**  
Dalam antrian dengan nilai parameter yang diubah, pekerjaan yang berjalan dihentikan dan node segera dimatikan.  
Node statis diganti dan node dinamis dihentikan.  
Node lain di antrian lain tanpa nilai parameter yang diubah tidak terpengaruh.
[Kebijakan pembaruan: Pengaturan ini tidak dianalisis selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)  
`QueueUpdateStrategy`didukung dimulai dengan AWS ParallelCluster versi 3.2.0.

**`EnableMemoryBasedScheduling`(**Opsional**,`Boolean`)**  
Jika`true`, penjadwalan berbasis memori diaktifkan di. Slurm Untuk informasi lebih lanjut, lihat [`SlurmQueues`](#Scheduling-v3-SlurmQueues)/[`ComputeResources`](#Scheduling-v3-SlurmQueues-ComputeResources)/[`SchedulableMemory`](#yaml-Scheduling-SlurmQueues-ComputeResources-SchedulableMemory).  
Nilai default-nya adalah `false`.  
Mengaktifkan penjadwalan berbasis memori berdampak pada cara Slurm penjadwal menangani pekerjaan dan alokasi node.  
Untuk informasi selengkapnya, lihat [Slurm penjadwalan berbasis memori](slurm-mem-based-scheduling-v3.md).
`EnableMemoryBasedScheduling`didukung dimulai dengan AWS ParallelCluster versi 3.2.0.
[Dimulai dengan AWS ParallelCluster versi 3.7.0, `EnableMemoryBasedScheduling` dapat diaktifkan jika Anda mengonfigurasi beberapa jenis instans di Instans.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)  
Untuk AWS ParallelCluster versi 3.2.0 hingga 3.6. *x*, tidak `EnableMemoryBasedScheduling` dapat diaktifkan jika Anda mengonfigurasi beberapa jenis instans di [Instans.](#yaml-Scheduling-SlurmQueues-ComputeResources-Instances)
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`CustomSlurmSettings`(**Opsional**,`[Dict]`)**  
Mendefinisikan Slurm pengaturan kustom yang berlaku untuk seluruh cluster.  
Menentukan daftar kamus Slurm konfigurasi pasangan kunci-nilai yang akan ditambahkan ke akhir file yang menghasilkan. `slurm.conf` AWS ParallelCluster   
Setiap kamus dalam daftar muncul sebagai baris terpisah yang ditambahkan ke file Slurm konfigurasi. Anda dapat menentukan parameter sederhana atau kompleks.  
Parameter sederhana terdiri dari single key pair, seperti yang ditunjukkan pada contoh berikut:  

```
 - Param1: 100
 - Param2: "SubParam1,SubParam2=SubValue2"
```
Contoh yang diberikan dalam Slurm konfigurasi:  

```
Param1=100
Param2=SubParam1,SubParam2=SubValue2
```
Parameter Slurm konfigurasi kompleks terdiri dari beberapa nilai kunci yang dipisahkan ruang, pasangan seperti yang ditunjukkan pada contoh berikut:  

```
 - NodeName: test-nodes[1-10]
   CPUs: 4
   RealMemory: 4196
   ... # other node settings
 - NodeSet: test-nodeset
   Nodes: test-nodes[1-10]
   ... # other nodeset settings
 - PartitionName: test-partition
   Nodes: test-nodeset
   ... # other partition settings
```
Contoh, dirender dalam Slurm konfigurasi:  

```
NodeName=test-nodes[1-10] CPUs=4 RealMemory=4196 ... # other node settings
NodeSet=test-nodeset Nodes=test-nodes[1-10] ... # other nodeset settings
PartitionName=test-partition Nodes=test-nodeset ... # other partition settings
```
SlurmNode kustom tidak boleh berisi `-st-` atau `-dy-` pola dalam nama mereka. Pola-pola ini dicadangkan untuk node yang dikelola oleh AWS ParallelCluster.
Jika Anda menentukan parameter Slurm konfigurasi kustom di`CustomSlurmSettings`, Anda tidak boleh menentukan parameter Slurm konfigurasi kustom untuk`CustomSlurmSettingsIncludeFile`.  
Anda hanya dapat menentukan parameter Slurm konfigurasi yang tidak dicantumkan dalam daftar penolakan. `CustomSlurmSettings` Untuk informasi tentang parameter Slurm konfigurasi daftar penolakan, lihat. [Terdaftar penolakan Slurm parameter konfigurasi untuk `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)  
AWS ParallelCluster hanya memeriksa apakah parameter ada dalam daftar penolakan. AWS ParallelCluster tidak memvalidasi sintaks atau Slurm semantik parameter konfigurasi kustom Anda. Merupakan tanggung jawab Anda untuk memvalidasi parameter Slurm konfigurasi kustom Anda. Parameter Slurm konfigurasi kustom yang tidak valid dapat menyebabkan kegagalan Slurm daemon yang dapat menyebabkan kegagalan pembuatan dan pembaruan cluster.  
Untuk informasi selengkapnya tentang cara menentukan parameter Slurm konfigurasi kustom AWS ParallelCluster, lihat[Slurm kustomisasi konfigurasi](slurm-configuration-settings-v3.md).  
Untuk informasi selengkapnya tentang parameter Slurm konfigurasi, lihat [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) di dokumentasi. Slurm  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`didukung dimulai dengan AWS ParallelCluster versi 3.6.0.

**`CustomSlurmSettingsIncludeFile`(**Opsional**,`String`)**  
Mendefinisikan Slurm pengaturan kustom yang berlaku untuk seluruh cluster.  
Menentukan Slurm file kustom yang terdiri dari parameter Slurm konfigurasi kustom yang akan ditambahkan pada akhir `slurm.conf` file yang AWS ParallelCluster menghasilkan.  
Anda harus menyertakan jalur ke file. Jalan bisa dimulai dengan `https://` atau`s3://`.  
Jika Anda menentukan parameter Slurm konfigurasi kustom untuk`CustomSlurmSettingsIncludeFile`, Anda tidak boleh menentukan parameter Slurm konfigurasi kustom untuk`CustomSlurmSettings`.  
SlurmNode kustom tidak boleh berisi `-st-` atau `-dy-` pola dalam nama mereka. Pola-pola ini dicadangkan untuk node yang dikelola oleh AWS ParallelCluster.
Anda hanya dapat menentukan parameter Slurm konfigurasi yang tidak dicantumkan dalam daftar penolakan. `CustomSlurmSettingsIncludeFile` Untuk informasi tentang parameter Slurm konfigurasi daftar penolakan, lihat. [Terdaftar penolakan Slurm parameter konfigurasi untuk `CustomSlurmSettings`](slurm-configuration-settings-v3.md#slurm-configuration-denylists-v3)  
AWS ParallelCluster hanya memeriksa apakah parameter ada dalam daftar penolakan. AWS ParallelCluster tidak memvalidasi sintaks atau Slurm semantik parameter konfigurasi kustom Anda. Merupakan tanggung jawab Anda untuk memvalidasi parameter Slurm konfigurasi kustom Anda. Parameter Slurm konfigurasi kustom yang tidak valid dapat menyebabkan kegagalan Slurm daemon yang dapat menyebabkan kegagalan pembuatan dan pembaruan cluster.  
Untuk informasi selengkapnya tentang cara menentukan parameter Slurm konfigurasi kustom AWS ParallelCluster, lihat[Slurm kustomisasi konfigurasi](slurm-configuration-settings-v3.md).  
Untuk informasi selengkapnya tentang parameter Slurm konfigurasi, lihat [slurm.conf](https://slurm.schedmd.com/slurm.conf.html) di dokumentasi. Slurm  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`CustomSlurmSettings`didukung dimulai dengan AWS ParallelCluster versi 3.6.0.

### `Database`
<a name="Scheduling-v3-SlurmSettings-Database"></a>

**(Opsional)** Mendefinisikan pengaturan untuk mengaktifkan Slurm Akuntansi pada cluster. Untuk informasi selengkapnya, lihat [Slurmakuntansi dengan AWS ParallelCluster](slurm-accounting-v3.md).

```
Database:
   Uri: string
   UserName: string
   PasswordSecretArn: string
```

[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

#### `Database`properti
<a name="Scheduling-v3-SlurmSettings-Database.properties"></a>

**`Uri`(**Diperlukan**,`String`)**  
Alamat ke server database yang digunakan sebagai backend untuk Slurm akuntansi. URI ini harus diformat sebagai `host:port` dan tidak boleh berisi skema, seperti`mysql://`. Host dapat berupa alamat IP atau nama DNS yang dapat diselesaikan oleh node kepala. Jika port tidak disediakan, AWS ParallelCluster gunakan port MySQL default 3306.  
AWS ParallelCluster bootstraps database Slurm akuntansi ke cluster dan harus mengakses database.  
Database harus dapat dijangkau sebelum hal berikut terjadi:  
+ Sebuah cluster dibuat.
+ Slurmakuntansi diaktifkan dengan pembaruan cluster.
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`UserName`(**Diperlukan**,`String`)**  
Identitas yang Slurm digunakan untuk terhubung ke database, menulis log akuntansi, dan melakukan query. Pengguna harus memiliki izin baca dan tulis pada database.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`PasswordSecretArn`(**Diperlukan**,`String`)**  
Nama Sumber Daya Amazon (ARN) dari AWS Secrets Manager rahasia yang berisi kata sandi teks biasa`UserName`. Kata sandi ini digunakan bersama dengan `UserName` dan Slurm akuntansi untuk mengautentikasi pada server database.  
+ Saat Anda membuat rahasia menggunakan AWS Secrets Manager konsol pastikan untuk memilih “Jenis rahasia lainnya”, pilih teks biasa, dan hanya sertakan teks kata sandi dalam rahasia.
+ Anda tidak dapat menggunakan karakter '\$1' dalam kata sandi Database karena Slurm tidak mendukungnya di slurmdbd.conf.
+ Untuk informasi lebih lanjut tentang cara menggunakan AWS Secrets Manager untuk membuat rahasia, lihat [Buat AWS Secrets Manager Rahasia](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret).
Jika pengguna memiliki izin untuk [DescribeSecret](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html), `PasswordSecretArn` divalidasi. `PasswordSecretArn`valid jika rahasia yang ditentukan ada. Jika kebijakan IAM pengguna tidak disertakan`DescribeSecret`, `PasswordSecretArn` tidak divalidasi dan pesan peringatan ditampilkan. Untuk informasi selengkapnya, lihat [Kebijakan AWS ParallelCluster `pcluster` pengguna dasar](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Saat Anda memperbarui`PasswordSecretArn`, armada komputasi harus dihentikan. Jika nilai rahasia berubah, dan ARN rahasia tidak berubah, cluster tidak diperbarui secara otomatis dengan kata sandi database baru. Untuk memperbarui cluster untuk nilai rahasia baru, Anda harus menjalankan perintah berikut dari dalam node kepala setelah armada komputasi dihentikan.  

```
$ sudo /opt/parallelcluster/scripts/slurm/update_slurm_database_password.sh
```
Kami menyarankan Anda hanya mengubah kata sandi database ketika armada komputasi dihentikan untuk menghindari hilangnya data akuntansi.
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**`DatabaseName`(**Opsional**,`String`)**  
Nama database pada server database (didefinisikan oleh parameter Uri) yang akan digunakan untuk Slurm Akuntansi.  
Nama database mungkin berisi huruf kecil, angka dan garis bawah. Nama mungkin tidak lebih dari 64 karakter.  
Parameter ini memetakan ke `StorageLoc` parameter [slurmdbd.conf](https://slurm.schedmd.com/slurmdbd.conf.html#OPT_StorageLoc).  
Jika tidak `DatabaseName` disediakan, ParallelCluster akan menggunakan nama cluster untuk menentukan nilai untuk`StorageLoc`.  
Memperbarui `DatabaseName` diperbolehkan, dengan pertimbangan berikut:  
+ Jika database dengan nama DatabaseName belum ada di server database, slurmdbd akan membuatnya. Ini akan menjadi tanggung jawab Anda untuk mengkonfigurasi ulang database baru sesuai kebutuhan (misalnya menambahkan entitas akuntansi — cluster, akun, pengguna, asosiasi QOSs, dll.).
+ Jika database dengan nama DatabaseName sudah ada di server database, slurmdbd akan menggunakannya untuk fungsionalitas Akuntansi. Slurm
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

**catatan**  
`Database`ditambahkan dimulai dengan rilis 3.3.0.

### ExternalSlurmdbd
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd"></a>

**(Opsional)** Mendefinisikan pengaturan untuk mengaktifkan Slurm Akuntansi dengan server slurmdbd eksternal. Untuk informasi lebih lanjut, lihat [Slurmakuntansi dengan AWS ParallelCluster](slurm-accounting-v3.md).

```
ExternalSlurmdbd:
  Host: string
  Port: integer
```

#### `ExternalSlurmdbd`properti
<a name="Scheduling-v3-SlurmSettings-ExternalSlurmdbd.properties"></a>

**`Host`(**Diperlukan**,`String`)**  
Alamat ke server slurmdbd eksternal untuk akuntansi. Slurm Host dapat berupa alamat IP atau nama DNS yang dapat diselesaikan oleh node kepala.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**`Port`(**Opsional**,`Integer`)**  
Port yang didengarkan oleh layanan slurmdbd. Nilai default-nya adalah `6819`.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

### `Dns`
<a name="Scheduling-v3-SlurmSettings-Dns"></a>

**(Opsional)** Mendefinisikan pengaturan untuk Slurm itu berlaku untuk seluruh cluster.

```
Dns:
  DisableManagedDns: boolean
  HostedZoneId: string
  UseEc2Hostnames: boolean
```

#### `Dns`properti
<a name="Scheduling-v3-SlurmSettings-Dns.properties"></a>

**`DisableManagedDns`(**Opsional**,`Boolean`)**  
Jika`true`, entri DNS untuk cluster tidak dibuat dan nama Slurm node tidak dapat diselesaikan.  
Secara default, AWS ParallelCluster buat zona host Route 53 tempat node terdaftar saat diluncurkan. Nilai default-nya adalah `false`. Jika `DisableManagedDns` disetel ke`true`, zona yang dihosting tidak dibuat oleh AWS ParallelCluster.  
Untuk mempelajari cara menggunakan pengaturan ini untuk menyebarkan cluster di subnet tanpa akses internet, lihat. [AWS ParallelCluster dalam satu subnet tanpa akses internet](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md)  
Sistem resolusi nama diperlukan agar cluster dapat beroperasi dengan benar. Jika `DisableManagedDns` diatur ke`true`, Anda harus memberikan sistem resolusi nama. Untuk menggunakan DNS default Amazon EC2, setel ke. `UseEc2Hostnames` `true` Atau, konfigurasikan resolver DNS Anda sendiri dan pastikan bahwa nama node terdaftar saat instance diluncurkan. Misalnya, Anda dapat melakukan ini dengan mengonfigurasi [`CustomActions`](#Scheduling-v3-SlurmQueues-CustomActions)/[`OnNodeStart`](#yaml-Scheduling-SlurmQueues-CustomActions-OnNodeStart).
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`HostedZoneId`(**Opsional**,`String`)**  
Mendefinisikan ID zona yang dihosting Route 53 kustom yang akan digunakan untuk resolusi nama DNS untuk cluster. Saat disediakan, AWS ParallelCluster mendaftarkan node cluster di zona host yang ditentukan dan tidak membuat zona host terkelola.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**`UseEc2Hostnames`(**Opsional**,`Boolean`)**  
Jika`true`, node komputasi cluster dikonfigurasi dengan nama host EC2 default. Slurm`NodeHostName`Ini juga diperbarui dengan informasi ini. Nilai default-nya `false`.  
Untuk mempelajari cara menggunakan pengaturan ini untuk menyebarkan cluster di subnet tanpa akses internet, lihat. [AWS ParallelCluster dalam satu subnet tanpa akses internet](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md)  
**Catatan ini tidak relevan dimulai dengan AWS ParallelCluster versi 3.3.0.**  
Untuk versi yang AWS ParallelCluster didukung sebelum 3.3.0:  
Ketika `UseEc2Hostnames` diatur ke`true`, file konfigurasi Slurm diatur dengan skrip AWS ParallelCluster `prolog` dan`epilog`:  
+ `prolog`berjalan untuk menambahkan info node ke `/etc/hosts` node komputasi ketika setiap pekerjaan dialokasikan.
+ `epilog`berjalan untuk membersihkan konten yang ditulis oleh`prolog`.
Untuk menambahkan kustom `prolog` atau `epilog` skrip, tambahkan masing-masing ke `/opt/slurm/etc/pcluster/epilog.d/` folder `/opt/slurm/etc/pcluster/prolog.d/` atau.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Bagian `SharedStorage`
<a name="SharedStorage-v3"></a>

**(Opsional)** Pengaturan penyimpanan bersama untuk cluster.

AWS ParallelCluster [mendukung baik menggunakan [Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AmazonEBS.html), [FSx untuk ONTAP](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/what-is-fsx-ontap.html), dan [FSx untuk volume penyimpanan bersama OpenZFS](https://docs.aws.amazon.com/fsx/latest/OpenZFSGuide/what-is-fsx.html), Amazon [EFS](https://docs.aws.amazon.com/efs/latest/ug/whatisefs.html) dan [FSx untuk sistem file penyimpanan bersama Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html), atau File Cache.](https://docs.aws.amazon.com/fsx/latest/FileCacheGuide/what-is.html)

Di `SharedStorage` bagian ini, Anda dapat menentukan penyimpanan eksternal atau terkelola:
+ **Penyimpanan eksternal** mengacu pada volume atau sistem file yang ada yang Anda kelola. AWS ParallelCluster tidak membuat atau menghapusnya.
+ **AWS ParallelCluster penyimpanan terkelola** mengacu pada volume atau sistem file yang AWS ParallelCluster dibuat dan dapat dihapus.

Untuk [kuota penyimpanan bersama](shared-storage-quotas-v3.md) dan informasi selengkapnya tentang cara mengonfigurasi penyimpanan bersama, lihat [Penyimpanan bersama](shared-storage-quotas-integration-v3.md) di *Menggunakan AWS ParallelCluster*.

**catatan**  
Jika AWS Batch digunakan sebagai scheduler, FSx untuk Lustre hanya tersedia pada node kepala cluster.

```
SharedStorage:
  - MountDir: string
    Name: string
    StorageType: Ebs
    EbsSettings:
      VolumeType: string
      Iops: integer
      Size: integer
      Encrypted: boolean
      KmsKeyId: string
      SnapshotId: string
      Throughput: integer
      VolumeId: string
      DeletionPolicy: string
      Raid:
        Type: string
        NumberOfVolumes: integer
  - MountDir: string
    Name: string
    StorageType: Efs
    EfsSettings:
      Encrypted: boolean
      KmsKeyId: string
      EncryptionInTransit: boolean
      IamAuthorization: boolean
      PerformanceMode: string
      ThroughputMode: string
      ProvisionedThroughput: integer
      FileSystemId: string
      DeletionPolicy: string
      AccessPointId: string
  - MountDir: string
    Name: string
    StorageType: FsxLustre
    FsxLustreSettings:
      StorageCapacity: integer
      DeploymentType: string
      ImportedFileChunkSize: integer
      DataCompressionType: string
      ExportPath: string
      ImportPath: string
      WeeklyMaintenanceStartTime: string
      AutomaticBackupRetentionDays: integer
      CopyTagsToBackups: boolean
      DailyAutomaticBackupStartTime: string
      PerUnitStorageThroughput: integer
      BackupId: string
      KmsKeyId: string
      FileSystemId: string
      AutoImportPolicy: string
      DriveCacheType: string
      StorageType: string
      DeletionPolicy: string
      DataRepositoryAssociations:
      - Name: string
        BatchImportMetaDataOnCreate: boolean
        DataRepositoryPath: string
        FileSystemPath: string
        ImportedFileChunkSize: integer
        AutoExportPolicy: string
        AutoImportPolicy: string
  - MountDir: string
    Name: string
    StorageType: FsxOntap
    FsxOntapSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FsxOpenZfs
    FsxOpenZfsSettings:
      VolumeId: string
  - MountDir: string
    Name: string
    StorageType: FileCache
    FileCacheSettings:
      FileCacheId: string
```

## `SharedStorage`memperbarui kebijakan
<a name="SharedStorage-v3.update-policies"></a>
+ Untuk managed/external EBS, EFS terkelola, dan FSx Lustre terkelola, kebijakan pembaruan adalah [Kebijakan pembaruan: Untuk pengaturan nilai daftar ini, armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel untuk menambahkan nilai baru; armada komputasi harus dihentikan saat menghapus nilai yang ada.](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)
+ Untuk EFS eksternal, FSx Lustre, FSx ONTAP, FSx OpenZfs dan File Cache, kebijakan pemutakhiran adalah, [Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `SharedStorage`properti
<a name="SharedStorage-v3.properties"></a>

`MountDir`(**Diperlukan**,`String`)  
Jalur tempat penyimpanan bersama dipasang.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Name`(**Diperlukan**,`String`)  
Nama penyimpanan bersama. Anda menggunakan nama ini saat memperbarui pengaturan.  
Jika Anda menentukan penyimpanan bersama AWS ParallelCluster terkelola, dan Anda mengubah nilainya`Name`, penyimpanan dan data bersama terkelola yang ada akan dihapus dan penyimpanan bersama terkelola baru dibuat. Mengubah nilai `Name` dengan pembaruan cluster sama dengan mengganti penyimpanan bersama terkelola yang ada dengan yang baru. Pastikan Anda mencadangkan data Anda sebelum mengubah `Name` jika Anda perlu menyimpan data dari penyimpanan bersama yang ada.
[Kebijakan pembaruan: Untuk pengaturan nilai daftar ini, armada komputasi harus dihentikan atau QueueUpdateStrategyharus disetel untuk menambahkan nilai baru; armada komputasi harus dihentikan saat menghapus nilai yang ada.](using-pcluster-update-cluster-v3.md#update-policy-update-cluster-v3)

`StorageType`(**Diperlukan**,`String`)  
Jenis penyimpanan bersama. Nilai yang didukung adalah`Ebs`,`Efs`,`FsxLustre`,`FsxOntap`, dan`FsxOpenZfs`.  
Lihat informasi selengkapnya di [`FsxLustreSettings`](#SharedStorage-v3-FsxLustreSettings), [`FsxOntapSettings`](#SharedStorage-v3-FsxOntapSettings), dan [`FsxOpenZfsSettings`](#SharedStorage-v3-FsxOpenZfsSettings).  
Jika Anda menggunakan AWS Batch sebagai penjadwal, FSx untuk Lustre hanya tersedia di node kepala cluster.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EbsSettings`
<a name="SharedStorage-v3-EbsSettings"></a>

**(Opsional)** Pengaturan untuk volume Amazon EBS.

```
EbsSettings:
  VolumeType: string
  Iops: integer
  Size: integer
  Encrypted: boolean
  KmsKeyId: string
  SnapshotId: string
  VolumeId: string
  Throughput: integer
  DeletionPolicy: string
  Raid:
    Type: string
    NumberOfVolumes: integer
```

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `EbsSettings`properti
<a name="SharedStorage-v3-EbsSettings.properties"></a>

Ketika [DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy)diatur ke`Delete`, volume terkelola, dengan datanya, dihapus jika cluster dihapus atau jika volume dihapus dengan pembaruan cluster. 

Untuk informasi selengkapnya, lihat [Penyimpanan bersama](shared-storage-quotas-integration-v3.md) di *Menggunakan AWS ParallelCluster*.

`VolumeType`(**Opsional**,`String`)  
Menentukan jenis [volume Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html). Nilai yang didukung adalah `gp2``gp3`,`io1`,`io2`,`sc1`,`st1`, dan`standard`. Nilai default-nya adalah `gp3`.  
Untuk informasi lebih lanjut, lihat [Jenis volume Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EBSVolumeTypes.html) di *Panduan Pengguna Amazon EC2*.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Iops`(**Opsional**,`Integer`)  
Mendefinisikan jumlah IOPS untuk`io1`,`io2`, dan `gp3` jenis volume.  
Nilai default, nilai yang didukung, dan `volume_iops` `volume_size` rasio bervariasi menurut `VolumeType` dan`Size`.    
`VolumeType` = `io1`  
Default `Iops` = 100  
Nilai yang didukung `Iops` = 100—64000 †  
Maksimum `volume_iops` terhadap `volume_size` rasio = 50 IOPS untuk setiap GiB. 5000 IOPS membutuhkan `volume_size` setidaknya 100 GiB.  
`VolumeType` = `io2`  
Default `Iops` = 100  
Nilai yang didukung `Iops` = 100—64000 (256000 untuk `io2` volume Block Express) †  
`Size`Rasio maksimum `Iops` = 500 IOPS untuk setiap GiB. 5000 IOPS membutuhkan `Size` minimal 10 GiB.  
`VolumeType` = `gp3`  
Default `Iops` = 3000  
Nilai yang didukung `Iops` = 3000—16000  
`Size`Rasio maksimum `Iops` = 500 IOPS untuk setiap GiB. 5000 IOPS membutuhkan `Size` minimal 10 GiB.
† IOPS maksimum dijamin hanya pada [Instans yang dibangun di atas Sistem Nitro yang](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/instance-types.html#ec2-nitro-instances) disediakan dengan lebih dari 32.000 IOPS. Instans lain menjamin hingga 32.000 IOPS. Kecuali Anda [memodifikasi volume](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-modify-volume.html), `io1` volume sebelumnya mungkin tidak mencapai kinerja penuh. `io2` Volume Block Express mendukung `volume_iops` nilai hingga 256000 pada jenis `R5b` instans. Untuk informasi selengkapnya, lihat [`io2`Blokir volume Express](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-volume-types.html#io2-block-express) di *Panduan Pengguna Amazon EC2*.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Size`(**Opsional**,`Integer`)  
Menentukan ukuran volume dalam gibibytes (GiB). Nilai default adalah 35.   
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Encrypted`(**Opsional**,`Boolean`)  
Menentukan apakah volume dienkripsi. Nilai default-nya adalah `true`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`(**Opsional**,`String`)  
Menentukan AWS KMS kunci kustom untuk digunakan untuk enkripsi. Pengaturan ini mengharuskan `Encrypted` pengaturan diatur ke`true`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SnapshotId`(**Opsional**,`String`)  
Menentukan ID snapshot Amazon EBS jika Anda menggunakan snapshot sebagai sumber volume.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`VolumeId`(**Opsional**,`String`)  
Menentukan ID volume Amazon EBS. Ketika ini ditentukan untuk sebuah `EbsSettings` instance, hanya `MountDir` parameter yang juga dapat ditentukan.  
Volume harus dibuat di Availability Zone yang sama dengan`HeadNode`.  
Beberapa Availability Zones ditambahkan dalam AWS ParallelCluster versi 3.4.0.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Throughput`(**Opsional**,`Integer`)  
Throughput, dalam MiB/s penyediaan volume, dengan maksimum 1.000 MiB/s.  
Pengaturan ini hanya valid jika `VolumeType` ada`gp3`. Rentang yang didukung adalah 125 hingga 1000, dengan nilai default 125.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DeletionPolicy`(**Opsional**,`String`)  
Menentukan apakah volume harus dipertahankan, dihapus, atau snapshotted ketika cluster dihapus atau volume dihapus. Nilai yang didukung adalah`Delete`,`Retain`, dan`Snapshot`. Nilai default-nya adalah `Delete`.  
Ketika [DeletionPolicy](#yaml-SharedStorage-EbsSettings-DeletionPolicy)diatur ke`Delete`, volume terkelola, dengan datanya, dihapus jika cluster dihapus atau jika volume dihapus dengan pembaruan cluster.  
Untuk informasi selengkapnya, lihat [Penyimpanan bersama](shared-storage-quotas-integration-v3.md).  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`didukung dimulai dengan AWS ParallelCluster versi 3.2.0.

### `Raid`
<a name="SharedStorage-v3-EbsSettings-Raid"></a>

**(Opsional)** Mendefinisikan konfigurasi volume RAID.

```
Raid:
  Type: string
  NumberOfVolumes: integer
```

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

#### `Raid`properti
<a name="SharedStorage-v3-EbsSettings-Raid.properties"></a>

`Type`(**Diperlukan**,`String`)  
Mendefinisikan jenis array RAID. Nilai yang didukung adalah “0" (bergaris) dan “1" (dicerminkan).  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`NumberOfVolumes`(**Opsional**,`Integer`)  
Mendefinisikan jumlah volume Amazon EBS yang akan digunakan untuk membuat array RAID. Rentang nilai yang didukung adalah 2-5. Nilai default (ketika `Raid` pengaturan didefinisikan) adalah 2.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `EfsSettings`
<a name="SharedStorage-v3-EfsSettings"></a>

**(Opsional)** Pengaturan untuk sistem file Amazon EFS.

```
EfsSettings:
  Encrypted: boolean
  KmsKeyId: string
  EncryptionInTransit: boolean
  IamAuthorization: boolean
  PerformanceMode: string
  ThroughputMode: string
  ProvisionedThroughput: integer
  FileSystemId: string
  DeletionPolicy: string
  AccessPointId: string
```

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `EfsSettings`properti
<a name="SharedStorage-v3-EfsSettings.properties"></a>

Ketika [DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)diatur ke`Delete`, sistem file terkelola, dengan datanya, dihapus jika cluster dihapus, atau jika sistem file dihapus dengan pembaruan cluster.

Untuk informasi selengkapnya, lihat [Penyimpanan bersama](shared-storage-quotas-integration-v3.md) di *Menggunakan AWS ParallelCluster*.

`Encrypted`(**Opsional**,`Boolean`)  
Menentukan apakah sistem file Amazon EFS dienkripsi. Nilai default-nya adalah `false`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`(**Opsional**,`String`)  
Menentukan AWS KMS kunci kustom untuk digunakan untuk enkripsi. Pengaturan ini mengharuskan `Encrypted` pengaturan diatur ke`true`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`EncryptionInTransit`(**Opsional**,`Boolean`)  
Jika disetel ke`true`, sistem file Amazon EFS dipasang menggunakan Transport Layer Security (TLS). Secara default, ini diatur ke`false`.  
Jika AWS Batch digunakan sebagai penjadwal, `EncryptionInTransit` tidak didukung.
`EncryptionInTransit`ditambahkan dimulai dengan AWS ParallelCluster versi 3.4.0.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`IamAuthorization`(**Opsional**,`Boolean`)  
`IamAuthorization`ditambahkan dimulai dengan AWS ParallelCluster versi 3.4.0.  
Jika disetel ke`true`, Amazon EFS diautentikasi dengan menggunakan identitas IAM sistem. Secara default, ini diatur ke`false`.  
Jika `IamAuthorization` diatur ke`true`, juga `EncryptionInTransit` harus diatur ke`true`.
Jika AWS Batch digunakan sebagai penjadwal, `IamAuthorization` tidak didukung.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`PerformanceMode`(**Opsional**,`String`)  
Menentukan mode kinerja sistem file Amazon EFS. Nilai yang didukung adalah `generalPurpose` dan `maxIO`. Nilai default-nya adalah `generalPurpose`. Untuk informasi selengkapnya, lihat [Mode performa](https://docs.aws.amazon.com/efs/latest/ug/performance.html#performancemodes) dalam *Panduan Pengguna Amazon Elastic File System*.  
Kami merekomendasikan mode `generalPurpose` kinerja untuk sebagian besar sistem file.  
Sistem file yang menggunakan mode `maxIO` kinerja dapat menskalakan ke tingkat throughput agregat dan operasi per detik yang lebih tinggi. Namun, ada trade-off latensi yang sedikit lebih tinggi untuk sebagian besar operasi file.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ThroughputMode`(**Opsional**,`String`)  
Menentukan mode throughput sistem file Amazon EFS. Nilai yang didukung adalah `bursting` dan `provisioned`. Nilai default-nya adalah `bursting`. Kapan `provisioned` digunakan, `ProvisionedThroughput` harus ditentukan.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ProvisionedThroughput`(**Diperlukan** kapan `ThroughputMode``provisioned`,`Integer`)  
Mendefinisikan throughput yang disediakan (dalam. MiB/s) of the Amazon EFS file system, measured in MiB/s Ini sesuai dengan [ProvisionedThroughputInMibps](https://docs.aws.amazon.com/efs/latest/ug/API_CreateFileSystem.html#efs-CreateFileSystem-response-ProvisionedThroughputInMibps)parameter di *Referensi API Amazon EFS*.  
Jika Anda menggunakan parameter ini, Anda harus mengatur `ThroughputMode` ke`provisioned`.  
Rentang yang didukung adalah `1` -`1024`. Untuk meminta kenaikan batas, hubungi Dukungan.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`FileSystemId`(**Opsional**,`String`)  
Mendefinisikan ID sistem file Amazon EFS untuk sistem file yang ada.  
Jika klaster dikonfigurasi untuk menjangkau beberapa Availability Zone, Anda harus menentukan target pemasangan sistem file di setiap Availability Zone yang digunakan oleh cluster.  
Ketika ini ditentukan, hanya `MountDir` dapat ditentukan. Tidak ada yang lain yang `EfsSettings` dapat ditentukan.  

**Jika Anda mengatur opsi ini, berikut ini harus benar untuk sistem file yang Anda tentukan:**
+ Sistem file memiliki target pemasangan yang ada di setiap Zona Ketersediaan cluster, dengan lalu lintas NFS masuk dan keluar diizinkan dari dan. `HeadNode` `ComputeNodes` Beberapa zona ketersediaan dikonfigurasi dalam [Penjadwalan [SlurmQueues](Scheduling-v3.md#Scheduling-v3-SlurmQueues)](Scheduling-v3.md)//[Jaringan](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[SubnetIds](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SubnetIds).

  

**Untuk memastikan lalu lintas diperbolehkan antara cluster dan sistem file, Anda dapat melakukan salah satu hal berikut:**
  + Konfigurasikan grup keamanan target pemasangan untuk memungkinkan lalu lintas ke dan dari CIDR atau daftar awalan subnet cluster.
**catatan**  
AWS ParallelCluster memvalidasi bahwa port terbuka dan bahwa CIDR atau daftar awalan dikonfigurasi. AWS ParallelCluster tidak memvalidasi konten blok CIDR atau daftar awalan.
  + Tetapkan grup keamanan khusus untuk node cluster dengan menggunakan [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)dan [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Grup keamanan khusus harus dikonfigurasi untuk memungkinkan lalu lintas antara cluster dan sistem file.
**catatan**  
Jika semua node cluster menggunakan grup keamanan khusus, AWS ParallelCluster hanya memvalidasi bahwa port terbuka. AWS ParallelCluster tidak memvalidasi bahwa sumber dan tujuan dikonfigurasi dengan benar.
EFS hanya OneZone didukung jika semua node komputasi dan node kepala berada di Availability Zone yang sama. EFS hanya OneZone dapat memiliki satu target pemasangan.
Beberapa Availability Zones ditambahkan dalam AWS ParallelCluster versi 3.4.0.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy`(**Opsional**,`String`)  
Menentukan apakah sistem file harus dipertahankan atau dihapus ketika sistem file dihapus dari cluster atau cluster dihapus. Nilai yang di-support adalah `Delete` dan `Retain`. Nilai default-nya adalah `Delete`.  
Ketika [DeletionPolicy](#yaml-SharedStorage-EfsSettings-DeletionPolicy)diatur ke`Delete`, sistem file terkelola, dengan datanya, dihapus jika cluster dihapus, atau jika sistem file dihapus dengan pembaruan cluster.  
Untuk informasi selengkapnya, lihat [Penyimpanan bersama](shared-storage-quotas-integration-v3.md).  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`didukung dimulai dengan AWS ParallelCluster versi 3.3.0.

`AccessPointId`(**Opsional**,`String`)  
Jika opsi ini ditentukan, titik masuk sistem file yang ditentukan oleh `access point ID` akan dipasang daripada root sistem file.  
Untuk informasi selengkapnya, lihat [Penyimpanan bersama](shared-storage-quotas-integration-v3.md).  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxLustreSettings`
<a name="SharedStorage-v3-FsxLustreSettings"></a>

**catatan**  
Anda harus menentukan `FsxLustreSettings` `FsxLustre` apakah ditentukan untuk [`StorageType`](#yaml-SharedStorage-StorageType).

**(Opsional)** Pengaturan FSx untuk sistem file Lustre.

```
FsxLustreSettings:
  StorageCapacity: integer
  DeploymentType: string
  ImportedFileChunkSize: integer
  DataCompressionType: string
  ExportPath: string
  ImportPath: string
  WeeklyMaintenanceStartTime: string
  AutomaticBackupRetentionDays: integer
  CopyTagsToBackups: boolean
  DailyAutomaticBackupStartTime: string
  PerUnitStorageThroughput: integer
  BackupId: string # BackupId cannot coexist with some of the fields
  KmsKeyId: string
  FileSystemId: string # FileSystemId cannot coexist with other fields
  AutoImportPolicy: string
  DriveCacheType: string
  StorageType: string
  DeletionPolicy: string
```

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**catatan**  
Jika AWS Batch digunakan sebagai scheduler, FSx untuk Lustre hanya tersedia pada node kepala cluster.

### `FsxLustreSettings`properti
<a name="SharedStorage-v3-FsxLustreSettings.properties"></a>

Ketika [DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)diatur ke`Delete`, sistem file terkelola, dengan datanya, dihapus jika cluster dihapus, atau jika sistem file dihapus dengan pembaruan cluster.

Untuk informasi selengkapnya, lihat [Penyimpanan bersama](shared-storage-quotas-integration-v3.md).

`StorageCapacity`(**Diperlukan**,`Integer`)  
Mengatur kapasitas penyimpanan sistem file FSx for Lustre, di GiB. `StorageCapacity`diperlukan jika Anda membuat sistem file baru. Jangan sertakan `StorageCapacity` jika `BackupId` atau `FileSystemId` ditentukan.  
+ Untuk`SCRATCH_2`,`PERSISTENT_1`, dan jenis `PERSISTENT_2` penerapan, nilai yang valid adalah 1200 GiB, 2400 GiB, dan kenaikan 2400 GiB.
+ Untuk jenis deployment `SCRATCH_1`, nilai yang valid adalah 1200 GiB, 2400 GiB, dan peningkatan sebesar 3600 GiB.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeploymentType`(**Opsional**,`String`)  
Menentukan jenis penyebaran FSx untuk sistem file Lustre. Nilai yang didukung adalah `SCRATCH_1`, `SCRATCH_2`, `PERSISTENT_1`, dan `PERSISTENT_2`. Nilai default-nya adalah `SCRATCH_2`.  
Pilih `SCRATCH_1` dan jenis `SCRATCH_2` penerapan saat Anda membutuhkan penyimpanan sementara dan pemrosesan data jangka pendek. Jenis `SCRATCH_2` penyebaran menyediakan enkripsi data transit dan kapasitas throughput burst yang lebih tinggi daripada. `SCRATCH_1`  
Pilih jenis `PERSISTENT_1` penerapan untuk penyimpanan jangka panjang dan untuk beban kerja yang berfokus pada throughput yang tidak sensitif terhadap latensi. `PERSISTENT_1`mendukung enkripsi data dalam perjalanan. Ini tersedia di semua Wilayah AWS tempat FSx untuk Lustre tersedia.  
Pilih jenis `PERSISTENT_2` penerapan untuk penyimpanan jangka panjang dan untuk beban kerja sensitif latensi yang memerlukan tingkat IOPS dan throughput tertinggi. `PERSISTENT_2`mendukung penyimpanan SSD dan menawarkan lebih tinggi `PerUnitStorageThroughput` (hingga 1000 MB/s/Tib). `PERSISTENT_2`tersedia dalam jumlah terbatas Wilayah AWS. Untuk informasi selengkapnya tentang jenis penerapan dan daftar Wilayah AWS tempat `PERSISTENT_2` tersedia, lihat [Opsi penerapan sistem berkas untuk Lustre di Panduan Pengguna *Amazon FSx FSx for* Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html#lustre-deployment-types).  
[Enkripsi data dalam perjalanan diaktifkan secara otomatis saat Anda mengakses `SCRATCH_2``PERSISTENT_1`, atau sistem file jenis `PERSISTENT_2` penyebaran dari instans Amazon EC2 yang mendukung fitur ini.](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/data-protection.html)  
Enkripsi data dalam perjalanan untuk`SCRATCH_2`,`PERSISTENT_1`, dan jenis `PERSISTENT_2` penerapan didukung saat diakses dari jenis instans yang didukung di support Wilayah AWS. Untuk informasi selengkapnya, lihat [Mengenkripsi data saat transit di](https://docs.aws.amazon.com/fsx/latest/LustreGuide/encryption-in-transit-fsxl.html) *Amazon FSx for Lustre* User Guide.  
Support untuk jenis `PERSISTENT_2` penerapan ditambahkan dengan AWS ParallelCluster versi 3.2.0.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize`(**Opsional**,`Integer`)  
Untuk file yang diimpor dari repositori data, nilai ini menentukan jumlah garis dan jumlah maksimum data untuk setiap file (dalam MiB) yang disimpan pada disk fisik tunggal. Jumlah maksimum disk yang suatu file dapat diberi stripe dibatasi oleh jumlah total disk yang membentuk sistem file.  
Ukuran potongan default adalah 1.024 MiB (1 GiB) dan dapat mencapai 512.000 MiB (500 GiB). Objek Amazon S3 memiliki ukuran maksimal 5 TB.  
Parameter ini tidak didukung untuk sistem file yang menggunakan tipe `PERSISTENT_2` penerapan. Untuk petunjuk tentang cara mengonfigurasi asosiasi repositori data, lihat [Menautkan sistem file ke bucket S3 di](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) Panduan Pengguna *Amazon FSx for* Lustre.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataCompressionType`(**Opsional**,`String`)  
Menetapkan konfigurasi kompresi data untuk sistem file FSx untuk Lustre. Nilai yang didukung adalah`LZ4`. `LZ4`menunjukkan bahwa kompresi data dihidupkan dengan LZ4 algoritma. Bila `DataCompressionType` tidak ditentukan, kompresi data dimatikan saat sistem file dibuat.  
Untuk informasi lebih lanjut, lihat [Kompresi data Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/data-compression.html).  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ExportPath`(**Opsional**,`String`)  
Jalur di Amazon S3 tempat root sistem file Lustre Anda FSx diekspor. Pengaturan ini hanya didukung ketika `ImportPath` parameter ditentukan. Jalur harus menggunakan bucket Amazon S3 yang sama seperti yang ditentukan dalam. `ImportPath` Anda dapat memberikan awalan opsional yang data baru dan yang diubah akan diekspor dari sistem file FSx Lustre Anda. Jika `ExportPath` nilai tidak disediakan, FSx untuk Lustre menetapkan jalur ekspor default,. `s3://amzn-s3-demo-bucket/FSxLustre[creation-timestamp]` Stempel waktu ada dalam format UTC, misalnya `s3://amzn-s3-demo-bucket/FSxLustre20181105T222312Z`.  
Bucket ekspor Amazon S3 harus sama dengan bucket impor yang ditentukan oleh `ImportPath`. Jika Anda hanya menentukan nama bucket, misalnya`s3://amzn-s3-demo-bucket`, Anda mendapatkan pemetaan 1:1 objek sistem file ke objek bucket Amazon S3. Pemetaan ini berarti bahwa data input di Amazon S3 ditimpa pada ekspor. Jika Anda memberikan awalan kustom di jalur ekspor, seperti`s3://amzn-s3-demo-bucket/[custom-optional-prefix]`, FSx for Lustre mengekspor konten sistem file Anda ke awalan ekspor tersebut di bucket Amazon S3.  
Parameter ini tidak didukung untuk sistem file yang menggunakan tipe `PERSISTENT_2` penerapan. Konfigurasikan asosiasi repositori data seperti yang dijelaskan dalam [Menautkan sistem file Anda ke bucket S3 di Panduan Pengguna](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) *Amazon FSx for* Lustre.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportPath`(**Opsional**,`String`)  
Jalur ke bucket Amazon S3 (termasuk awalan opsional) yang Anda gunakan sebagai repositori data untuk sistem file Lustre Anda FSx . Root sistem file FSx for Lustre Anda akan dipetakan ke root bucket Amazon S3 yang Anda pilih. Contoh adalah `s3://amzn-s3-demo-bucket/optional-prefix`. Jika Anda menentukan prefiks setelah nama bucket Amazon S3, hanya tombol objek dengan prefiks tersebut yang dimuat ke dalam sistem file.  
Parameter ini tidak didukung untuk sistem file yang menggunakan tipe `PERSISTENT_2` penerapan. Konfigurasikan asosiasi repositori data seperti yang dijelaskan dalam [Menautkan sistem file Anda ke bucket S3 di Panduan Pengguna](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) *Amazon FSx for* Lustre.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`WeeklyMaintenanceStartTime`(**Opsional**,`String`)  
Waktu mulai yang disukai untuk melakukan pemeliharaan mingguan. Ini dalam `"d:HH:MM"` format di zona waktu UTC\$10. Untuk format ini, `d` adalah angka hari kerja dari 1 hingga 7, dimulai dengan Senin dan berakhir dengan hari Minggu. Tanda kutip diperlukan untuk bidang ini.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutomaticBackupRetentionDays`(**Opsional**,`Integer`)  
Jumlah hari penyimpanan cadangan otomatis. Mengatur ini menjadi 0 menonaktifkan cadangan otomatis. Rentang yang didukung adalah 0-90. Default-nya adalah 0. Pengaturan ini hanya berlaku untuk digunakan dengan `PERSISTENT_1` dan jenis `PERSISTENT_2` penerapan. Untuk informasi selengkapnya, lihat [Bekerja dengan cadangan](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-backups-fsx.html) di *Amazon FSx for Lustre* User Guide.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`CopyTagsToBackups`(**Opsional**,`Boolean`)  
Jika`true`, salin tag untuk sistem file FSx for Lustre ke backup. Nilai ini default menjadi `false`. Jika disetel ke`true`, semua tag untuk sistem file disalin ke semua backup otomatis dan yang dimulai pengguna di mana pengguna tidak menentukan tag. Jika nilai ini`true`, dan Anda menentukan satu atau beberapa tag, hanya tag yang ditentukan yang disalin ke cadangan. Jika Anda menentukan satu atau beberapa tag saat membuat cadangan yang diprakarsai pengguna, tidak ada tag yang disalin dari sistem file, terlepas dari nilai ini. Pengaturan ini hanya berlaku untuk digunakan dengan `PERSISTENT_1` dan jenis `PERSISTENT_2` penerapan.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DailyAutomaticBackupStartTime`(**Opsional**,`String`)  
Waktu harian yang berulang, dalam `HH:MM` format. `HH`adalah jam tanpa empuk dalam sehari (00-23). `MM`adalah menit empuk nol jam (00-59). Misalnya, `05:00` menentukan 5 A.M. setiap hari. Pengaturan ini hanya berlaku untuk digunakan dengan `PERSISTENT_1` dan jenis `PERSISTENT_2` penerapan.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`PerUnitStorageThroughput`(**Diperlukan untuk `PERSISTENT_1` dan jenis `PERSISTENT_2` penerapan**,`Integer`)  
Menjelaskan jumlah throughput baca dan tulis untuk setiap 1 tebibyte penyimpanan, dalam MB/s/Tib. Kapasitas throughput sistem file dihitung dengan mengalikan kapasitas penyimpanan sistem file (TiB) dengan `PerUnitStorageThroughput` (MB/s/TiB). For a 2.4 TiB ﬁle system, provisioning 50 MB/s/TiBdari `PerUnitStorageThroughput` hasil 120 throughput sistem file. MB/s Anda membayar untuk jumlah throughput yang Anda sediakan. Ini sesuai dengan [PerUnitStorageThroughput](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-perunitstoragethroughput)properti.  
Nilai valid:  
+ Penyimpanan SSD PERSISTENT\$11:50, 100, 200 MB/s/Tib.
+ Penyimpanan HDD PERSISTENT\$11:12, 40 MB/s/Tib.
+ Penyimpanan SSD PERSISTENT\$12:125, 250, 500, 1000 MB/s/Tib.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BackupId`(**Opsional**,`String`)  
Menentukan ID cadangan yang akan digunakan untuk mengembalikan sistem file FSx untuk Lustre dari cadangan yang ada. Ketika `BackupId` pengaturan ditentukan,,`AutoImportPolicy`,`DeploymentType`,`ExportPath`,`KmsKeyId`,`ImportPath`, `ImportedFileChunkSize``StorageCapacity`, dan `PerUnitStorageThroughput` pengaturan tidak boleh ditentukan. Pengaturan ini dibaca dari cadangan. Selain itu`AutoImportPolicy`,`ExportPath`,`ImportPath`, dan `ImportedFileChunkSize` pengaturan tidak boleh ditentukan. Ini sesuai dengan [BackupId](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-fsx-filesystem.html#cfn-fsx-filesystem-backupid)properti.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`KmsKeyId`(**Opsional**,`String`)  
ID ID kunci AWS Key Management Service (AWS KMS) yang digunakan untuk mengenkripsi data sistem file Lustre FSx untuk persisten FSx untuk sistem file Lustre saat istirahat. Jika tidak ditentukan, kunci terkelola FSx untuk Lustre digunakan. Sistem file `SCRATCH_1` dan `SCRATCH_2` FSx untuk Lustre selalu dienkripsi saat istirahat menggunakan FSx kunci terkelola Lustre. Untuk informasi selengkapnya, lihat [Mengenkripsi](https://docs.aws.amazon.com//kms/latest/APIReference/API_Encrypt.html) di *Referensi AWS Key Management Service API*.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemId`(**Opsional**,`String`)  
Menentukan ID yang ada FSx untuk sistem file Lustre.  
Jika opsi ini ditentukan, hanya `FileSystemId` pengaturan `MountDir` dan di `FsxLustreSettings` yang digunakan. Semua pengaturan lain di `FsxLustreSettings` diabaikan.  
Jika AWS Batch scheduler digunakan, FSx untuk Lustre hanya tersedia di node kepala.
Sistem file harus dikaitkan dengan grup keamanan yang memungkinkan lalu lintas TCP masuk dan keluar melalui port 988, 1021, 1022, dan 1023.
Pastikan lalu lintas diperbolehkan antara cluster dan sistem file dengan melakukan salah satu hal berikut:  
+ Konfigurasikan grup keamanan sistem file untuk memungkinkan lalu lintas ke dan dari CIDR atau daftar awalan subnet cluster.
**catatan**  
AWS ParallelCluster memvalidasi bahwa port terbuka dan bahwa CIDR atau daftar awalan dikonfigurasi. AWS ParallelCluster tidak memvalidasi konten blok CIDR atau daftar awalan.
+ Tetapkan grup keamanan khusus untuk node cluster dengan menggunakan [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)dan [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Grup keamanan khusus harus dikonfigurasi untuk memungkinkan lalu lintas antara cluster dan sistem file.
**catatan**  
Jika semua node cluster menggunakan grup keamanan khusus, AWS ParallelCluster hanya memvalidasi bahwa port terbuka. AWS ParallelCluster tidak memvalidasi bahwa sumber dan tujuan dikonfigurasi dengan benar.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`AutoImportPolicy`(**Opsional**,`String`)  
Saat Anda membuat sistem file FSx untuk Lustre, objek Amazon S3 yang ada muncul sebagai daftar file dan direktori. Gunakan properti ini untuk memilih bagaimana FSx Lustre membuat daftar file dan direktori tetap mutakhir saat menambahkan atau memodifikasi objek di bucket Amazon S3 tertaut. `AutoImportPolicy`dapat memiliki nilai-nilai berikut:  
+  `NEW`- Impor otomatis aktif. FSx untuk Lustre secara otomatis mengimpor daftar direktori objek baru apa pun yang ditambahkan ke bucket Amazon S3 tertaut yang saat ini tidak ada di sistem file for Lustre. FSx 
+  `NEW_CHANGED`- Impor otomatis aktif. FSx untuk Lustre secara otomatis mengimpor daftar file dan direktori objek baru apa pun yang ditambahkan ke bucket Amazon S3 dan objek apa pun yang ada yang diubah di bucket Amazon S3 setelah Anda memilih opsi ini. 
+  `NEW_CHANGED_DELETED`- Impor otomatis aktif. FSx untuk Lustre secara otomatis mengimpor daftar file dan direktori objek baru apa pun yang ditambahkan ke bucket Amazon S3, objek apa pun yang ada yang diubah di bucket Amazon S3, dan objek apa pun yang dihapus di bucket Amazon S3 setelah Anda memilih opsi ini.
**catatan**  
Support untuk `NEW_CHANGED_DELETED` ditambahkan di AWS ParallelCluster versi 3.1.1.
Jika `AutoImportPolicy` tidak ditentukan, impor otomatis dinonaktifkan. FSx untuk Lustre hanya memperbarui daftar file dan direktori dari bucket Amazon S3 yang ditautkan saat sistem file dibuat. FSx untuk Lustre tidak memperbarui daftar file dan direktori untuk objek baru atau yang diubah setelah memilih opsi ini.  
Untuk informasi selengkapnya, lihat [Mengimpor pembaruan secara otomatis dari bucket S3 Anda](https://docs.aws.amazon.com/fsx/latest/LustreGuide/autoimport-data-repo.html) di Panduan Pengguna *Amazon FSx for Lustre*.  
Parameter ini tidak didukung untuk sistem file yang menggunakan tipe `PERSISTENT_2` penerapan. Untuk petunjuk tentang cara mengonfigurasi asosiasi repositori data, lihat [Menautkan sistem file ke bucket S3 di](https://docs.aws.amazon.com/fsx/latest/LustreGuide/create-dra-linked-data-repo.html) Panduan Pengguna *Amazon FSx for* Lustre.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DriveCacheType`(**Opsional**,`String`)  
Menentukan bahwa sistem file memiliki cache drive SSD. Ini hanya dapat diatur jika `StorageType` pengaturan diatur ke`HDD`, dan `DeploymentType` pengaturan diatur ke`PERSISTENT_1`. Ini sesuai dengan [DriveCacheType](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-fsx-filesystem-lustreconfiguration.html#cfn-fsx-filesystem-lustreconfiguration-drivecachetype)properti. Untuk informasi selengkapnya, lihat [FSx opsi penerapan Lustre](https://docs.aws.amazon.com/fsx/latest/LustreGuide/using-fsx-lustre.html) di *Amazon FSx for Lustre* User Guide.  
Satu-satunya nilai yang valid adalah `READ`. Untuk menonaktifkan cache drive SSD, jangan tentukan `DriveCacheType` pengaturannya.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`StorageType`(**Opsional**,`String`)  
Menetapkan jenis penyimpanan untuk sistem file FSx untuk Lustre yang Anda buat. Nilai yang valid adalah `SSD` dan `HDD`.  
+ Mengatur ke `SSD` untuk menggunakan penyimpanan solid state drive.
+ Atur `HDD` untuk menggunakan penyimpanan hard disk drive. `HDD`didukung pada jenis `PERSISTENT` penerapan. 
Nilai default-nya adalah `SSD`. Untuk informasi selengkapnya, lihat [Opsi Jenis Penyimpanan](https://docs.aws.amazon.com/fsx/latest/WindowsGuide/optimize-fsx-costs.html#storage-type-options) di *Panduan Pengguna Amazon FSx untuk Windows* dan [Beberapa Opsi Penyimpanan](https://docs.aws.amazon.com/fsx/latest/LustreGuide/what-is.html#storage-options) di Panduan *Pengguna Amazon FSx for Lustre*.   
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DeletionPolicy`(**Opsional**,`String`)  
Menentukan apakah sistem file harus dipertahankan atau dihapus ketika sistem file dihapus dari cluster atau cluster dihapus. Nilai yang di-support adalah `Delete` dan `Retain`. Nilai default-nya adalah `Delete`.  
Ketika [DeletionPolicy](#yaml-SharedStorage-FsxLustreSettings-DeletionPolicy)diatur ke`Delete`, sistem file terkelola, dengan datanya, dihapus jika cluster dihapus, atau jika sistem file dihapus dengan pembaruan cluster.  
Untuk informasi selengkapnya, lihat [Penyimpanan bersama](shared-storage-quotas-integration-v3.md).  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`didukung dimulai dengan AWS ParallelCluster versi 3.3.0.

`DataRepositoryAssociations`(**Opsional**,`String`)  
Daftar DRAs (hingga 8 per sistem file)  
Setiap asosiasi repositori data harus memiliki direktori sistem FSx file Amazon yang unik dan bucket atau awalan S3 unik yang terkait dengannya.  
Anda tidak dapat menggunakan [ExportPath](#yaml-SharedStorage-FsxLustreSettings-ExportPath)dan [ImportPath](#yaml-SharedStorage-FsxLustreSettings-ImportPath)pada FsxLustreSettings saat yang sama dengan menggunakan DRAs.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Name`(**Diperlukan**,`String`)  
Nama DRA. Anda menggunakan nama ini saat memperbarui pengaturan.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`BatchImportMetaDataOnCreate`(**Opsional**,`Boolean`)  
Bendera boolean yang menunjukkan apakah tugas repositori data impor untuk mengimpor metadata harus dijalankan setelah asosiasi repositori data dibuat. Tugas berjalan jika flag ini disetel ke`true`.  
Nilai default: `false`  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`DataRepositoryPath`(**Diperlukan**,`String`)  
Jalur ke repositori data Amazon S3 yang akan ditautkan ke sistem file. Path dapat berupa bucket S3 atau awalan dalam format. `s3://amzn-s3-demo-bucket/myPrefix/` Path ini menentukan di mana dalam file repositori data S3 akan diimpor dari atau diekspor ke.  
Tidak dapat tumpang tindih dengan yang lain DRAs  
Pola: `^[^\u0000\u0085\u2028\u2029\r\n]{3,4357}$`  
Minimal: `3`  
Maksimum: `4357`  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`FileSystemPath`(**Diperlukan**,`String`)  
Jalur di sistem file Amazon FSx untuk Lustre yang menunjuk ke direktori tingkat tinggi (seperti`/ns1/`) atau subdirektori (seperti`/ns1/subdir/`) yang akan dipetakan 1-1 dengan. `DataRepositoryPath` Diperlukan garis miring ke depan dalam nama. Dua asosiasi repositori data tidak dapat memiliki jalur sistem file yang tumpang tindih. Misalnya, jika repositori data dikaitkan dengan jalur sistem file`/ns1/`, maka Anda tidak dapat menautkan repositori data lain dengan jalur sistem file. `/ns1/ns2`  
Path ini menentukan di mana file sistem file Anda akan diekspor dari atau diimpor ke. Direktori sistem file ini hanya dapat ditautkan ke satu bucket Amazon S3, dan tidak ada bucket S3 lain yang dapat ditautkan ke direktori.  
Tidak dapat tumpang tindih dengan yang lain DRAs  
 Jika Anda hanya menentukan garis miring (`/`) sebagai jalur sistem file, Anda hanya dapat menautkan satu repositori data ke sistem file. Anda hanya dapat menentukan "`/`" sebagai jalur sistem file untuk repositori data pertama yang terkait dengan sistem file. 
Pola: `^[^\u0000\u0085\u2028\u2029\r\n]{1,4096}$`  
Minimal: `1`  
Maksimum: `4096`  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`ImportedFileChunkSize`(**Opsional**,`Integer`)  
Untuk file yang diimpor dari repositori data, nilai ini menentukan jumlah garis dan jumlah maksimum data per file (dalam MiB) yang disimpan pada disk fisik tunggal. Jumlah maksimum disk yang dapat digaris-garis satu file dibatasi oleh jumlah total disk yang membentuk sistem file atau cache.  
Ukuran potongan default adalah 1.024 MiB (1 GiB) dan dapat mencapai 512.000 MiB (500 GiB). Objek Amazon S3 memiliki ukuran maksimal 5 TB.  
Minimal: `1`  
Maksimum: `4096`  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoExportPolicy`(**Opsional**,`Array of strings`)  
Daftar ini dapat berisi satu atau lebih dari nilai-nilai berikut:  
+ `NEW`- File dan direktori baru secara otomatis diekspor ke repositori data saat ditambahkan ke sistem file.
+ `CHANGED`- Perubahan pada file dan direktori pada sistem file secara otomatis diekspor ke repositori data.
+ `DELETED`- File dan direktori secara otomatis dihapus pada repositori data ketika mereka dihapus pada sistem file.
Anda dapat menentukan kombinasi jenis acara apa pun untuk Anda`AutoExportPolicy`.  
Maksimum: `3`  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`AutoImportPolicy`(**Opsional**,`Array of strings`)  
Daftar ini dapat berisi satu atau lebih dari nilai-nilai berikut:  
+ `NEW`- Amazon FSx secara otomatis mengimpor metadata file yang ditambahkan ke bucket S3 tertaut yang saat ini tidak ada di sistem file. FSx 
+ `CHANGED`- Amazon FSx secara otomatis memperbarui metadata file dan membatalkan konten file yang ada pada sistem file saat file berubah dalam repositori data.
+ `DELETED`- Amazon FSx secara otomatis menghapus file pada sistem file karena file yang sesuai dihapus di repositori data.
Anda dapat menentukan kombinasi jenis acara apa pun untuk Anda`AutoImportPolicy`.  
Maksimum: `3`  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `FsxOntapSettings`
<a name="SharedStorage-v3-FsxOntapSettings"></a>

**catatan**  
Anda harus menentukan `FsxOntapSettings` `FsxOntap` apakah ditentukan untuk [`StorageType`](#yaml-SharedStorage-StorageType).

**(Opsional)** Pengaturan FSx untuk sistem file ONTAP.

```
FsxOntapSettings:
  VolumeId: string
```

### `FsxOntapSettings`properti
<a name="SharedStorage-v3-FsxOntapSettings.properties"></a>

`VolumeId`(**Diperlukan**,`String`)  
Menentukan ID volume yang ada FSx untuk sistem ONTAP.

**catatan**  
Jika AWS Batch penjadwal digunakan, FSx untuk ONTAP hanya tersedia di node kepala.
Jika tipe penerapan ONTAP FSx untuk`Multi-AZ`, pastikan tabel rute subnet head node dikonfigurasi dengan benar.
Support FSx untuk ONTAP ditambahkan di AWS ParallelCluster versi 3.2.0.
Sistem file harus dikaitkan dengan grup keamanan yang memungkinkan lalu lintas TCP dan UDP masuk dan keluar melalui port 111, 635, 2049, dan 4046.

Pastikan lalu lintas diperbolehkan antara cluster dan sistem file dengan melakukan salah satu tindakan berikut:
+ Konfigurasikan grup keamanan sistem file untuk memungkinkan lalu lintas ke dan dari CIDR atau daftar awalan subnet cluster.
**catatan**  
AWS ParallelCluster memvalidasi bahwa port terbuka dan bahwa CIDR atau daftar awalan dikonfigurasi. AWS ParallelCluster tidak memvalidasi konten blok CIDR atau daftar awalan.
+ Tetapkan grup keamanan khusus untuk node cluster dengan menggunakan [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)dan [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Grup keamanan khusus harus dikonfigurasi untuk memungkinkan lalu lintas antara cluster dan sistem file.
**catatan**  
Jika semua node cluster menggunakan grup keamanan khusus, AWS ParallelCluster hanya memvalidasi bahwa port terbuka. AWS ParallelCluster tidak memvalidasi bahwa sumber dan tujuan dikonfigurasi dengan benar.

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FsxOpenZfsSettings`
<a name="SharedStorage-v3-FsxOpenZfsSettings"></a>

**catatan**  
Anda harus menentukan `FsxOpenZfsSettings` `FsxOpenZfs` apakah ditentukan untuk [`StorageType`](#yaml-SharedStorage-StorageType).

**(Opsional)** Pengaturan untuk sistem file FSx untuk OpenZFS.

```
FsxOpenZfsSettings:
  VolumeId: string
```

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `FsxOpenZfsSettings`properti
<a name="SharedStorage-v3-FsxOpenZfsSettings.properties"></a>

`VolumeId`(**Diperlukan**,`String`)  
Menentukan ID volume yang ada FSx untuk sistem OpenZFS.

**catatan**  
Jika AWS Batch scheduler digunakan, FSx untuk OpenZFS hanya tersedia di node kepala.
Support FSx untuk OpenZFS telah ditambahkan dalam AWS ParallelCluster versi 3.2.0.
Sistem file harus dikaitkan dengan grup keamanan yang memungkinkan lalu lintas TCP dan UDP masuk dan keluar melalui port 111, 2049, 20001, 20002, dan 20003.

Pastikan lalu lintas diperbolehkan antara cluster dan sistem file dengan melakukan salah satu hal berikut:
+ Konfigurasikan grup keamanan sistem file untuk memungkinkan lalu lintas ke dan dari CIDR atau daftar awalan subnet cluster.
**catatan**  
AWS ParallelCluster memvalidasi bahwa port terbuka dan bahwa CIDR atau daftar awalan dikonfigurasi. AWS ParallelCluster tidak memvalidasi konten blok CIDR atau daftar awalan.
+ Tetapkan grup keamanan khusus untuk node cluster dengan menggunakan [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)dan [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Grup keamanan khusus harus dikonfigurasi untuk memungkinkan lalu lintas antara cluster dan sistem file.
**catatan**  
Jika semua node cluster menggunakan grup keamanan khusus, AWS ParallelCluster hanya memvalidasi bahwa port terbuka. AWS ParallelCluster tidak memvalidasi bahwa sumber dan tujuan dikonfigurasi dengan benar.

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `FileCacheSettings`
<a name="SharedStorage-v3-FsxFileCacheSettings"></a>

**catatan**  
Anda harus menentukan `FileCacheSettings` `FileCache` apakah ditentukan untuk [`StorageType`](#yaml-SharedStorage-StorageType).

**(Opsional)** Pengaturan untuk File Cache.

```
FileCacheSettings:
  FileCacheId: string
```

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `FileCacheSettings`properti
<a name="SharedStorage-v3-FsxFileCacheSettings.properties"></a>

`FileCacheId`(**Diperlukan**,`String`)  
Menentukan ID Cache File dari File Cache yang ada.

**catatan**  
File Cache tidak mendukung AWS Batch penjadwal.
Support untuk File Cache ditambahkan dalam AWS ParallelCluster versi 3.7.0.
Sistem file harus dikaitkan dengan grup keamanan yang memungkinkan lalu lintas TCP masuk dan keluar melalui port 988.

Pastikan lalu lintas diperbolehkan antara cluster dan sistem file dengan melakukan salah satu hal berikut:
+ Konfigurasikan grup keamanan File Cache untuk memungkinkan lalu lintas ke dan dari CIDR atau daftar awalan subnet cluster.
**catatan**  
AWS ParallelCluster memvalidasi bahwa port terbuka dan bahwa CIDR atau daftar awalan dikonfigurasi. AWS ParallelCluster tidak memvalidasi konten blok CIDR atau daftar awalan.
+ Tetapkan grup keamanan khusus untuk node cluster dengan menggunakan [`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)/[`Networking`](Scheduling-v3.md#Scheduling-v3-SlurmQueues-Networking)/[`SecurityGroups`](Scheduling-v3.md#yaml-Scheduling-SlurmQueues-Networking-SecurityGroups)dan [`HeadNode`](HeadNode-v3.md)/[`Networking`](HeadNode-v3.md#HeadNode-v3-Networking)/[`SecurityGroups`](HeadNode-v3.md#yaml-HeadNode-Networking-SecurityGroups). Grup keamanan khusus harus dikonfigurasi untuk memungkinkan lalu lintas antara cluster dan sistem file.
**catatan**  
Jika semua node cluster menggunakan grup keamanan khusus, AWS ParallelCluster hanya memvalidasi bahwa port terbuka. AWS ParallelCluster tidak memvalidasi bahwa sumber dan tujuan dikonfigurasi dengan benar.

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Bagian `Iam`
<a name="Iam-v3"></a>

**(Opsional)** Menentukan properti IAM untuk cluster.

```
Iam:
  Roles:
    LambdaFunctionsRole: string
  PermissionsBoundary: string
  ResourcePrefix: string
```

[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Iam`properti
<a name="Iam-v3.properties"></a>

`PermissionsBoundary`(**Opsional**,`String`)  
ARN dari kebijakan IAM untuk digunakan sebagai batas izin untuk semua peran yang dibuat oleh. AWS ParallelCluster Untuk informasi selengkapnya, lihat [Batasan izin untuk entitas IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_boundaries.html) dalam *Panduan Pengguna IAM*. Formatnya adalah `arn:${Partition}:iam::${Account}:policy/${PolicyName}`.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Roles`(**Opsional**)  
Menentukan pengaturan untuk peran IAM yang digunakan oleh cluster.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`LambdaFunctionsRole`(**Opsional**,`String`)  
ARN dari peran IAM yang akan digunakan untuk. AWS Lambda Ini mengesampingkan peran default yang dilampirkan ke semua fungsi Lambda yang mendukung sumber daya khusus. AWS CloudFormation Lambda perlu dikonfigurasi sebagai prinsipal yang diizinkan untuk mengambil peran. Ini tidak akan mengesampingkan peran fungsi Lambda yang digunakan untuk. AWS Batch Formatnya adalah `arn:${Partition}:iam::${Account}:role/${RoleName}`.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`ResourcePrefix`(**Opsional**)  
Menentukan jalur atau nama awalan untuk sumber daya IAM yang dibuat oleh. AWS ParallelCluster  
Awalan sumber daya harus mengikuti [aturan penamaan yang ditentukan oleh IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_identifiers.html):  
+ Sebuah nama dapat berisi hingga 30 karakter.
+ Sebuah nama hanya bisa berupa string tanpa karakter slash (`/`).
+ Sebuah jalur bisa sampai 512 karakter.
+ Jalur harus dimulai dan diakhiri dengan garis miring (`/`). Ini dapat berisi beberapa garis miring (`/`) antara garis miring awal dan akhir ()`/`.
+ Anda dapat menggabungkan jalur dan nama`/path/name`.
Tentukan nama.  

```
Iam:
  ResourcePrefix: my-prefix
```
Tentukan jalur.  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/
```
Tentukan jalur dan nama.  

```
Iam:
  ResourcePrefix: /org/dept/team/project/user/my-prefix
```
Jika Anda menentukan`/my-prefix`, kesalahan dikembalikan.  

```
Iam:
  ResourcePrefix: /my-prefix
```
Kesalahan konfigurasi dikembalikan. Sebuah jalan harus memiliki dua `/` s. Awalan dengan sendirinya tidak dapat memiliki `/` s.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Bagian `LoginNodes`
<a name="LoginNodes-v3"></a>

**catatan**  
Support untuk `LoginNodes` ditambahkan dalam AWS ParallelCluster versi 3.7.0.

**(Opsional)** Menentukan konfigurasi untuk kumpulan node login.

```
LoginNodes:
  Pools:
    - Name: string
      Count: integer
      InstanceType: string
      GracetimePeriod: integer
      Image:
        CustomAmi: string
      Ssh:
        KeyName: string
        AllowedIps: string
      Networking:
        SubnetIds:
          - string
        SecurityGroups:
          - string
        AdditionalSecurityGroups:
          - string
      Dcv:
        Enabled: boolean
        Port: integer
        AllowedIps: string
      CustomActions:
        OnNodeStart:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeConfigured:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
        OnNodeUpdated:
          Sequence:
            - Script: string
              Args:
                - string
          Script: string
          Args:
            - string
      Iam:
        InstanceRole: string
        InstanceProfile: string
        AdditionalIamPolicies:
          - Policy: string
```

[Kebijakan pembaruan: Node login di cluster harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-cluster)

## `LoginNodes`properti
<a name="LoginNodes-v3.properties"></a>

### `Pools`properti
<a name="LoginNodes-v3-Pools"></a>

Mendefinisikan grup node login yang memiliki konfigurasi sumber daya yang sama. Dimulai dengan AWS ParallelCluster 3.11.0 hingga 10 pool dapat ditentukan.

```
Pools:
  - Name: string
    Count: integer
    InstanceType: string
    GracetimePeriod: integer
    Image:
      CustomAmi: string
    Ssh:
      KeyName: string
      AllowedIps: string
    Networking:
      SubnetIds:
        - string
      SecurityGroups:
        - string
      AdditionalSecurityGroups:
        - string
    Dcv:
      Enabled: boolean
      Port: integer
      AllowedIps: string
    CustomActions:
      OnNodeStart:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeConfigured:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
      OnNodeUpdated:
        Sequence:
          - Script: string
            Args:
              - string
        Script: string
        Args:
          - string
    Iam:
      InstanceRole: string
      InstanceProfile: string
      AdditionalIamPolicies:
        - Policy: string
```

[Kebijakan pembaruan: Kumpulan node login dapat ditambahkan, tetapi menghapus kumpulan mengharuskan semua node login di cluster dihentikan.](using-pcluster-update-cluster-v3.md#update-policy-add-login-node-pools)

`Name`(**Diperlukan**`String`)  
Menentukan nama `LoginNodes` kolam renang. Ini digunakan untuk menandai `LoginNodes` sumber daya.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)   
Dimulai dengan AWS ParallelCluster versi 3.11.0, kebijakan pemutakhiran adalah: Node login di kumpulan harus dihentikan agar pengaturan ini diubah untuk pembaruan.

`Count`(**Diperlukan**`Integer`)  
Menentukan jumlah node login untuk tetap aktif.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`InstanceType`(**Diperlukan**`String`)  
Menentukan jenis instans Amazon EC2 yang digunakan untuk node login. Arsitektur tipe instance harus sama dengan arsitektur yang digunakan untuk Slurm `InstanceType` pengaturan.  
[Kebijakan pembaruan](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3): Pengaturan ini dapat diubah jika kumpulan node login dihentikan.  
Dimulai dengan AWS ParallelCluster versi 3.11.0, kebijakan pemutakhiran adalah: Node login di kumpulan harus dihentikan agar pengaturan ini diubah untuk pembaruan.

`GracetimePeriod`(**Opsional**`Integer`)  
Menentukan jumlah minimum waktu dalam menit yang berlalu antara pemberitahuan ke pengguna login bahwa node login akan dinonaktifkan dan peristiwa berhenti yang sebenarnya. Nilai yang valid untuk `GracetimePeriod` adalah dari 3 hingga 120 menit. Defaultnya adalah 10 menit.  
Peristiwa pemicu melibatkan interaksi antara beberapa AWS layanan. Terkadang, latensi jaringan dan penyebaran informasi mungkin memakan waktu sehingga masa tenggang mungkin memakan waktu lebih lama dari yang diharapkan karena keterlambatan internal dalam layanan. AWS 
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Image`(**Opsional**)  
Mendefinisikan konfigurasi gambar untuk node login.  

```
Image:
  CustomAmi: String
```  
`CustomAmi`(**Opsional**`String`)  
Menentukan AMI kustom yang digunakan untuk menyediakan node login. Jika tidak ditentukan, nilai default ke yang ditentukan dalam. [Bagian `HeadNode`](HeadNode-v3.md)  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Ssh`(**Opsional**)  
Mendefinisikan `ssh` konfigurasi untuk node login.  

```
Ssh:
  KeyName: string
  AllowedIps: string
```
Dimulai dengan AWS ParallelCluster versi 3.11.0, kebijakan pemutakhiran adalah: Node login di kumpulan harus dihentikan agar pengaturan ini diubah untuk pembaruan.  
`KeyName`(**Opsional**`String`)  
Menentukan `ssh` kunci yang digunakan untuk login ke node login. Jika tidak ditentukan, nilai default ke yang ditentukan dalam. [Bagian `HeadNode`](HeadNode-v3.md)  
[Kebijakan pembaruan: Node login di pool harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
Usang - Parameter konfigurasi `LoginNodes/Pools/Ssh/KeyName` telah usang, dan akan dihapus di rilis mendatang. CLI sekarang mengembalikan pesan peringatan ketika digunakan dalam konfigurasi cluster. Lihat [ https://github.com/aws/aws-parallelcluster/issues/6811](https://github.com/aws/aws-parallelcluster/issues/6811) untuk detailnya.  
`AllowedIps`(**Opsional**`String`)  
Menentukan rentang IP berformat CIDR atau id daftar awalan untuk koneksi SSH untuk login node di pool. Default adalah [AllowedIps](HeadNode-v3.md#yaml-HeadNode-Ssh-AllowedIps)didefinisikan dalam konfigurasi node kepala, atau `0.0.0.0/0` jika tidak ditentukan. [Bagian `HeadNode`](HeadNode-v3.md).  
[Kebijakan pembaruan: Node login di pool harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-update-login-node-pools)  
Support AllowedIps untuk node login ditambahkan dalam AWS ParallelCluster versi 3.11.0.

`Networking`(**Diperlukan**)  
  

```
Networking:
  SubnetIds:
    - string
  SecurityGroups:
    - string
  AdditionalSecurityGroups:
    - string
```
Dimulai dengan AWS ParallelCluster versi 3.11.0, kebijakan pemutakhiran adalah: Node login di kumpulan harus dihentikan agar pengaturan ini diubah untuk pembaruan.  
`SubnetIds`(**Diperlukan**`[String]`)  
ID subnet yang ada tempat Anda menyediakan kumpulan node login. Anda hanya dapat menentukan satu subnet.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`SecurityGroups`(**Opsional**`[String]`)  
Daftar grup keamanan yang akan digunakan untuk kumpulan node login. Jika tidak ada grup keamanan yang ditentukan, AWS ParallelCluster buat grup keamanan untuk Anda.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalSecurityGroups`(**Opsional**`[String]`)  
Daftar grup keamanan tambahan yang akan digunakan untuk kumpulan node login.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dcv`(**Opsional**)  
Mendefinisikan pengaturan konfigurasi untuk server NICE DCV yang berjalan pada node login[.](#LoginNodes-v3) Untuk informasi selengkapnya, lihat [Hubungkan ke node head dan login melalui Amazon DCV](dcv-v3.md)  

```
Dcv:
  Enabled: boolean
  Port: integer
  AllowedIps: string
```
Secara default, pengaturan port NICE DCV terbuka AWS ParallelCluster untuk semua IPv4 alamat. Anda dapat terhubung ke port NICE DCV hanya jika Anda memiliki URL untuk sesi NICE DCV dan terhubung ke sesi NICE DCV dalam waktu 30 detik setelah URL dikembalikan dari pcluster dcv-connect. Gunakan `AllowedIps` pengaturan untuk lebih membatasi akses ke port NICE DCV dengan rentang IP berformat CIDR dan gunakan pengaturan Port untuk mengatur port yang tidak standar.
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Support untuk DCV pada node login ditambahkan dalam AWS ParallelCluster versi 3.11.0.  
`Enabled`(**Diperlukan**`Boolean`)  
Menentukan apakah NICE DCV diaktifkan pada node login di kolam renang. Nilai default-nya adalah `false`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
NICE DCV secara otomatis menghasilkan sertifikat yang ditandatangani sendiri yang digunakan untuk mengamankan lalu lintas antara klien NICE DCV dan server NICE DCV yang berjalan pada node login. Untuk mengonfigurasi sertifikat Anda sendiri, lihat[Sertifikat Amazon DCV HTTPS](dcv-v3.md#dcv-v3-certificate).  
`Port`(**Opsional**`Integer`)  
Menentukan port untuk NICE DCV. Nilai default-nya adalah `8443`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AllowedIps`(**Opsional**`String`)  
Menentukan rentang IP berformat CIDR untuk koneksi ke NICE DCV. Pengaturan ini hanya digunakan saat AWS ParallelCluster membuat grup keamanan. Nilai defaultnya adalah`0.0.0.0/0`, yang memungkinkan akses dari alamat Internet apa pun.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`CustomActions`(**Opsional**)  
Menentukan skrip kustom untuk berjalan pada node login.  

```
CustomActions:
  OnNodeStart:
    Sequence:
      - Script: string
        Args: 
          - string
    Script: string
    Args:
      - string
  OnNodeConfigured:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
  OnNodeUpdated:
    Sequence:
      - Script: string
        Args:
          - string
    Script: string
    Args:
      - string
```
Support untuk tindakan kustom pada node login ditambahkan dalam AWS ParallelCluster versi 3.11.0.  
`OnNodeStart`(**Opsional**)  
Menentukan skrip tunggal atau urutan skrip untuk dijalankan pada [node login](#LoginNodes-v3) sebelum tindakan bootstrap penyebaran node dimulai. Untuk informasi selengkapnya, lihat [Tindakan bootstrap kustom](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opsional**)  
Daftar skrip untuk dijalankan. AWS ParallelCluster menjalankan skrip dalam urutan yang sama seperti yang tercantum dalam file konfigurasi, dimulai dengan yang pertama.    
`Script`(**Diperlukan**`String`)  
Menentukan file yang akan digunakan. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
`Args`(**Opsional**`[String]`)  
Daftar argumen untuk diteruskan ke skrip.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script`(**Diperlukan**`String`)  
Menentukan file yang akan digunakan untuk skrip tunggal. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
`Args`(**Opsional**`[String]`)  
Daftar argumen untuk diteruskan ke skrip tunggal.  
`OnNodeConfigured`(**Opsional**)  
Menentukan skrip tunggal atau urutan skrip untuk dijalankan pada [node login](#LoginNodes-v3) setelah proses bootstrap node selesai. Untuk informasi selengkapnya, lihat [Tindakan bootstrap kustom](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opsional**)  
Daftar skrip untuk dijalankan. AWS ParallelCluster menjalankan skrip dalam urutan yang sama seperti yang tercantum dalam file konfigurasi, dimulai dengan yang pertama.    
`Script`(**Diperlukan**`String`)  
Menentukan file yang akan digunakan. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
`Args`(**Opsional**`[String]`)  
Daftar argumen untuk diteruskan ke skrip.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`Script`(**Diperlukan**`String`)  
Menentukan file yang akan digunakan untuk skrip tunggal. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
`Args`(**Opsional**`[String]`)  
Daftar argumen untuk diteruskan ke skrip tunggal.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`OnNodeUpdated`(**Opsional**)  
Menentukan skrip tunggal atau urutan skrip untuk dijalankan setelah pembaruan node kepala selesai dan penjadwal dan penyimpanan bersama diselaraskan dengan perubahan konfigurasi cluster terbaru. Untuk informasi selengkapnya, lihat [Tindakan bootstrap kustom](custom-bootstrap-actions-v3.md).    
`Sequence`(**Opsional**)  
Daftar skrip untuk dijalankan. AWS ParallelCluster menjalankan skrip dalam urutan yang sama seperti yang tercantum dalam file konfigurasi, dimulai dengan yang pertama.    
`Script`(**Diperlukan**`String`)  
Menentukan file yang akan digunakan. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
`Args`(**Opsional**`[String]`)  
Daftar argumen untuk diteruskan ke skrip.  
`Script`(**Diperlukan**`String`)  
Menentukan file yang akan digunakan untuk skrip tunggal. Jalur file dapat dimulai dengan `https://` atau`s3://`.  
`Args`(**Opsional**`[String]`)  
Daftar argumen untuk diteruskan ke skrip tunggal.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
AWS ParallelCluster tidak mendukung termasuk skrip tunggal dan `Sequence` untuk tindakan kustom yang sama.

`Iam`(**Opsional**)  
Menentukan baik peran instance atau profil instance untuk digunakan pada node login untuk mengganti peran instance default atau profil instance untuk cluster.  

```
Iam:
  InstanceRole: string
  InstanceProfile: string
  AdditionalIamPolicies:
    - Policy: string
```
Dimulai dengan AWS ParallelCluster versi 3.11.0, kebijakan pemutakhiran adalah: Node login di kumpulan harus dihentikan agar pengaturan ini diubah untuk pembaruan.  
`InstanceProfile`(**Opsional**`String`)  
Menentukan profil contoh untuk mengganti profil contoh node login default. Anda tidak dapat menentukan `InstanceProfile` dan `InstanceRole` sekaligus. Formatnya adalah `arn:Partition:iam::Account:instance-profile/InstanceProfileName`. Jika ini ditentukan, `AdditionalIamPolicies` pengaturan `InstanceRole` dan tidak dapat ditentukan.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`InstanceRole`(**Opsional**`String`)  
Menentukan peran contoh untuk mengganti peran instance node login default. Anda tidak dapat menentukan `InstanceProfile` dan `InstanceRole` sekaligus. Formatnya adalah `arn:Partition:iam::Account:role/RoleName`. Jika ini ditentukan, `AdditionalIamPolicies` pengaturan `InstanceProfile` dan tidak dapat ditentukan.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`AdditionalIamPolicies`(**Opsional**)  

```
AdditionalIamPolicies:
  - Policy: string
```
Kebijakan IAM Nama Sumber Daya Amazon (ARN).  
Menentukan daftar Nama Sumber Daya Amazon (ARN) kebijakan IAM untuk Amazon EC2. Daftar ini dilampirkan ke peran root yang digunakan untuk node login selain izin yang diperlukan oleh AWS ParallelCluster.  
Nama kebijakan IAM dan ARN-nya berbeda. Nama tidak bisa digunakan.  
Jika ini ditentukan, `InstanceRole` pengaturan `InstanceProfile` dan tidak dapat ditentukan. Kami menyarankan Anda menggunakan `AdditionalIamPolicies` karena `AdditionalIamPolicies` ditambahkan ke izin yang AWS ParallelCluster diperlukan, dan `InstanceRole` harus menyertakan semua izin yang diperlukan. Izin yang diperlukan sering berubah dari rilis ke rilis saat fitur ditambahkan.  
Tidak ada nilai default.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Policy`(**Diperlukan**`[String]`)  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

# Bagian `Monitoring`
<a name="Monitoring-v3"></a>

**(Opsional)** Menentukan pengaturan pemantauan untuk cluster.

```
Monitoring:
  Logs:
    CloudWatch:
      Enabled: boolean
      RetentionInDays: integer
      DeletionPolicy: string
    Rotation:
      Enabled: boolean
  Dashboards:
    CloudWatch:
      Enabled: boolean
  DetailedMonitoring: boolean
  Alarms:
   Enabled: boolean
```

[Kebijakan pembaruan: Pengaturan ini tidak dianalisis selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-ignored-v3)

## `Monitoring`properti
<a name="Monitoring-v3.properties"></a>

`Logs`(**Opsional**)  
Pengaturan log untuk cluster.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`CloudWatch`(**Opsional**)  
Pengaturan CloudWatch Log untuk cluster.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled`(**Diperlukan**,`Boolean`)  
Jika`true`, log cluster dialirkan ke CloudWatch Log. Nilai default-nya adalah `true`.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
`RetentionInDays`(**Opsional**,`Integer`)  
Jumlah hari untuk menyimpan peristiwa log di CloudWatch Log. Nilai defaultnya adalah 180. Nilai yang didukung adalah 0, 1, 3, 5, 7, 14, 30, 60, 90, 120, 150, 180, 365, 400, 545, 731, 1827, dan 3653. Nilai 0 akan menggunakan pengaturan penyimpanan CloudWatch log default, yaitu tidak pernah kedaluwarsa.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`DeletionPolicy`(**Opsional**,`String`)  
Menunjukkan apakah akan menghapus peristiwa CloudWatch log pada Log saat cluster dihapus. Nilai yang mungkin adalah `Delete` dan `Retain`. Nilai default-nya adalah `Retain`.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
`Rotation`(**Opsional**)  
Pengaturan rotasi log untuk cluster.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)    
`Enabled`(**Diperlukan**,`Boolean`)  
Jika`true`, rotasi log diaktifkan. Nilai default-nya `true`. Ketika file log yang AWS ParallelCluster dikonfigurasi mencapai ukuran tertentu, itu diputar dan satu cadangan dipertahankan. Untuk informasi selengkapnya, lihat [AWS ParallelCluster rotasi log yang dikonfigurasi](log-rotation-v3.md).  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`Dashboards`(**Opsional**)  
Pengaturan dasbor untuk cluster.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`CloudWatch`(**Opsional**)  
Pengaturan CloudWatch dasbor untuk cluster.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled`(**Diperlukan**,`Boolean`)  
Jika`true`, CloudWatch dasbor diaktifkan. Nilai default-nya adalah `true`.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`DetailedMonitoring`(**Opsional**,`Boolean`)  
Jika disetel ke`true`, pemantauan terperinci diaktifkan untuk instans Amazon EC2 armada komputasi. Saat diaktifkan, konsol Amazon EC2 menampilkan grafik untuk memantau instans pada interval 1 menit. Ada biaya tambahan saat fitur ini diaktifkan. Nilai default-nya `false`.  
Untuk informasi lebih lanjut, lihat [Aktifkan atau matikan pemantauan terperinci untuk instans Anda](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-cloudwatch-new.html) di *Panduan Pengguna Amazon EC2 untuk Instans Linux*.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)  
`DetailedMonitoring`ditambahkan dimulai dengan AWS ParallelCluster versi 3.6.0.

`Alarms`(**Opsional**)  
CloudWatch Alarm untuk cluster.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)    
`Enabled`(**Opsional**)  
Jika`true`, CloudWatch Alarm untuk cluster akan dibuat. Nilai default-nya adalah `true`.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)  
Dimulai dengan AWS ParallelCluster versi 3.8.0, alarm berikut dibuat untuk Head Node: Pemeriksaan Kesehatan Amazon EC2, CPU/Memory/Disk pemanfaatan, dan alarm komposit yang mencakup semua yang lain.

# Bagian `Tags`
<a name="Tags-v3"></a>

**(Opsional), Array** Mendefinisikan tag yang digunakan oleh CloudFormation dan disebarkan ke semua sumber daya cluster. Untuk informasi selengkapnya, lihat [tag CloudFormation sumber daya](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-properties-resource-tags.html) di *Panduan AWS CloudFormation Pengguna*.

```
Tags:
  - Key: string
    Value: string
```

[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

## `Tags`properti
<a name="Tags-v3.properties"></a>

`Key`(**Diperlukan**,`String`)  
Mendefinisikan nama tag.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

`Value`(**Diperlukan**,`String`)  
Mendefinisikan nilai tag.  
[Kebijakan pembaruan: Pengaturan ini dapat diubah selama pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-setting-supported-v3)

**catatan**  
Dimulai dengan AWS ParallelCluster 3.15.0, pembaruan Tag didukung dengan batasan berikut:  
Volume EBS HeadNode aktif - Hanya akan mempertahankan tag dari saat cluster dibuat; memperbarui tag pada volume EBS ini tidak didukung.
Running Nodes - Pembaruan tag tidak akan diterapkan untuk menjalankan node komputasi atau login.

# Bagian `AdditionalPackages`
<a name="AdditionalPackages-v3"></a>

**(Opsional)** Digunakan untuk mengidentifikasi paket tambahan untuk diinstal.

```
AdditionalPackages:
  IntelSoftware:
    IntelHpcPlatform: boolean
```

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

## `IntelSoftware`
<a name="AdditionalPackages-v3-IntelSoftware"></a>

**(Opsional)** Mendefinisikan konfigurasi untuk solusi pilihan Intel.

```
IntelSoftware:
  IntelHpcPlatform: boolean
```

[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

### `IntelSoftware`properti
<a name="AdditionalPackages-v3-IntelSoftware.properties"></a>

` IntelHpcPlatform`(**Opsional**,`Boolean`)  
Jika`true`, menunjukkan bahwa [perjanjian lisensi pengguna akhir](https://software.intel.com/en-us/articles/end-user-license-agreement) untuk Intel Parallel Studio diterima. Hal ini menyebabkan Intel Parallel Studio diinstal pada node kepala dan dibagikan dengan node komputasi. Ini menambahkan beberapa menit ke waktu yang dibutuhkan node kepala untuk bootstrap.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)  
Dimulai dengan AWS ParallelCluster versi 3.10.0 `IntelHpcPlatform` parameter tidak lagi didukung.

# Bagian `DirectoryService`
<a name="DirectoryService-v3"></a>

**catatan**  
Support untuk `DirectoryService` ditambahkan di AWS ParallelCluster versi 3.1.1.

**(Opsional)** Pengaturan layanan direktori untuk cluster yang mendukung beberapa akses pengguna.

AWS ParallelCluster mengelola izin yang mendukung akses beberapa pengguna ke cluster dengan Active Directory (AD) melalui Lightweight Directory Access Protocol (LDAP) yang didukung oleh [Daemon Layanan Keamanan Sistem](https://sssd.io/docs/introduction.html) (SSSD). Untuk informasi lebih lanjut, lihat [Apa itu AWS Directory Service?](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/what_is.html) dalam *Panduan AWS Directory Service Administrasi*.

Kami menyarankan Anda menggunakan LDAP over TLS/SSL (disingkat LDAPS) untuk memastikan bahwa setiap informasi yang berpotensi sensitif ditransmisikan melalui saluran terenkripsi.

```
DirectoryService:
  DomainName: string
  DomainAddr: string
  PasswordSecretArn: string
  DomainReadOnlyUser: string
  LdapTlsCaCert: string
  LdapTlsReqCert: string
  LdapAccessFilter: string
  GenerateSshKeysForUsers: boolean
  AdditionalSssdConfigs: dict
```

[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

## `DirectoryService`properti
<a name="DirectoryService-v3.properties"></a>

**catatan**  
Jika Anda berencana untuk menggunakan AWS ParallelCluster dalam satu subnet tanpa akses internet, lihat [AWS ParallelCluster dalam satu subnet tanpa akses internet](aws-parallelcluster-in-a-single-public-subnet-no-internet-v3.md) persyaratan tambahan.

`DomainName`(**Diperlukan**,`String`)  
Domain Active Directory (AD) yang Anda gunakan untuk informasi identitas.  
`DomainName`menerima format Fully Qualified Domain Name (FQDN) dan LDAP Distinguished Name (DN).  
+ Contoh FQDN: `corp.example.com`
+ Contoh LDAP DN: `DC=corp,DC=example,DC=com`
Properti ini sesuai dengan parameter sssd-ldap yang dipanggil. `ldap_search_base`  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainAddr`(**Diperlukan**,`String`)  
URI atau URIs yang mengarah ke pengontrol domain AD yang digunakan sebagai server LDAP. URI sesuai dengan parameter SSSD-LDAP yang dipanggil. `ldap_uri` Nilainya bisa berupa string yang dipisahkan koma dari. URIs Untuk menggunakan LDAP, Anda harus menambahkan `ldap://` ke awal setiap URI.  
Nilai contoh:  

```
ldap://192.0.2.0,ldap://203.0.113.0          # LDAP
ldaps://192.0.2.0,ldaps://203.0.113.0        # LDAPS without support for certificate verification
ldaps://abcdef01234567890.corp.example.com  # LDAPS with support for certificate verification
192.0.2.0,203.0.113.0                        # AWS ParallelCluster uses LDAPS by default
```
Jika Anda menggunakan LDAPS dengan verifikasi sertifikat, URIs harus menjadi nama host.  
Jika Anda menggunakan LDAPS tanpa verifikasi sertifikat atau LDAP, URIs dapat berupa nama host atau alamat IP.  
Gunakan LDAP over TLS/SSL (LDAPS) untuk menghindari transmisi kata sandi dan informasi sensitif lainnya melalui saluran yang tidak terenkripsi. Jika AWS ParallelCluster tidak menemukan protokol, itu `ldaps://` menambah awal setiap URI atau nama host.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`PasswordSecretArn`(**Diperlukan**,`String`)  
Nama Sumber Daya Amazon (ARN) dari AWS Secrets Manager rahasia yang berisi kata sandi teks biasa`DomainReadOnlyUser`. Isi rahasia sesuai dengan parameter SSSD-LDAP yang disebut. `ldap_default_authtok`  
Saat Anda menggunakan AWS Secrets Manager konsol untuk membuat rahasia, pastikan untuk memilih “Jenis rahasia lainnya”, pilih teks biasa, dan hanya sertakan teks kata sandi dalam rahasia.  
Untuk informasi lebih lanjut tentang cara menggunakan AWS Secrets Manager untuk membuat rahasia, lihat [Buat AWS Secrets Manager Rahasia](https://docs.aws.amazon.com//secretsmanager/latest/userguide/create_secret)
Klien LDAP menggunakan kata sandi untuk mengautentikasi ke domain AD sebagai `DomainReadOnlyUser` saat meminta informasi identitas.  
Jika pengguna memiliki izin untuk [https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html](https://docs.aws.amazon.com/secretsmanager/latest/apireference/API_DescribeSecret.html), `PasswordSecretArn` divalidasi. `PasswordSecretArn`valid jika rahasia yang ditentukan ada. Jika kebijakan IAM pengguna tidak disertakan`DescribeSecret`, `PasswordSecretArn` tidak divalidasi dan pesan peringatan ditampilkan. Untuk informasi selengkapnya, lihat [Kebijakan AWS ParallelCluster `pcluster` pengguna dasar](iam-roles-in-parallelcluster-v3.md#iam-roles-in-parallelcluster-v3-base-user-policy).  
Ketika nilai rahasia berubah, cluster *tidak* diperbarui secara otomatis. Untuk memperbarui cluster untuk nilai rahasia baru, Anda harus menghentikan armada komputasi dengan [`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md) perintah dan kemudian menjalankan perintah berikut dari dalam node kepala.  

```
$ sudo /opt/parallelcluster/scripts/directory_service/update_directory_service_password.sh
```
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`DomainReadOnlyUser`(**Diperlukan**,`String`)  
Identitas yang digunakan untuk menanyakan domain AD untuk informasi identitas saat mengautentikasi login pengguna klaster. Ini sesuai dengan parameter SSSD-LDAP yang disebut. `ldap_default_bind_dn` Gunakan informasi identitas iklan Anda untuk nilai ini.  
Tentukan identitas dalam formulir yang diperlukan oleh klien LDAP tertentu yang ada di node:  
+ MicrosofPad:

  ```
  cn=ReadOnlyUser,ou=Users,ou=CORP,dc=corp,dc=example,dc=com
  ```
+ SimpleAD:

  ```
  cn=ReadOnlyUser,cn=Users,dc=corp,dc=example,dc=com
  ```
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsCaCert`(**Opsional**,`String`)  
Jalur absolut ke bundel sertifikat yang berisi sertifikat untuk setiap otoritas sertifikasi dalam rantai sertifikasi yang mengeluarkan sertifikat untuk pengontrol domain. Ini sesuai dengan parameter SSSD-LDAP yang disebut. `ldap_tls_cacert`  
Bundel sertifikat adalah file yang terdiri dari rangkaian sertifikat berbeda dalam format PEM, juga dikenal sebagai format DER Base64 di Windows. Ini digunakan untuk memverifikasi identitas pengontrol domain AD yang bertindak sebagai server LDAP.  
AWS ParallelCluster tidak bertanggung jawab atas penempatan awal sertifikat ke node. Sebagai administrator cluster, Anda dapat mengonfigurasi sertifikat di node kepala secara manual setelah cluster dibuat atau Anda dapat menggunakan [skrip bootstrap](custom-bootstrap-actions-v3.md). Atau, Anda dapat menggunakan Amazon Machine Image (AMI) yang menyertakan sertifikat yang dikonfigurasi pada node kepala.  
[Simple AD](https://docs.aws.amazon.com/directoryservice/latest/admin-guide/directory_simple_ad.html) tidak menyediakan dukungan LDAPS. *Untuk mempelajari cara mengintegrasikan direktori Simple AD dengan AWS ParallelCluster, lihat [Cara mengonfigurasi titik akhir LDAPS untuk Simple AD di Blog](https://aws.amazon.com/blogs/security/how-to-configure-ldaps-endpoint-for-simple-ad/) Keamanan.AWS *  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapTlsReqCert`(**Opsional**,`String`)  
Menentukan pemeriksaan apa yang akan dilakukan pada sertifikat server dalam sesi TLS. Ini sesuai dengan parameter SSSD-LDAP yang disebut. `ldap_tls_reqcert`  
Nilai yang valid:`never`,`allow`,`try`,`demand`, dan`hard`.  
`never`,`allow`, dan `try` aktifkan koneksi untuk melanjutkan bahkan jika masalah dengan sertifikat ditemukan.  
`demand`dan `hard` memungkinkan komunikasi untuk melanjutkan jika tidak ada masalah dengan sertifikat yang ditemukan.  
Jika administrator klaster menggunakan nilai yang tidak memerlukan validasi sertifikat untuk berhasil, pesan peringatan akan dikembalikan ke administrator. Untuk alasan keamanan, kami menyarankan Anda untuk tidak menonaktifkan verifikasi sertifikat.  
Nilai default-nya adalah `hard`.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`LdapAccessFilter`(**Opsional**,`String`)  
Menentukan filter untuk membatasi akses direktori ke subset pengguna. Properti ini sesuai dengan parameter SSSD-LDAP yang dipanggil. `ldap_access_filter` Anda dapat menggunakannya untuk membatasi kueri pada iklan yang mendukung sejumlah besar pengguna.  
Filter ini dapat memblokir akses pengguna ke cluster. Namun, itu tidak memengaruhi kemampuan ditemukan pengguna yang diblokir.  
Jika properti ini disetel, parameter SSSD `access_provider` diatur ke `ldap` internal oleh AWS ParallelCluster dan tidak boleh dimodifikasi oleh [`DirectoryService`](#DirectoryService-v3)/[`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs)pengaturan.  
Jika properti ini dihilangkan dan akses pengguna yang disesuaikan tidak ditentukan di [`DirectoryService`](#DirectoryService-v3)/[`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs), semua pengguna di direktori dapat mengakses klaster.  
Contoh:  

```
"!(cn=SomeUser*)"  # denies access to every user with an alias that starts with "SomeUser"
"(cn=SomeUser*)"   # allows access to every user with alias that starts with "SomeUser"
"memberOf=cn=TeamOne,ou=Users,ou=CORP,dc=corp,dc=example,dc=com" # allows access only to users in group "TeamOne".
```
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`GenerateSshKeysForUsers`(**Opsional**,`Boolean`)  
Mendefinisikan apakah AWS ParallelCluster menghasilkan kunci SSH untuk pengguna cluster segera setelah otentikasi awal mereka pada node kepala.  
Jika disetel ke`true`, kunci SSH dihasilkan dan disimpan ke`USER_HOME_DIRECTORY/.ssh/id_rsa`, jika tidak ada, untuk setiap pengguna setelah otentikasi pertama mereka di node kepala.  

Untuk pengguna yang belum diautentikasi pada node kepala, otentikasi pertama dapat terjadi dalam kasus berikut:
+ Pengguna masuk ke node kepala untuk pertama kalinya dengan kata sandinya sendiri.
+ Di node kepala, sudoer beralih ke pengguna untuk pertama kalinya: `su USERNAME`
+ Di node kepala, sudoer menjalankan perintah sebagai pengguna untuk pertama kalinya: `su -u USERNAME COMMAND`
Pengguna dapat menggunakan kunci SSH untuk login berikutnya ke node kepala cluster dan node komputasi. Dengan AWS ParallelCluster, login kata sandi ke node komputasi cluster dinonaktifkan berdasarkan desain. Jika pengguna belum masuk ke node kepala, kunci SSH tidak dihasilkan dan pengguna tidak akan dapat masuk untuk menghitung node.  
Nilai default-nya `true`.  
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

`AdditionalSssdConfigs`(**Opsional**,`Dict`)  
Kamus pasangan nilai kunci yang berisi parameter dan nilai SSSD untuk ditulis ke file konfigurasi SSSD pada instance cluster. Untuk deskripsi lengkap tentang file konfigurasi SSSD, lihat halaman manual on-instance untuk `SSSD` dan file konfigurasi terkait.  
Parameter dan nilai SSSD harus kompatibel dengan AWS ParallelCluster konfigurasi SSSD seperti yang dijelaskan dalam daftar berikut.  
+ `id_provider`diatur ke `ldap` internal oleh AWS ParallelCluster dan tidak boleh dimodifikasi.
+ `access_provider`diatur ke `ldap` internal oleh AWS ParallelCluster ketika [`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)ditentukan, dan pengaturan ini tidak boleh diubah.

  Jika [`DirectoryService`](#DirectoryService-v3)/[`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)dihilangkan, `access_provider` spesifikasinya juga dihilangkan. Misalnya, jika Anda menyetel `access_provider` ke `simple` in [`AdditionalSssdConfigs`](#yaml-DirectoryService-AdditionalSssdConfigs), maka [`DirectoryService`](#DirectoryService-v3)/tidak [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)boleh ditentukan.
Cuplikan konfigurasi berikut adalah contoh konfigurasi yang valid untuk. `AdditionalSssdConfigs`  
Contoh ini memungkinkan tingkat debug untuk log SSSD, membatasi basis pencarian ke unit organisasi tertentu, dan menonaktifkan caching kredensyal.  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    debug_level: "0xFFF0"
    ldap_search_base: OU=Users,OU=CORP,DC=corp,DC=example,DC=com
    cache_credentials: False
```
Contoh ini menentukan konfigurasi [https://www.mankier.com/5/sssd-simple](https://www.mankier.com/5/sssd-simple)`access_provider`SSSD. Pengguna dari `EngineeringTeam` disediakan akses ke direktori. [`DirectoryService`](#DirectoryService-v3)/tidak [`LdapAccessFilter`](#yaml-DirectoryService-LdapAccessFilter)boleh diatur dalam kasus ini.  

```
DirectoryService:
  ...
  AdditionalSssdConfigs:
    access_provider: simple
    simple_allow_groups: EngineeringTeam
```
[Kebijakan pembaruan: Armada komputasi harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-fleet-v3)

# Bagian `DeploymentSettings`
<a name="DeploymentSettings-cluster-v3"></a>

**catatan**  
`DeploymentSettings`ditambahkan dimulai dengan AWS ParallelCluster versi 3.4.0.

**(Opsional)** Menentukan konfigurasi pengaturan penyebaran.

```
DeploymentSettings:
  LambdaFunctionsVpcConfig:
    SecurityGroupIds:
      - string
    SubnetIds:
      - string
  DisableSudoAccessForDefaultUser: Boolean
  DefaultUserHome: string # 'Shared' or 'Local'
```

## `DeploymentSettings`properti
<a name="DeploymentSettings-cluster-v3.properties"></a>

### `LambdaFunctionsVpcConfig`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig"></a>

**(Opsional)** Menentukan AWS Lambda fungsi konfigurasi VPC. Untuk informasi selengkapnya, lihat [AWS Lambda Konfigurasi VPC di AWS ParallelCluster](lambda-vpc-v3.md).

```
LambdaFunctionsVpcConfig:
  SecurityGroupIds:
    - string
  SubnetIds:
    - string
```

#### `LambdaFunctionsVpcConfig properties`
<a name="DeploymentSettings-cluster-v3-LambdaFunctionsVpcConfig.properties"></a>

`SecurityGroupIds`(**Diperlukan**,`[String]`)  
Daftar grup keamanan Amazon VPC IDs yang dilampirkan ke fungsi Lambda.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

`SubnetIds`(**Diperlukan**,`[String]`)  
Daftar subnet IDs yang dilampirkan ke fungsi Lambda.  
[Kebijakan pembaruan: Jika pengaturan ini diubah, pembaruan tidak diizinkan.](using-pcluster-update-cluster-v3.md#update-policy-fail-v3)

**catatan**  
Subnet dan grup keamanan harus berada dalam VPC yang sama.

### DisableSudoAccessForDefaultUser properti
<a name="DeploymentSettings-cluster-v3-DisableSudoAccessForDefaultUser.property"></a>

**catatan**  
Opsi konfigurasi ini hanya didukung dengan Slurm Cluster.

(Opsional) Jika`True`, hak istimewa sudo dari Pengguna default akan dinonaktifkan. Ini berlaku untuk semua node di cluster.

```
# Main DeploymentSettings section in config yaml(applies to HN, CF and LN)
DeploymentSettings:
  DisableSudoAccessForDefaultUser: True
```

Untuk memperbarui nilai`DisableSudoAccessForDefaultUser`, Anda harus menghentikan armada komputasi dan semua node login.

[Kebijakan pembaruan: Armada komputasi dan node login harus dihentikan agar pengaturan ini diubah untuk pembaruan.](using-pcluster-update-cluster-v3.md#update-policy-compute-login-v3)

### DefaultUserHome properti
<a name="DeploymentSettings-cluster-v3-DefaultUserHome.property"></a>

Ketika diatur ke`Shared`, cluster akan menggunakan pengaturan default dan berbagi direktori pengguna default di seluruh cluster oleh`/home/<default user>`.

Ketika diatur ke`Local`, node kepala, node login, dan node komputasi masing-masing akan memiliki direktori pengguna default lokal yang terpisah yang disimpan di`local/home/<default user>`.