

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Mengelola Amazon EMR pada pekerjaan EKS
<a name="emr-eks-jobs-manage"></a>

Bagian berikut mencakup topik yang membantu Anda mengelola EMR Amazon Anda di pekerjaan EKS. Ini termasuk mengonfigurasi parameter job run saat Anda menggunakan AWS CLI, mengonfigurasi bagaimana data log Anda disimpan, menjalankan skrip Spark SQL untuk menjalankan kueri, memahami status job run, dan mengetahui cara memantau pekerjaan. Anda dapat mengerjakan topik-topik ini, umumnya secara berurutan, jika Anda ingin mengatur dan menyelesaikan pekerjaan untuk memproses data.

**Topics**
+ [Mengelola pekerjaan berjalan dengan AWS CLI](emr-eks-jobs-CLI.md)
+ [Menjalankan skrip Spark SQL melalui API StartJobRun](emr-eks-jobs-spark-sql-parameters.md)
+ [Status tugas berjalan](emr-eks-jobs-states.md)
+ [Melihat tugas di konsol Amazon EMR](emr-eks-jobs-console.md)
+ [Kesalahan umum saat menjalankan tugas](emr-eks-jobs-error.md)

# Mengelola pekerjaan berjalan dengan AWS CLI
<a name="emr-eks-jobs-CLI"></a>

Topik ini mencakup cara mengelola pekerjaan berjalan dengan AWS Command Line Interface (AWS CLI). Ini masuk ke detail mengenai properti, seperti parameter keamanan, driver, dan berbagai pengaturan penggantian. Ini juga mencakup subtopik yang mencakup berbagai cara untuk mengonfigurasi logging.

**Topics**
+ [Pilihan untuk mengonfigurasi tugas berjalan](#emr-eks-jobs-parameters)
+ [Konfigurasikan pekerjaan yang dijalankan untuk menggunakan log Amazon S3](emr-eks-jobs-s3.md)
+ [Mengonfigurasi pekerjaan yang dijalankan untuk menggunakan Amazon CloudWatch Logs](emr-eks-jobs-cloudwatch.md)
+ [Daftar tugas berjalan](#emr-eks-jobs-list)
+ [Jelaskan tugas berjalan](#emr-eks-jobs-describe)
+ [Membatalkan tugas berjalan](#emr-eks-jobs-cancel)

## Pilihan untuk mengonfigurasi tugas berjalan
<a name="emr-eks-jobs-parameters"></a>

Gunakan opsi berikut untuk mengonfigurasi parameter tugas berjalan:
+ `--execution-role-arn`: Anda harus menyediakan IAM role yang digunakan untuk menjalankan tugas. Untuk informasi selengkapnya, lihat [Menggunakan peran eksekusi tugas dengan Amazon EMR di EKS](iam-execution-role.md). 
+ `--release-label`: Anda dapat menyebarkan Amazon EMR di EKS dengan Amazon EMR versi 5.32.0 dan 6.2.0 dan lebih baru. Amazon EMR di EKS tidak didukung dalam versi rilis Amazon EMR sebelumnya. Untuk informasi selengkapnya, lihat [Amazon EMR pada rilis EKS](emr-eks-releases.md). 
+ `--job-driver`: Driver tugas digunakan untuk memberikan input pada tugas utama. Ini adalah bidang jenis serikat di mana Anda hanya dapat meloloskan salah satu nilai untuk jenis tugas yang ingin Anda jalankan. Jenis tugas yang didukung meliputi:
  + Tugas Spark submit - Digunakan untuk menjalankan perintah melalui Spark submit. Anda dapat menggunakan jenis pekerjaan ini untuk menjalankan Scala,, SparkR PySpark, SparkSQL, dan pekerjaan lain yang didukung melalui Spark Submit. Tugas ini memiliki parameter berikut:
    + Entrypoint - Ini adalah referensi HCFS (sistem file yang kompatibel dengan Hadoop) ke file utama jar/py yang ingin Anda jalankan.
    + EntryPointArguments - Ini adalah array argumen yang ingin Anda lewatkan ke jar/py file utama Anda. Anda harus menangani membaca parameter ini menggunakan kode entrypoint Anda. Setiap argumen dalam array harus dipisahkan dengan koma. EntryPointArguments tidak dapat berisi tanda kurung atau tanda kurung, seperti (), \$1\$1, atau []. 
    + SparkSubmitParameters - Ini adalah parameter percikan tambahan yang ingin Anda kirim ke pekerjaan. Gunakan parameter ini untuk menimpa properti default Spark seperti memori driver atau jumlah pelaksana seperti —conf atau —class. Untuk informasi tambahan, lihat [Peluncuran Aplikasi dengan spark-submit](https://spark.apache.org/docs/latest/submitting-applications.html#launching-applications-with-spark-submit).
  + Spark SQL jobs - Digunakan untuk menjalankan file query SQL melalui Spark SQL. Anda dapat menggunakan jenis pekerjaan ini untuk menjalankan pekerjaan SparkSQL. Tugas ini memiliki parameter berikut:
    + Entrypoint - Ini adalah referensi HCFS (sistem file yang kompatibel dengan Hadoop) ke file query SQL yang ingin Anda jalankan.

      Untuk daftar parameter Spark tambahan yang dapat Anda gunakan untuk pekerjaan Spark SQL, lihat. [Menjalankan skrip Spark SQL melalui API StartJobRun](emr-eks-jobs-spark-sql-parameters.md)
+ `--configuration-overrides`: Anda dapat menimpa konfigurasi default untuk aplikasi dengan menyediakan objek konfigurasi. Anda dapat menggunakan sintaks singkatan untuk menyediakan konfigurasi atau Anda dapat mereferensikan objek konfigurasi dalam file JSON. Objek konfigurasi terdiri dari klasifikasi, properti, dan konfigurasi bersarang opsional. Properti terdiri dari pengaturan yang ingin Anda timpa dalam file tersebut. Anda dapat menentukan beberapa klasifikasi untuk beberapa aplikasi dalam objek JSON tunggal. Klasifikasi konfigurasi yang tersedia bervariasi berdasarkan versi rilis Amazon EMR. Untuk daftar klasifikasi konfigurasi yang tersedia untuk setiap versi rilis Amazon EMR, lihat [Amazon EMR pada rilis EKS](emr-eks-releases.md).

  Jika Anda melewati konfigurasi yang sama dalam penimpaan aplikasi dan di parameter kirim Spark, parameter kirim Spark diutamakan. Daftar prioritas konfigurasi lengkap mengikuti, dalam urutan prioritas tertinggi ke prioritas terendah.
  + Konfigurasi disediakan saat membuat `SparkSession`.
  + Konfigurasi disediakan sebagai bagian dari `sparkSubmitParameters` menggunakan `—conf`.
  + Konfigurasi disediakan sebagai bagian dari penimpaan aplikasi.
  + Konfigurasi yang dioptimalkan dipilih oleh Amazon EMR untuk rilisan.
  + Konfigurasi sumber terbuka default untuk aplikasi.

  Untuk memantau pekerjaan berjalan menggunakan Amazon CloudWatch atau Amazon S3, Anda harus memberikan detail konfigurasi untuk. CloudWatch Untuk informasi selengkapnya, lihat [Konfigurasikan pekerjaan yang dijalankan untuk menggunakan log Amazon S3](emr-eks-jobs-s3.md) dan [Mengonfigurasi pekerjaan yang dijalankan untuk menggunakan Amazon CloudWatch Logs](emr-eks-jobs-cloudwatch.md). Jika bucket S3 atau grup CloudWatch log tidak ada, Amazon EMR membuatnya sebelum mengunggah log ke bucket.
+ Untuk daftar tambahan opsi konfigurasi Kubernetes, lihat [Properti Spark di Kubernetes](https://spark.apache.org/docs/latest/running-on-kubernetes.html#configuration). 

  Konfigurasi Spark berikut tidak didukung.
  + `spark.kubernetes.authenticate.driver.serviceAccountName`
  + `spark.kubernetes.authenticate.executor.serviceAccountName`
  + `spark.kubernetes.namespace`
  + `spark.kubernetes.driver.pod.name`
  + `spark.kubernetes.container.image.pullPolicy`
  + `spark.kubernetes.container.image`
**catatan**  
Anda dapat menggunakan `spark.kubernetes.container.image` untuk gambar Docker yang disesuaikan. Untuk informasi selengkapnya, lihat [Menyesuaikan gambar Docker untuk Amazon EMR di EKS](docker-custom-images.md).

# Konfigurasikan pekerjaan yang dijalankan untuk menggunakan log Amazon S3
<a name="emr-eks-jobs-s3"></a>

Untuk dapat memantau kemajuan pekerjaan dan memecahkan masalah kegagalan, Anda harus mengonfigurasi pekerjaan Anda untuk mengirim informasi log ke Amazon S3, Amazon Log, CloudWatch atau keduanya. Topik ini membantu Anda mulai menerbitkan log aplikasi ke Amazon S3 pada pekerjaan Anda yang diluncurkan dengan Amazon EMR di EKS.

**S3 log kebijakan IAM**

Sebelum tugas Anda dapat mengirim data log ke Amazon S3, izin berikut harus disertakan dalam kebijakan perizinan untuk peran eksekusi tugas. Ganti *amzn-s3-demo-logging-bucket* dengan nama bucket logging Anda.

------
#### [ JSON ]

****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Action": [
        "s3:PutObject",
        "s3:GetObject",
        "s3:ListBucket"
      ],
      "Resource": [
        "arn:aws:s3:::amzn-s3-demo-bucket",
        "arn:aws:s3:::amzn-s3-demo-bucket/*"
      ],
      "Sid": "AllowS3Putobject"
    }
  ]
}
```

------

**catatan**  
Amazon EMR di EKS juga dapat membuat bucket Amazon S3. Jika bucket Amazon S3 tidak tersedia, sertakan `“s3:CreateBucket”` izin tersebut dalam kebijakan IAM.

Setelah Anda memberi peran eksekusi izin yang tepat untuk mengirim log ke Amazon S3, data log Anda dikirim ke lokasi Amazon S3 berikut `s3MonitoringConfiguration` saat diteruskan di `monitoringConfiguration` bagian permintaan, seperti `start-job-run` yang ditunjukkan pada. [Mengelola pekerjaan berjalan dengan AWS CLI](emr-eks-jobs-CLI.md)
+ Log Pengirim -//*virtual-cluster-id*/jobs/ /containers/*logUri*/(*job-id*stderr.gz/stdout.gz) *pod-name*
+ Log Driver -//*virtual-cluster-id*/jobs/ *logUri* *job-id* /containers/ /spark- -driver/ (*spark-application-id*stderr.gz/stdout.gz) *job-id*
+ Log Pelaksana -//*virtual-cluster-id*/jobs/ *logUri* *job-id* /containers///(*spark-application-id*stderr.gz/stdout.gz) *executor-pod-name*

# Mengonfigurasi pekerjaan yang dijalankan untuk menggunakan Amazon CloudWatch Logs
<a name="emr-eks-jobs-cloudwatch"></a>

Untuk memantau kemajuan pekerjaan dan memecahkan masalah kegagalan, Anda harus mengonfigurasi pekerjaan Anda untuk mengirim informasi log ke Amazon S3, Amazon Log, CloudWatch atau keduanya. Topik ini membantu Anda mulai menggunakan CloudWatch Log pada pekerjaan Anda yang diluncurkan dengan Amazon EMR di EKS. Untuk informasi selengkapnya tentang CloudWatch Log, lihat [Memantau File Log](https://docs.aws.amazon.com/AmazonCloudWatch/latest/DeveloperGuide/WhatIsCloudWatchLogs.html) di Panduan CloudWatch Pengguna Amazon.

**CloudWatch Log kebijakan IAM**

Agar pekerjaan Anda dapat mengirim data CloudWatch log ke Log, izin berikut harus disertakan dalam kebijakan izin untuk peran eksekusi pekerjaan. Ganti *my\$1log\$1group\$1name* dan *my\$1log\$1stream\$1prefix* dengan nama grup CloudWatch log dan nama aliran log Anda, masing-masing. Amazon EMR di EKS menciptakan grup log dan stream log jika mereka tidak ada selama peran eksekusi ARN memiliki izin yang sesuai. 

------
#### [ JSON ]

****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Action": [
        "logs:CreateLogStream",
        "logs:DescribeLogGroups",
        "logs:DescribeLogStreams"
      ],
      "Resource": [
        "arn:aws:logs:*:*:*"
      ],
      "Sid": "AllowLOGSCreatelogstream"
    },
    {
      "Effect": "Allow",
      "Action": [
        "logs:PutLogEvents"
      ],
      "Resource": [
        "arn:aws:logs:*:*:log-group:my_log_group_name:log-stream:my_log_stream_prefix/*"
      ],
      "Sid": "AllowLOGSPutlogevents"
    }
  ]
}
```

------

**catatan**  
Amazon EMR di EKS juga dapat membuat aliran log. Jika aliran log tidak ada, kebijakan IAM harus menyertakan `"logs:CreateLogGroup"` izin.

Setelah Anda memberikan izin yang tepat pada peran eksekusi, aplikasi Anda mengirimkan data lognya ke CloudWatch Log saat `cloudWatchMonitoringConfiguration` diteruskan di `monitoringConfiguration` bagian `start-job-run` permintaan, seperti yang ditunjukkan pada[Mengelola pekerjaan berjalan dengan AWS CLI](emr-eks-jobs-CLI.md).

Di `StartJobRun` API, *log\$1group\$1name * adalah nama grup log untuk CloudWatch, dan *log\$1stream\$1prefix* merupakan awalan nama aliran log untuk CloudWatch. Anda dapat melihat dan mencari log ini di Konsol Manajemen AWS.
+ Log pengirim -//*virtual-cluster-id*/jobs/ *logGroup* /containers/*logStreamPrefix*/(stderr/stdout*job-id*) *pod-name*
+ Log driver -*logGroup*//*virtual-cluster-id*/jobs/ *logStreamPrefix* *job-id* /containers/ /spark- -driver/ *spark-application-id* (stderrstdout) *job-id*
+ Log pelaksana -*logGroup*//*virtual-cluster-id*/jobs/ *logStreamPrefix* *job-id* /containers///(stderr/stdout*spark-application-id*) *executor-pod-name*

## Daftar tugas berjalan
<a name="emr-eks-jobs-list"></a>

Anda dapat menjalankan `list-job-run` untuk menunjukkan keadaan tugas berjalan, seperti yang ditunjukkan contoh berikut. 

```
aws emr-containers list-job-runs --virtual-cluster-id <cluster-id>
```

## Jelaskan tugas berjalan
<a name="emr-eks-jobs-describe"></a>

Anda dapat menjalankan `describe-job-run` untuk mendapatkan detail lebih lanjut tentang tugas, seperti status tugas, detail tugas, dan nama tugas, seperti yang ditunjukkan contoh berikut. 

```
aws emr-containers describe-job-run --virtual-cluster-id cluster-id --id job-run-id
```

## Membatalkan tugas berjalan
<a name="emr-eks-jobs-cancel"></a>

Anda dapat menjalankan `cancel-job-run` untuk membatalkan tugas berjalan, seperti yang ditunjukkan contoh berikut.

```
aws emr-containers cancel-job-run --virtual-cluster-id cluster-id --id job-run-id
```

# Menjalankan skrip Spark SQL melalui API StartJobRun
<a name="emr-eks-jobs-spark-sql-parameters"></a>

Amazon EMR di EKS merilis 6.7.0 dan yang lebih tinggi menyertakan driver pekerjaan Spark SQL sehingga Anda dapat menjalankan skrip Spark SQL melalui API. `StartJobRun` Anda dapat menyediakan file entry-point SQL untuk langsung menjalankan kueri Spark SQL di Amazon EMR di EKS `StartJobRun` dengan API, tanpa modifikasi apa pun pada skrip Spark SQL yang ada. Tabel berikut mencantumkan parameter Spark yang didukung untuk pekerjaan Spark SQL melalui API. StartJobRun 

Anda dapat memilih dari parameter Spark berikut untuk dikirim ke pekerjaan Spark SQL. Gunakan parameter ini untuk mengganti properti Spark default.


| Opsi | Deskripsi | 
| --- | --- | 
|  --nama NAMA  | Nama Aplikasi | 
| --guci toples | Daftar stoples dipisahkan koma untuk disertakan dengan driver dan jalankan classpath. | 
| --paket | Daftar koordinat maven stoples yang dipisahkan koma untuk disertakan pada classpath driver dan eksekutor. | 
| --exclude-paket | Daftar groupId:ArtifactID yang dipisahkan koma, untuk dikecualikan saat menyelesaikan dependensi yang disediakan di —packages untuk menghindari konflik ketergantungan. | 
| --repositori | Daftar repositori jarak jauh tambahan yang dipisahkan koma untuk mencari koordinat maven yang diberikan dengan —packages. | 
| --file BERKAS | Daftar file yang dipisahkan koma untuk ditempatkan di direktori kerja masing-masing pelaksana. | 
| --conf PROP=NILAI | Properti konfigurasi percikan. | 
| --properties-file BERKAS | Jalur ke file untuk memuat properti tambahan. | 
| --driver-memori MEM | Memori untuk pengemudi. Standar 1024MB. | 
| --driver-java-options | Opsi Java ekstra untuk diteruskan ke driver. | 
| --driver-library-path | Entri jalur perpustakaan tambahan untuk diteruskan ke pengemudi. | 
| --driver-class-path | Entri classpath ekstra untuk diteruskan ke pengemudi. | 
| --executor-memori MEM | Memori per eksekutor. Standar 1GB. | 
| --driver-core NUM | Jumlah core yang digunakan oleh driver. | 
| -- total-executor-cores JUMLAH | Total core untuk semua pelaksana. | 
| --executor-core NUM | Jumlah core yang digunakan oleh masing-masing eksekutor. | 
| --num-pelaksana NUM | Jumlah pelaksana yang akan diluncurkan. | 
| -hivevar <kunci=nilai> | Substitusi variabel untuk diterapkan pada perintah Hive, misalnya, -hivevar A=B | 
| -hiveconf <property=nilai> | Nilai yang akan digunakan untuk properti yang diberikan. | 

Untuk pekerjaan Spark SQL, buat start-job-run-request file.json dan tentukan parameter yang diperlukan untuk menjalankan pekerjaan Anda, seperti pada contoh berikut:

```
{
  "name": "myjob", 
  "virtualClusterId": "123456",  
  "executionRoleArn": "iam_role_name_for_job_execution", 
  "releaseLabel": "emr-6.7.0-latest", 
  "jobDriver": {
    "sparkSqlJobDriver": {
      "entryPoint": "entryPoint_location",
       "sparkSqlParameters": "--conf spark.executor.instances=2 --conf spark.executor.memory=2G --conf spark.executor.cores=2 --conf spark.driver.cores=1"
    }
  }, 
  "configurationOverrides": {
    "applicationConfiguration": [
      {
        "classification": "spark-defaults", 
        "properties": {
          "spark.driver.memory":"2G"
         }
      }
    ], 
    "monitoringConfiguration": {
      "persistentAppUI": "ENABLED", 
      "cloudWatchMonitoringConfiguration": {
        "logGroupName": "my_log_group", 
        "logStreamNamePrefix": "log_stream_prefix"
      }, 
      "s3MonitoringConfiguration": {
        "logUri": "s3://my_s3_log_location"
      }
    }
  }
}
```

# Status tugas berjalan
<a name="emr-eks-jobs-states"></a>

Ketika Anda mengirimkan tugas berjalan ke antrean tugas Amazon EMR di EKS, tugas berjalan memasuki status `PENDING`. Kemudian melewati status-status berikut sampai berhasil (keluar dengan kode `0`) atau gagal (keluar dengan kode bukan nol). 

Tugas berjalan dapat memiliki status berikut:
+ `PENDING` - Status tugas awal saat tugas berjalan dikirimkan ke Amazon EMR di EKS. Tugas sedang menunggu untuk dikirimkan ke klaster virtual, dan Amazon EMR di EKS sedang bekerja untuk mengirimkan tugas ini.
+ `SUBMITTED` - Tugas berjalan yang telah berhasil dikirimkan ke klaster virtual. Penjadwal klaster kemudian mencoba untuk menjalankan tugas ini di cluster.
+ `RUNNING` - Tugas berjalan yang berjalan di klaster virtual. Dalam aplikasi Spark, ini berarti bahwa proses driver Spark ada di status `running`.
+ `FAILED` - Tugas berjalan yang gagal untuk dikirimkan ke klaster virtual atau yang gagal diselesaikan. Lihatlah StateDetails dan FailureReason untuk menemukan informasi tambahan tentang kegagalan pekerjaan ini.
+ `COMPLETED` - Tugas berjalan yang telah berhasil diselesaikan.
+ `CANCEL_PENDING` - Tugas berjalan telah diminta untuk pembatalan. Amazon EMR di EKS sedang mencoba untuk membatalkan tugas pada klaster virtual.
+ `CANCELLED` - Tugas berjalan yang berhasil dibatalkan.

# Melihat tugas di konsol Amazon EMR
<a name="emr-eks-jobs-console"></a>

Data Job run tersedia untuk dilihat, sehingga Anda dapat memantau setiap pekerjaan saat melewati status. Untuk melihat pekerjaan di konsol EMR Amazon, lakukan langkah-langkah berikut.

1. **Di menu kiri konsol EMR Amazon, di bawah Amazon EMR di EKS, pilih Cluster virtual.**

1. Dari daftar cluster virtual, pilih cluster virtual yang ingin Anda lihat pekerjaannya.

1. Pada tabel **Tugas berjalan**, pilih **Lihat log** untuk melihat detail tugas.

**catatan**  
Dukungan untuk pengalaman satu klik diaktifkan secara default. Ini dapat dimatikan dengan mengatur `persistentAppUI` ke `DISABLED` dalam `monitoringConfiguration` selama pengiriman tugas. Untuk informasi selengkapnya, lihat [Melihat Antarmuka Pengguna Aplikasi Persisten](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html).

# Kesalahan umum saat menjalankan tugas
<a name="emr-eks-jobs-error"></a>

Kesalahan berikut dapat terjadi ketika Anda menjalankan API `StartJobRun`. Tabel mencantumkan setiap kesalahan dan menyediakan langkah-langkah mitigasi sehingga Anda dapat mengatasi masalah dengan cepat.


| Pesan Kesalahan | Kondisi Kesalahan | Langkah Selanjutnya yang Disarankan | 
| --- | --- | --- | 
|  error: argumen -- *argument* diperlukan  | Parameter yang diperlukan hilang. | Tambahkan argumen yang hilang ke permintaan API. | 
| Terjadi kesalahan (AccessDeniedException) saat memanggil StartJobRun operasi: Pengguna: ARN tidak berwenang untuk melakukan: emr-container: StartJobRun | Peran eksekusi hilang. | Lihat Menggunakan [Menggunakan peran eksekusi tugas dengan Amazon EMR di EKS](iam-execution-role.md).  | 
|  Terjadi kesalahan (AccessDeniedException) saat memanggil StartJobRun operasi: Pengguna: *ARN* tidak berwenang untuk melakukan: emr-container: StartJobRun  |  Pemanggil tidak memiliki izin untuk peran eksekusi [format valid / tidak valid] melalui kunci kondisi.  | Lihat [Menggunakan peran eksekusi tugas dengan Amazon EMR di EKS](iam-execution-role.md).  | 
|  Terjadi kesalahan (AccessDeniedException) saat memanggil StartJobRun operasi: Pengguna: *ARN* tidak berwenang untuk melakukan: emr-container: StartJobRun  |  Pengirim tugas dan Peran eksekusi ARN berasal dari akun yang berbeda.  | Pastikan bahwa pengirim tugas dan peran eksekusi ARN adalah dari akun AWS yang sama. | 
|  1 kesalahan validasi terdeteksi: Nilai *Role* pada 'executionRoleArn' gagal memenuhi pola ekspresi reguler ARN: ^arn :( aws [A-za-z0-9-] \$1) :iam: :(\$1 d \$112\$1)? : (peran ((\$1 u002f) \$1 (\$1 u002f [\$1 u0021-\$1 u007f] \$1\$1 u002f)) [\$1 w\$1=, .@-] \$1)  |  Pemanggil memiliki izin untuk peran eksekusi melalui kunci kondisi, tetapi peran tidak memenuhi batasan format ARN.  | Berikan peran eksekusi mengikuti format ARN berikut. Lihat [Menggunakan peran eksekusi tugas dengan Amazon EMR di EKS](iam-execution-role.md).  | 
|  Terjadi kesalahan (ResourceNotFoundException) saat memanggil StartJobRun operasi: Kluster virtual *Virtual Cluster ID* tidak ada.  |  ID klaster virtual tidak ditemukan.  | Menyediakan klaster virtual ID terdaftar dengan Amazon EMR di EKS. | 
|  Terjadi kesalahan (ValidationException) saat memanggil StartJobRun operasi: Status klaster virtual *state* tidak valid untuk membuat sumber daya JobRun.  |  Klaster virtual tidak siap untuk melaksanakan tugas.  | Lihat [Status klaster virtual](virtual-cluster.md#virtual-cluster-states).  | 
|  Terjadi kesalahan (ResourceNotFoundException) saat memanggil StartJobRun operasi: Rilis *RELEASE* tidak ada.  |  Rilis yang ditentukan dalam pengiriman tugas tidak benar.  | Lihat [Amazon EMR pada rilis EKS](emr-eks-releases.md).  | 
|  Terjadi kesalahan (AccessDeniedException) saat memanggil StartJobRun operasi: Pengguna: tidak *ARN* diizinkan untuk melakukan: emr-container: StartJobRun on resource: *ARN* dengan penolakan eksplisit. Terjadi kesalahan (AccessDeniedException) saat memanggil StartJobRun operasi: Pengguna: *ARN* tidak berwenang untuk melakukan: emr-container: StartJobRun on resource: *ARN*  | Pengguna tidak berwenang untuk menelepon StartJobRun. | Lihat [Menggunakan peran eksekusi tugas dengan Amazon EMR di EKS](iam-execution-role.md).  | 
|  Terjadi galat (ValidationException) saat memanggil StartJobRun operasi: ConfigurationOverrides.MonitoringConfiguration.s3 .loguri gagal memenuhi batasanMonitoringConfiguration: %s  |  Jalur S3 sintaks URI tidak valid.  | logURI harus dalam format s3://...  | 

Kesalahan berikut dapat terjadi ketika Anda menjalankan API `DescribeJobRun` sebelum tugas berjalan.


| Pesan Kesalahan | Kondisi Kesalahan | Langkah Selanjutnya yang Disarankan | 
| --- | --- | --- | 
|  StateDetails: JobRun pengiriman gagal.  Klasifikasi *classification* tidak didukung. failureReason: VALIDATION\$1ERROR status: GAGAL.  | Parameter StartJobRun dalam tidak valid. | Lihat [Amazon EMR pada rilis EKS](emr-eks-releases.md).  | 
|  StateDetails: Cluster *EKS Cluster ID* tidak ada. failureReason: CLUSTER\$1UNAVAILABLE status: GAGAL  | Klaster EKS tidak tersedia. | Periksa apakah klaster EKS ada dan memiliki izin yang tepat. Untuk informasi selengkapnya, lihat [Menyiapkan Amazon EMR di EKS](setting-up.md). | 
|  StateDetails: Cluster *EKS Cluster ID* tidak memiliki izin yang memadai. failureReason: CLUSTER\$1UNAVAILABLE status: GAGAL  |  Amazon EMR tidak memiliki izin untuk mengakses klaster EKS.  | Verifikasi bahwa izin diatur untuk Amazon EMR pada namespace terdaftar. Untuk informasi selengkapnya, lihat [Menyiapkan Amazon EMR di EKS](setting-up.md). | 
|  StateDetails: Cluster saat ini *EKS Cluster ID* tidak dapat dijangkau. failureReason: CLUSTER\$1UNAVAILABLE status: GAGAL  |  Klaster EKS tidak dapat dijangkau.  | Periksa apakah Klaster EKS ada dan memiliki izin yang tepat. Untuk informasi selengkapnya, lihat [Menyiapkan Amazon EMR di EKS](setting-up.md). | 
|  StateDetails: JobRun pengiriman gagal karena kesalahan internal. failureReason: INTERNAL\$1ERROR status: GAGAL  |  Kesalahan internal telah terjadi dengan klaster EKS.  | N/A | 
|  StateDetails: Cluster *EKS Cluster ID* tidak memiliki sumber daya yang cukup. failureReason: USER\$1ERROR status: GAGAL  |  Ada sumber daya yang tidak mencukupi di klaster EKS untuk menjalankan tugas.  | Tambahkan lebih banyak kapasitas ke grup simpul EKS atau atur EKS Autoscaler. Untuk informasi lebih lanjut, lihat [Klaster Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/cluster-autoscaler.html). | 

Kesalahan berikut dapat terjadi ketika Anda menjalankan API `DescribeJobRun` setelah tugas berjalan.


| Pesan Kesalahan | Kondisi Kesalahan | Langkah Selanjutnya yang Disarankan | 
| --- | --- | --- | 
|  StateDetails: Kesulitan memantau Anda. JobRun  Cluster *EKS Cluster ID* tidak ada. failureReason: CLUSTER\$1UNAVAILABLE status: GAGAL  | Klaster EKS tidak ada. | Periksa apakah Klaster EKS ada dan memiliki izin yang tepat. Untuk informasi selengkapnya, lihat [Menyiapkan Amazon EMR di EKS](setting-up.md). | 
|  StateDetails: Kesulitan memantau Anda. JobRun Cluster *EKS Cluster ID* tidak memiliki izin yang memadai. failureReason: CLUSTER\$1UNAVAILABLE status: GAGAL  | Amazon EMR tidak memiliki izin untuk mengakses klaster EKS. | Verifikasi bahwa izin diatur untuk Amazon EMR pada namespace terdaftar. Untuk informasi selengkapnya, lihat [Menyiapkan Amazon EMR di EKS](setting-up.md). | 
|  StateDetails: Kesulitan memantau Anda. JobRun Cluster saat *EKS Cluster ID* ini tidak dapat dijangkau. failureReason: CLUSTER\$1UNAVAILABLE status: GAGAL  |  Klaster EKS tidak dapat dijangkau.  | Periksa apakah Klaster EKS ada dan memiliki izin yang tepat. Untuk informasi selengkapnya, lihat [Menyiapkan Amazon EMR di EKS](setting-up.md). | 
|  StateDetails: Kesulitan memantau Anda JobRun karena kesalahan internal failureReason: INTERNAL\$1ERROR status: GAGAL  |  Kesalahan internal telah terjadi dan mencegah JobRun pemantauan.  | N/A | 

Kesalahan berikut dapat terjadi ketika pekerjaan tidak dapat dimulai dan pekerjaan menunggu dalam keadaan DIKIRIM selama 15 menit. Hal ini dapat disebabkan oleh kurangnya sumber daya cluster.


| Pesan Kesalahan | Kondisi Kesalahan | Langkah Selanjutnya yang Disarankan | 
| --- | --- | --- | 
|  batas waktu cluster  | Pekerjaan telah dalam keadaan DIKIRIM selama 15 menit atau lebih. | Anda dapat mengganti pengaturan default 15 menit untuk parameter ini dengan penggantian konfigurasi yang ditunjukkan di bawah ini.  | 

Gunakan konfigurasi berikut untuk mengubah pengaturan batas waktu cluster menjadi 30 menit. Perhatikan bahwa Anda memberikan `job-start-timeout` nilai baru dalam hitungan detik:

```
{
"configurationOverrides": {
  "applicationConfiguration": [{
      "classification": "emr-containers-defaults",
      "properties": {
          "job-start-timeout":"1800"
      }
  }]
}
```