

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Pemecahan Masalah AWS Glue
<a name="troubleshooting-glue"></a>

 Jika Anda mengalami masalah saat bekerja dengan AWS Glue, lihat topik di bagian ini. 


|  | 
| --- |
|  Untuk pemecahan masalah Apache Spark di AWS Glue, lihat Pemecahan [masalah AI Generatif untuk Apache Spark AWS Glue yang menyediakan bantuan bertenaga AI untuk mendiagnosis dan menyelesaikan masalah pekerjaan Spark](https://docs.aws.amazon.com/glue/latest/dg/troubleshoot-spark.html). Ubah pemecahan masalah Apache Spark Anda dengan Agen Pemecahan Masalah bertenaga AI kami, sekarang mendukung semua mode penerapan utama termasuk, Amazon AWS Glue EMR-EC2, Amazon EMR-Serverless, dan Amazon AI Notebook. SageMaker Agen yang kuat ini menghilangkan proses debugging yang kompleks dengan menggabungkan interaksi bahasa alami, analisis beban kerja waktu nyata, dan rekomendasi kode cerdas menjadi pengalaman yang mulus. Untuk detail implementasi, lihat [Apa itu Agen Pemecahan Masalah Apache Spark untuk Amazon EMR](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/spark-troubleshoot.html).  | 

**Topics**
+ [Mengumpulkan informasi AWS Glue pemecahan masalah](troubleshooting-contact-support.md)
+ [Pemecahan masalah Glue kesalahan pengaturan umum](glue-troubleshooting-errors.md)
+ [Kesalahan crawler saat crawler menggunakan izin Lake Formation](error-crawler-config-lf.md)
+ [Pemecahan masalah AWS Glue untuk kesalahan Ray dari log](troubleshooting-ray.md)
+ [AWS Gluepengecualian pembelajaran mesin](exceptions-machine-learning.md)
+ [AWS Glue kuota](troubleshooting-service-limits.md)

# Mengumpulkan informasi AWS Glue pemecahan masalah
<a name="troubleshooting-contact-support"></a>

Jika Anda menemukan kesalahan atau perilaku tak terduga AWS Glue dan perlu dihubungi AWS Dukungan, Anda harus terlebih dahulu mengumpulkan informasi tentang nama IDs, dan log yang terkait dengan tindakan yang gagal. Memiliki informasi ini tersedia memungkinkan Dukungan untuk membantu Anda menyelesaikan masalah yang Anda alami. 

Bersama dengan *ID akun*, kumpulkan informasi berikut untuk masing-masing jenis kegagalan:

**Ketika crawler gagal, kumpulkan informasi berikut:**  
+ Nama crawler

  Log dari crawler run terletak di CloudWatch Log di bawah`/aws-glue/crawlers`.

**Ketika koneksi uji gagal, kumpulkan informasi berikut:**  
+ Nama koneksi
+ ID Koneksi
+ String koneksi JDBC dalam bentuk `jdbc:protocol://host:port/database-name`.

  Log dari koneksi pengujian terletak di CloudWatch Log di bawah` /aws-glue/testconnection`. 

**Ketika tugas gagal, kumpulkan informasi berikut:**  
+ Nama tugas 
+ ID eksekusi tugas dalam bentuk `jr_xxxxx`.

  Log dari pekerjaan berjalan terletak di CloudWatch Log di bawah` /aws-glue/jobs`. 

# Pemecahan masalah Glue kesalahan pengaturan umum
<a name="glue-troubleshooting-errors"></a>

Jika Anda mengalami kesalahan AWS Glue, gunakan informasi berikut untuk membantu Anda menemukan sumber masalah dan memperbaikinya.

**catatan**  
 AWS Glue GitHub [Repositori berisi panduan pemecahan masalah tambahan di AWS Glue Pertanyaan yang Sering Diajukan.](https://github.com/aws-samples/aws-glue-samples/blob/master/FAQ_and_How_to.md) 

**Topics**
+ [Kesalahan: Sumber daya tidak tersedia](#error-resource-unavailable)
+ [Kesalahan: Tidak dapat menemukan titik akhir S3 atau gateway NAT untuk SubnetID di VPC](#error-s3-subnet-vpc-NAT-configuration)
+ [Kesalahan: Aturan masuk dalam grup keamanan diperlukan](#error-inbound-self-reference-rule)
+ [Kesalahan: Aturan keluar dalam grup keamanan diperlukan](#error-outbound-self-reference-rule)
+ [Kesalahan: Job run gagal karena peran yang diteruskan harus diberikan izin peran untuk layanan AWS Glue](#error-assume-role-user-policy)
+ [Kesalahan: DescribeVpcEndpoints tindakan tidak sah. tidak dapat memvalidasi VPC ID vpc-id](#error-DescribeVpcEndpoints-permission)
+ [Kesalahan: DescribeRouteTables tindakan tidak sah. tidak dapat memvalidasi subnet id: Subnet-ID di VPC id: vpc-id](#error-DescribeRouteTables-permission)
+ [Kesalahan: Gagal memanggil ec2: DescribeSubnets](#error-DescribeSubnets-permission)
+ [Kesalahan: Gagal memanggil ec2: DescribeSecurityGroups](#error-DescribeSecurityGroups-permission)
+ [Kesalahan: Tidak dapat menemukan subnet untuk AZ](#error-az-not-available)
+ [Kesalahan: Pengecualian Job run saat menulis ke target JDBC](#error-job-run-jdbc-target)
+ [Kesalahan: Amazon S3: Operasi tidak valid untuk kelas penyimpanan objek](#error-s3-operation-not-valid)
+ [Kesalahan: Batas waktu Amazon S3](#error-s3-timeout)
+ [Kesalahan: Akses Amazon S3 ditolak](#error-s3-access-denied)
+ [Kesalahan: ID kunci akses Amazon S3 tidak ada](#error-s3-accesskeyid-not-found)
+ [Kesalahan: Job run gagal saat mengakses Amazon S3 dengan URI `s3a://`](#error-s3a-uri-directory-listing)
+ [Kesalahan: Token layanan Amazon S3 kedaluwarsa](#error-s3-service-token-expired)
+ [Kesalahan: Tidak ada DNS pribadi untuk antarmuka jaringan yang ditemukan](#error-no-private-DNS)
+ [Kesalahan: Penyediaan titik akhir pengembangan gagal](#error-development-endpoint-failed)
+ [Kesalahan: Server notebook CREATE\$1FAILED](#error-notebook-server-ec2-instance-profile)
+ [Kesalahan: Notebook lokal gagal memulai](#error-local-notebook-fails-to-start)
+ [Kesalahan: Menjalankan crawler gagal](#error-running-crawler-failed)
+ [Kesalahan: Partisi tidak diperbarui](#error-update-from-job-partitions)
+ [Kesalahan: Pembaruan bookmark Job gagal karena ketidakcocokan versi](#error-job-bookmarks-limitation)
+ [Kesalahan: Pekerjaan memproses ulang data saat bookmark pekerjaan diaktifkan](#error-job-bookmarks-reprocess-data)
+ [Kesalahan: Perilaku failover antara VPCs in AWS Glue](#vpc-failover-behavior-error-10)

## Kesalahan: Sumber daya tidak tersedia
<a name="error-resource-unavailable"></a>

Jika AWS Glue menampilkan pesan sumber daya yang tidak tersedia, Anda dapat melihat pesan kesalahan atau log untuk membantu Anda mempelajari lebih lanjut tentang masalah tersebut. Tugas berikut menjelaskan metode umum untuk menyelesaikan masalah.
+ Untuk koneksi dan titik akhir pengembangan yang Anda gunakan, periksa apakah klaster Anda tidak kehabisan antarmuka jaringan elastis.

## Kesalahan: Tidak dapat menemukan titik akhir S3 atau gateway NAT untuk SubnetID di VPC
<a name="error-s3-subnet-vpc-NAT-configuration"></a>

Periksa ID subnet dan ID VPC dalam pesan tersebut untuk membantu Anda mendiagnosis masalahnya.
+ Periksa apakah Anda telah menyiapkan VPC endpoint Amazon S3, yang diperlukan dengan AWS Glue. Selain itu, periksa gateway NAT Anda apakah sudah menjadi bagian dari konfigurasi Anda. Untuk informasi selengkapnya, lihat [Amazon VPC endpoint untuk Amazon S3](vpc-endpoints-s3.md).

## Kesalahan: Aturan masuk dalam grup keamanan diperlukan
<a name="error-inbound-self-reference-rule"></a>

Setidaknya harus ada satu grup keamanan yang membuka semua port ingress-nya. Untuk membatasi lalu lintas, grup keamanan sumber dalam aturan inbound Anda dapat dibatasi untuk grup keamanan yang sama.
+ Untuk setiap koneksi yang Anda gunakan, periksa grup keamanan Anda apakah ada aturan inbound yang self-referencing. Untuk informasi selengkapnya, lihat [Menyiapkan akses jaringan ke penyimpanan data](start-connecting.md).
+ Ketika Anda menggunakan titik akhir pengembangan, periksa grup keamanan Anda apakah ada aturan inbound yang self-referencing. Untuk informasi selengkapnya, lihat [Menyiapkan akses jaringan ke penyimpanan data](start-connecting.md).

## Kesalahan: Aturan keluar dalam grup keamanan diperlukan
<a name="error-outbound-self-reference-rule"></a>

Setidaknya harus ada satu grup keamanan yang membuka semua port egress-nya. Untuk membatasi lalu lintas, grup keamanan sumber dalam aturan outbound Anda dapat dibatasi untuk grup keamanan yang sama.
+ Untuk setiap koneksi yang Anda gunakan, periksa grup keamanan Anda apakah ada aturan outbound yang self-referencing. Untuk informasi selengkapnya, lihat [Menyiapkan akses jaringan ke penyimpanan data](start-connecting.md).
+ Ketika Anda menggunakan titik akhir pengembangan, periksa grup keamanan Anda apakah ada aturan outbound yang self-referencing. Untuk informasi selengkapnya, lihat [Menyiapkan akses jaringan ke penyimpanan data](start-connecting.md).

## Kesalahan: Job run gagal karena peran yang diteruskan harus diberikan izin peran untuk layanan AWS Glue
<a name="error-assume-role-user-policy"></a>

Pengguna yang mendefinisikan tugas harus memiliki izin untuk `iam:PassRole` untuk AWS Glue.
+ Saat pengguna membuat AWS Glue pekerjaan, konfirmasikan bahwa peran pengguna berisi kebijakan yang berisi `iam:PassRole` untuk AWS Glue. Untuk informasi selengkapnya, lihat [Langkah 3: Lampirkan kebijakan ke pengguna atau grup yang mengakses AWS Glue](attach-policy-iam-user.md).

## Kesalahan: DescribeVpcEndpoints tindakan tidak sah. tidak dapat memvalidasi VPC ID vpc-id
<a name="error-DescribeVpcEndpoints-permission"></a>
+ Periksa kebijakan yang diteruskan AWS Glue untuk `ec2:DescribeVpcEndpoints` izin.

## Kesalahan: DescribeRouteTables tindakan tidak sah. tidak dapat memvalidasi subnet id: Subnet-ID di VPC id: vpc-id
<a name="error-DescribeRouteTables-permission"></a>
+ Periksa kebijakan yang diteruskan AWS Glue untuk `ec2:DescribeRouteTables` izin.

## Kesalahan: Gagal memanggil ec2: DescribeSubnets
<a name="error-DescribeSubnets-permission"></a>
+ Periksa kebijakan yang diteruskan AWS Glue untuk `ec2:DescribeSubnets` izin.

## Kesalahan: Gagal memanggil ec2: DescribeSecurityGroups
<a name="error-DescribeSecurityGroups-permission"></a>
+ Periksa kebijakan yang diteruskan AWS Glue untuk ` ec2:DescribeSecurityGroups` izin.

## Kesalahan: Tidak dapat menemukan subnet untuk AZ
<a name="error-az-not-available"></a>
+ Availability Zone mungkin tidak tersedia untuk AWS Glue. Membuat dan menggunakan subnet baru di Availability Zone yang berbeda dari yang ditentukan dalam pesan.

## Kesalahan: Pengecualian Job run saat menulis ke target JDBC
<a name="error-job-run-jdbc-target"></a>

Ketika Anda menjalankan sebuah tugas yang menulis ke target JDBC, tugas mungkin mengalami kesalahan dalam skenario berikut:
+ Jika tugas Anda menulis ke sebuah tabel Microsoft SQL Server, dan tabel tersebut memiliki kolom yang didefinisikan sebagai jenis `Boolean`, maka tabel harus ditentukan sebelumnya dalam basis data SQL Server. Saat Anda menentukan pekerjaan di AWS Glue konsol menggunakan target SQL Server dengan opsi **Buat tabel di target data Anda**, jangan memetakan kolom sumber apa pun ke kolom target dengan tipe `Boolean` data. Anda mungkin mengalami kesalahan saat tugas berjalan.

  Anda dapat menghindari kesalahan tersebut dengan melakukan hal berikut:
  + Pilih tabel yang ada yang mempunyai kolom **Boolean**.
  + Edit transformasi `ApplyMapping` dan petakan kolom **Boolean** di sumber ke nomor atau string dalam target.
  + Edit transformasi `ApplyMapping` untuk menghapus kolom **Boolean** dari sumber.
+ Jika tugas Anda menulis ke tabel Oracle, maka Anda mungkin perlu menyesuaikan panjang nama objek Oracle. Dalam beberapa versi Oracle, panjang pengenal maksimum terbatas pada 30 byte atau 128 byte. Batas ini mempengaruhi nama tabel dan nama kolom dari penyimpanan data target Oracle.

  Anda dapat menghindari kesalahan tersebut dengan melakukan hal berikut:
  + Berikan nama pada tabel target Oracle dengan panjang yang masih dalam batas untuk versi Anda.
  + Nama kolom default dihasilkan dari nama bidang dalam data. Untuk menangani kasus ketika nama kolom lebih panjang dari batas yang berlaku, gunakan transformasi `ApplyMapping` atau `RenameField` untuk mengubah nama kolom sehingga masih dalam batas.

## Kesalahan: Amazon S3: Operasi tidak valid untuk kelas penyimpanan objek
<a name="error-s3-operation-not-valid"></a>

Jika AWS Glue mengembalikan kesalahan ini, AWS Glue pekerjaan Anda mungkin membaca data dari tabel yang memiliki partisi di seluruh tingkatan kelas penyimpanan Amazon S3.
+ Dengan menggunakan pengecualian kelas penyimpanan, Anda dapat memastikan bahwa AWS Glue pekerjaan Anda akan bekerja pada tabel yang memiliki partisi di seluruh tingkatan kelas penyimpanan ini. Tanpa pengecualian, pekerjaan yang membaca data dari tingkatan ini gagal dengan kesalahan berikut:. `AmazonS3Exception: The operation is not valid for the object's storage class`

  Untuk informasi selengkapnya, lihat [Tidak termasuk kelas penyimpanan Amazon S3](aws-glue-programming-etl-storage-classes.md).

## Kesalahan: Batas waktu Amazon S3
<a name="error-s3-timeout"></a>

Jika AWS Glue mengembalikan kesalahan kehabisan waktu koneksi, itu mungkin karena mencoba mengakses bucket Amazon S3 di AWS Wilayah lain. 
+ Titik akhir VPC Amazon S3 hanya dapat merutekan lalu lintas ke bucket dalam suatu Wilayah. AWS Jika Anda perlu connect ke bucket di Wilayah lain, solusi yang mungkin adalah dengan menggunakan gateway NAT. Untuk informasi selengkapnya, lihat [Gateway NAT](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-nat-gateway.html).

## Kesalahan: Akses Amazon S3 ditolak
<a name="error-s3-access-denied"></a>

Jika AWS Glue mengembalikan kesalahan akses ditolak ke bucket atau objek Amazon S3, itu mungkin karena peran IAM yang diberikan tidak memiliki kebijakan dengan izin ke penyimpanan data Anda.
+ Tugas ETL harus memiliki akses ke penyimpanan data Amazon S3 yang digunakan sebagai sumber atau target. Sebuah crawler harus memiliki akses ke penyimpanan data Amazon S3 yang di-crawling-nya. Untuk informasi selengkapnya, lihat [Langkah 2: Buat peran IAM untuk AWS Glue](create-an-iam-role.md).

## Kesalahan: ID kunci akses Amazon S3 tidak ada
<a name="error-s3-accesskeyid-not-found"></a>

Jika AWS Glue mengembalikan ID kunci akses tidak ada kesalahan saat menjalankan pekerjaan, itu mungkin karena salah satu alasan berikut:
+ Tugas ETL menggunakan sebuah IAM role untuk mengakses penyimpanan data, konfirmasi bahwa IAM role untuk tugas Anda tidak dihapus sebelum tugas dimulai.
+ IAM role berisi izin untuk mengakses penyimpanan data Anda, konfirmasi bahwa kebijakan Amazon S3 yang dilampirkan berisi `s3:ListBucket` yang benar.

## Kesalahan: Job run gagal saat mengakses Amazon S3 dengan URI `s3a://`
<a name="error-s3a-uri-directory-listing"></a>

Jika eksekusi tugas mengembalikan kesalahan seperti *Gagal mengurai dokumen XML dengan kelas handler*, itu mungkin karena kegagalan mencoba mencantumkan ratusan file menggunakan URI ` s3a://`. Mengakses penyimpanan data Anda menggunakan URI `s3://` sebagai gantinya. Jejak pengecualian berikut menyoroti kesalahan untuk mencari:

```
1.	com.amazonaws.SdkClientException: Failed to parse XML document with handler class com.amazonaws.services.s3.model.transform.XmlResponsesSaxParser$ListBucketHandler
2.	at com.amazonaws.services.s3.model.transform.XmlResponsesSaxParser.parseXmlInputStream(XmlResponsesSaxParser.java:161)
3.	at com.amazonaws.services.s3.model.transform.XmlResponsesSaxParser.parseListBucketObjectsResponse(XmlResponsesSaxParser.java:317)
4.	at com.amazonaws.services.s3.model.transform.Unmarshallers$ListObjectsUnmarshaller.unmarshall(Unmarshallers.java:70)
5.	at com.amazonaws.services.s3.model.transform.Unmarshallers$ListObjectsUnmarshaller.unmarshall(Unmarshallers.java:59)
6.	at com.amazonaws.services.s3.internal.S3XmlResponseHandler.handle(S3XmlResponseHandler.java:62)
7.	at com.amazonaws.services.s3.internal.S3XmlResponseHandler.handle(S3XmlResponseHandler.java:31)
8.	at com.amazonaws.http.response.AwsResponseHandlerAdapter.handle(AwsResponseHandlerAdapter.java:70)
9.	at com.amazonaws.http.AmazonHttpClient$RequestExecutor.handleResponse(AmazonHttpClient.java:1554)
10.	at com.amazonaws.http.AmazonHttpClient$RequestExecutor.executeOneRequest(AmazonHttpClient.java:1272)
11.	at com.amazonaws.http.AmazonHttpClient$RequestExecutor.executeHelper(AmazonHttpClient.java:1056)
12.	at com.amazonaws.http.AmazonHttpClient$RequestExecutor.doExecute(AmazonHttpClient.java:743)
13.	at com.amazonaws.http.AmazonHttpClient$RequestExecutor.executeWithTimer(AmazonHttpClient.java:717)
14.	at com.amazonaws.http.AmazonHttpClient$RequestExecutor.execute(AmazonHttpClient.java:699)
15.	at com.amazonaws.http.AmazonHttpClient$RequestExecutor.access$500(AmazonHttpClient.java:667)
16.	at com.amazonaws.http.AmazonHttpClient$RequestExecutionBuilderImpl.execute(AmazonHttpClient.java:649)
17.	at com.amazonaws.http.AmazonHttpClient.execute(AmazonHttpClient.java:513)
18.	at com.amazonaws.services.s3.AmazonS3Client.invoke(AmazonS3Client.java:4325)
19.	at com.amazonaws.services.s3.AmazonS3Client.invoke(AmazonS3Client.java:4272)
20.	at com.amazonaws.services.s3.AmazonS3Client.invoke(AmazonS3Client.java:4266)
21.	at com.amazonaws.services.s3.AmazonS3Client.listObjects(AmazonS3Client.java:834)
22.	at org.apache.hadoop.fs.s3a.S3AFileSystem.getFileStatus(S3AFileSystem.java:971)
23.	at org.apache.hadoop.fs.s3a.S3AFileSystem.deleteUnnecessaryFakeDirectories(S3AFileSystem.java:1155)
24.	at org.apache.hadoop.fs.s3a.S3AFileSystem.finishedWrite(S3AFileSystem.java:1144)
25.	at org.apache.hadoop.fs.s3a.S3AOutputStream.close(S3AOutputStream.java:142)
26.	at org.apache.hadoop.fs.FSDataOutputStream$PositionCache.close(FSDataOutputStream.java:74)
27.	at org.apache.hadoop.fs.FSDataOutputStream.close(FSDataOutputStream.java:108)
28.	at org.apache.parquet.hadoop.ParquetFileWriter.end(ParquetFileWriter.java:467)
29.	at org.apache.parquet.hadoop.InternalParquetRecordWriter.close(InternalParquetRecordWriter.java:117)
30.	at org.apache.parquet.hadoop.ParquetRecordWriter.close(ParquetRecordWriter.java:112)
31.	at org.apache.spark.sql.execution.datasources.parquet.ParquetOutputWriter.close(ParquetOutputWriter.scala:44)
32.	at org.apache.spark.sql.execution.datasources.FileFormatWriter$SingleDirectoryWriteTask.releaseResources(FileFormatWriter.scala:252)
33.	at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$org$apache$spark$sql$execution$datasources$FileFormatWriter$$executeTask$3.apply(FileFormatWriter.scala:191)
34.	at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$org$apache$spark$sql$execution$datasources$FileFormatWriter$$executeTask$3.apply(FileFormatWriter.scala:188)
35.	at org.apache.spark.util.Utils$.tryWithSafeFinallyAndFailureCallbacks(Utils.scala:1341)
36.	at org.apache.spark.sql.execution.datasources.FileFormatWriter$.org$apache$spark$sql$execution$datasources$FileFormatWriter$$executeTask(FileFormatWriter.scala:193)
37.	at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$write$1$$anonfun$3.apply(FileFormatWriter.scala:129)
38.	at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$write$1$$anonfun$3.apply(FileFormatWriter.scala:128)
39.	at org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:87)
40.	at org.apache.spark.scheduler.Task.run(Task.scala:99)
41.	at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:282)
42.	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
43.	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
44.	at java.lang.Thread.run(Thread.java:748)
```

## Kesalahan: Token layanan Amazon S3 kedaluwarsa
<a name="error-s3-service-token-expired"></a>

Saat memindahkan data ke dan dari Amazon Redshift dengan menggunakan kredensial Amazon S3 sementara yang kedaluwarsa setelah 1 jam. Jika Anda memiliki tugas yang berjalan lama, ia mungkin gagal. Untuk informasi tentang cara menyiapkan tugas yang berjalan lama Anda untuk memindahkan data ke dan dari Amazon Redshift, lihat [aws-glue-programming-etl-connect-redshift-home](aws-glue-programming-etl-connect-redshift-home).

## Kesalahan: Tidak ada DNS pribadi untuk antarmuka jaringan yang ditemukan
<a name="error-no-private-DNS"></a>

Jika tugas gagal atau titik akhir pengembangan gagal untuk penyediaan, hal itu mungkin karena masalah dalam penyiapan jaringan.
+ Jika Anda menggunakan DNS yang disediakan Amazon, nilai `enableDnsHostnames` harus diatur ke BETUL. Untuk informasi lebih lanjut, lihat [DNS](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-dns.html). 

## Kesalahan: Penyediaan titik akhir pengembangan gagal
<a name="error-development-endpoint-failed"></a>

Jika AWS Glue gagal menyediakan titik akhir pengembangan dengan sukses, itu mungkin karena masalah dalam pengaturan jaringan.
+ Ketika Anda menentukan titik akhir pengembangan, VPC, subnet, dan grup keamanan divalidasi untuk mengonfirmasi apakah mereka memenuhi persyaratan yang ditentukan.
+ Jika Anda memberikan kunci publik SSH opsional, periksa apakah kunci tersebut adalah kunci publik SSH yang benar.
+ Periksa di konsol VPC bahwa VPC Anda menggunakan **Set opsi DHCP**. Untuk informasi selengkapnya, lihat [Set opsi DHCP](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_DHCP_Options.html). 
+ Jika klaster tetap dalam status PROVISSIONING, kontak AWS Dukungan.

## Kesalahan: Server notebook CREATE\$1FAILED
<a name="error-notebook-server-ec2-instance-profile"></a>

Jika AWS Glue gagal membuat server notebook untuk titik akhir pengembangan, itu mungkin karena salah satu masalah berikut: 
+ AWS Glue meneruskan peran IAM ke Amazon EC2 saat menyiapkan server notebook. IAM role harus memiliki hubungan kepercayaan dengan Amazon EC2.
+ IAM role harus memiliki profil instans dengan nama yang sama. Ketika Anda membuat peran untuk Amazon EC2 dengan konsol IAM, profil instans dengan nama yang sama secara otomatis dibuat. Periksa kesalahan dalam log terkait dengan nama profil instans ` iamInstanceProfile.name` yang tidak valid. Untuk informasi selengkapnya, lihat [Menggunakan Profil Instance](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use_switch-role-ec2_instance-profiles.html). 
+ Periksa apakah peran Anda memiliki izin untuk mengakses bucket `aws-glue*` dalam kebijakan yang Anda berikan untuk membuat notebook server. 

## Kesalahan: Notebook lokal gagal memulai
<a name="error-local-notebook-fails-to-start"></a>

Jika notebook lokal Anda gagal untuk memulai dan melaporkan kesalahan bahwa direktori atau folder tidak dapat ditemukan, hal itu mungkin karena terjadinya salah satu masalah berikut: 
+ Jika Anda menjalankan pada Microsoft Windows, pastikan bahwa variabel lingkungan `JAVA_HOME` mengarahkan ke direktori Java yang benar. Dimungkinkan untuk memperbarui Java tanpa memperbarui variabel ini, dan jika menunjuk ke folder yang tidak ada lagi, notebook Jupyter gagal untuk memulai.

## Kesalahan: Menjalankan crawler gagal
<a name="error-running-crawler-failed"></a>

Jika AWS Glue gagal menjalankan crawler dengan sukses untuk membuat katalog data Anda, itu mungkin karena salah satu alasan berikut. Pertama periksa apakah ada kesalahan yang tercantum dalam daftar crawler konsol AWS Glue . Periksa apakah ada ikon tanda seru di samping nama crawler dan arahkan kursor ke ikon tersebut untuk melihat pesan terkait. 
+ Periksa log untuk crawler yang dijalankan di CloudWatch Log di bawah`/aws-glue/crawlers`.

## Kesalahan: Partisi tidak diperbarui
<a name="error-update-from-job-partitions"></a>

Jika partisi Anda tidak diperbarui di Katalog Data saat Anda menjalankan pekerjaan ETL, pernyataan log ini dari `DataSink` kelas di CloudWatch log dapat membantu:
+ "`Attempting to fast-forward updates to the Catalog - nameSpace:`"  —  Menunjukkan basis data mana, tabel, dan catalogId mana yang berusaha untuk dimodifikasi oleh tugas ini. Jika pernyataan ini tidak ada, periksa apakah `enableUpdateCatalog` diatur ke BETUL dan diberikan dengan semestinya sebagai parameter `getSink()` atau di ` additional_options`.
+ "`Schema change policy behavior:`"  —  Menunjukkan nilai skema ` updateBehavior` yang Anda berikan.
+ "`Schemas qualify (schema compare):`"  —  Bisa BETUL atau SALAH.
+ "`Schemas qualify (case-insensitive compare):`"  —  Bisa BETUL atau SALAH.
+ Jika keduanya salah dan Anda tidak `updateBehavior` disetel ke` UPDATE_IN_DATABASE`, maka DynamicFrame skema Anda harus identik atau berisi subset kolom yang terlihat dalam skema tabel Katalog Data. 

Untuk informasi selengkapnya tentang memperbarui partisi, lihat[Memperbarui skema, dan menambahkan partisi baru di Katalog Data menggunakan AWS Glue pekerjaan ETL](update-from-job.md).

## Kesalahan: Pembaruan bookmark Job gagal karena ketidakcocokan versi
<a name="error-job-bookmarks-limitation"></a>

Anda mungkin mencoba membuat parameter AWS Glue pekerjaan untuk menerapkan hal yang sama transformation/logic pada kumpulan data yang berbeda di Amazon S3. Anda ingin melacak file yang diproses di lokasi yang disediakan. Saat Anda menjalankan pekerjaan yang sama pada bucket sumber yang sama dan menulis ke same/different tujuan secara bersamaan (konkurensi> 1) pekerjaan gagal dengan kesalahan ini:

```
py4j.protocol.Py4JJavaError: An error occurred while callingz:com.amazonaws.services.glue.util.Job.commit.:com.amazonaws.services.gluejobexecutor.model.VersionMismatchException: Continuation update failed due to version mismatch. Expected version 2 but found version 3
```

Solusi: atur konkurensi ke 1 atau jangan menjalankan pekerjaan secara bersamaan.

Saat ini AWS Glue bookmark tidak mendukung proses pekerjaan bersamaan dan komit akan gagal.

## Kesalahan: Pekerjaan memproses ulang data saat bookmark pekerjaan diaktifkan
<a name="error-job-bookmarks-reprocess-data"></a>

Mungkin ada kasus ketika Anda telah mengaktifkan bookmark AWS Glue pekerjaan, tetapi tugas ETL Anda memproses ulang data yang sudah diproses dalam proses sebelumnya. Periksa penyebab-penyebab umum kesalahan ini: 

**Konkurensi Maksimum**  
Menyetel jumlah maksimum proses bersamaan untuk pekerjaan yang lebih besar dari nilai default 1 dapat mengganggu bookmark pekerjaan. Hal ini dapat terjadi ketika bookmark pekerjaan memeriksa waktu modifikasi terakhir dari objek untuk memverifikasi objek mana yang perlu diproses ulang. Untuk informasi selengkapnya, lihat pembahasan konkurensi maksimum di [Mengkonfigurasi properti pekerjaan untuk pekerjaan Spark di AWS Glue](add-job.md).

**Objek Tugas Tidak Ada**  
Pastikan bahwa skrip eksekusi tugas Anda berakhir dengan melakukan commit berikut:

```
job.commit()
```

Saat Anda menyertakan objek ini, AWS Glue catat stempel waktu dan jalur pekerjaan yang dijalankan. Jika Anda menjalankan pekerjaan lagi dengan jalur yang sama, hanya AWS Glue memproses file baru. Jika Anda tidak menyertakan objek ini dan bookmark tugas diaktifkan, maka tugas akan memproses ulang file yang sudah diproses bersama dengan file baru dan membuat redundansi di penyimpanan data target tugas.

**Parameter Konteks Transformasi Tidak Ada**  
Konteks transformasi adalah parameter opsional dalam `GlueContext`, namun bookmark tugas tidak akan berfungsi jika Anda tidak memasukkannya. Untuk mengatasi kesalahan ini, tambahkan parameter konteks transformasi saat Anda [membuat DynamicFrame, seperti yang](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-crawler-pyspark-extensions-glue-context.html#aws-glue-api-crawler-pyspark-extensions-glue-context-create_dynamic_frame_from_catalog) ditunjukkan berikut:

```
sample_dynF=create_dynamic_frame_from_catalog(database, table_name,transformation_ctx="sample_dynF") 
```

**Sumber Input**  
Jika Anda menggunakan basis data relasional (koneksi JDBC) untuk sumber input, maka bookmark tugas hanya akan berfungsi jika kunci primer tabel berada dalam urutan yang berurutan. Bookmark tugas bekerja untuk baris baru, tetapi tidak untuk baris yang diperbarui. Hal itu karena bookmark tugas mencari kunci primer, yang sudah ada. Hal ini tidak berlaku jika sumber input Anda adalah Amazon Simple Storage Service (Amazon S3).

**Waktu Terakhir Dimodifikasi**  
Untuk sumber input Amazon S3, bookmark tugas memeriksa waktu modifikasi terakhir atas objek, bukan nama file, untuk memverifikasi objek mana yang perlu diproses ulang. Jika data sumber masukan Anda telah dimodifkasi sejak eksekusi tugas terakhir Anda, maka file akan diproses kembali ketika Anda menjalankan tugas itu lagi. 

## Kesalahan: Perilaku failover antara VPCs in AWS Glue
<a name="vpc-failover-behavior-error-10"></a>

Proses berikut digunakan untuk failover untuk pekerjaan di AWS Glue 5.1 dan versi sebelumnya.

Ringkasan: AWS Glue koneksi dipilih pada saat pekerjaan dijalankan. Jika job run mengalami beberapa masalah, (kurangnya alamat IP, konektivitas ke sumber, masalah routing), job run akan gagal. Jika percobaan ulang dikonfigurasi, AWS Glue akan mencoba lagi dengan koneksi yang sama.

1. Untuk setiap upaya run, AWS Glue akan memeriksa kesehatan koneksi dalam urutan yang tercantum dalam konfigurasi pekerjaan, diberikan sampai menemukan satu yang dapat digunakan. Dalam kasus kegagalan Availability Zone (AZ), koneksi dari AZ tersebut akan gagal dalam pemeriksaan dan akan dilewati.

1. AWS Glue memvalidasi koneksi dengan yang berikut:
   + memeriksa id dan subnet Amazon VPC yang valid.
   + memeriksa apakah gateway NAT atau titik akhir VPC Amazon ada.
   + memeriksa bahwa subnet memiliki lebih dari 0 alamat IP yang dialokasikan.
   + memeriksa apakah AZ sehat.

   AWS Glue tidak dapat memverifikasi konektivitas pada saat pengajuan pekerjaan dijalankan.

1. Untuk pekerjaan yang menggunakan Amazon VPC, semua driver dan pelaksana akan dibuat di AZ yang sama dengan koneksi yang dipilih pada saat pengiriman pekerjaan dijalankan.

1. Jika percobaan ulang dikonfigurasi, AWS Glue akan mencoba lagi dengan koneksi yang sama. Ini karena kami tidak dapat menjamin masalah dengan koneksi ini berjalan lama. Jika AZ gagal, pekerjaan yang ada berjalan (tergantung pada tahap pekerjaan yang dijalankan) di AZ tersebut dapat gagal. Coba lagi harus mendeteksi kegagalan AZ dan memilih AZ lain untuk proses baru.

# Kesalahan crawler saat crawler menggunakan izin Lake Formation
<a name="error-crawler-config-lf"></a>

Gunakan informasi di bawah ini untuk mendiagnosis dan memperbaiki berbagai masalah saat mengonfigurasi crawler menggunakan kredenal Lake Formation.

## Kesalahan: Lokasi S3: s3://examplepath tidak terdaftar
<a name="error-s3-location"></a>

Agar crawler dapat berjalan menggunakan kredensil Lake Formation, Anda harus terlebih dahulu menyiapkan izin Lake Formation. Untuk mengatasi kesalahan ini, harap daftarkan lokasi target Amazon S3 dengan Lake Formation. Untuk informasi selengkapnya, lihat [Mendaftarkan lokasi Amazon S3](https://docs.aws.amazon.com/lake-formation/latest/dg/register-location.html).

## Kesalahan: tidak User/Role diizinkan untuk melakukan: lakeformation: GetDataAccess pada sumber daya
<a name="error-role-authorization"></a>

Harap tambahkan `lakeformation:GetDataAccess` izin ke peran crawler menggunakan konsol IAM atau. AWS CLI Dengan izin ini, Lake Formation memberikan permintaan kredensil sementara untuk mengakses data. Lihat kebijakan di bawah ini:

------
#### [ JSON ]

****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": {
    "Effect": "Allow",
    "Action": [
      "lakeformation:GetDataAccess"
    ],
    "Resource": "*"
  }
}
```

------

## Kesalahan: Izin Lake Formation tidak mencukupi pada (Nama database: ExampleDatabase, Nama Tabel: ExampleTable)
<a name="error-permissions"></a>

Di Lake Formation console ([https://console.aws.amazon.com/lakeformation/](https://console.aws.amazon.com/lakeformation/)), berikan izin akses peran crawler (` Create`,`Describe`,`Alter`) pada database, yang ditetapkan sebagai database keluaran. Anda juga dapat memberikan izin di atas meja. Untuk informasi selengkapnya, lihat [Memberikan izin database menggunakan metode sumber daya bernama](https://docs.aws.amazon.com/lake-formation/latest/dg/granting-cat-perms-named-resource.html).

## Kesalahan: Izin Lake Formation tidak mencukupi di s3://examplepath
<a name="error-location-permissions"></a>

1.  **Perayapan lintas akun** 

   1. Masuk ke konsol Lake Formation ([https://console.aws.amazon.com/lakeformation/](https://console.aws.amazon.com/lakeformation/)) menggunakan akun tempat bucket Amazon S3 terdaftar (akun B). Berikan izin lokasi data ke akun tempat crawler akan dijalankan. Ini akan memungkinkan crawler membaca data dari lokasi Amazon S3 target. 

   1.  Di akun tempat crawler dibuat (akun A), berikan izin lokasi data pada lokasi Amazon S3 target ke peran IAM yang digunakan untuk menjalankan crawler sehingga crawler dapat membaca data dari tujuan di Lake Formation. Untuk informasi selengkapnya, lihat [Memberikan izin lokasi data (akun eksternal)](https://docs.aws.amazon.com/lake-formation/latest/dg/granting-location-permissions-external.html).

1. Perayapan **dalam akun (crawler dan lokasi Amazon S3 terdaftar berada di akun yang sama)** - Berikan izin lokasi data ke peran IAM yang digunakan untuk crawler yang dijalankan di lokasi Amazon S3 sehingga crawler dapat membaca data dari target di Lake Formation. Untuk informasi selengkapnya, lihat [Memberikan izin lokasi data (akun yang sama)](https://docs.aws.amazon.com/lake-formation/latest/dg/granting-location-permissions-local.html).

## Pertanyaan yang sering diajukan tentang konfigurasi crawler menggunakan kredensil Lake Formation
<a name="faq-crawler-config-lf"></a>

1.  **Bagaimana cara mengonfigurasi crawler untuk dijalankan menggunakan kredenal Lake Formation menggunakan konsol? AWS ** 

   Di AWS Glue console ([https://console.aws.amazon.com/glue/](https://console.aws.amazon.com/glue/)), saat mengonfigurasi crawler, pilih opsi **Gunakan kredenal Lake Formation untuk merayapi sumber data Amazon S3**. Untuk crawling lintas akun, tentukan Akun AWS ID tempat lokasi Amazon S3 target terdaftar di Lake Formation. **Untuk perayapan dalam akun, bidang accountID bersifat opsional.**

1.  **Bagaimana cara mengonfigurasi crawler untuk dijalankan menggunakan kredensil Lake Formation? AWS CLI** 

   Selama panggilan `CreateCrawler` API, tambahkan`LakeFormationConfiguration`:

   ```
   "LakeFormationConfiguration": {
       "UseLakeFormationCredentials": true,
       "AccountId": "111111111111" (AWS account ID where the target Amazon S3 location is registered with Lake Formation)
     }
   ```

1.  **Apa target yang didukung untuk crawler yang menggunakan kredenal Lake Formation?** 

   Crawler yang menggunakan kredensi Lake Formation hanya didukung untuk Amazon S3 (perayapan dalam akun dan lintas akun), target Katalog Data dalam akun (di mana lokasi dasarnya adalah Amazon S3), dan target Apache Iceberg.

1.  **Dapatkah saya merayapi beberapa bucket Amazon S3 sebagai bagian dari crawler tunggal menggunakan kredenal Lake Formation?** 

   Tidak, untuk merayapi target menggunakan penjual kredenal Lake Formation, lokasi Amazon S3 yang mendasarinya harus milik bucket yang sama. Misalnya, pelanggan dapat menggunakan beberapa lokasi target `(s3://bucket1/folder1, s3://bucket1/folder2)` jika mereka berada di bawah ember yang sama (bucket1). Menentukan bucket yang berbeda (s3://bucket1/folder1, s3://bucket2/folder2) tidak didukung.

# Pemecahan masalah AWS Glue untuk kesalahan Ray dari log
<a name="troubleshooting-ray"></a>

**penting**  
AWS Glue karena Ray tidak akan lagi terbuka untuk pelanggan baru mulai 30 April 2026. Jika Anda ingin menggunakan AWS Glue untuk Ray, daftar sebelum tanggal tersebut. Pelanggan yang sudah ada dapat terus menggunakan layanan ini seperti biasa. Untuk kemampuan yang mirip dengan for AWS Glue for Ray, jelajahi Amazon EKS. Untuk informasi selengkapnya, lihat [AWS Glue untuk Ray akhir dukungan](https://docs.aws.amazon.com/glue/latest/dg/awsglue-ray-jobs-availability-change.html).

AWS Glue menyediakan akses ke log yang dipancarkan oleh proses Ray selama pekerjaan dijalankan. Jika Anda menemukan kesalahan atau perilaku tak terduga dalam pekerjaan Ray, pertama-tama kumpulkan informasi dari log untuk menentukan penyebab kegagalan. Kami juga menyediakan log serupa untuk sesi interaktif. Log sesi disediakan dengan `/aws-glue/ray/sessions` awalan.

Garis log dikirim ke CloudWatch dalam waktu nyata, karena pekerjaan Anda dijalankan. Pernyataan cetak ditambahkan ke CloudWatch log setelah proses selesai. Log disimpan selama dua minggu setelah pekerjaan dijalankan. 

## Memeriksa log pekerjaan Ray
<a name="troubleshooting-ray-log-locations"></a>

Ketika pekerjaan gagal, kumpulkan nama pekerjaan dan ID pekerjaan Anda. Anda dapat menemukannya di AWS Glue konsol. Arahkan ke halaman lowongan, lalu arahkan ke tab **Runs**. Log pekerjaan ray disimpan dalam grup CloudWatch log khusus berikut.
+ `/aws-glue/ray/jobs/script-log/`— Menyimpan log yang dipancarkan oleh skrip Ray utama Anda.
+ `/aws-glue/ray/jobs/ray-monitor-log/`— Menyimpan log yang dipancarkan oleh proses autoscaler Ray. Log ini dihasilkan untuk node kepala dan bukan untuk node pekerja lainnya.
+ `/aws-glue/ray/jobs/ray-gcs-logs/`— Menyimpan log yang dipancarkan oleh proses GCS (toko kontrol global). Log ini dihasilkan untuk node kepala dan bukan untuk node pekerja lainnya.
+ `/aws-glue/ray/jobs/ray-process-logs/`— Menyimpan log yang dipancarkan oleh proses Ray lainnya (terutama agen dasbor) yang berjalan di simpul kepala. Log ini dihasilkan untuk node kepala dan bukan untuk node pekerja lainnya.
+ ` /aws-glue/ray/jobs/ray-raylet-logs/`— Menyimpan log yang dipancarkan oleh setiap proses raylet. Log ini dikumpulkan dalam satu aliran untuk setiap node pekerja, termasuk node kepala.
+ `/aws-glue/ray/jobs/ray-worker-out-logs/`— Menyimpan `stdout` log untuk setiap pekerja di cluster. Log ini dihasilkan untuk setiap node pekerja, termasuk node kepala.
+ `/aws-glue/ray/jobs/ray-worker-err-logs/`— Menyimpan `stderr` log untuk setiap pekerja di cluster. Log ini dihasilkan untuk setiap node pekerja, termasuk node kepala.
+ `/aws-glue/ray/jobs/ray-runtime-env-log/`— Menyimpan log tentang proses penyiapan Ray. Log ini dihasilkan untuk setiap node pekerja, termasuk node kepala.

## Memecahkan masalah kesalahan pekerjaan Ray
<a name="troubleshooting-ray-errors"></a>

Untuk memahami organisasi grup log Ray, dan untuk menemukan grup log yang akan membantu Anda memecahkan masalah kesalahan Anda, ada baiknya memiliki informasi latar belakang tentang arsitektur Ray.

Dalam AWS Glue ETL, seorang pekerja berhubungan dengan sebuah instance. Saat Anda mengonfigurasi pekerja untuk suatu AWS Glue pekerjaan, Anda mengatur jenis dan jumlah instance yang didedikasikan untuk pekerjaan tersebut. Ray menggunakan istilah *pekerja* dengan cara yang berbeda. 

Ray menggunakan *node kepala* dan *node pekerja* untuk membedakan tanggung jawab sebuah instance dalam cluster Ray. Node pekerja Ray dapat meng-host beberapa proses *aktor* yang melakukan perhitungan untuk mencapai hasil komputasi terdistribusi Anda. Aktor yang menjalankan replika fungsi disebut *replika*. Aktor replika juga bisa disebut proses pekerja. Replika juga dapat berjalan pada node kepala, yang dikenal sebagai head karena menjalankan proses tambahan untuk mengoordinasikan cluster. 

Setiap aktor yang berkontribusi pada perhitungan Anda menghasilkan aliran lognya sendiri. Ini memberi kami beberapa wawasan: 
+ Jumlah proses yang memancarkan log mungkin lebih besar dari jumlah pekerja yang dialokasikan untuk pekerjaan itu. Seringkali, setiap inti pada setiap instance memiliki aktor.
+  Node kepala Ray memancarkan manajemen cluster dan log startup. Sebaliknya, node pekerja Ray hanya memancarkan log untuk pekerjaan yang dilakukan pada mereka.

Untuk informasi selengkapnya tentang arsitektur Ray, lihat [Whitepaper Arsitektur]( https://docs.ray.io/en/latest/ray-contribute/whitepaper.html) dalam dokumentasi Ray.

### Area masalah: Akses Amazon S3
<a name="troubleshooting-ray-errors-s3"></a>

Periksa pesan kegagalan dari pekerjaan yang dijalankan. Jika itu tidak memberikan informasi yang cukup, periksa`/aws-glue/ray/jobs/script-log/`.

### Area masalah: Manajemen ketergantungan PIP
<a name="troubleshooting-ray-errors-dependencies"></a>

Periksa `/aws-glue/ray/jobs/ray-runtime-env-log/`.

### Area masalah: Memeriksa nilai antara dalam proses utama
<a name="troubleshooting-ray-errors-main-process"></a>

Tulis ke `stderr` atau `stdout` dari skrip utama Anda, dan ambil log dari`/aws-glue/ray/jobs/script-log/`.

### Area masalah: Memeriksa nilai antara dalam proses anak
<a name="troubleshooting-ray-errors-worker-process"></a>

Menulis ke `stderr` atau `stdout` dari `remote` fungsi Anda. Kemudian, ambil log dari `/aws-glue/ray/jobs/ray-worker-out-logs/` atau`/aws-glue/ray/jobs/ray-worker-err-logs/`. Fungsi Anda mungkin telah berjalan pada replika apa pun, jadi Anda mungkin harus memeriksa beberapa log untuk menemukan output yang Anda inginkan.

### Area masalah: Menafsirkan alamat IP dalam pesan kesalahan
<a name="troubleshooting-ray-errors-ips"></a>

Dalam situasi kesalahan tertentu, pekerjaan Anda mungkin memancarkan pesan kesalahan yang berisi alamat IP. Alamat IP ini bersifat sementara, dan digunakan oleh cluster untuk mengidentifikasi dan berkomunikasi antar node. Log untuk node akan dipublikasikan ke aliran log dengan akhiran unik berdasarkan alamat IP. 

Di CloudWatch, Anda dapat memfilter log Anda untuk memeriksa yang spesifik untuk alamat IP ini dengan mengidentifikasi akhiran ini. Misalnya, diberikan *FAILED\$1IP* dan*JOB\$1RUN\$1ID*, Anda dapat mengidentifikasi akhiran dengan: 

```
filter @logStream like /JOB_RUN_ID/
| filter @message like /IP-/
| parse @message "IP-[*]" as ip
| filter ip like /FAILED_IP/
| fields replace(ip, ":", "_") as uIP
| stats count_distinct by uIP as logStreamSuffix
| display logStreamSuffix
```

# AWS Gluepengecualian pembelajaran mesin
<a name="exceptions-machine-learning"></a>

Topik ini menjelaskan kode kesalahan HTTP dan string untuk pengecualian AWS Glue yang berkaitan dengan machine learning. Kode kesalahan dan string kesalahan disediakan untuk setiap aktivitas machine learning yang mungkin terjadi ketika Anda melakukan sebuah operasi. Selain itu, Anda juga dapat melihat apakah mungkin untuk mencoba lagi operasi yang mengakibatkan kesalahan tersebut.

## Batalkan MLTask RunActivity
<a name="exceptions-machine-learning-CancelMLTaskRunActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”
  + “Tidak ada Tugas ML Run yang ditemukan untuk [taskRunId]: di akun [accountID] untuk transformasi [transformName].”

  OK untuk mencoba lagi: Tidak.

## Buat MLTask RunActivity
<a name="exceptions-machine-learning-CreateMLTransformActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ InvalidInputException (400)
  + “Kegagalan layanan internal yang diakibatkan input tak terduga.”
  + “Sebuah sumber masukan tabel AWS Glue harus ditentukan dalam transformasi.”
  + “Kolom sumber masukan [columnName] memiliki tipe data yang tidak valid yang ditentukan dalam katalog.”
  + “Tepat satu tabel catatan masukan harus disediakan.”
  + “Harus menentukan nama basis data.”
  + “Harus menentukan nama tabel.”
  + “Skema tidak didefinisikan pada transformasi.”
  + “Skema harus berisi kunci primer yang diberikan: [primaryKey].”
  + “Masalah saat mengambil skema katalog data: [pesan].”
  + “Tidak dapat mengatur Kapasitas Maks dan Pekerja Num/Type pada saat yang bersamaan.”
  + “Keduanya WorkerType dan NumberOfWorkers harus diatur.”
  + “MaxCapacity seharusnya >= [MaxCapacity].”
  + “NumberOfWorkers seharusnya >= [MaxCapacity].”
  + “Coba lagi maksimal tidak boleh negatif.”
  +  “Parameter Temukan Kecocokan belum ditetapkan.”
  + “Kunci primer harus ditentukan dalam parameter Temukan Kecocokan.”

  OK untuk mencoba lagi: Tidak.
+ AlreadyExistsException (400)
  + “Transformasi dengan nama [transformName] sudah ada.”

  OK untuk mencoba lagi: Tidak.
+ IdempotentParameterMismatchException (400)
  + “Idempoten membuat permintaan untuk transformasi [transformName] memiliki parameter ketidakcocokan.”

  OK untuk mencoba lagi: Tidak.
+ InternalServiceException (500)
  + “Kegagalan dependensi.”

  OK untuk mencoba lagi: Ya.
+ ResourceNumberLimitExceededException (400)
  + “Jumlah Transformasi ML ([count]) telah melampaui batas [limit] transformasi.”

  OK untuk mencoba lagi: Ya, setelah Anda menghapus transformasi untuk memberi ruang bagi yang baru ini.

## Hapus MLTransform Aktivitas
<a name="exceptions-machine-learning-DeleteMLTransformActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName]”

  OK untuk mencoba lagi: Tidak.

## Dapatkan MLTask RunActivity
<a name="exceptions-machine-learning-GetMLTaskRunActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”
  + “Tidak ada Tugas ML Run yang ditemukan untuk [taskRunId]: di akun [accountID] untuk transformasi [transformName].”

  OK untuk mencoba lagi: Tidak.

## Dapatkan MLTask RunsActivity
<a name="exceptions-machine-learning-GetMLTaskRunsActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”
  + “Tidak ada Tugas ML Run yang ditemukan untuk [taskRunId]: di akun [accountID] untuk transformasi [transformName].”

  OK untuk mencoba lagi: Tidak.

## Dapatkan MLTransform Aktivitas
<a name="exceptions-machine-learning-GetMLTransformActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”

  OK untuk mencoba lagi: Tidak.

## Dapatkan MLTransforms Aktivitas
<a name="exceptions-machine-learning-GetMLTransformsActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”

  OK untuk mencoba lagi: Tidak.
+ InvalidInputException (400)
  + “ID Akun tidak boleh kosong.”
  + “Penyortiran tidak didukung untuk kolom [column].”
  + “[column] tidak boleh kosong.”
  + “Kegagalan layanan internal yang diakibatkan input tak terduga.”

  OK untuk mencoba lagi: Tidak.

## GetSaveLocationForTransformArtifactActivity
<a name="exceptions-machine-learning-GetSaveLocationForTransformArtifactActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”

  OK untuk mencoba lagi: Tidak.
+ InvalidInputException (400)
  + “Tipe artefak yang tidak didukung [artifactType].”
  + “Kegagalan layanan internal yang diakibatkan input tak terduga.”

  OK untuk mencoba lagi: Tidak.

## GetTaskRunArtifactActivity
<a name="exceptions-machine-learning-GetTaskRunArtifactActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”
  + “Tidak ada Tugas ML Run yang ditemukan untuk [taskRunId]: di akun [accountID] untuk transformasi [transformName].”

  OK untuk mencoba lagi: Tidak.
+ InvalidInputException (400)
  + “Nama file ‘[fileName]’ tidak valid untuk dipublikasikan.”
  + “Tidak dapat mengambil artefak untuk jenis tugas [taskType].”
  + “Tidak dapat mengambil artefak untuk [artifactType].”
  + “Kegagalan layanan internal yang diakibatkan input tak terduga.”

  OK untuk mencoba lagi: Tidak.

## Publikasikan MLTransform ModelActivity
<a name="exceptions-machine-learning-PublishMLTransformModelActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”
  + “Model yang sudah ada dengan versi - [version] tidak dapat ditemukan untuk akun id - [accountId] - dan id transformasi - [transformId].”

  OK untuk mencoba lagi: Tidak.
+ InvalidInputException (400)
  + “Nama file ‘[fileName]’ tidak valid untuk dipublikasikan.”
  + “Tanda minus di depan ilegal pada string tak diberi tanda [string].”
  + “Angka buruk di akhir [string].”
  +  “Nilai string [string] melebihi rentang panjang tak diberi tanda.”
  + “Kegagalan layanan internal yang diakibatkan input tak terduga.”

  OK untuk mencoba lagi: Tidak.

## PullLatestMLTransformModelActivity
<a name="exceptions-machine-learning-PullLatestMLTransformModelActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”

  OK untuk mencoba lagi: Tidak.
+ InvalidInputException (400)
  + “Kegagalan layanan internal yang diakibatkan input tak terduga.”

  OK untuk mencoba lagi: Tidak.
+ ConcurrentModificationException (400)
  + “Tidak dapat membuat versi model untuk melatih sisipan yang mengakses bersamaan memiliki parameter ketidakcocokan.”
  + “Model transformasi ML untuk id transformasi [transformId] sudah kedaluwarsa atau sedang diperbarui oleh proses lain; Silakan coba lagi.”

  OK untuk mencoba lagi: Ya.

## PutJobMetadataForMLTransformAktivitas
<a name="exceptions-machine-learning-PutJobMetadataForMLTransformActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”
  + “Tidak ada Tugas ML Run yang ditemukan untuk [taskRunId]: di akun [accountID] untuk transformasi [transformName].”

  OK untuk mencoba lagi: Tidak.
+ InvalidInputException (400)
  + “Kegagalan layanan internal yang diakibatkan input tak terduga.”
  + “Jenis metadata pekerjaan tidak dikenal [jobType].”
  +  “Harus memberikan ID eksekusi tugas untuk memperbarui.”

  OK untuk mencoba lagi: Tidak.

## StartExportLabelsTaskRunActivity
<a name="exceptions-machine-learning-StartExportLabelsTaskRunActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”
  + “Tidak ada set label ada untuk Id transformasi [transformId] di id akun [accountId].”

  OK untuk mencoba lagi: Tidak.
+ InvalidInputException (400)
  + “[message].”
  + “Path S3 yang disediakan tidak berada di wilayah yang sama dengan transformasi. Mengharapkan wilayah - [region], tapi mendapatkan - [region].”

  OK untuk mencoba lagi: Tidak.

## StartImportLabelsTaskRunActivity
<a name="exceptions-machine-learning-StartExportLabelsTaskRunActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”

  OK untuk mencoba lagi: Tidak.
+ InvalidInputException (400)
  + “[message].”
  + “Path file label tidak valid.”
  + “Tidak dapat mengakses file label pada [labelPath]. [message].”
  + “Tidak dapat menggunakan IAM role yang disediakan dalam transformasi. Peran: [role].”
  + “File label tidak valid dengan ukuran 0.”
  + “Path S3 yang disediakan tidak berada di wilayah yang sama dengan transformasi. Mengharapkan wilayah - [region], tapi mendapatkan - [region].”

  OK untuk mencoba lagi: Tidak.
+ ResourceNumberLimitExceededException (400)
  + “Label file telah melampaui batas [limit] MB.”

  OK untuk mencoba lagi: Tidak. Pertimbangkan untuk memecahkan file label Anda menjadi beberapa file yang lebih kecil.

## Mulai MLEvaluation TaskRunActivity
<a name="exceptions-machine-learning-StartMLEvaluationTaskRunActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”

  OK untuk mencoba lagi: Tidak.
+ InvalidInputException (400)
  + “Tepat satu tabel catatan masukan harus disediakan.”
  + “Harus menentukan nama basis data.”
  + “Harus menentukan nama tabel.”
  + “Parameter Temukan Kecocokan belum ditetapkan.”
  + “Kunci primer harus ditentukan dalam parameter Temukan Kecocokan.”

  OK untuk mencoba lagi: Tidak.
+ MLTransformNotReadyException (400)
  + “Operasi ini hanya dapat diterapkan untuk transformasi yang sedang dalam status READY.”

  OK untuk mencoba lagi: Tidak.
+ InternalServiceException (500)
  + “Kegagalan dependensi.”

  OK untuk mencoba lagi: Ya.
+ ConcurrentRunsExceededException (400)
  + “Jumlah Eksekusi Tugas ML [count] telah melampaui batas transformasi [limit] eksekusi tugas.”
  + “Jumlah Eksekusi Tugas ML [count] telah melampaui batas [limit] eksekusi tugas.”

  OK untuk mencoba lagi: Ya, setelah menunggu eksekusi tugas selesai.

## Mulai MLLabeling SetGenerationTaskRunActivity
<a name="exceptions-machine-learning-StartMLLabelingSetGenerationTaskRunActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”

  OK untuk mencoba lagi: Tidak.
+ InvalidInputException (400)
  + “Tepat satu tabel catatan masukan harus disediakan.”
  + “Harus menentukan nama basis data.”
  + “Harus menentukan nama tabel.”
  + “Parameter Temukan Kecocokan belum ditetapkan.”
  + “Kunci primer harus ditentukan dalam parameter Temukan Kecocokan.”

  OK untuk mencoba lagi: Tidak.
+ InternalServiceException (500)
  + “Kegagalan dependensi.”

  OK untuk mencoba lagi: Ya.
+ ConcurrentRunsExceededException (400)
  + “Jumlah Eksekusi Tugas ML [count] telah melampaui batas transformasi [limit] eksekusi tugas.”

  OK untuk mencoba lagi: Ya, setelah eksekusi tugas selesai.

## Perbarui MLTransform Aktivitas
<a name="exceptions-machine-learning-UpdateMLTransformActivity"></a>

Kegiatan ini memiliki pengecualian sebagai berikut:
+ EntityNotFoundException (400)
  + “Tidak dapat menemukan MLTransform di akun [accountID] dengan handle [transformName].”

  OK untuk mencoba lagi: Tidak.
+ InvalidInputException (400)
  + “Transformasi lain dengan nama [transformName] sudah ada.”
  + “[message].”
  + “Nama transformasi tidak boleh kosong.”
  + “Tidak dapat mengatur Kapasitas Maks dan Pekerja Num/Type pada saat yang bersamaan.”
  + “Keduanya WorkerType dan NumberOfWorkers harus diatur.”
  + “MaxCapacity seharusnya >= [minMaxCapacity].”
  + “NumberOfWorkers seharusnya >= [minNumWorkers].”
  + “Coba lagi maksimal tidak boleh negatif.”
  + “Kegagalan layanan internal yang diakibatkan input tak terduga.”
  + “Parameter Temukan Kecocokan belum ditetapkan.”
  + “Kunci primer harus ditentukan dalam parameter Temukan Kecocokan.”

  OK untuk mencoba lagi: Tidak.
+ AlreadyExistsException (400)
  + “Transformasi dengan nama [transformName] sudah ada.”

  OK untuk mencoba lagi: Tidak.
+ IdempotentParameterMismatchException (400)
  + “Idempoten membuat permintaan untuk transformasi [transformName] memiliki parameter ketidakcocokan.”

  OK untuk mencoba lagi: Tidak.

# AWS Glue kuota
<a name="troubleshooting-service-limits"></a>

Anda dapat menghubungi AWS Dukungan untuk [meminta kenaikan kuota](https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html) untuk kuota layanan yang tercantum dalam. *Referensi Umum AWS* Kecuali dinyatakan lain, setiap kuota bersifat khusus per Wilayah. Untuk informasi lebih lanjut, lihat [Kuota dan Titik Akhir AWS Glue](https://docs.aws.amazon.com/general/latest/gr/glue.html). 