

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Pemecahan masalah
<a name="security_iam_fgac-troubleshooting"></a>

## Pencatatan log
<a name="security_iam_fgac-troubleshooting-logging"></a>

EMR di EKS menggunakan profil sumber daya Spark untuk membagi eksekusi pekerjaan. Amazon EMR di EKS menggunakan profil pengguna untuk menjalankan kode yang Anda berikan, sementara profil sistem memberlakukan kebijakan Lake Formation. Anda dapat mengakses log untuk wadah yang dijalankan sebagai profil pengguna dengan mengonfigurasi StartJobRun permintaan. [MonitoringConfiguration](https://docs.aws.amazon.com/emr/latest/EMR-on-EKS-DevelopmentGuide/emr-eks-jobs-s3.html)

## Spark History Server
<a name="security_iam_fgac-troubleshooting-spark-history"></a>

Server Sejarah Spark memiliki semua peristiwa Spark yang dihasilkan dari profil pengguna dan peristiwa yang disunting yang dihasilkan dari driver sistem. Anda dapat melihat semua kontainer dari driver pengguna dan sistem di tab **Executors.** Namun, tautan log hanya tersedia untuk profil pengguna.

## Job gagal dengan izin Lake Formation yang tidak mencukupi
<a name="security_iam_fgac-troubleshooting-job-failed"></a>

Pastikan peran eksekusi pekerjaan Anda memiliki izin untuk dijalankan `SELECT` dan `DESCRIBE` di atas meja yang Anda akses.

## Job dengan eksekusi RDD gagal
<a name="security_iam_fgac-troubleshooting-RDD"></a>

EMR di EKS saat ini tidak mendukung operasi kumpulan data terdistribusi (RDD) yang tangguh pada pekerjaan yang mendukung Lake Formation.

## Tidak dapat mengakses file data di Amazon S3
<a name="security_iam_fgac-troubleshooting-unable-access"></a>

Pastikan Anda telah mendaftarkan lokasi data lake di Lake Formation.

## Pengecualian validasi keamanan
<a name="security_iam_fgac-troubleshooting-validation"></a>

EMR di EKS mendeteksi kesalahan validasi keamanan. Hubungi AWS dukungan untuk bantuan.

## Berbagi Katalog Data AWS Glue dan tabel di seluruh akun
<a name="security_iam_fgac-troubleshooting-across"></a>

Anda dapat berbagi database dan tabel di seluruh akun dan masih menggunakan Lake Formation. Untuk informasi lebih lanjut, lihat [Berbagi data lintas akun di Lake Formation](https://docs.aws.amazon.com/lake-formation/latest/dg/cross-account-permissions.html) dan [Bagaimana cara membagikan Katalog Data AWS Glue dan tabel lintas akun menggunakan AWS Lake](https://repost.aws/knowledge-center/glue-lake-formation-cross-account) Formation? .

## Iceberg Job melempar kesalahan inisialisasi tidak menyetel wilayah AWS
<a name="security_iam_fgac-troubleshooting-init-error"></a>

Pesannya adalah sebagai berikut:

```
25/02/25 13:33:19 ERROR SparkFGACExceptionSanitizer: Client received error with id = b921f9e6-f655-491f-b8bd-b2842cdc20c7, 
reason = IllegalArgumentException, message = Cannot initialize 
LakeFormationAwsClientFactory, please set client.region to a valid aws region
```

Pastikan konfigurasi Spark `spark.sql.catalog.catalog_name.client.region` diatur ke wilayah yang valid.

## Iceberg Job melempar SparkUnsupportedOperationException
<a name="security_iam_fgac-troubleshooting-unsupported-error"></a>

Pesannya adalah sebagai berikut:

```
25/02/25 13:53:15 ERROR SparkFGACExceptionSanitizer: Client received error with id = 921fef42-0800-448b-bef5-d283d1278ce0, 
reason = SparkUnsupportedOperationException, message = Either glue.id or glue.account-id is set with non-default account. 
Cross account access with fine-grained access control is only supported with AWS Resource Access Manager.
```

Pastikan Konfigurasi Spark `spark.sql.catalog.catalog_name.glue.account-id` diatur ke id akun yang valid.

## Iceberg Job gagal dengan “403 Access Denied” selama operasi MERGE
<a name="security_iam_fgac-troubleshooting-merge-s3fileio-error"></a>

Pesannya adalah sebagai berikut:

```
software.amazon.awssdk.services.s3.model.S3Exception: Access Denied (Service: S3, Status Code: 403, 
...
	at software.amazon.awssdk.services.s3.DefaultS3Client.deleteObject(DefaultS3Client.java:3365)
	at org.apache.iceberg.aws.s3.S3FileIO.deleteFile(S3FileIO.java:162)
	at org.apache.iceberg.io.FileIO.deleteFile(FileIO.java:86)
	at org.apache.iceberg.io.RollingFileWriter.closeCurrentWriter(RollingFileWriter.java:129)
```

Nonaktifkan operasi Hapus S3 di Spark dengan menambahkan properti berikut. `--conf spark.sql.catalog.s3-table-name.s3.delete-enabled=false`.