

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Sinkronkan metadata Delta Lake
<a name="delta-lake-tables-syncing-metadata"></a>

Athena menyinkronkan metadata tabel, termasuk skema, kolom partisi, dan properti tabel, jika AWS Glue Anda menggunakan Athena untuk membuat tabel Delta Lake Anda. Seiring berjalannya waktu, metadata ini dapat kehilangan sinkronisasi dengan metadata tabel yang mendasarinya di log transaksi. Untuk memperbarui tabel Anda, Anda dapat memilih salah satu opsi berikut:
+ Gunakan AWS Glue crawler untuk tabel Delta Lake. Untuk informasi selengkapnya, lihat [Memperkenalkan dukungan tabel Delta Lake asli dengan AWS Glue crawler](https://aws.amazon.com/blogs/big-data/introducing-native-delta-lake-table-support-with-aws-glue-crawlers/) di *Blog AWS Big Data* dan [Menjadwalkan AWS Glue crawler](https://docs.aws.amazon.com/glue/latest/dg/schedule-crawler.html) di Panduan Pengembang. AWS Glue 
+ Jatuhkan dan buat ulang tabel di Athena.
+ Gunakan SDK, CLI, AWS Glue atau konsol untuk memperbarui skema secara manual. AWS Glue

Perhatikan bahwa fitur-fitur berikut mengharuskan AWS Glue skema Anda untuk selalu memiliki skema yang sama dengan log transaksi:
+ Lake Formation
+ Tampilan
+ Filter baris dan kolom

Jika alur kerja Anda tidak memerlukan fungsionalitas ini, dan Anda memilih untuk tidak mempertahankan kompatibilitas ini, Anda dapat menggunakan `CREATE TABLE` DDL di Athena dan kemudian menambahkan jalur Amazon S3 sebagai parameter di. SerDe AWS Glue

## Buat tabel Delta Lake menggunakan AWS Glue Athena dan konsol
<a name="delta-lake-tables-syncing-metadata-console"></a>

Anda dapat menggunakan prosedur berikut untuk membuat tabel Danau Delta dengan Athena AWS Glue dan konsol.

**Untuk membuat tabel Danau Delta menggunakan AWS Glue Athena dan konsol**

1. Buka konsol Athena di [https://console.aws.amazon.com/athena/](https://console.aws.amazon.com/athena/home).

1. Di editor kueri Athena, gunakan DDL berikut untuk membuat tabel Delta Lake Anda. Perhatikan bahwa saat menggunakan metode ini, nilai untuk `TBLPROPERTIES` harus `'spark.sql.sources.provider' = 'delta'` dan tidak`'table_type' = 'delta'`.

   Perhatikan bahwa skema yang sama ini (dengan satu kolom bernama `col` tipe`array<string>`) dimasukkan saat Anda menggunakan Apache Spark (Athena untuk Apache Spark) atau sebagian besar mesin lain untuk membuat tabel Anda.

   ```
   CREATE EXTERNAL TABLE
      [db_name.]table_name(col array<string>)
      LOCATION 's3://amzn-s3-demo-bucket/your-folder/'
      TBLPROPERTIES ('spark.sql.sources.provider' = 'delta')
   ```

1. Buka AWS Glue konsol di [https://console.aws.amazon.com/glue/](https://console.aws.amazon.com/glue/).

1. Di panel navigasi, pilih **Katalog Data**, **Tabel**.

1. Dalam daftar tabel, pilih tautan untuk tabel Anda.

1. Pada halaman untuk tabel, pilih **Tindakan**, **Edit tabel**.

1. Di bagian **parameter Serde**, tambahkan kunci **path** dengan nilai**s3://amzn-s3-demo-bucket/*your-folder*/**.

1. Pilih **Simpan**.

## Buat tabel Delta Lake menggunakan AWS CLI
<a name="delta-lake-tables-syncing-metadata-cli"></a>

Untuk membuat tabel Delta Lake menggunakan AWS CLI, masukkan perintah seperti berikut ini.

```
aws glue create-table --database-name dbname \
    --table-input '{"Name" : "tablename", "StorageDescriptor":{
            "Columns" : [
                {
                    "Name": "col",
                    "Type": "array<string>"
                }
            ],
            "Location" : "s3://amzn-s3-demo-bucket/<prefix>/",
            "SerdeInfo" : {
                "Parameters" : {
                    "serialization.format" : "1",
                    "path" : "s3://amzn-s3-demo-bucket/<prefix>/"
                }
            }
        },
        "PartitionKeys": [],
        "TableType": "EXTERNAL_TABLE",
        "Parameters": {
            "EXTERNAL": "TRUE",
            "spark.sql.sources.provider": "delta"
        }
    }'
```