

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Penyetelan kinerja untuk Apache Airflow di Amazon MWAA
<a name="best-practices-tuning"></a>

Topik ini menjelaskan cara menyetel kinerja Alur Kerja Terkelola Amazon untuk lingkungan Apache Airflow menggunakan. [Menggunakan opsi konfigurasi Apache Airflow di Amazon MWAA](configuring-env-variables.md)

**Contents**
+ [

## Menambahkan opsi konfigurasi Apache Airflow
](#best-practices-tuning-console-add)
+ [

## Penjadwal Apache Airflow
](#best-practices-tuning-scheduler)
  + [

### Parameter
](#best-practices-tuning-scheduler-params)
  + [

### Batas
](#best-practices-tuning-scheduler-limits)
+ [

## Folder DAG
](#best-practices-tuning-dag-folders)
  + [

### Parameter
](#best-practices-tuning-dag-folders-params)
+ [

## File DAG
](#best-practices-tuning-dag-files)
  + [

### Parameter
](#best-practices-tuning-dag-files-params)
+ [

## Tugas
](#best-practices-tuning-tasks)
  + [

### Parameter
](#best-practices-tuning-tasks-params)

## Menambahkan opsi konfigurasi Apache Airflow
<a name="best-practices-tuning-console-add"></a>

Gunakan prosedur berikut untuk menambahkan opsi konfigurasi Aliran Udara ke lingkungan Anda.

1. Buka halaman [Lingkungan](https://console.aws.amazon.com/mwaa/home#/environments) di konsol Amazon MWAA.

1. Pilih lingkungan.

1. Pilih **Edit**.

1. Pilih **Berikutnya**.

1. Pilih **Tambahkan konfigurasi khusus** di panel **Opsi konfigurasi Aliran Udara**.

1. Pilih konfigurasi dari daftar dropdown dan masukkan nilai, atau masukkan konfigurasi khusus dan masukkan nilai.

1. Pilih **Tambahkan konfigurasi khusus** untuk setiap konfigurasi yang ingin Anda tambahkan.

1. Pilih **Simpan**.

Untuk mempelajari lebih lanjut, lihat[Menggunakan opsi konfigurasi Apache Airflow di Amazon MWAA](configuring-env-variables.md).

## Penjadwal Apache Airflow
<a name="best-practices-tuning-scheduler"></a>

Penjadwal Apache Airflow adalah komponen inti dari Apache Airflow. Masalah dengan penjadwal dapat DAGs mencegah penguraian dan tugas dijadwalkan. Untuk informasi selengkapnya tentang penyetelan penjadwal Apache Airflow, lihat Menyesuaikan kinerja penjadwal [Anda di situs web dokumentasi](https://airflow.apache.org/docs/apache-airflow/2.2.2/concepts/scheduler.html#fine-tuning-your-scheduler-performance) Apache Airflow.

### Parameter
<a name="best-practices-tuning-scheduler-params"></a>

Bagian ini menjelaskan opsi konfigurasi yang tersedia untuk penjadwal Apache Airflow (Apache Airflow v2 dan yang lebih baru) dan kasus penggunaannya.

------
#### [ Apache Airflow v3 ]


| Konfigurasi | Kasus penggunaan | 
| --- | --- | 
|  **[celery.sync\$1parallelism](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#parallelism)** Jumlah proses yang digunakan Celery Executor untuk menyinkronkan status tugas. **Default:** 1  |  Anda dapat menggunakan opsi ini untuk mencegah konflik antrian dengan membatasi proses yang digunakan Celery Executor. Secara default, nilai diatur `1` untuk mencegah kesalahan dalam mengirimkan log tugas ke CloudWatch Log. Menyetel nilai ke `0` berarti menggunakan jumlah maksimum proses, tetapi dapat menyebabkan kesalahan saat mengirimkan log tugas.  | 
|  **[scheduler.scheduler\$1idle\$1sleep\$1time](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#scheduler-idle-sleep-time)** Jumlah detik untuk menunggu antara pemrosesan file DAG berturut-turut di “loop” scheduler.  **Default:** 1  |  *Anda dapat menggunakan opsi ini untuk membebaskan penggunaan CPU pada penjadwal dengan **meningkatkan** waktu penjadwal tidur setelah selesai mengambil hasil penguraian DAG, menemukan dan mengantri tugas, dan menjalankan tugas antrian di Pelaksana.* Meningkatkan nilai ini menghabiskan jumlah thread scheduler yang dijalankan di lingkungan `dag_processor.parsing_processes` untuk Apache Airflow v2 dan Apache Airflow v3. Ini dapat mengurangi kapasitas penjadwal untuk mengurai DAGs, dan meningkatkan waktu yang diperlukan DAGs untuk mengisi di server web.  | 
|  **[scheduler.max\$1dagruns\$1to\$1create\$1per\$1loop](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#max-dagruns-to-create-per-loop)** Jumlah maksimum yang DAGs harus dibuat *DagRuns*untuk per penjadwal “loop.” **Default**: 10  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya untuk menjadwalkan tugas dengan **mengurangi** jumlah maksimum *DagRuns*untuk “loop” penjadwal.  | 
|  **[dag\$1processor.parsing\$1processes](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#parsing-processes)** Jumlah thread penjadwal dapat berjalan secara paralel dengan jadwal DAGs. **Default:** Gunakan `(2 * number of vCPUs) - 1`  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **mengurangi** jumlah proses yang dijalankan penjadwal secara paralel untuk mengurai. DAGs Kami menyarankan agar angka ini tetap rendah jika penguraian DAG memengaruhi penjadwalan tugas. Anda **harus** menentukan nilai yang kurang dari jumlah vCPU di lingkungan Anda. Untuk mempelajari lebih lanjut, lihat [Batas](#best-practices-tuning-scheduler-limits).  | 

------
#### [ Apache Airflow v2 ]


| Konfigurasi | Kasus penggunaan | 
| --- | --- | 
|  **[celery.sync\$1parallelism](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#parallelism)** Jumlah proses yang digunakan Celery Executor untuk menyinkronkan status tugas. **Default:** 1  |  Anda dapat menggunakan opsi ini untuk mencegah konflik antrian dengan membatasi proses yang digunakan Celery Executor. Secara default, nilai diatur `1` untuk mencegah kesalahan dalam mengirimkan log tugas ke CloudWatch Log. Menyetel nilai ke `0` berarti menggunakan jumlah maksimum proses, tetapi dapat menyebabkan kesalahan saat mengirimkan log tugas.  | 
|  **[scheduler.idle\$1sleep\$1time](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#scheduler-idle-sleep-time)** Jumlah detik untuk menunggu antara pemrosesan file DAG berturut-turut di “loop” scheduler.  **Default:** 1  |  *Anda dapat menggunakan opsi ini untuk membebaskan penggunaan CPU pada penjadwal dengan **meningkatkan** waktu penjadwal tidur setelah selesai mengambil hasil penguraian DAG, menemukan dan mengantri tugas, dan menjalankan tugas antrian di Pelaksana.* Meningkatkan nilai ini menghabiskan jumlah thread scheduler yang dijalankan di lingkungan `scheduler.parsing_processes` untuk Apache Airflow v2 dan Apache Airflow v3. Ini dapat mengurangi kapasitas penjadwal untuk mengurai DAGs, dan meningkatkan waktu yang diperlukan DAGs untuk mengisi di server web.  | 
|  **[scheduler.max\$1dagruns\$1to\$1create\$1per\$1loop](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#max-dagruns-to-create-per-loop)** Jumlah maksimum yang DAGs harus dibuat *DagRuns*untuk per penjadwal “loop.” **Default**: 10  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya untuk menjadwalkan tugas dengan **mengurangi** jumlah maksimum *DagRuns*untuk “loop” penjadwal.  | 
|  **[scheduler.parsing\$1processes](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#parsing-processes)** Jumlah thread penjadwal dapat berjalan secara paralel dengan jadwal DAGs. **Default:** Gunakan `(2 * number of vCPUs) - 1`  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **mengurangi** jumlah proses yang dijalankan penjadwal secara paralel untuk mengurai. DAGs Kami menyarankan agar angka ini tetap rendah jika penguraian DAG memengaruhi penjadwalan tugas. Anda **harus** menentukan nilai yang kurang dari jumlah vCPU di lingkungan Anda. Untuk mempelajari lebih lanjut, lihat [Batas](#best-practices-tuning-scheduler-limits).  | 

------

### Batas
<a name="best-practices-tuning-scheduler-limits"></a>

Bagian ini menjelaskan batasan yang perlu dipertimbangkan saat menyesuaikan parameter default untuk penjadwal.<a name="scheduler-considerations"></a>

**scheduler.parsing\$1processes, scheduler.max\$1threads (hanya v2)**  
Dua utas diperbolehkan per vCPU untuk kelas lingkungan. Setidaknya satu thread harus disediakan untuk scheduler untuk kelas lingkungan. Jika Anda melihat keterlambatan dalam tugas yang dijadwalkan, Anda mungkin perlu meningkatkan [kelas lingkungan](environment-class.md) Anda. Misalnya, lingkungan yang besar memiliki instance kontainer Fargate 4 vCPU untuk penjadwalnya. Ini berarti bahwa maksimum `7` total utas tersedia untuk digunakan untuk proses lain. Artinya, dua utas dikalikan empat vCPUs, minus satu untuk penjadwal itu sendiri. Nilai yang Anda tentukan di `scheduler.max_threads` (hanya v2) dan tidak `scheduler.parsing_processes` boleh melebihi jumlah utas yang tersedia untuk kelas lingkungan, seperti yang tercantum:  
+ **mw1.small** — Tidak boleh melebihi `1` thread untuk proses lainnya. Utas yang tersisa dicadangkan untuk penjadwal.
+ **mw1.medium** — Tidak boleh melebihi `3` thread untuk proses lainnya. Utas yang tersisa dicadangkan untuk penjadwal.
+ **mw1.large** - Tidak boleh melebihi `7` utas untuk proses lainnya. Utas yang tersisa dicadangkan untuk penjadwal.

## Folder DAG
<a name="best-practices-tuning-dag-folders"></a>

Penjadwal Apache Airflow terus DAGs memindai folder di lingkungan Anda. `plugins.zip`File apa pun yang berisi, atau file Python (`.py`) yang berisi pernyataan impor “aliran udara”. Setiap objek Python DAG yang dihasilkan kemudian ditempatkan ke dalam file yang akan diproses oleh penjadwal untuk menentukan apa, jika ada, tugas yang perlu dijadwalkan. *DagBag* Penguraian file Dag terjadi terlepas dari apakah file berisi objek DAG yang layak.

### Parameter
<a name="best-practices-tuning-dag-folders-params"></a>

Bagian ini menjelaskan opsi konfigurasi yang tersedia untuk DAGs folder (Apache Airflow v2 dan yang lebih baru) dan kasus penggunaannya.

------
#### [ Apache Airflow v3 ]


| Konfigurasi | Kasus penggunaan | 
| --- | --- | 
|  **[dag\$1processor.refresh\$1interval](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#config-dag-processor-refresh-interval)** Jumlah detik DAGs folder harus dipindai untuk file baru. **Default:** 300 detik  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** jumlah detik untuk mengurai DAGs folder. Kami merekomendasikan untuk meningkatkan nilai ini jika Anda mengalami waktu penguraian yang lama`total_parse_time metrics`, yang mungkin disebabkan oleh sejumlah besar file di DAGs folder Anda.  | 
|  **[dag\$1processor.min\$1file\$1process\$1interval](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#min-file-process-interval)** Jumlah detik setelah penjadwal mem-parsing DAG dan pembaruan ke DAG tercermin. **Default:** 30 detik  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** jumlah detik yang menunggu penjadwal sebelum menguraikan DAG. Misalnya, jika Anda menentukan nilai`30`, file DAG diurai setelah setiap 30 detik. Kami menyarankan agar angka ini tetap tinggi untuk mengurangi penggunaan CPU di lingkungan Anda.  | 

------
#### [ Apache Airflow v2 ]


| Konfigurasi | Kasus penggunaan | 
| --- | --- | 
|  **[scheduler.dag\$1dir\$1list\$1interval](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#dag-dir-list-interval)** Jumlah detik DAGs folder harus dipindai untuk file baru. **Default:** 300 detik  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** jumlah detik untuk mengurai DAGs folder. Kami merekomendasikan untuk meningkatkan nilai ini jika Anda mengalami waktu penguraian yang lama`total_parse_time metrics`, yang mungkin disebabkan oleh sejumlah besar file di DAGs folder Anda.  | 
|  **[scheduler.min\$1file\$1process\$1interval](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#min-file-process-interval)** Jumlah detik setelah penjadwal mem-parsing DAG dan pembaruan ke DAG tercermin. **Default:** 30 detik  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** jumlah detik yang menunggu penjadwal sebelum menguraikan DAG. Misalnya, jika Anda menentukan nilai`30`, file DAG diurai setelah setiap 30 detik. Kami menyarankan agar angka ini tetap tinggi untuk mengurangi penggunaan CPU di lingkungan Anda.  | 

------

## File DAG
<a name="best-practices-tuning-dag-files"></a>

Sebagai bagian dari loop scheduler Apache Airflow, file DAG individual diurai untuk mengekstrak objek DAG Python. Di Apache Airflow v2 dan yang lebih baru, scheduler mem-parsing maksimum jumlah proses [parsing secara](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#parsing-processes) bersamaan. Jumlah detik yang ditentukan dalam `scheduler.min_file_process_interval` (v2) atau `dag_processor.min_file_process_interval` (v3) harus lewat sebelum file yang sama diurai lagi.

### Parameter
<a name="best-practices-tuning-dag-files-params"></a>

Bagian ini menjelaskan opsi konfigurasi yang tersedia untuk file Apache Airflow DAG (Apache Airflow v2 dan yang lebih baru) dan kasus penggunaannya.

------
#### [ Apache Airflow v3 ]


| Konfigurasi | Kasus penggunaan | 
| --- | --- | 
|  **[dag\$1processor.dag\$1file\$1processor\$1timeout](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#dag-file-processor-timeout)** Jumlah detik sebelum *DagFileProcessor*waktu habis memproses file DAG. **Default:** 50 detik  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** waktu yang dibutuhkan sebelum *DagFileProcessor*waktu habis. Kami merekomendasikan untuk meningkatkan nilai ini jika Anda mengalami batas waktu di log pemrosesan DAG Anda yang menghasilkan tidak ada pemuatan yang DAGs layak.  | 
|  **[core.dagbag\$1import\$1timeout](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#dagbag-import-timeout)** Jumlah detik sebelum mengimpor file Python habis waktu. **Default:** 30 detik  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** waktu yang diperlukan sebelum waktu penjadwal habis saat mengimpor file Python untuk mengekstrak objek DAG. Opsi ini diproses sebagai bagian dari penjadwal “loop,” dan harus berisi nilai kurang dari nilai yang ditentukan dalam`dag_processor.dag_file_processor_timeout`.  | 
|  **[core.min\$1serialized\$1dag\$1update\$1interval](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#min-serialized-dag-update-interval)** Jumlah minimum detik setelah serial DAGs dalam database diperbarui. **Default:** 30  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** jumlah detik setelah serial DAGs dalam database diperbarui. Kami merekomendasikan untuk meningkatkan nilai ini jika Anda memiliki sejumlah besar DAGs, atau kompleks DAGs. Meningkatkan nilai ini mengurangi beban pada penjadwal dan database seperti yang DAGs diserialkan.   | 
|  **[core.min\$1serialized\$1dag\$1fetch\$1interval](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#min-serialized-dag-fetch-interval)** Jumlah detik DAG serial diambil kembali dari database saat sudah dimuat di file. DagBag **Default**: 10  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** jumlah detik DAG serial diambil kembali. Nilai harus lebih besar dari nilai yang ditentukan `core.min_serialized_dag_update_interval` untuk mengurangi tingkat “tulis” database. Meningkatkan nilai ini mengurangi beban pada server web dan database seperti yang DAGs diserialkan.  | 

------
#### [ Apache Airflow v2 ]


| Konfigurasi | Kasus penggunaan | 
| --- | --- | 
|  **[core.dag\$1file\$1processor\$1timeout](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#dag-file-processor-timeout)** Jumlah detik sebelum *DagFileProcessor*waktu habis memproses file DAG. **Default:** 50 detik  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** waktu yang dibutuhkan sebelum *DagFileProcessor*waktu habis. Kami merekomendasikan untuk meningkatkan nilai ini jika Anda mengalami batas waktu di log pemrosesan DAG Anda yang menghasilkan tidak ada pemuatan yang DAGs layak.  | 
|  **[core.dagbag\$1import\$1timeout](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#dagbag-import-timeout)** Jumlah detik sebelum mengimpor file Python habis waktu. **Default:** 30 detik  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** waktu yang diperlukan sebelum waktu penjadwal habis saat mengimpor file Python untuk mengekstrak objek DAG. Opsi ini diproses sebagai bagian dari penjadwal “loop,” dan harus berisi nilai kurang dari nilai yang ditentukan dalam`core.dag_file_processor_timeout`.  | 
|  **[core.min\$1serialized\$1dag\$1update\$1interval](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#min-serialized-dag-update-interval)** Jumlah minimum detik setelah serial DAGs dalam database diperbarui. **Default:** 30  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** jumlah detik setelah serial DAGs dalam database diperbarui. Kami merekomendasikan untuk meningkatkan nilai ini jika Anda memiliki sejumlah besar DAGs, atau kompleks DAGs. Meningkatkan nilai ini mengurangi beban pada penjadwal dan database seperti yang DAGs diserialkan.   | 
|  **[core.min\$1serialized\$1dag\$1fetch\$1interval](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#min-serialized-dag-fetch-interval)** Jumlah detik DAG serial diambil kembali dari database saat sudah dimuat di file. DagBag **Default**: 10  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** jumlah detik DAG serial diambil kembali. Nilai harus lebih besar dari nilai yang ditentukan `core.min_serialized_dag_update_interval` untuk mengurangi tingkat “tulis” database. Meningkatkan nilai ini mengurangi beban pada server web dan database seperti yang DAGs diserialkan.  | 

------

## Tugas
<a name="best-practices-tuning-tasks"></a>

Penjadwal Apache Airflow dan pekerja keduanya terlibat dalam tugas antrian dan de-antrian. Penjadwal mengambil tugas yang diuraikan yang siap dijadwalkan dari status **Tidak Ada** ke status **Terjadwal**. **Pelaksana, juga berjalan pada wadah penjadwal di Fargate, mengantri tugas-tugas tersebut dan menetapkan statusnya ke Antrian.** Ketika pekerja memiliki kapasitas, ia mengambil tugas dari antrian dan menetapkan status ke **Running**, yang kemudian mengubah statusnya menjadi **Sukses** atau **Gagal berdasarkan apakah tugas berhasil atau gagal**.

### Parameter
<a name="best-practices-tuning-tasks-params"></a>

Bagian ini menjelaskan opsi konfigurasi yang tersedia untuk tugas Apache Airflow dan kasus penggunaannya.

Opsi konfigurasi default yang diganti Amazon MWAA ditandai. *red*

------
#### [ Apache Airflow v3 ]


| Konfigurasi | Kasus penggunaan | 
| --- | --- | 
|  **[inti.paralelisme](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#parallelism)** Jumlah maksimum instance tugas yang dapat memiliki `Running` status. **Default:** Dinamis diatur berdasarkan`(maxWorkers * maxCeleryWorkers) / schedulers * 1.5`.  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** jumlah instance tugas yang dapat dijalankan secara bersamaan. Nilai yang ditentukan harus berupa jumlah pekerja yang tersedia dikalikan dengan kepadatan tugas pekerja. Kami merekomendasikan untuk mengubah nilai ini hanya ketika Anda mengalami sejumlah besar tugas yang terjebak dalam status “Berlari” atau “Antrian”.  | 
|  **[core.execute\$1tasks\$1new\$1python\$1penerjemah](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#execute-tasks-new-python-interpreter)** Menentukan apakah Apache Airflow menjalankan tugas dengan melakukan fork pada proses induk, atau dengan membuat proses Python baru. **Default**: `True`  |  Ketika diatur ke`True`, Apache Airflow mengenali perubahan yang Anda buat pada plugin Anda sebagai proses Python baru sehingga dibuat untuk menjalankan tugas.  | 
|  **[celery.worker\$1concurrency](https://airflow.apache.org/docs/apache-airflow-providers-celery/stable/configurations-ref.html#worker-concurrency)** Amazon MWAA mengesampingkan instalasi basis Airflow untuk opsi ini untuk menskalakan pekerja sebagai bagian dari komponen penskalaan otomatisnya. **Default:** Tidak berlaku  |  *Any value specified for this option is ignored.*  | 
|  **[seledry.worker\$1autoscale](https://airflow.apache.org/docs/apache-airflow-providers-celery/stable/configurations-ref.html#worker-autoscale)** Konkurensi tugas untuk pekerja. **Default:** [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/mwaa/latest/userguide/best-practices-tuning.html)  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **mengurangi**`maximum`, konkurensi `minimum` tugas pekerja. Pekerja menerima hingga tugas `maximum` bersamaan yang dikonfigurasi, terlepas dari apakah ada sumber daya yang cukup untuk melakukannya. Jika tugas dijadwalkan tanpa sumber daya yang memadai, tugas segera gagal. Kami merekomendasikan mengubah nilai ini untuk tugas intensif sumber daya dengan mengurangi nilai menjadi kurang dari default untuk memungkinkan lebih banyak kapasitas per tugas.  | 

------
#### [ Apache Airflow v2 ]


| Konfigurasi | Kasus penggunaan | 
| --- | --- | 
|  **[inti.paralelisme](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#parallelism)** Jumlah maksimum instance tugas yang dapat memiliki `Running` status. **Default:** Dinamis diatur berdasarkan`(maxWorkers * maxCeleryWorkers) / schedulers * 1.5`.  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** jumlah instance tugas yang dapat dijalankan secara bersamaan. Nilai yang ditentukan harus berupa jumlah pekerja yang tersedia dikalikan dengan kepadatan tugas pekerja. Kami merekomendasikan untuk mengubah nilai ini hanya ketika Anda mengalami sejumlah besar tugas yang terjebak dalam status “Berlari” atau “Antrian”.  | 
|  **[core.dag\$1concurrency](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#dag-concurrency)** Jumlah instance tugas yang diizinkan untuk dijalankan secara bersamaan untuk setiap DAG. **Default:** 10000  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **meningkatkan** jumlah instance tugas yang diizinkan untuk dijalankan secara bersamaan. Misalnya, jika Anda memiliki seratus DAGs dengan sepuluh tugas paralel, dan Anda DAGs ingin semuanya berjalan secara bersamaan, Anda dapat menghitung paralelisme maksimum sebagai jumlah pekerja yang tersedia dikalikan dengan kepadatan tugas pekerja`celery.worker_concurrency`, dibagi dengan jumlah. DAGs  | 
|  **[core.execute\$1tasks\$1new\$1python\$1penerjemah](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#execute-tasks-new-python-interpreter)** Menentukan apakah Apache Airflow menjalankan tugas dengan melakukan fork pada proses induk, atau dengan membuat proses Python baru. **Default**: `True`  |  Ketika diatur ke`True`, Apache Airflow mengenali perubahan yang Anda buat pada plugin Anda sebagai proses Python baru sehingga dibuat untuk menjalankan tugas.  | 
|  **[celery.worker\$1concurrency](https://airflow.apache.org/docs/apache-airflow-providers-celery/stable/configurations-ref.html#worker-concurrency)** Amazon MWAA mengesampingkan instalasi basis Airflow untuk opsi ini untuk menskalakan pekerja sebagai bagian dari komponen penskalaan otomatisnya. **Default:** Tidak berlaku  |  *Any value specified for this option is ignored.*  | 
|  **[seledry.worker\$1autoscale](https://airflow.apache.org/docs/apache-airflow-providers-celery/stable/configurations-ref.html#worker-autoscale)** Konkurensi tugas untuk pekerja. **Default:** [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/mwaa/latest/userguide/best-practices-tuning.html)  |  Anda dapat menggunakan opsi ini untuk membebaskan sumber daya dengan **mengurangi**`maximum`, konkurensi `minimum` tugas pekerja. Pekerja menerima hingga tugas `maximum` bersamaan yang dikonfigurasi, terlepas dari apakah ada sumber daya yang cukup untuk melakukannya. Jika tugas dijadwalkan tanpa sumber daya yang memadai, tugas segera gagal. Kami merekomendasikan mengubah nilai ini untuk tugas intensif sumber daya dengan mengurangi nilai menjadi kurang dari default untuk memungkinkan lebih banyak kapasitas per tugas.  | 

------