

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Optimisation des performances pour Apache Airflow sur Amazon MWAA
<a name="best-practices-tuning"></a>

Cette rubrique décrit comment optimiser les performances d'un environnement Amazon Managed Workflows pour Apache Airflow à l'aide de. [Utilisation des options de configuration d'Apache Airflow sur Amazon MWAA](configuring-env-variables.md)

**Contents**
+ [

## Ajout d'une option de configuration d'Apache Airflow
](#best-practices-tuning-console-add)
+ [

## Planificateur Apache Airflow
](#best-practices-tuning-scheduler)
  + [

### Parameters
](#best-practices-tuning-scheduler-params)
  + [

### Restrictions
](#best-practices-tuning-scheduler-limits)
+ [

## Dossiers DAG
](#best-practices-tuning-dag-folders)
  + [

### Parameters
](#best-practices-tuning-dag-folders-params)
+ [

## fichiers DAG
](#best-practices-tuning-dag-files)
  + [

### Parameters
](#best-practices-tuning-dag-files-params)
+ [

## Tâches
](#best-practices-tuning-tasks)
  + [

### Parameters
](#best-practices-tuning-tasks-params)

## Ajout d'une option de configuration d'Apache Airflow
<a name="best-practices-tuning-console-add"></a>

Utilisez la procédure suivante pour ajouter une option de configuration Airflow à votre environnement.

1. Ouvrez la page [Environnements](https://console.aws.amazon.com/mwaa/home#/environments) sur la console Amazon MWAA.

1. Choisissez un environnement.

1. Choisissez **Modifier**.

1. Choisissez **Suivant**.

1. Choisissez **Ajouter une configuration personnalisée** dans le volet des **options de configuration d'Airflow**.

1. Choisissez une configuration dans la liste déroulante et entrez une valeur, ou entrez une configuration personnalisée et entrez une valeur.

1. Choisissez **Ajouter une configuration personnalisée** pour chaque configuration que vous souhaitez ajouter.

1. Choisissez **Enregistrer**.

Pour en savoir plus, reportez-vous à[Utilisation des options de configuration d'Apache Airflow sur Amazon MWAA](configuring-env-variables.md).

## Planificateur Apache Airflow
<a name="best-practices-tuning-scheduler"></a>

Le planificateur Apache Airflow est un composant essentiel d'Apache Airflow. Un problème avec le planificateur peut DAGs empêcher l'analyse et la planification des tâches. Pour plus d'informations sur le réglage du planificateur Apache Airflow, reportez-vous à la section Optimisation des [performances de votre planificateur sur le site Web de documentation](https://airflow.apache.org/docs/apache-airflow/2.2.2/concepts/scheduler.html#fine-tuning-your-scheduler-performance) d'Apache Airflow.

### Parameters
<a name="best-practices-tuning-scheduler-params"></a>

Cette section décrit les options de configuration disponibles pour le planificateur Apache Airflow (Apache Airflow v2 et versions ultérieures) et leurs cas d'utilisation.

------
#### [ Apache Airflow v3 ]


| Configuration | Cas d’utilisation | 
| --- | --- | 
|  **[celery.sync\$1parallelism](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#parallelism)** Nombre de processus utilisés par Celery Executor pour synchroniser l'état des tâches. **Par défaut** : 1  |  Vous pouvez utiliser cette option pour éviter les conflits de files d'attente en limitant les processus utilisés par Celery Executor. Par défaut, une valeur est définie sur pour `1` éviter les erreurs lors de la transmission des journaux des tâches à CloudWatch Logs. Si la valeur est définie sur`0`, vous devez utiliser le nombre maximum de processus, mais cela peut entraîner des erreurs lors de la remise des journaux de tâches.  | 
|  **[scheduler.scheduler\$1idle\$1sleep\$1time](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#scheduler-idle-sleep-time)** Le nombre de secondes à attendre entre deux traitements consécutifs de fichiers DAG dans la « boucle » du planificateur.  **Par défaut** : 1  |  *Vous pouvez utiliser cette option pour libérer l'utilisation du processeur sur le planificateur en **augmentant** le temps de veille du planificateur une fois qu'il a fini de récupérer les résultats de l'analyse DAG, de rechercher et de mettre en file d'attente des tâches et d'exécuter les tâches en file d'attente dans l'exécuteur.* L'augmentation de cette valeur consomme le nombre de threads du planificateur exécutés sur un environnement dans Apache Airflow `dag_processor.parsing_processes` v2 et Apache Airflow v3. Cela peut réduire la capacité d'analyse DAGs des planificateurs et augmenter le temps nécessaire DAGs au remplissage sur le serveur Web.  | 
|  **[scheduler.max\$1dagruns\$1to\$1create\$1per\$1loop](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#max-dagruns-to-create-per-loop)** Le nombre maximum de « boucles » DAGs à créer *DagRuns*pour chaque « boucle » du planificateur. **Par défaut** : 10  |  Vous pouvez utiliser cette option pour libérer des ressources pour planifier des tâches en **diminuant** le nombre maximum de « boucles » *DagRuns*pour la « boucle » du planificateur.  | 
|  **[dag\$1processor.parsing\$1processes](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#parsing-processes)** Le nombre de threads que le planificateur peut exécuter en parallèle pour planifier. DAGs **Par défaut :** Utiliser `(2 * number of vCPUs) - 1`  |  Vous pouvez utiliser cette option pour libérer des ressources en **diminuant** le nombre de processus que le planificateur exécute en parallèle pour analyser. DAGs Nous recommandons de maintenir ce nombre à un faible niveau si l'analyse DAG a un impact sur la planification des tâches. Vous **devez** spécifier une valeur inférieure au nombre de vCPU de votre environnement. Pour en savoir plus, reportez-vous à la section [Limites](#best-practices-tuning-scheduler-limits).  | 

------
#### [ Apache Airflow v2 ]


| Configuration | Cas d’utilisation | 
| --- | --- | 
|  **[celery.sync\$1parallelism](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#parallelism)** Nombre de processus utilisés par Celery Executor pour synchroniser l'état des tâches. **Par défaut** : 1  |  Vous pouvez utiliser cette option pour éviter les conflits de files d'attente en limitant les processus utilisés par Celery Executor. Par défaut, une valeur est définie sur pour `1` éviter les erreurs lors de la transmission des journaux des tâches à CloudWatch Logs. Si la valeur est définie sur`0`, vous devez utiliser le nombre maximum de processus, mais cela peut entraîner des erreurs lors de la remise des journaux de tâches.  | 
|  **[scheduler.idle\$1sleep\$1time](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#scheduler-idle-sleep-time)** Le nombre de secondes à attendre entre deux traitements consécutifs de fichiers DAG dans la « boucle » du planificateur.  **Par défaut** : 1  |  *Vous pouvez utiliser cette option pour libérer l'utilisation du processeur sur le planificateur en **augmentant** le temps de veille du planificateur une fois qu'il a fini de récupérer les résultats de l'analyse DAG, de rechercher et de mettre en file d'attente des tâches et d'exécuter les tâches en file d'attente dans l'exécuteur.* L'augmentation de cette valeur consomme le nombre de threads du planificateur exécutés sur un environnement dans Apache Airflow `scheduler.parsing_processes` v2 et Apache Airflow v3. Cela peut réduire la capacité d'analyse DAGs des planificateurs et augmenter le temps nécessaire DAGs au remplissage sur le serveur Web.  | 
|  **[scheduler.max\$1dagruns\$1to\$1create\$1per\$1loop](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#max-dagruns-to-create-per-loop)** Le nombre maximum de « boucles » DAGs à créer *DagRuns*pour chaque « boucle » du planificateur. **Par défaut** : 10  |  Vous pouvez utiliser cette option pour libérer des ressources pour planifier des tâches en **diminuant** le nombre maximum de « boucles » *DagRuns*pour la « boucle » du planificateur.  | 
|  **[scheduler.parsing\$1processes](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#parsing-processes)** Le nombre de threads que le planificateur peut exécuter en parallèle pour planifier. DAGs **Par défaut :** Utiliser `(2 * number of vCPUs) - 1`  |  Vous pouvez utiliser cette option pour libérer des ressources en **diminuant** le nombre de processus que le planificateur exécute en parallèle pour analyser. DAGs Nous recommandons de maintenir ce nombre à un faible niveau si l'analyse DAG a un impact sur la planification des tâches. Vous **devez** spécifier une valeur inférieure au nombre de vCPU de votre environnement. Pour en savoir plus, reportez-vous à la section [Limites](#best-practices-tuning-scheduler-limits).  | 

------

### Restrictions
<a name="best-practices-tuning-scheduler-limits"></a>

Cette section décrit les limites à prendre en compte lors de l'ajustement des paramètres par défaut du planificateur.<a name="scheduler-considerations"></a>

**scheduler.parsing\$1processes, scheduler.max\$1threads (version 2 uniquement)**  
Deux threads sont autorisés par vCPU pour une classe d'environnement. Au moins un thread doit être réservé au planificateur d'une classe d'environnement. Si vous remarquez un retard dans la planification des tâches, vous devrez peut-être augmenter votre [classe d'environnement](environment-class.md). Par exemple, un environnement de grande taille possède une instance de conteneur Fargate à 4 vCPU pour son planificateur. Cela signifie qu'un maximum de `7` threads peuvent être utilisés pour d'autres processus. C'est-à-dire deux threads multipliés par quatre vCPUs, moins un pour le planificateur lui-même. La valeur que vous spécifiez dans `scheduler.max_threads` (v2 uniquement) ne `scheduler.parsing_processes` doit pas dépasser le nombre de threads disponibles pour une classe d'environnement, comme indiqué :  
+ **mw1.small** — Ne doit pas dépasser le nombre de `1` threads pour les autres processus. Le thread restant est réservé au planificateur.
+ **mw1.medium** — Ne doit pas dépasser le nombre de `3` threads pour les autres processus. Le thread restant est réservé au planificateur.
+ **mw1.large** — Ne doit pas dépasser le nombre de `7` threads pour les autres processus. Le thread restant est réservé au planificateur.

## Dossiers DAG
<a name="best-practices-tuning-dag-folders"></a>

Le planificateur Apache Airflow analyse en permanence le DAGs dossier de votre environnement. Tous `plugins.zip` les fichiers contenus ou les fichiers Python (`.py`) contenant des instructions d'importation « airflow ». Tous les objets DAG Python qui en résultent sont ensuite placés dans un fichier *DagBag*pour ce fichier afin d'être traités par le planificateur afin de déterminer quelles tâches, le cas échéant, doivent être planifiées. L'analyse des fichiers DAG a lieu indépendamment du fait que les fichiers contiennent ou non des objets DAG viables.

### Parameters
<a name="best-practices-tuning-dag-folders-params"></a>

Cette section décrit les options de configuration disponibles pour le DAGs dossier (Apache Airflow v2 et versions ultérieures) et leurs cas d'utilisation.

------
#### [ Apache Airflow v3 ]


| Configuration | Cas d’utilisation | 
| --- | --- | 
|  **[dag\$1processor.refresh\$1interval](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#config-dag-processor-refresh-interval)** Le nombre de secondes pendant lesquelles le DAGs dossier doit être scanné à la recherche de nouveaux fichiers. **Par défaut :** 300 secondes  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le nombre de secondes nécessaires à l'analyse du DAGs dossier. Nous vous recommandons d'augmenter cette valeur si les temps d'analyse sont longs`total_parse_time metrics`, ce qui peut être dû au grand nombre de fichiers dans votre DAGs dossier.  | 
|  **[dag\$1processor.min\$1file\$1process\$1interval](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#min-file-process-interval)** Le nombre de secondes après lequel le planificateur analyse un DAG et les mises à jour du DAG sont reflétées. **Par défaut :** 30 secondes  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le nombre de secondes pendant lesquelles le planificateur attend avant d'analyser un DAG. Par exemple, si vous spécifiez une valeur de`30`, le fichier DAG est analysé toutes les 30 secondes. Nous vous recommandons de maintenir ce chiffre à un niveau élevé afin de réduire l'utilisation du processeur dans votre environnement.  | 

------
#### [ Apache Airflow v2 ]


| Configuration | Cas d’utilisation | 
| --- | --- | 
|  **[scheduler.dag\$1dir\$1list\$1interval](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#dag-dir-list-interval)** Le nombre de secondes pendant lesquelles le DAGs dossier doit être scanné à la recherche de nouveaux fichiers. **Par défaut :** 300 secondes  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le nombre de secondes nécessaires à l'analyse du DAGs dossier. Nous vous recommandons d'augmenter cette valeur si les temps d'analyse sont longs`total_parse_time metrics`, ce qui peut être dû au grand nombre de fichiers dans votre DAGs dossier.  | 
|  **[scheduler.min\$1file\$1process\$1interval](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#min-file-process-interval)** Le nombre de secondes après lequel le planificateur analyse un DAG et les mises à jour du DAG sont reflétées. **Par défaut :** 30 secondes  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le nombre de secondes pendant lesquelles le planificateur attend avant d'analyser un DAG. Par exemple, si vous spécifiez une valeur de`30`, le fichier DAG est analysé toutes les 30 secondes. Nous vous recommandons de maintenir ce chiffre à un niveau élevé afin de réduire l'utilisation du processeur dans votre environnement.  | 

------

## fichiers DAG
<a name="best-practices-tuning-dag-files"></a>

Dans le cadre de la boucle du planificateur Apache Airflow, les fichiers DAG individuels sont analysés pour extraire les objets Python du DAG. Dans Apache Airflow v2 et versions ultérieures, le planificateur analyse un nombre maximum de processus d'[analyse simultanément](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#parsing-processes). Le nombre de secondes spécifié dans `scheduler.min_file_process_interval` (v2) ou `dag_processor.min_file_process_interval` (v3) doit s'écouler avant que le même fichier ne soit à nouveau analysé.

### Parameters
<a name="best-practices-tuning-dag-files-params"></a>

Cette section décrit les options de configuration disponibles pour les fichiers DAG Apache Airflow (Apache Airflow v2 et versions ultérieures) et leurs cas d'utilisation.

------
#### [ Apache Airflow v3 ]


| Configuration | Cas d’utilisation | 
| --- | --- | 
|  **[dag\$1processor.dag\$1file\$1processor\$1timeout](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#dag-file-processor-timeout)** Nombre de secondes avant l'expiration du délai *DagFileProcessor*de traitement d'un fichier DAG. **Par défaut :** 50 secondes  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le temps nécessaire avant l'expiration des *DagFileProcessor*délais. Nous vous recommandons d'augmenter cette valeur si vous rencontrez des délais d'attente dans les journaux de traitement de votre DAG qui empêchent le chargement de fichiers viables DAGs .  | 
|  **[core.dagbag\$1import\$1timeout](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#dagbag-import-timeout)** Expiration du délai en secondes avant l'importation d'un fichier Python. **Par défaut :** 30 secondes  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le délai d'expiration du planificateur lors de l'importation d'un fichier Python pour extraire les objets DAG. Cette option est traitée dans le cadre de la « boucle » du planificateur et doit contenir une valeur inférieure à celle spécifiée dans. `dag_processor.dag_file_processor_timeout`  | 
|  **[core.min\$1serialized\$1dag\$1update\$1interval](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#min-serialized-dag-update-interval)** Nombre minimal de secondes après lequel les données sérialisées DAGs dans la base de données sont mises à jour. **Par défaut :** 30  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le nombre de secondes après lesquelles les numéros de série de la base de DAGs données sont mis à jour. Nous vous recommandons d'augmenter cette valeur si vous en avez un grand nombre ou si vous DAGs en avez un complexe DAGs. L'augmentation de cette valeur réduit la charge sur le planificateur et la base de données lors de la DAGs sérialisation.   | 
|  **[core.min\$1serialized\$1dag\$1fetch\$1interval](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#min-serialized-dag-fetch-interval)** Le nombre de secondes pendant lesquelles un DAG sérialisé est extrait à nouveau de la base de données alors qu'il est déjà chargé dans le. DagBag **Par défaut** : 10  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le nombre de secondes pendant lesquelles un DAG sérialisé est à nouveau extrait. La valeur doit être supérieure à la valeur spécifiée dans `core.min_serialized_dag_update_interval` pour réduire les taux d' « écriture » de la base de données. L'augmentation de cette valeur réduit la charge sur le serveur Web et la base de données lors de la DAGs sérialisation.  | 

------
#### [ Apache Airflow v2 ]


| Configuration | Cas d’utilisation | 
| --- | --- | 
|  **[core.dag\$1file\$1processor\$1timeout](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#dag-file-processor-timeout)** Nombre de secondes avant l'expiration du délai *DagFileProcessor*de traitement d'un fichier DAG. **Par défaut :** 50 secondes  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le temps nécessaire avant l'expiration des *DagFileProcessor*délais. Nous vous recommandons d'augmenter cette valeur si vous rencontrez des délais d'attente dans les journaux de traitement de votre DAG qui empêchent le chargement de fichiers viables DAGs .  | 
|  **[core.dagbag\$1import\$1timeout](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#dagbag-import-timeout)** Expiration du délai en secondes avant l'importation d'un fichier Python. **Par défaut :** 30 secondes  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le délai d'expiration du planificateur lors de l'importation d'un fichier Python pour extraire les objets DAG. Cette option est traitée dans le cadre de la « boucle » du planificateur et doit contenir une valeur inférieure à celle spécifiée dans. `core.dag_file_processor_timeout`  | 
|  **[core.min\$1serialized\$1dag\$1update\$1interval](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#min-serialized-dag-update-interval)** Nombre minimal de secondes après lequel les données sérialisées DAGs dans la base de données sont mises à jour. **Par défaut :** 30  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le nombre de secondes après lesquelles les numéros de série de la base de DAGs données sont mis à jour. Nous vous recommandons d'augmenter cette valeur si vous en avez un grand nombre ou si vous DAGs en avez un complexe DAGs. L'augmentation de cette valeur réduit la charge sur le planificateur et la base de données lors de la DAGs sérialisation.   | 
|  **[core.min\$1serialized\$1dag\$1fetch\$1interval](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#min-serialized-dag-fetch-interval)** Le nombre de secondes pendant lesquelles un DAG sérialisé est extrait à nouveau de la base de données alors qu'il est déjà chargé dans le. DagBag **Par défaut** : 10  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le nombre de secondes pendant lesquelles un DAG sérialisé est à nouveau extrait. La valeur doit être supérieure à la valeur spécifiée dans `core.min_serialized_dag_update_interval` pour réduire les taux d' « écriture » de la base de données. L'augmentation de cette valeur réduit la charge sur le serveur Web et la base de données lors de la DAGs sérialisation.  | 

------

## Tâches
<a name="best-practices-tuning-tasks"></a>

Le planificateur et les outils de travail d'Apache Airflow sont tous deux impliqués dans les tâches de mise en file d'attente et de suppression des files d'attente. **Le planificateur fait passer les tâches analysées prêtes à être planifiées du statut **Aucune** au statut Planifié.** **L'exécuteur, qui s'exécute également sur le conteneur du planificateur de Fargate, met ces tâches en file d'attente et définit leur statut sur Queued.** Lorsque les travailleurs ont de la capacité, ils retirent la tâche de la file d'attente et lui attribuent le statut En **cours d'exécution**, ce qui change ensuite son statut en **Succès ou **Échec** en fonction de la réussite** ou de l'échec de la tâche.

### Parameters
<a name="best-practices-tuning-tasks-params"></a>

Cette section décrit les options de configuration disponibles pour les tâches Apache Airflow et leurs cas d'utilisation.

Les options de configuration par défaut qu'Amazon MWAA remplace sont indiquées. *red*

------
#### [ Apache Airflow v3 ]


| Configuration | Cas d’utilisation | 
| --- | --- | 
|  **[core.parallélisme](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#parallelism)** Nombre maximal d'instances de tâches pouvant avoir un `Running` statut. **Par défaut :** défini dynamiquement en fonction de`(maxWorkers * maxCeleryWorkers) / schedulers * 1.5`.  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le nombre d'instances de tâches pouvant être exécutées simultanément. La valeur spécifiée doit être le nombre de travailleurs disponibles multiplié par la densité des tâches des travailleurs. Nous vous recommandons de modifier cette valeur uniquement lorsque vous rencontrez un grand nombre de tâches bloquées dans l'état « En cours » ou « En file d'attente ».  | 
|  **[core.execute\$1tasks\$1new\$1python\$1interpreter](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#execute-tasks-new-python-interpreter)** Détermine si Apache Airflow exécute des tâches en bifurquant le processus parent ou en créant un nouveau processus Python. **Par défaut** : `True`  |  Lorsqu'il est défini sur`True`, Apache Airflow reconnaît les modifications que vous apportez à vos plugins en tant que nouveau processus Python créé pour exécuter des tâches.  | 
|  **[celery.worker\$1concurrency](https://airflow.apache.org/docs/apache-airflow-providers-celery/stable/configurations-ref.html#worker-concurrency)** Amazon MWAA remplace l'installation de base d'Airflow pour cette option afin de dimensionner les travailleurs dans le cadre de son composant de dimensionnement automatique. **Par défaut :** Non applicable  |  *Any value specified for this option is ignored.*  | 
|  **[celery.worker\$1autoscale](https://airflow.apache.org/docs/apache-airflow-providers-celery/stable/configurations-ref.html#worker-autoscale)** La simultanéité des tâches pour les travailleurs. **Défauts :** [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/mwaa/latest/userguide/best-practices-tuning.html)  |  Vous pouvez utiliser cette option pour libérer des ressources en **réduisant** la `maximum` simultanéité des `minimum` tâches entre les travailleurs. Les travailleurs acceptent jusqu'à la `maximum` limite des tâches simultanées configurées, que les ressources soient suffisantes ou non pour le faire. Si les tâches sont planifiées sans ressources suffisantes, elles échouent immédiatement. Nous recommandons de modifier cette valeur pour les tâches gourmandes en ressources en réduisant les valeurs à des valeurs inférieures aux valeurs par défaut afin d'augmenter la capacité par tâche.  | 

------
#### [ Apache Airflow v2 ]


| Configuration | Cas d’utilisation | 
| --- | --- | 
|  **[core.parallélisme](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#parallelism)** Nombre maximal d'instances de tâches pouvant avoir un `Running` statut. **Par défaut :** défini dynamiquement en fonction de`(maxWorkers * maxCeleryWorkers) / schedulers * 1.5`.  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le nombre d'instances de tâches pouvant être exécutées simultanément. La valeur spécifiée doit être le nombre de travailleurs disponibles multiplié par la densité des tâches des travailleurs. Nous vous recommandons de modifier cette valeur uniquement lorsque vous rencontrez un grand nombre de tâches bloquées dans l'état « En cours » ou « En file d'attente ».  | 
|  **[core.dag\$1concurrency](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#dag-concurrency)** Le nombre d'instances de tâches autorisées à s'exécuter simultanément pour chaque DAG. **Par défaut :** 10000  |  Vous pouvez utiliser cette option pour libérer des ressources en **augmentant** le nombre d'instances de tâches autorisées à s'exécuter simultanément. Par exemple, si vous avez cent tâches DAGs avec dix tâches parallèles et que vous souhaitez que toutes DAGs s'exécutent simultanément, vous pouvez calculer le parallélisme maximal en multipliant le nombre de travailleurs disponibles par la densité de tâches des travailleurs en`celery.worker_concurrency`, divisé par le nombre de. DAGs  | 
|  **[core.execute\$1tasks\$1new\$1python\$1interpreter](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#execute-tasks-new-python-interpreter)** Détermine si Apache Airflow exécute des tâches en bifurquant le processus parent ou en créant un nouveau processus Python. **Par défaut** : `True`  |  Lorsqu'il est défini sur`True`, Apache Airflow reconnaît les modifications que vous apportez à vos plugins en tant que nouveau processus Python créé pour exécuter des tâches.  | 
|  **[celery.worker\$1concurrency](https://airflow.apache.org/docs/apache-airflow-providers-celery/stable/configurations-ref.html#worker-concurrency)** Amazon MWAA remplace l'installation de base d'Airflow pour cette option afin de dimensionner les travailleurs dans le cadre de son composant de dimensionnement automatique. **Par défaut :** Non applicable  |  *Any value specified for this option is ignored.*  | 
|  **[celery.worker\$1autoscale](https://airflow.apache.org/docs/apache-airflow-providers-celery/stable/configurations-ref.html#worker-autoscale)** La simultanéité des tâches pour les travailleurs. **Défauts :** [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/mwaa/latest/userguide/best-practices-tuning.html)  |  Vous pouvez utiliser cette option pour libérer des ressources en **réduisant** la `maximum` simultanéité des `minimum` tâches entre les travailleurs. Les travailleurs acceptent jusqu'à la `maximum` limite des tâches simultanées configurées, que les ressources soient suffisantes ou non pour le faire. Si les tâches sont planifiées sans ressources suffisantes, elles échouent immédiatement. Nous recommandons de modifier cette valeur pour les tâches gourmandes en ressources en réduisant les valeurs à des valeurs inférieures aux valeurs par défaut afin d'augmenter la capacité par tâche.  | 

------