

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Versions Amazon EMR 6.x
<a name="emr-release-6x"></a>

Cette section contient les versions des applications, les notes de mise à jour, les versions des composants et les classifications de configuration disponibles dans chaque version 6.x d'Amazon EMR.

Lorsque vous lancez un cluster, vous pouvez choisir parmi plusieurs versions d'Amazon EMR. Vous pouvez ainsi tester et utiliser des versions d'applications qui répondent à vos exigences de compatibilité. Vous spécifiez le numéro de version avec l’*étiquette de version*. Les étiquettes de version sont sous la forme `emr-x.x.x`. Par exemple, `emr-7.12.0`.

Les nouvelles versions d'Amazon EMR sont mises à disposition dans différentes régions sur une période de plusieurs jours, en commençant par la première région à la date de sortie initiale. Il est possible que la dernière version ne soit pas disponible dans votre région pendant cette période.

Pour un tableau complet des versions des applications dans chaque version 6.x d'Amazon EMR, consultez [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md).

**Topics**
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Amazon EMR version 6.15.0](emr-6150-release.md)
+ [Amazon EMR version 6.14.0](emr-6140-release.md)
+ [Amazon EMR version 6.13.0](emr-6130-release.md)
+ [Amazon EMR version 6.12.0](emr-6120-release.md)
+ [Amazon EMR version 6.11.1](emr-6111-release.md)
+ [Amazon EMR version 6.11.0](emr-6110-release.md)
+ [Amazon EMR version 6.10.1](emr-6101-release.md)
+ [Amazon EMR version 6.10.0](emr-6100-release.md)
+ [Amazon EMR version 6.9.1](emr-691-release.md)
+ [Amazon EMR version 6.9.0](emr-690-release.md)
+ [Amazon EMR version 6.8.1](emr-681-release.md)
+ [Amazon EMR version 6.8.0](emr-680-release.md)
+ [Amazon EMR version 6.7.0](emr-670-release.md)
+ [Amazon EMR version 6.6.0](emr-660-release.md)
+ [Amazon EMR version 6.5.0](emr-650-release.md)
+ [Amazon EMR version 6.4.0](emr-640-release.md)
+ [Amazon EMR version 6.3.1](emr-631-release.md)
+ [Amazon EMR version 6.3.0](emr-630-release.md)
+ [Amazon EMR version 6.2.1](emr-621-release.md)
+ [Amazon EMR version 6.2.0](emr-620-release.md)
+ [Amazon EMR version 6.1.1](emr-611-release.md)
+ [Amazon EMR version 6.1.0](emr-610-release.md)
+ [Amazon EMR version 6.0.1](emr-601-release.md)
+ [Amazon EMR version 6.0.0](emr-600-release.md)

# Versions des applications dans les versions 6.x d'Amazon EMR
<a name="emr-release-app-versions-6.x"></a>

Le tableau suivant répertorie les versions des applications disponibles dans chaque version 6.x d'Amazon EMR.


**Informations sur la version de l'application**  

|  | emr-6.15.0 | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2.20.160-amzn-0, 1.12.569 | 1,12,543 | 1,12,513 | 1,12,490 | 1,12,446 | 1,12,446 | 1,12,397 | 1,12,397 | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,31 | 1,12,31 | 1,1,977 | 1,1,977 | 1,1880 | 1,1880 | 1,1,828 | 1,1,828 | 1,1,711 | 1,1,711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Flink | 1.17.1-amzn-1 | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 1.16.0 | 1.16.0 | 1.16.0 | 1.16.0 | 1.15.2 | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 | 1.14.2 | 1.14.0 | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-3 | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.3.6-amzn-1 | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.14.0-amzn-0 | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg | 1.4.0-amzn-0 | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.283-amzn-0 | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.10.0 | 2.10.0 | 2.9.1 | 2.9.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.10.2-amzn-6 | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 426-amzn-0 | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 360 | 359 | 350 | 350 | 343 | 343 | 338 | 338 |  -  |  -  | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.7 | 3.5.7 | 3.5.7 | 3.5.7 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

# Amazon EMR version 6.15.0
<a name="emr-6150-release"></a>

## Versions d’application 6.15.0
<a name="emr-6150-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.15.0 | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 2.20.160-amzn-0, 1.12.569 | 1,12,543 | 1,12,513 | 1,12,490 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Flink | 1.17.1-amzn-1 | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-3 | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 
| HCatalog | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 
| Hadoop | 3.3.6-amzn-1 | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 
| Hive | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 
| Hudi | 0.14.0-amzn-0 | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.4.0-amzn-0 | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.283-amzn-0 | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 
| Spark | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-6 | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 
| Trino (PrestoSQL) | 426-amzn-0 | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.15.0
<a name="emr-6150-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.15.0. Les modifications ont été apportées à la version 6.14.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.15.0](#6150-changelog).

**Nouvelles fonctionnalités**
+ **Mises à niveau des applications** –Amazon EMR 6.15.0 application upgrades include Apache Hadoop 3.3.6, Apache Hudi 0.14.0-amzn-0, Iceberg 1.4.0-amzn-0, and Trino 426..
+ **[Lancement plus rapide pour les clusters EMR qui s’exécutent sur EC2](https://aws.amazon.com/about-aws/whats-new/2023/11/amazon-emr-ec2-clusters-5-minutes-less/)** – Le lancement d’un cluster Amazon EMR sur EC2 est désormais jusqu’à 35 % plus rapide. Grâce à cette amélioration, la plupart des clients peuvent lancer leurs clusters en moins de 5 minutes.
+ **[CodeWhisperer pour EMR Studio](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-studio-codewhisperer.html)** — Vous pouvez désormais utiliser Amazon avec CodeWhisperer Amazon EMR Studio pour obtenir des recommandations en temps réel lorsque vous écrivez du code. JupyterLab CodeWhisperer peut compléter vos commentaires, terminer des lignes de code individuelles, faire line-by-line des recommandations et générer des fonctions entièrement formées.
+ **[Redémarrage accéléré des tâches avec Flink](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/flink-restart.html)** – Avec Amazon EMR 6.15.0 et versions ultérieures, plusieurs nouveaux mécanismes sont disponibles pour Apache Flink afin d’améliorer le temps de redémarrage des tâches lors des opérations de récupération ou de mise à l’échelle des tâches. Cela permet d’optimiser la vitesse de récupération et de redémarrage des graphes d’exécution afin d’améliorer la stabilité des tâches.
+ **[Contrôle d'accès détaillé et au niveau des tables pour les formats de tables ouvertes : avec Amazon EMR 6.15.0 et versions ultérieures, lorsque vous exécutez des tâches Spark sur Amazon EMR sur des clusters EC2 qui accèdent aux données du catalogue de données AWS Glue, vous pouvez AWS Lake Formation appliquer des autorisations au niveau des tables, des lignes, des colonnes et des cellules aux tables basées](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lf-enable.html)** sur Hudi, Iceberg ou Delta Lake.
+ **Mise à niveau de Hadoop** – Amazon EMR 6.15.0 inclut une mise à niveau d’Apache Hadoop vers la version 3.3.6. Hadoop 3.3.6 était la dernière version au moment du déploiement d’Amazon EMR 6.15, publiée par Apache en juin 2023. Les versions précédentes d’Amazon EMR (6.9.0 à 6.14.x) utilisaient Hadoop 3.3.3.

  La mise à niveau inclut des centaines d’améliorations et de correctifs, ainsi que des fonctionnalités telles que des paramètres de nœud de données reconfigurables, l’option `DFSAdmin` qui permet de lancer des opérations de reconfiguration en bloc sur tous les nœuds de données actifs et une API vectorielle qui permet aux lecteurs à forte densité de recherche de spécifier plusieurs plages à lire. Hadoop 3.3.6 ajoute également la prise en charge du HDFS APIs et de la sémantique à son journal d'écriture anticipée (WAL), afin qu' HBase il puisse fonctionner sur d'autres implémentations de systèmes de stockage. *Pour plus d’informations, consultez les journaux des modifications pour les versions [3.3.4](https://hadoop.apache.org/docs/r3.3.4/hadoop-project-dist/hadoop-common/release/3.3.4/CHANGELOG.3.3.4.html), [3.3.5](https://hadoop.apache.org/docs/r3.3.5/hadoop-project-dist/hadoop-common/release/3.3.5/CHANGELOG.3.3.5.html) et [3.3.6](https://hadoop.apache.org/docs/r3.3.6/hadoop-project-dist/hadoop-common/release/3.3.6/CHANGELOG.3.3.6.html) dans la documentation Apache Hadoop*.
+ **Support du AWS SDK pour Java, version** [2 - Les applications Amazon EMR 6.15.0 peuvent utiliser les [versions 1.12.569 ou 2.20.160 du SDK pour AWS Java si l'application prend en charge la version v2](https://github.com/aws/aws-sdk-java/tree/1.12.569).](https://github.com/aws/aws-sdk-java-v2/tree/2.20.160) Le AWS SDK pour Java 2.x est une réécriture majeure de la base de code de la version 1.x. Il repose sur Java 8\$1 et ajoute plusieurs fonctionnalités fréquemment demandées. Cela inclut la prise en charge d’E/S non bloquantes et la possibilité de brancher une implémentation HTTP différente au moment de l’exécution. Pour plus d’informations, notamment un **Guide de migration du kit SDK pour la version 1 de Java version la version 2**, voir le guide du [Kit AWS SDK pour Java, version 2](https://docs.aws.amazon.com/sdk-for-java).

**Problèmes connus**
+ Un script d'état d'instance sur le cluster qui surveille l'état de santé de l'instance peut consommer des ressources de processeur et de mémoire excessives lorsqu'un grand nombre de threads sont and/or ouverts, de descripteurs de fichiers sur le nœud.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ Pour améliorer vos clusters EMR haute disponibilité, cette version assure la connectivité aux démons Amazon EMR sur un hôte local utilisant des points de terminaison IPv6.
+ Cette version permet au protocole TLS 1.2 de communiquer avec les nœuds ZooKeeper provisionnés sur tous les nœuds principaux de votre cluster à haute disponibilité.
+ Cette version améliore la gestion des fichiers journaux de ZooKeeper transactions conservés sur les nœuds principaux afin de minimiser les scénarios dans lesquels les fichiers journaux dépassent les limites et interrompent les opérations du cluster.
+ Cette version accentue la résilience de la communication intra-nœud pour les clusters EMR haute disponibilité. Cette amélioration réduit le risque d’échec des actions d’amorçage ou de démarrage du cluster.
+ Tez dans Amazon EMR 6.15.0 introduit des configurations que vous pouvez spécifier pour ouvrir de manière asynchrone les divisions d’entrée dans une division groupée Tez. Cela permet d’accélérer les performances des requêtes de lecture lorsqu’il existe un grand nombre de divisions d’entrée dans une seule division groupée Tez. Pour plus d’informations, consultez la rubrique [Ouverture fractionnée asynchrone Tez](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/tez-configure.html#tez-configure-async).
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6150-release.html)

## Versions Java par défaut 6.15.0
<a name="emr-6150-jdk"></a>

La version 6.12.0 et les versions ultérieures d’Amazon EMR prennent en charge toutes les applications dotées d’Amazon Corretto 8 par défaut, à l’exception de Trino. Pour Trino, Amazon EMR prend en charge Amazon Corretto 17 par défaut à partir de la version 6.9.0 d'Amazon EMR. Amazon EMR prend également en charge certaines applications avec Amazon Corretto 11 et 17. Ces applications sont répertoriées dans le tableau suivant. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.

Bien qu'Amazon EMR prenne en charge Amazon Corretto 11 et 17 sur Apache Spark, Apache Hadoop et Apache Hive, les performances peuvent régresser pour certaines charges de travail lorsque vous utilisez ces versions de Corretto. Nous vous recommandons de tester vos charges de travail avant de modifier les valeurs par défaut.

Le tableau suivant présente les versions de Java par défaut pour les applications dans Amazon EMR 6.15.0 :


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versions des composants 6.15.0
<a name="emr-6150-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.4.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| delta-standalone-connectors | 0.6.0 | Les connecteurs Delta fournissent différents environnements d'exécution pour intégrer Delta Lake avec des moteurs tels que Flink, Hive et Presto. | 
| emr-ddb | 5.2.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.8.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.12.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.29.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.8.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.2.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,60,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.17.1-amzn-1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.17.1-amzn-1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.6-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.6-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.6-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.6-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.6-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.6-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.6-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.17-amzn-3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.17-amzn-3 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.17-amzn-3 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.17-amzn-3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.17-amzn-3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.17-amzn-3 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-8 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-8 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-8 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-8 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-8 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-8 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-8 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.14.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.14.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.14.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.14.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.4.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.3 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.3 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.283-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.283-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.283-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 426-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 426-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 426-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.4.1-amzn-2 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.4.1-amzn-2 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.4.1-amzn-2 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.4.1-amzn-2 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.08.1-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-6 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-6 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.15.0
<a name="emr-6150-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.15.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.15.0
<a name="6150-changelog"></a>


**Journal des modifications pour la version 6.15.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 2025-09-03 | Révision des documents | Les notes de mise à jour d'Amazon EMR 6.15.0 ont ajouté un problème connu | 
| 17/11/2023 | Publication de documents | Notes de mise à jour d’Amazon EMR 6.15.0 publiées pour la première fois | 
| 17/11/2023 | Déploiement terminé | [Amazon EMR 6.15.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 13/11/2023 | Première version | Amazon EMR 6.15.0 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.14.0
<a name="emr-6140-release"></a>

## Versions d’application 6.14.0
<a name="emr-6140-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,543 | 1,12,513 | 1,12,490 | 1,12,446 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.2.0 | 
| Flink | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 
| HCatalog | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 
| Hadoop | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 
| Hive | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 
| Hudi | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 
| Spark | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 
| Trino (PrestoSQL) | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.14.0
<a name="emr-6140-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.14.0. Les modifications ont été apportées à la version 6.13.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.14.0](#6140-changelog).

**Nouvelles fonctionnalités**
+ Amazon EMR 6.14.0 supports Apache Spark 3.4.1, Apache Spark RAPIDS 23.06.0-amzn-2, Flink 1.17.1, Iceberg 1.3.1, and Trino 422.
+ La [mise à l'échelle gérée par Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) est désormais disponible dans la région `ap-southeast-3` Asie-Pacifique (Jakarta) pour les clusters que vous créez avec Amazon EMR 6.14.0 ou version ultérieure.

**Problèmes connus**
+ Un script d'état d'instance sur le cluster qui surveille l'état de santé de l'instance peut consommer des ressources de processeur et de mémoire excessives lorsqu'un grand nombre de threads sont and/or ouverts, de descripteurs de fichiers sur le nœud.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ La version 6.14.0 optimise la gestion des journaux avec Amazon EMR exécuté sur Amazon EC2. C'est pourquoi vous constaterez peut-être une légère réduction des coûts de stockage pour les journaux de votre cluster.
+ La version 6.14.0 améliore le flux de travail de mise à l'échelle afin de prendre en compte les différentes instances principales dont la taille varie considérablement pour leurs volumes Amazon EBS. Cette amélioration s'applique uniquement aux nœuds principaux ; les opérations de réduction des nœuds de tâches ne sont pas affectées.
+ La version 6.14.0 améliore la façon dont Amazon EMR interagit avec les applications open source telles que Apache Hadoop YARN ResourceManager and HDFS NameNode. Cette amélioration réduit le risque de retards opérationnels liés à la mise à l'échelle du cluster et atténue les échecs de démarrage dus à des problèmes de connectivité avec les applications open source.
+ La version 6.14.0 optimise l'installation des applications au lancement du cluster. Cela améliore les temps de démarrage du cluster pour certaines combinaisons d'applications Amazon EMR.
+ La version 6.14.0 corrige un problème où les opérations de réduction de cluster pouvaient se bloquer lorsqu'un cluster exécuté dans un VPC avec un domaine personnalisé rencontrait un redémarrage de nœud principal ou de nœud de tâche.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6140-release.html)

## Versions Java par défaut 6.14.0
<a name="emr-6140-jdk"></a>

La version 6.12.0 et les versions ultérieures d’Amazon EMR prennent en charge toutes les applications dotées d’Amazon Corretto 8 par défaut, à l’exception de Trino. Pour Trino, Amazon EMR prend en charge Amazon Corretto 17 par défaut à partir de la version 6.9.0 d'Amazon EMR. Amazon EMR prend également en charge certaines applications avec Amazon Corretto 11 et 17. Ces applications sont répertoriées dans le tableau suivant. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.

Bien qu'Amazon EMR prenne en charge Amazon Corretto 11 et 17 sur Apache Spark, Apache Hadoop et Apache Hive, les performances peuvent régresser pour certaines charges de travail lorsque vous utilisez ces versions de Corretto. Nous vous recommandons de tester vos charges de travail avant de modifier les valeurs par défaut.

Le tableau suivant présente les versions de Java par défaut pour les applications dans Amazon EMR 6.14.0 :


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versions des composants 6.14.0
<a name="emr-6140-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.4.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| delta-standalone-connectors | 0.6.0 | Les connecteurs Delta fournissent différents environnements d'exécution pour intégrer Delta Lake avec des moteurs tels que Flink, Hive et Presto. | 
| emr-ddb | 5.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.7.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.11.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.28.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.7.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.1.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,59,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.17.1-amzn-0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.17.1-amzn-0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-6 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-6 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-6 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-6 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-6 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-6 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-6 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-6 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-6 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-6 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-6 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.17-amzn-2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.17-amzn-2 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.17-amzn-2 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.17-amzn-2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.17-amzn-2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.17-amzn-2 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-7 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-7 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-7 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-7 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-7 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-7 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-7 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.13.1-amzn-2 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.13.1-amzn-2 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.13.1-amzn-2 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.13.1-amzn-2 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.3.1-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.3 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.3 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.281-amzn-2 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.281-amzn-2 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.281-amzn-2 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 422-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 422-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 422-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.4.1-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.4.1-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.4.1-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.4.1-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.06.0-amzn-2 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-5 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-5 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.14.0
<a name="emr-6140-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.14.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.14.0
<a name="6140-changelog"></a>


**Journal des modifications pour la version 6.14.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 2025-09-03 | Révision des documents | Les notes de mise à jour d'Amazon EMR 6.14.0 ont ajouté un problème connu | 
| *02/11/2023* | Déploiement terminé | [Amazon EMR 6.14.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 10/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.14.0 publiées pour la première fois | 
| 04/10/2023 | Première version | Amazon EMR 6.14.0 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.13.0
<a name="emr-6130-release"></a>

## Versions d’application 6.13.0
<a name="emr-6130-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,513 | 1,12,490 | 1,12,446 | 1,12,446 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.17.0 | 1.17.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 
| HCatalog | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 
| Hadoop | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 
| Hive | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 
| Hudi | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 
| Spark | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 
| Trino (PrestoSQL) | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.13.0
<a name="emr-6130-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.13.0. Les modifications ont été apportées à la version 6.12.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.13.0](#6130-changelog).

**Nouvelles fonctionnalités**
+ Amazon EMR 6.13.0 supports Apache Spark 3.4.1, Apache Spark RAPIDS 23.06.0-amzn-1, CUDA Toolkit 11.8.0, and JupyterHub 1.5.0.

**Problèmes connus**
+ Un script d'état d'instance sur le cluster qui surveille l'état de santé de l'instance peut consommer des ressources de processeur et de mémoire excessives lorsqu'un grand nombre de threads sont and/or ouverts, de descripteurs de fichiers sur le nœud.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ La version 6.13.0 améliore le démon de gestion des journaux Amazon EMR afin de garantir que tous les journaux sont chargés à une cadence régulière sur Amazon S3 lorsqu'une commande de résiliation de cluster est émise. Cela permet de résilier plus rapidement les clusters.
+ La version 6.13.0 améliore les capacités de gestion des journaux Amazon EMR afin de garantir un chargement cohérent et en temps voulu de tous les fichiers journaux sur Amazon S3. Cela est particulièrement avantageux pour les clusters EMR de longue durée.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6130-release.html)

## Versions Java par défaut 6.13.0
<a name="emr-6130-jdk"></a>

La version 6.12.0 et les versions ultérieures d’Amazon EMR prennent en charge toutes les applications dotées d’Amazon Corretto 8 par défaut, à l’exception de Trino. Pour Trino, Amazon EMR prend en charge Amazon Corretto 17 par défaut à partir de la version 6.9.0 d'Amazon EMR. Amazon EMR prend également en charge certaines applications avec Amazon Corretto 11 et 17. Ces applications sont répertoriées dans le tableau suivant. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.

Bien qu'Amazon EMR prenne en charge Amazon Corretto 11 et 17 sur Apache Spark, Apache Hadoop et Apache Hive, les performances peuvent régresser pour certaines charges de travail lorsque vous utilisez ces versions de Corretto. Nous vous recommandons de tester vos charges de travail avant de modifier les valeurs par défaut.

Le tableau suivant présente les versions de Java par défaut pour les applications dans Amazon EMR 6.13.0 :


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versions des composants 6.13.0
<a name="emr-6130-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.4.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| delta-standalone-connectors | 0.6.0 | Les connecteurs Delta fournissent différents environnements d'exécution pour intégrer Delta Lake avec des moteurs tels que Flink, Hive et Presto. | 
| emr-ddb | 5.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.6.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.10.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.27.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.6.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.1.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,58,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.17.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.17.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-5 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-5 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-5 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-5 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-5 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-5 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-5 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-5 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-5 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-5 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-5 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.17-amzn-1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.17-amzn-1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.17-amzn-1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.17-amzn-1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.17-amzn-1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.17-amzn-1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-6 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-6 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-6 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-6 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-6 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-6 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-6 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.13.1-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.13.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.13.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.13.1-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.3.0-amzn-1 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.3 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.3 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.281-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.281-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.281-amzn-1 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 414-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 414-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 414-amzn-1 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.4.1-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.4.1-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.4.1-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.4.1-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.06.0-amzn-1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-4 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-4 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.13.0
<a name="emr-6130-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.13.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.13.0
<a name="6130-changelog"></a>


**Journal des modifications pour la version 6.13.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 2025-09-03 | Révision des documents | Les notes de mise à jour d'Amazon EMR 6.13.0 ont ajouté un problème connu | 
| *23/09/2023* | Déploiement terminé | [Amazon EMR 6.13.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 12/09/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.13.0 publiées pour la première fois | 
| 01/09/2023 | Première version | Amazon EMR 6.13.0 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.12.0
<a name="emr-6120-release"></a>

## Versions d’application 6.12.0
<a name="emr-6120-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,490 | 1,12,446 | 1,12,446 | 1,12,397 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.17.0 | 1.16.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 
| Hadoop | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 
| Hive | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 
| Hudi | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.10.0 | 
| Iceberg | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.5.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 
| Spark | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 
| Trino (PrestoSQL) | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.12.0
<a name="emr-6120-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.12.0. Les modifications ont été apportées à la version 6.11.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.12.0](#6120-changelog).

**Nouvelles fonctionnalités**
+ Amazon EMR 6.12.0 supports Apache Spark 3.4.0, Apache Spark RAPIDS 23.06.0-amzn-0, CUDA 11.8.0, Apache Hudi 0.13.1-amzn-0, Apache Iceberg 1.3.0-amzn-0, Trino 414, and PrestoDB 0.281.
+ Les versions 6.12.0 et supérieures d'Amazon EMR prennent en charge l'intégration LDAP avec Apache Livy, Apache Hive via HiveServer 2 (HS2), Trino, Presto et Hue. Vous pouvez également installer Apache Spark et Apache Hadoop sur un cluster EMR utilisant la version 6.12.0 ou supérieure et les configurer pour utiliser LDAP. Pour plus d'informations, consultez [Utilisation de serveurs Active Directory ou LDAP pour l'authentification avec Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/ldap.html).

**Problèmes connus**
+ Un script d'état d'instance sur le cluster qui surveille l'état de santé de l'instance peut consommer des ressources de processeur et de mémoire excessives lorsqu'un grand nombre de threads sont and/or ouverts, de descripteurs de fichiers sur le nœud.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ Les versions 6.12.0 et supérieures d'Amazon EMR fournissent la prise en charge de l'exécution Java 11 pour Flink. Pour de plus amples informations, veuillez consulter [Configurer Flink pour qu'il fonctionne avec Java 11](flink-configure.md#flink-configure-java11).
+ La version 6.12.0 ajoute un nouveau mécanisme de nouvelle tentative au flux de travail de dimensionnement des clusters pour les clusters EMR qui exécutent Presto ou Trino. Cette amélioration réduit le risque que le redimensionnement du cluster soit bloqué indéfiniment en raison de l'échec d'une seule opération de redimensionnement. Cela améliore également l'utilisation du cluster, car celui-ci augmente et diminue la capacité plus rapidement.
+ La version 6.12.0 corrige un problème à cause duquel les opérations de réduction de la taille du cluster peuvent se bloquer lorsqu'un nœud principal en cours de mise hors service appropriée tombe en panne pour une raison quelconque avant d'être complètement mis hors service.
+ La version 6.12.0 améliore la logique de réduction de la taille des clusters afin que votre cluster ne tente pas une réduction d'échelle des nœuds principaux en dessous du paramètre de facteur de réplication HDFS défini pour le cluster. Cela répond à vos exigences en matière de redondance des données et réduit le risque de blocage d'une opération de dimensionnement.
+ La version 6.12.0 améliore les performances et l'efficacité du service de surveillance de l'état d'Amazon EMR en augmentant la vitesse à laquelle il enregistre les changements d'état des instances. Cette amélioration réduit le risque de dégradation des performances des nœuds de cluster qui exécutent plusieurs outils clients personnalisés ou des applications tierces.
+ La version 6.12.0 améliore les performances du démon de gestion des journaux sur le cluster pour Amazon EMR. Par conséquent, les risques de dégradation des performances sont moindres avec les clusters EMR qui exécutent des étapes avec une simultanéité élevée.
+ Avec la version 6.12.0 d'Amazon EMR, le démon de gestion des journaux a été mis à niveau pour identifier tous les journaux en cours d'utilisation avec des descripteurs de fichiers ouverts sur le stockage d'instance local, ainsi que les processus associés. Cette mise à niveau garantit qu'Amazon EMR supprime correctement les fichiers et récupère de l'espace de stockage une fois les journaux archivés dans Amazon S3.
+ La version 6.12.0 inclut une amélioration du démon de gestion des journaux qui supprime les répertoires d'étapes vides et inutilisés dans le système de fichiers du cluster local. Un trop grand nombre de répertoires vides peut dégrader les performances des démons Amazon EMR et entraîner une surutilisation du disque.
+ La version 6.12.0 permet la rotation des journaux pour les journaux YARN Timeline Server. Cela permet de minimiser les scénarios de surutilisation des disques, en particulier pour les clusters de longue durée.
+ La taille du volume racine par défaut est passée à 15 Go dans Amazon EMR 6.10.0 et versions ultérieures. Les versions antérieures ont une taille de volume racine par défaut de 10 Go.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6120-release.html)

## Versions Java par défaut 6.12.0
<a name="emr-6120-jdk"></a>

La version 6.12.0 et les versions ultérieures d’Amazon EMR prennent en charge toutes les applications dotées d’Amazon Corretto 8 par défaut, à l’exception de Trino. Pour Trino, Amazon EMR prend en charge Amazon Corretto 17 par défaut à partir de la version 6.9.0 d'Amazon EMR. Amazon EMR prend également en charge certaines applications avec Amazon Corretto 11 et 17. Ces applications sont répertoriées dans le tableau suivant. Si vous voulez modifier la JVM par défaut sur votre cluster, suivez les instructions fournies dans [Configuration des applications pour l'utilisation d'une machine virtuelle Java spécifique](configuring-java8.md) pour chaque application exécutée sur le cluster. Vous ne pouvez utiliser qu'une seule version d'exécution de Java pour un cluster. Amazon EMR ne prend pas en charge l'exécution de différents nœuds ou applications sur différentes versions d'exécution sur le même cluster.

Bien qu'Amazon EMR prenne en charge Amazon Corretto 11 et 17 sur Apache Spark, Apache Hadoop et Apache Hive, les performances peuvent régresser pour certaines charges de travail lorsque vous utilisez ces versions de Corretto. Nous vous recommandons de tester vos charges de travail avant de modifier les valeurs par défaut.

Le tableau suivant présente les versions de Java par défaut pour les applications dans Amazon EMR 6.12.0 :


| Application | Version Java/Amazon Corretto (la valeur par défaut est en gras) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## Versions des composants 6.12.0
<a name="emr-6120-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.4.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| delta-standalone-connectors | 0.6.0 | Les connecteurs Delta fournissent différents environnements d'exécution pour intégrer Delta Lake avec des moteurs tels que Flink, Hive et Presto. | 
| emr-ddb | 5.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.5.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.9.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.26.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.5.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.1.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,57,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.17.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.17.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.17-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.17-amzn-0 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.17-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.17-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.17-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.17-amzn-0 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-5 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-5 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-5 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-5 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-5 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-5 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-5 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.13.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.13.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.13.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.13.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.3.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.7.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.3 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.3 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.281-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.281-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.281-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 414-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 414-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 414-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.4.0-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.4.0-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.4.0-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.4.0-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.06.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-3 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-3 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.12.0
<a name="emr-6120-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.12.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Modification de la page d'accueil Java KMS d'Hadoop | Not available. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.12.0
<a name="6120-changelog"></a>


**Journal des modifications pour la version 6.12.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 2025-09-03 | Révision des documents | Les notes de mise à jour d'Amazon EMR 6.12.0 ont ajouté un problème connu | 
| 27/07/2023 | Documentation mise à jour | Mise à jour des options Java pour la version 6.12 et ajout du tutoriel Oozie pour la mise à jour de la JVM | 
| 21/07/2023 | Déploiement terminé | [Amazon EMR 6.12.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 21/07/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.12.0 publiées pour la première fois | 
| 12/07/2023 | Première version | Amazon EMR 6.12.0 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.11.1
<a name="emr-6111-release"></a>

## Versions d’application 6.11.1
<a name="emr-6111-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,446 | 1,12,446 | 1,12,397 | 1,12,397 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 
| HCatalog | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 
| Hadoop | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 
| Hive | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 
| Hudi | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.5.0 | 1.5.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 
| Spark | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 
| Trino (PrestoSQL) | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.11.1
<a name="emr-6111-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.11.1. Les modifications ont été apportées à la version 6.11.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.11.1](#6111-changelog).

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ En raison d'un conflit de verrouillage, un nœud peut se retrouver bloqué s'il est ajouté ou supprimé en même temps qu'il est mis hors service. Par conséquent, le gestionnaire de ressources Hadoop (YARN) ne répond plus et affecte tous les conteneurs entrants et en cours d'exécution.
+ Cette version inclut une modification qui permet aux clusters à haute disponibilité de se remettre d'un état défaillant après le redémarrage.
+ Cette version inclut des correctifs de sécurité pour Hue et HBase.
+ Cette version résout un problème selon lequel les clusters exécutant des charges de travail sur Spark avec Amazon EMR peuvent recevoir silencieusement des résultats incorrects avec `contains`, `startsWith`, `endsWith` et `like`. Ce problème se produit lorsque vous utilisez les expressions sur des champs partitionnés contenant des métadonnées dans Amazon EMR Hive3 Metastore Server (HMS).
+ Cette version corrige un problème de limitation du côté de Glue en l'absence de fonctions définies par l'utilisateur (UDF).
+ Cette version corrige un problème qui supprime les journaux des conteneurs par le service d'agrégation des journaux des nœuds avant que le transmetteur de journaux ne puisse les envoyer vers S3 en cas de mise hors service de YARN.
+ Cette version corrige un problème lié aux métriques du FairShare planificateur lorsque Node Label est activé pour Hadoop.
+ Cette version corrige un problème qui affectait les performances de Spark lorsque vous définissez une valeur `true` par défaut pour la configuration `spark.yarn.heterogeneousExecutors.enabled` dans `spark-defaults.conf`.
+ Cette version corrige un problème lié à l'échec de la lecture des données de shuffle par Reduce Task. Ce problème provoquait des échecs de requêtes Hive avec une erreur de mémoire corrompue.
+ Cette version ajoute un nouveau mécanisme de nouvelle tentative au flux de travail de dimensionnement des clusters pour les clusters EMR qui exécutent Presto ou Trino. Cette amélioration réduit le risque que le redimensionnement du cluster soit bloqué indéfiniment en raison de l'échec d'une seule opération de redimensionnement. Cela améliore également l'utilisation du cluster, car celui-ci augmente et diminue la capacité plus rapidement.
+ Cette version améliore la logique de réduction de la taille des clusters afin que votre cluster ne tente pas une réduction d'échelle des nœuds principaux en dessous du paramètre de facteur de réplication HDFS défini pour le cluster. Cela répond à vos exigences en matière de redondance des données et réduit le risque de blocage d'une opération de dimensionnement.
+ Le démon de gestion des journaux a été mis à niveau pour identifier tous les journaux en cours d'utilisation avec des descripteurs de fichiers ouverts sur le stockage d'instance local, ainsi que les processus associés. Cette mise à niveau garantit qu'Amazon EMR supprime correctement les fichiers et récupère de l'espace de stockage une fois les journaux archivés dans Amazon S3.
+ Cette version inclut une amélioration du démon de gestion des journaux qui supprime les répertoires d'étapes vides et inutilisés dans le système de fichiers du cluster local. Un trop grand nombre de répertoires vides peut dégrader les performances des démons Amazon EMR et entraîner une surutilisation du disque.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6111-release.html)

## Versions des composants 6.11.1
<a name="emr-6111-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.2.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| delta-standalone-connectors | 0.6.0 | Les connecteurs Delta fournissent différents environnements d'exécution pour intégrer Delta Lake avec des moteurs tels que Flink, Hive et Presto. | 
| emr-ddb | 5.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.8.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.25.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.4.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.1.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,56,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.16.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-3.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-3.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-3.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-3.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-3.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-3.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-3.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-3.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-3.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-3.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-3.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.15-amzn-1.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.15-amzn-1.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.15-amzn-1.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.15-amzn-1.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.15-amzn-1.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.15-amzn-1.1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-4.1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-4.1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-4.1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-4.1 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-4.1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-4.1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-4.1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.13.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.13.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.13.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.13.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.2.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.2 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.279-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.279-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.279-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 410-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 410-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 410-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.2-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.2-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.2-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.2-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.02.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-2.1 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-2.1 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.11.1
<a name="emr-6111-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.11.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.11.1
<a name="6111-changelog"></a>


**Journal des modifications pour la version 6.11.1 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 30/08/2023 | Mise à jour des notes de mise à jour | Ajout de plusieurs corrections liées au plan de contrôle dans les notes de mise à jour | 
| 21/08/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.11.1 publiées pour la première fois | 
| 16/08/2023 | Déploiement terminé | [Amazon EMR 6.11.1 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 04/08/2023 | Première version | Amazon EMR 6.11.1 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.11.0
<a name="emr-6110-release"></a>

## Versions d’application 6.11.0
<a name="emr-6110-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,446 | 1,12,397 | 1,12,397 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.16.0 | 1.15.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 
| Hadoop | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 
| Hive | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 
| Hudi | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 
| Hue | 4.11.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.5.0 | 1.5.0 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 
| Spark | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.10.0 | 
| Tez | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 
| Trino (PrestoSQL) | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.11.0
<a name="emr-6110-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.11.0. Les modifications ont été apportées à la version 6.10.0. Pour plus d'informations sur le calendrier de publication, consultez le [journal des modifications](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-6110-release.html#6110-changelog).

**Nouvelles fonctionnalités**
+ Amazon EMR 6.11.0 prend en charge Apache Spark 3.3.2-amzn-0, Apache Spark RAPIDS 23.02.0-amzn-0, CUDA 11.8.0, Apache Hudi 0.13.0-amzn-0, Apache Iceberg 1.2.0-amzn-0, Trino 410-amzn-0 et PrestoDB 0.279-amzn-0.

**Modifications, améliorations et problèmes résolus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 
+ Avec Amazon EMR 6.11.0, le connecteur DynamoDB a été mis à niveau vers la version 5.0.0. La version 5.0.0 utilise AWS SDK for Java 2.x. Les versions précédentes utilisaient la version AWS SDK pour Java 1.x. À la suite de cette mise à niveau, nous vous conseillons vivement de tester votre code avant d'utiliser le connecteur DynamoDB avec Amazon EMR 6.11.
+ Lorsque le connecteur DynamoDB pour Amazon EMR 6.11.0 appelle le service DynamoDB, il utilise la valeur de région que vous fournissez pour la propriété `dynamodb.endpoint`. Nous vous recommandons de configurer également `dynamodb.region` lorsque vous utilisez `dynamodb.endpoint`, et que les deux propriétés ciblent la même Région AWS. Si vous l'utilisez `dynamodb.endpoint` et que vous ne le configurez pas`dynamodb.region`, le connecteur DynamoDB pour Amazon EMR 6.11.0 renverra une exception de région non valide et tentera de réconcilier vos informations à Région AWS partir du service de métadonnées d'instance Amazon EC2 (IMDS). Si le connecteur ne parvient pas à récupérer la région depuis IMDS, la valeur par défaut est USA Est (Virginie du Nord) (`us-east-1`). L'erreur suivante illustre l'exception de région non valide que vous pourriez obtenir si vous ne configurez pas correctement la `dynamodb.region` propriété : `error software.amazon.awssdk.services.dynamodb.model.DynamoDbException: Credential should be scoped to a valid region.` pour plus d'informations sur les classes concernées par la AWS SDK pour Java mise à niveau vers la version 2.x, consultez le commit [Upgrade AWS SDK pour Java from 1.x to 2.x (\$1175)](https://github.com/awslabs/emr-dynamodb-connector/commit/1dec9d1972d3673c3fae6c6ea51f19f295147ccf) dans le GitHub dépôt du connecteur Amazon EMR - DynamoDB.
+ Cette version corrige un problème où les données des colonnes deviennent `NULL` lorsque vous utilisez Delta Lake pour stocker les données de la table Delta dans Amazon S3 après l'opération de changement de nom de colonne. Pour plus d'informations sur cette fonctionnalité expérimentale dans Delta Lake, consultez [Opération de changement de nom de colonne](https://docs.delta.io/latest/delta-batch.html#rename-columns) dans le guide de l'utilisateur Delta Lake.
+ La version 6.11.0 résout un problème qui peut survenir lorsque vous créez un nœud périphérique en répliquant l'un des nœuds primaires à partir d'un cluster comportant plusieurs nœuds primaires. Le nœud périphérique répliqué peut retarder les opérations de réduction d'échelle ou entraîner une utilisation élevée de la mémoire sur les nœuds primaires. Pour plus d'informations sur la création d'un nœud périphérique pour communiquer avec votre cluster EMR, consultez la section [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) dans le `aws-samples` référentiel sur. GitHub
+ La version 6.11.0 améliore le processus d'automatisation utilisé par Amazon EMR pour remonter les volumes Amazon EBS sur une instance après un redémarrage.
+ La version 6.11.0 corrige un problème qui entraînait des écarts intermittents dans les métriques Hadoop publiées par Amazon EMR sur Amazon. CloudWatch
+ La version 6.11.0 résout un problème lié aux clusters EMR où une mise à jour du fichier de configuration YARN contenant la liste d'exclusion des nœuds du cluster est interrompue en raison d'une surutilisation du disque. La mise à jour incomplète entrave les futures opérations de réduction de la taille du cluster. Cette version garantit que votre cluster reste sain et que les opérations de dimensionnement fonctionnent comme prévu.
+ La taille du volume racine par défaut est passée à 15 Go dans Amazon EMR 6.10.0 et versions ultérieures. Les versions antérieures ont une taille de volume racine par défaut de 10 Go.
+ Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

  Dans les versions 6.11.0 et supérieures d'Amazon EMR ainsi que dans les versions 6.8.1, 6.9.1 et 6.10.1, la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` est définie sur `false` dans `yarn-site.xml` pour résoudre ce problème.

  Bien que ce correctif règle les problèmes introduits par YARN-9608, il peut entraîner l'échec des tâches Hive en raison de la perte de données de réorganisation sur les clusters pour lesquels la mise à l'échelle gérée est activée. Nous avons atténué ce risque dans cette version en définissant également `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` pour les charges de travail Hive. Cette configuration n'est disponible qu'à partir de la version 6.11.0 d'Amazon EMR.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**Note**  
Cette version ne bénéficie plus de mises à jour automatiques de l'AMI puisqu'elle a été suivie d'une version supplémentaire de correctifs. La version du correctif est indiquée par le numéro qui suit la deuxième décimale (`6.8.1`). Pour savoir si vous utilisez la dernière version du correctif, consultez les versions disponibles dans le [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide), ou consultez le menu déroulant des **versions d'Amazon EMR** lorsque vous créez un cluster dans la console, ou utilisez l'action d'API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) ou de CLI [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html). Pour être tenu au courant des nouvelles versions, abonnez-vous au flux RSS sur la page [Quoi de neuf ?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6110-release.html)

## Versions des composants 6.11.0
<a name="emr-6110-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.2.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| delta-standalone-connectors | 0.6.0 | Les connecteurs Delta fournissent différents environnements d'exécution pour intégrer Delta Lake avec des moteurs tels que Flink, Hive et Presto. | 
| emr-ddb | 5.1.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.8.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.25.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.4.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.1.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,56,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.16.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-3 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.15-amzn-1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.15-amzn-1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.15-amzn-1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.15-amzn-1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.15-amzn-1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.15-amzn-1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-4 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-4 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-4 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-4 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-4 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-4 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-4 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.13.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.13.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.13.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.13.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.11.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.2.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.2 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.279-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.279-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.279-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 410-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 410-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 410-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.2-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.2-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.2-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.2-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 23.02.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-2 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-2 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.11.0
<a name="emr-6110-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.11.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.11.0
<a name="6110-changelog"></a>


**Journal des modifications pour la version 6.11.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 21/08/2023 | Mettre à jour | Correction d'un problème introduit avec Hadoop 3.3.3. | 
| 26/07/2023 | Mettre à jour | Étiquettes 2.0.20230612.0 et 2.0.20230628.0 de la nouvelle version du système d'exploitation. | 
| 09/06/2023 | Déploiement terminé | [Amazon EMR 6.11.0 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 09/06/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.11.0 publiées pour la première fois | 
| 08/06/2023 | Première version | Amazon EMR 6.11.0 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.10.1
<a name="emr-6101-release"></a>

## Versions d’application 6.10.1
<a name="emr-6101-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,397 | 1,12,397 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.1.0 | 2.1.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.15.2 | 1.15.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 
| HCatalog | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 
| Hadoop | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 
| Hive | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 
| Hudi | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 
| Spark | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.10.0 | 2.10.0 | 
| Tez | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 
| Trino (PrestoSQL) | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.10.1
<a name="emr-6101-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.10.1. Les modifications ont été apportées à la version 6.10.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.10.1](#6101-changelog).

**Problèmes connus**
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 

**Modifications, améliorations et problèmes résolus**
+ En raison d'un conflit de verrouillage, un nœud peut se retrouver bloqué s'il est ajouté ou supprimé en même temps qu'il est mis hors service. Par conséquent, le gestionnaire de ressources Hadoop (YARN) ne répond plus et affecte tous les conteneurs entrants et en cours d'exécution.
+ Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

  Dans les versions 6.11.0 et supérieures d'Amazon EMR ainsi que dans les versions 6.8.1, 6.9.1 et 6.10.1, la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` est définie sur `false` dans `yarn-site.xml` pour résoudre ce problème.

  Bien que ce correctif règle les problèmes introduits par YARN-9608, il peut entraîner l'échec des tâches Hive en raison de la perte de données de réorganisation sur les clusters pour lesquels la mise à l'échelle gérée est activée. Nous avons atténué ce risque dans cette version en définissant également `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` pour les charges de travail Hive. Cette configuration n'est disponible qu'à partir de la version 6.11.0 d'Amazon EMR.
+ Le collecteur de métriques n'enverra aucune métrique au plan de contrôle après le basculement du nœud primaire dans les clusters avec la configuration des groupes d'instances.
+ Cette version inclut une modification qui permet aux clusters à haute disponibilité de se remettre d'un état défaillant après le redémarrage.
+ Cette version inclut des correctifs de sécurité pour Hue et HBase.
+ Cette version résout un problème selon lequel les clusters exécutant des charges de travail sur Spark avec Amazon EMR peuvent recevoir silencieusement des résultats incorrects avec `contains`, `startsWith`, `endsWith` et `like`. Ce problème se produit lorsque vous utilisez les expressions sur des champs partitionnés contenant des métadonnées dans Amazon EMR Hive3 Metastore Server (HMS).
+ Cette version corrige un problème de limitation du côté de Glue en l'absence de fonctions définies par l'utilisateur (UDF).
+ Cette version corrige un problème qui supprime les journaux des conteneurs par le service d'agrégation des journaux des nœuds avant que le transmetteur de journaux ne puisse les envoyer vers S3 en cas de mise hors service de YARN.
+ Cette version corrige un problème lié aux métriques du FairShare planificateur lorsque Node Label est activé pour Hadoop.
+ Cette version corrige un problème qui affectait les performances de Spark lorsque vous définissez une valeur `true` par défaut pour la configuration `spark.yarn.heterogeneousExecutors.enabled` dans `spark-defaults.conf`.
+ Cette version corrige un problème lié à l'échec de la lecture des données de shuffle par Reduce Task. Ce problème provoquait des échecs de requêtes Hive avec une erreur de mémoire corrompue.
+ Cette version ajoute un nouveau mécanisme de nouvelle tentative au flux de travail de dimensionnement des clusters pour les clusters EMR qui exécutent Presto ou Trino. Cette amélioration réduit le risque que le redimensionnement du cluster soit bloqué indéfiniment en raison de l'échec d'une seule opération de redimensionnement. Cela améliore également l'utilisation du cluster, car celui-ci augmente et diminue la capacité plus rapidement.
+ Cette version améliore la logique de réduction de la taille des clusters afin que votre cluster ne tente pas une réduction d'échelle des nœuds principaux en dessous du paramètre de facteur de réplication HDFS défini pour le cluster. Cela répond à vos exigences en matière de redondance des données et réduit le risque de blocage d'une opération de dimensionnement.
+ Le démon de gestion des journaux a été mis à niveau pour identifier tous les journaux en cours d'utilisation avec des descripteurs de fichiers ouverts sur le stockage d'instance local, ainsi que les processus associés. Cette mise à niveau garantit qu'Amazon EMR supprime correctement les fichiers et récupère de l'espace de stockage une fois les journaux archivés dans Amazon S3.
+ Cette version inclut une amélioration du démon de gestion des journaux qui supprime les répertoires d'étapes vides et inutilisés dans le système de fichiers du cluster local. Un trop grand nombre de répertoires vides peut dégrader les performances des démons Amazon EMR et entraîner une surutilisation du disque.
+ Cette version résout un problème qui peut survenir lorsque vous créez un nœud périphérique en répliquant l'un des nœuds primaires à partir d'un cluster comportant plusieurs nœuds primaires. Le nœud périphérique répliqué peut retarder les opérations de réduction d'échelle ou entraîner une utilisation élevée de la mémoire sur les nœuds primaires. Pour plus d'informations sur la création d'un nœud périphérique pour communiquer avec votre cluster EMR, consultez la section [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) dans le `aws-samples` référentiel sur. GitHub
+ Cette version améliore le processus d'automatisation utilisé par Amazon EMR pour remonter les volumes Amazon EBS sur une instance après un redémarrage.
+ Cette version corrige un problème qui entraînait des écarts intermittents dans les métriques Hadoop publiées par Amazon EMR sur Amazon. CloudWatch
+ Cette version résout un problème lié aux clusters EMR où une mise à jour du fichier de configuration YARN contenant la liste d'exclusion des nœuds du cluster est interrompue en raison d'une surutilisation du disque. La mise à jour incomplète entrave les futures opérations de réduction de la taille du cluster. Cette version garantit que votre cluster reste sain et que les opérations de dimensionnement fonctionnent comme prévu.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6101-release.html)

## Versions des composants 6.10.1
<a name="emr-6101-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.2.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.7.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.24.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.3.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.0.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,55,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.16.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-2.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-2.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-2.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-2.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-2.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-2.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-2.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-2.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-2.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-2.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-2.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.15-amzn-0.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.15-amzn-0.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.15-amzn-0.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.15-amzn-0.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.15-amzn-0.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.15-amzn-0.1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-3.1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-3.1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-3.1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-3.1 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-3.1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-3.1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-3.1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.12.2-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.12.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.12.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.12.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.1.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.278.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.278.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.278.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 403-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 403-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 403-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.1-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.1-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.1-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.1-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.12.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-1.1 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-1.1 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.10.1
<a name="emr-6101-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.10.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.10.1
<a name="6101-changelog"></a>


**Journal des modifications pour la version 6.10.1 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 30/08/2023 | Mise à jour des notes de mise à jour | Ajout de plusieurs corrections liées au plan de contrôle dans les notes de mise à jour | 
| 21/08/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.10.1 publiées pour la première fois | 
| 16/08/2023 | Déploiement terminé | [Amazon EMR 6.10.1 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 04/08/2023 | Première version | Amazon EMR 6.10.1 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.10.0
<a name="emr-6100-release"></a>

## Versions d’application 6.10.0
<a name="emr-6100-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,397 | 1,12,170 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.1.0 | 2.1.0 |  -  | 
| Flink | 1.16.0 | 1.15.2 | 1.15.2 | 1.15.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 
| Hadoop | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 
| Hive | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 
| Hudi | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.1.0 | 
| JupyterHub | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 
| Spark | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.10.0 | 2.10.0 | 2.9.1 | 
| Tez | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 
| Trino (PrestoSQL) | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.10.0
<a name="emr-6100-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.10.0. Les modifications ont été apportées à la version 6.9.0. Pour plus d'informations sur le calendrier de publication, consultez le [journal des modifications](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-6100-release.html#6100-changelog).

**Nouvelles fonctionnalités**
+ Amazon EMR 6.10.0 prend en charge Apache Spark 3.3.1, Apache Spark RAPIDS 22.12.0, CUDA 11.8.0, Apache Hudi 0.12.2-amzn-0, Apache Iceberg 1.1.0-amzn-0, Trino 403 et PrestoDB 0.278.1.
+ Amazon EMR 6.10.0 inclut un connecteur Trino-Hudi natif qui fournit un accès en lecture aux données des tables Hudi. Vous pouvez activer le connecteur avec `trino-cli --catalog hudi` et le configurer en fonction de vos besoins avec `trino-connector-hudi`. L'intégration native avec Amazon EMR signifie que vous n'avez plus besoin d'utiliser `trino-connector-hive` pour interroger les tables Hudi. Pour obtenir la liste des configurations prises en charge avec le nouveau connecteur, consultez la page [Connecteur Hudi](https://trino.io/docs/current/connector/hudi.html) dans la documentation de Trino.
+ Les versions 6.10.0 et supérieures d'Amazon EMR prennent en charge l'intégration d'Apache Zeppelin avec Apache Flink. Pour plus d’informations, consultez [Travailler avec les jobs Flink de Zeppelin dans Amazon EMR](flink-zeppelin.md).

**Problèmes connus**
+ Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

  Pour contourner ce problème dans Amazon EMR 6.10.0, vous pouvez définir la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` sur `false` dans `yarn-site.xml`. Dans les versions 6.11.0 et supérieures d'Amazon EMR, ainsi que 6.8.1, 6.9.1 et 6.10.1, la configuration est définie sur `false` par défaut pour résoudre ce problème.
+  *À partir de Spark 3.3.1 (pris en charge dans les versions EMR 6.10 et supérieures), tous les exécuteurs d'un hôte en cours de mise hors service sont définis sur un nouvel état, appelé DECOMMISSIONING. `ExecutorState`* Les exécuteurs mis hors service ne peuvent pas être utilisés par Yarn pour allouer des tâches et il demandera donc de nouveaux exécuteurs, si nécessaire, pour les tâches en cours d'exécution. Ainsi, si vous désactivez Spark DRA lorsque vous utilisez EMR Managed Scaling, EMR Auto Scaling ou tout autre mécanisme de dimensionnement personnalisé sur les clusters EMR-EC2, Yarn peut demander le maximum d'exécuteurs autorisés pour chaque tâche. Pour éviter ce problème, laissez la `spark.dynamicAllocation.enabled` propriété définie sur `TRUE` (valeur par défaut) lorsque vous utilisez la combinaison de fonctionnalités ci-dessus. En outre, vous pouvez également définir des contraintes d'exécuteur minimales et maximales en définissant des valeurs `spark.dynamicAllocation.maxExecutors` et des `spark.dynamicAllocation.minExecutors` propriétés pour vos tâches Spark, afin de limiter le nombre d'exécuteurs alloués lors de l'exécution de la tâche. 

**Modifications, améliorations et problèmes résolus**
+ Amazon EMR 6.10.0 supprime la dépendance sur `minimal-json.jar` pour l'[intégration Amazon Redshift pour Apache Spark](emr-spark-redshift-launch.md) et ajoute automatiquement les fichiers JAR liés à Spark-Redshift requis au chemin de classe de l'exécuteur pour Spark : `spark-redshift.jar`, `spark-avro.jar` et `RedshiftJDBC.jar`.
+ La version 6.10.0 améliore le démon de gestion des journaux sur le cluster afin de surveiller des dossiers de journaux supplémentaires dans votre cluster EMR. Cette amélioration permet de minimiser les scénarios de surutilisation des disques.
+ La version 6.10.0 redémarre automatiquement le démon de gestion des journaux du cluster lorsqu'il s'arrête. Cette amélioration réduit le risque que les nœuds apparaissent défectueux en raison d'une surutilisation du disque. 
+ Amazon EMR 6.10.0 prend en charge les points de terminaison régionaux pour le mappage des utilisateurs EMRFS.
+ La taille du volume racine par défaut est passée à 15 Go dans Amazon EMR 6.10.0 et versions ultérieures. Les versions antérieures ont une taille de volume racine par défaut de 10 Go.
+ La version 6.10.0 corrige un problème qui provoquait le blocage des tâches Spark lorsque tous les exécuteurs Spark restants se trouvaient sur un hôte en cours de mise hors service avec le gestionnaire de ressources YARN. 
+ Avec Amazon EMR 6.6.0 à 6.9.x, les requêtes INSERT avec partition dynamique et clause ORDER BY ou SORT BY auront toujours deux réducteurs. Ce problème est dû à la modification d'OSS [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703), qui place l'optimisation des partitions dynamiques de tri dans le cadre d'une décision basée sur les coûts. Si votre charge de travail ne nécessite pas le tri des partitions dynamiques, nous vous recommandons de définir la propriété `hive.optimize.sort.dynamic.partition.threshold` sur `-1` pour désactiver la nouvelle fonctionnalité et obtenir le nombre de réducteurs correctement calculé. Ce problème est résolu dans OSS Hive dans le cadre de [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) et dans Amazon EMR 6.10.0.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**Note**  
Cette version ne bénéficie plus de mises à jour automatiques de l'AMI puisqu'elle a été suivie d'une version supplémentaire de correctifs. La version du correctif est indiquée par le numéro qui suit la deuxième décimale (`6.8.1`). Pour savoir si vous utilisez la dernière version du correctif, consultez les versions disponibles dans le [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide), ou consultez le menu déroulant des **versions d'Amazon EMR** lorsque vous créez un cluster dans la console, ou utilisez l'action d'API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) ou de CLI [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html). Pour être tenu au courant des nouvelles versions, abonnez-vous au flux RSS sur la page [Quoi de neuf ?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-6100-release.html)

## Versions des composants 6.10.0
<a name="emr-6100-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.2.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.7.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.24.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.3.0 | Connecteur S3Select EMR | 
| emr-wal-cli | 1.0.0 | CLI utilisée pour la liste/suppression EMR WAL. | 
| emrfs | 2,55,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.16.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-2 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.15-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.15-amzn-0 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.15-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.15-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.15-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.15-amzn-0 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-3 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-3 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-3 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-3 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-3 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-3 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-3 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.12.2-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.12.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.12.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.12.2-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 1.1.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.5.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,8.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.278.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.278.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.278.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 403-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 403-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 403-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.1-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.1-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.1-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.1-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.12.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-1 | Les bibliothèques et l'application tez YARN. | 
| tez-on-worker | 0.10.2-amzn-1 | Les bibliothèques et l'application tez YARN pour les nœuds de travail. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.10.0
<a name="emr-6100-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.10.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Modifiez les valeurs dans le fichier hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Modifiez les valeurs dans le fichier kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.10.0
<a name="6100-changelog"></a>


**Journal des modifications pour la version 6.10.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 21/08/2023 | Mettre à jour | Ajout d'un problème connu introduit avec Hadoop 3.3.3. | 
| 26/07/2023 | Mettre à jour | Étiquettes 2.0.20230612.0 et 2.0.20230628.0 de la nouvelle version du système d'exploitation. | 
| 03 avril | Déploiement terminé | [Amazon EMR 6.10 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 03 avril | Publication de documents | Notes de mise à jour d'Amazon EMR 6.10 publiées pour la première fois | 
| 27/02/2023 | Première version | Amazon EMR 6.10 déployé dans des régions commerciales limitées | 

# Amazon EMR version 6.9.1
<a name="emr-691-release"></a>

## Versions d’application 6.9.1
<a name="emr-691-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.1.0 | 2.1.0 |  -  |  -  | 
| Flink | 1.15.2 | 1.15.2 | 1.15.1 | 1.15.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 
| HCatalog | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 
| Hadoop | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 
| Hive | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 
| Hudi | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 
| Spark | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.10.0 | 2.10.0 | 2.9.1 | 2.9.1 | 
| Tez | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0,1,1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notes de mise à jour 6.9.1
<a name="emr-691-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.9.1. Les modifications ont été apportées à la version 6.9.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.9.1](#691-changelog).

**Modifications, améliorations et problèmes résolus**
+ Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

  Dans les versions 6.11.0 et supérieures d'Amazon EMR ainsi que dans les versions 6.8.1, 6.9.1 et 6.10.1, la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` est définie sur `false` dans `yarn-site.xml` pour résoudre ce problème.

  Bien que ce correctif règle les problèmes introduits par YARN-9608, il peut entraîner l'échec des tâches Hive en raison de la perte de données de réorganisation sur les clusters pour lesquels la mise à l'échelle gérée est activée. Nous avons atténué ce risque dans cette version en définissant également `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` pour les charges de travail Hive. Cette configuration n'est disponible qu'à partir de la version 6.11.0 d'Amazon EMR.
+ Le collecteur de métriques n'enverra aucune métrique au plan de contrôle après le basculement du nœud primaire dans les clusters avec la configuration des groupes d'instances.
+ Cette version élimine les nouvelles tentatives en cas d'échec des requêtes HTTP vers les points de terminaison du collecteur de métriques.
+ Cette version inclut une modification qui permet aux clusters à haute disponibilité de se remettre d'un état défaillant après le redémarrage.
+ Cette version corrige un problème selon lequel de grandes quantités créées par l'utilisateur UIDs provoquaient des exceptions de dépassement.
+ Cette version corrige les problèmes de dépassement de délai avec le processus de reconfiguration d'Amazon EMR.
+ Cette version inclut des correctifs de sécurité.
+ Cette version résout un problème selon lequel les clusters exécutant des charges de travail sur Spark avec Amazon EMR peuvent recevoir silencieusement des résultats incorrects avec `contains`, `startsWith`, `endsWith` et `like`. Ce problème se produit lorsque vous utilisez les expressions sur des champs partitionnés contenant des métadonnées dans Amazon EMR Hive3 Metastore Server (HMS).
+ Avec Amazon EMR 6.6.0 à 6.9.x, les requêtes INSERT avec partition dynamique et clause ORDER BY ou SORT BY auront toujours deux réducteurs. Ce problème est dû à la modification d'OSS [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703), qui place l'optimisation des partitions dynamiques de tri dans le cadre d'une décision basée sur les coûts. Si votre charge de travail ne nécessite pas le tri des partitions dynamiques, nous vous recommandons de définir la propriété `hive.optimize.sort.dynamic.partition.threshold` sur `-1` pour désactiver la nouvelle fonctionnalité et obtenir le nombre de réducteurs correctement calculé. Ce problème est résolu dans OSS Hive dans le cadre de [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) et dans Amazon EMR 6.10.0.
+ Hive peut subir des pertes de données lorsque vous utilisez HDFS comme répertoire scratch et que vous avez activé la fusion de petits fichiers, et que la table contient des chemins de partition statiques.
+ Cette version corrige un problème de performance avec Hive si la fusion des petits fichiers (désactivée par défaut) est activée à la fin de la tâche ETL.
+ Cette version corrige un problème de limitation du côté de Glue en l'absence de fonctions définies par l'utilisateur (UDF).
+ Cette version corrige un problème qui supprime les journaux des conteneurs par le service d'agrégation des journaux des nœuds avant que le transmetteur de journaux ne puisse les envoyer vers S3 en cas de mise hors service de YARN.
+ Cette version corrige la gestion des fichiers compactés/archivés avec un suivi permanent des fichiers de stockage pour. HBase
+ Cette version corrige un problème qui affectait les performances de Spark lorsque vous définissez une valeur `true` par défaut pour la configuration `spark.yarn.heterogeneousExecutors.enabled` dans `spark-defaults.conf`.
+ Cette version corrige un problème lié à l'échec de la lecture des données de shuffle par Reduce Task. Ce problème provoquait des échecs de requêtes Hive avec une erreur de mémoire corrompue.
+ Cette version corrige un problème qui provoquait l'échec du fournisseur de nœuds si le service HDFS NameNode (NN) était bloqué en mode sécurisé lors du remplacement du nœud.
+ Cette version ajoute un nouveau mécanisme de nouvelle tentative au flux de travail de dimensionnement des clusters pour les clusters EMR qui exécutent Presto ou Trino. Cette amélioration réduit le risque que le redimensionnement du cluster soit bloqué indéfiniment en raison de l'échec d'une seule opération de redimensionnement. Cela améliore également l'utilisation du cluster, car celui-ci augmente et diminue la capacité plus rapidement.
+ Cette version améliore la logique de réduction de la taille des clusters afin que votre cluster ne tente pas une réduction d'échelle des nœuds principaux en dessous du paramètre de facteur de réplication HDFS défini pour le cluster. Cela répond à vos exigences en matière de redondance des données et réduit le risque de blocage d'une opération de dimensionnement.
+ Le démon de gestion des journaux a été mis à niveau pour identifier tous les journaux en cours d'utilisation avec des descripteurs de fichiers ouverts sur le stockage d'instance local, ainsi que les processus associés. Cette mise à niveau garantit qu'Amazon EMR supprime correctement les fichiers et récupère de l'espace de stockage une fois les journaux archivés dans Amazon S3.
+ Cette version inclut une amélioration du démon de gestion des journaux qui supprime les répertoires d'étapes vides et inutilisés dans le système de fichiers du cluster local. Un trop grand nombre de répertoires vides peut dégrader les performances des démons Amazon EMR et entraîner une surutilisation du disque.
+ Cette version résout un problème qui peut survenir lorsque vous créez un nœud périphérique en répliquant l'un des nœuds primaires à partir d'un cluster comportant plusieurs nœuds primaires. Le nœud périphérique répliqué peut retarder les opérations de réduction d'échelle ou entraîner une utilisation élevée de la mémoire sur les nœuds primaires. Pour plus d'informations sur la création d'un nœud périphérique pour communiquer avec votre cluster EMR, consultez la section [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) dans le `aws-samples` référentiel sur. GitHub
+ Cette version améliore le processus d'automatisation utilisé par Amazon EMR pour remonter les volumes Amazon EBS sur une instance après un redémarrage.
+ Cette version corrige un problème qui entraînait des écarts intermittents dans les métriques Hadoop publiées par Amazon EMR sur Amazon. CloudWatch
+ Cette version résout un problème lié aux clusters EMR où une mise à jour du fichier de configuration YARN contenant la liste d'exclusion des nœuds du cluster est interrompue en raison d'une surutilisation du disque. La mise à jour incomplète entrave les futures opérations de réduction de la taille du cluster. Cette version garantit que votre cluster reste sain et que les opérations de dimensionnement fonctionnent comme prévu.
+ Cette version améliore le démon de gestion des journaux sur le cluster afin de surveiller des dossiers de journaux supplémentaires dans votre cluster EMR. Cette amélioration permet de minimiser les scénarios de surutilisation des disques.
+ Cette version redémarre automatiquement le démon de gestion des journaux sur le cluster lorsqu'il s'arrête. Cette amélioration réduit le risque que les nœuds apparaissent défectueux en raison d'une surutilisation du disque. 
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-691-release.html)

## Versions des composants 6.9.1
<a name="emr-691-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.1.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.6.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.23.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.2.0 | Connecteur S3Select EMR | 
| emrfs | 2,54,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.15.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.15.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-1.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-1.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-1.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-1.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-1.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-1.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-1.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-1.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-1.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-1.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-1.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.13-amzn-0.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.13-amzn-0.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.13-amzn-0.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.13-amzn-0.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.13-amzn-0.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.13-amzn-0.1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-2.1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-2.1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-2.1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-2.1 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-2.1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-2.1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-2.1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.12.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.14.1-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,7.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.276-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.276-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.276-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 398-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 398-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 398-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.0-amzn-1.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.0-amzn-1.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.0-amzn-1.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.0-amzn-1.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.08.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.10.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-0.1 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.9.1
<a name="emr-691-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.9.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.9.1
<a name="691-changelog"></a>


**Journal des modifications pour la version 6.9.1 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 30/08/2023 | Mise à jour des notes de mise à jour | Ajout de plusieurs corrections liées au plan de contrôle dans les notes de mise à jour | 
| 21/08/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.9.1 publiées pour la première fois | 
| 16/08/2023 | Déploiement terminé | [Amazon EMR 6.9.1 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 04/08/2023 | Première version | Amazon EMR 6.9.1 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.9.0
<a name="emr-690-release"></a>

## Versions d’application 6.9.0
<a name="emr-690-app-versions"></a>

Cette version inclut les applications suivantes : [https://delta.io/](https://delta.io/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.1.0 |  -  |  -  |  -  | 
| Flink | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 
| HCatalog | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 
| Hadoop | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 
| Hive | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 
| Hudi | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 
| Spark | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.10.0 | 2.9.1 | 2.9.1 | 2.4.1 | 
| Tez | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0,1,1 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.7 | 

## Notes de mise à jour 6.9.0
<a name="emr-690-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.9.0. Il s'agit des modifications apportées à la version Amazon EMR 6.8.0. Pour plus d'informations sur le calendrier de publication, consultez le [journal des modifications](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-690-release.html#690-changelog).

**Nouvelles fonctionnalités**
+ La version 6.9.0 d'Amazon EMR prend en charge Apache Spark RAPIDS 22.08.0, Apache Hudi 0.12.1, Apache Iceberg 0.14.1, Trino 398 et Tez 0.10.2.
+ La version 6.9.0 d'Amazon EMR inclut une nouvelle application open source, [Delta Lake](emr-delta.md) 2.1.0.
+ L'intégration d'Amazon Redshift à Apache Spark est incluse dans les versions 6.9.0 et ultérieures d'Amazon EMR. Auparavant un outil open-source, l'intégration native est un connecteur Spark que vous pouvez utiliser pour créer des applications Apache Spark capables de lire et d'écrire des données sur Amazon Redshift et Amazon Redshift sans serveur. Pour de plus amples informations, veuillez consulter [Utilisation de l'intégration d'Amazon Redshift pour Apache Spark avec Amazon EMR](emr-spark-redshift.md).
+ La version 6.9.0 d'Amazon EMR ajoute la prise en charge de l'archivage des journaux dans Amazon S3 lors de la réduction de la taille du cluster. Auparavant, vous pouviez uniquement archiver les fichiers journaux sur Amazon S3 lors de la résiliation du cluster. Cette nouvelle fonctionnalité garantit que les fichiers journaux générés sur le cluster sont conservés sur Amazon S3 même après la résiliation du nœud. Pour plus d'informations, consultez [Configuration de la journalisation et du débogage de cluster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html).
+ Pour prendre en charge les requêtes de longue durée, Trino inclut désormais un mécanisme d'exécution tolérant aux pannes. L'exécution tolérante aux pannes atténue les échecs des requêtes en réessayant les requêtes qui ont échoué ou les tâches correspondantes.
+ Vous pouvez utiliser Apache Flink sur Amazon EMR pour le traitement `BATCH` et `STREAM` unifié des tables Apache Hive ou des métadonnées de n'importe quelle source de tables Flink telle que Iceberg, Kinesis ou Kafka. Vous pouvez spécifier le catalogue de données AWS Glue comme métastore pour Flink à l'aide de l'API AWS Management Console, AWS CLI ou Amazon EMR. Pour de plus amples informations, veuillez consulter [Configuration de Flink dans Amazon EMR](flink-configure.md).
+ Vous pouvez désormais spécifier des rôles d'exécution Gestion des identités et des accès AWS (IAM) et un contrôle d'accès AWS Lake Formation basé pour les requêtes Apache Spark, Apache Hive et Presto sur Amazon EMR sur des clusters EC2 avec Amazon AI Studio. SageMaker Pour obtenir des informations supplémentaires, consultez [Configuration des rôles d'exécution pour les étapes d'Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-steps-runtime-roles.html). 

**Problèmes connus**
+ Pour Amazon EMR version 6.9.0, Trino ne fonctionne pas sur les clusters activés pour Apache Ranger. Si vous devez utiliser Trino avec Ranger, contactez [Support](https://console.aws.amazon.com/support/home#/).
+ Si vous utilisez l'intégration Amazon Redshift pour Apache Spark et que vous disposez d'une heure, d'un timestamp, d'un timestamp ou d'un timestamptz au format Parquet avec une précision de la microseconde, le connecteur arrondit les valeurs temporelles à la milliseconde la plus proche. Pour contourner le problème, utilisez le paramètre `unload_s3_format` de format de déchargement du texte.
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.
+ Les connexions aux clusters Amazon EMR depuis Amazon SageMaker AI Studio peuvent échouer par intermittence avec un code de réponse **403** Forbidden. Cette erreur se produit lorsque la configuration du rôle IAM sur le cluster prend plus de 60 secondes. Pour contourner le problème, vous pouvez installer un correctif Amazon EMR pour activer les nouvelles tentatives et augmenter le délai d'expiration à un minimum de 300 secondes. Suivez les étapes ci-dessous pour appliquer l'action d'amorçage lorsque vous lancez votre cluster.

  1.  Téléchargez le script bootstrap et les fichiers RPM depuis l'Amazon S3 URIs suivant.

     ```
     s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/replace-rpms.sh
     s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/emr-secret-agent-1.18.0-SNAPSHOT20221121212949.noarch.rpm
     ```

  1. Chargez les fichiers de l'étape précédente sur un compartiment Amazon S3 dont vous êtes propriétaire. Le compartiment doit se trouver à l' Région AWS endroit où vous prévoyez de lancer le cluster.

  1. Incluez l'action d'amorçage suivante lorsque vous lancez votre cluster EMR. Remplacez *bootstrap\$1URI* et *RPM\$1URI* par le correspondant URIs provenant d'Amazon S3. 

     ```
     --bootstrap-actions "Path=bootstrap_URI,Args=[RPM_URI]"
     ```
+ Avec les versions 5.36.0 et 6.6.0 à 6.9.0 d'Amazon EMR, les composants de service `SecretAgent` et `RecordServer` peuvent subir une perte de données de journal en raison d'une configuration incorrecte du modèle de nom de fichier dans les propriétés de Log4j2. En cas de configuration incorrecte, les composants ne génèrent qu'un seul fichier journal par jour. Lorsque la stratégie de rotation est appliquée, elle remplace le fichier existant au lieu de générer un nouveau fichier journal comme prévu. Pour contourner le problème, utilisez une action d'amorçage pour générer des journaux toutes les heures et ajoutez un nombre entier auto-incrémenté dans le nom du fichier pour gérer la rotation.

  Pour les versions 6.6.0 à 6.9.0 d'Amazon EMR, utilisez l'action de démarrage suivante lorsque vous lancez un cluster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Pour Amazon EMR 5.36.0, utilisez l'action de démarrage suivante lorsque vous lancez un cluster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```
+ Apache Flink fournit des FileSystem connecteurs natifs S3 FileSystem et Hadoop, qui permettent aux applications de créer FileSink et d'écrire les données dans Amazon S3. Cela FileSink échoue avec l'une des deux exceptions suivantes.

  ```
  java.lang.UnsupportedOperationException: Recoverable writers on Hadoop are only supported for HDFS
  ```

  ```
  Caused by: java.lang.NoSuchMethodError: org.apache.hadoop.io.retry.RetryPolicies.retryOtherThanRemoteAndSaslException(Lorg/apache/hadoop/io/retry/RetryPolicy;Ljava/util/Map;)Lorg/apache/hadoop/io/retry/RetryPolicy;
                                          at org.apache.hadoop.yarn.client.RMProxy.createRetryPolicy(RMProxy.java:302) ~[hadoop-yarn-common-3.3.3-amzn-0.jar:?]
  ```

  Pour contourner le problème, vous pouvez installer un correctif Amazon EMR, qui corrige le problème ci-dessus dans Flink. Suivez les étapes suivantes pour appliquer l'action d'amorçage lors du lancement de votre cluster.

  1. Téléchargez le fichier flink-rpm dans votre compartiment Amazon S3. Votre chemin RPM est `s3://DOC-EXAMPLE-BUCKET/rpms/flink/`.

  1. Téléchargez le script d'amorçage et les fichiers RPM depuis Amazon S3 en utilisant l'URI suivant. Remplacez `regionName` par l' Région AWS endroit où vous prévoyez de lancer le cluster.

     ```
     s3://emr-data-access-control-regionName/customer-bootstrap-actions/gcsc/replace-rpms.sh
     ```

  1. Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Dans Amazon EMR 6.8.0 et 6.9.0, cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

     Avec [Amazon EMR 6.10.0](emr-6100-release.md#emr-6100-relnotes), il existe une solution à ce problème qui consiste à définir la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` sur `false` dans `yarn-site.xml`. Dans les versions 6.11.0 et supérieures d'Amazon EMR, ainsi que 6.8.1, 6.9.1 et 6.10.1, la configuration est définie sur `false` par défaut pour résoudre ce problème.

**Modifications, améliorations et problèmes résolus**
+ Pour Amazon EMR version 6.9.0 et versions ultérieures, tous les composants installés par Amazon EMR qui utilisent les bibliothèques Log4j utilisent Log4j version 2.17.1 ou ultérieure.
+ Lorsque vous utilisez le connecteur DynamoDB avec Spark sur les versions 6.6.0, 6.7.0 et 6.8.0 d'Amazon EMR, toutes les lectures de votre table renvoient un résultat vide, même si la division d'entrée fait référence à des données non vides. La version 6.9.0 d'Amazon EMR résout ce problème.
+ Amazon EMR 6.9.0 ajoute une prise en charge limitée du contrôle d'accès basé sur Lake Formation avec Apache Hudi lors de la lecture de données à l'aide de Spark SQL. La prise en charge concerne les requêtes SELECT utilisant Spark SQL et se limite au contrôle d'accès au niveau des colonnes. Pour plus d'informations, consultez [Hudi et Lake Formation](https://docs.aws.amazon.com/emr/latest/ManagementGuide/hudi-with-lake-formation.html).
+ Lorsque vous utilisez Amazon EMR 6.9.0 pour créer un cluster Hadoop avec les [étiquettes de nœuds](https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/NodeLabel.html) activées, l'[API de métriques YARN](https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/ResourceManagerRest.html#Cluster_Metrics_API) renvoie des informations agrégées sur toutes les partitions, au lieu de la partition par défaut. Pour plus d'informations, consultez [YARN-11414](https://issues.apache.org/jira/browse/YARN-11414).
+ Avec la version 6.9.0 d'Amazon EMR, nous avons mis à jour Trino vers la version 398, qui utilise Java 17. La version précédemment prise en charge de Trino pour Amazon EMR 6.8.0 était Trino 388 fonctionnant sous Java 11. Pour plus d'informations sur cette modification, consultez [Mises à jour de Trino vers Java 17](https://trino.io/blog/2022/07/14/trino-updates-to-java-17.html) sur le blog de Trino.
+ Cette version corrige un problème d'inadéquation des séquences temporelles entre Apache BigTop et Amazon EMR sur la séquence de démarrage du cluster EC2. Ce décalage se produit lorsqu'un système tente d'effectuer deux ou plusieurs opérations en même temps au lieu de les effectuer dans le bon ordre. Par conséquent, certaines configurations de cluster ont connu des délais de démarrage des instances et des temps de démarrage des clusters plus lents.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**Note**  
Cette version ne bénéficie plus de mises à jour automatiques de l'AMI puisqu'elle a été suivie d'une version supplémentaire de correctifs. La version du correctif est indiquée par le numéro qui suit la deuxième décimale (`6.8.1`). Pour savoir si vous utilisez la dernière version du correctif, consultez les versions disponibles dans le [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide), ou consultez le menu déroulant des **versions d'Amazon EMR** lorsque vous créez un cluster dans la console, ou utilisez l'action d'API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) ou de CLI [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html). Pour être tenu au courant des nouvelles versions, abonnez-vous au flux RSS sur la page [Quoi de neuf ?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-690-release.html)

## Versions des composants 6.9.0
<a name="emr-690-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| delta | 2.1.0 | Delta Lake est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.3.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.6.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.23.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.2.0 | Connecteur S3Select EMR | 
| emrfs | 2,54,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.15.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.15.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.3.3-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.3.3-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.3.3-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.3.3-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.13-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.13-amzn-0 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.13-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.13-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.13-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.13-amzn-0 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.12.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.12.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.14.1-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,7.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 6.0.0 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.276-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.276-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.276-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 398-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 398-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 398-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.0-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.0-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.0-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.0-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.08.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.10.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.10.2-amzn-0 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.9.0
<a name="emr-690-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.9.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| delta-defaults | Modification des valeurs dans le fichier delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j2 | Modifiez les paramètres Livy log4j2.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Modifiez les valeurs dans le fichier lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Modification des valeurs dans le fichier delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Modification des valeurs dans le fichier exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.9.0
<a name="690-changelog"></a>


**Journal des modifications pour la version 6.9.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 30/08/2023 | Mise à jour des notes de mise à jour | Ajout d'un correctif pour un problème de non-concordance des séquences de synchronisation | 
| 21/08/2023 | Mise à jour des notes de mise à jour | Ajout d'un problème connu avec Hadoop 3.3.3. | 
| 26/07/2023 | Mettre à jour | Étiquettes 2.0.20230612.0 et 2.0.20230628.0 de la nouvelle version du système d'exploitation. | 
| 13/12 | Mise à jour des notes de mise à jour | Fonctionnalité ajoutée et problème connu d'exécution avec l' SageMaker IA | 
| 29/11 | Mise à jour des notes de mise à jour et de la documentation | Ajout d'une fonctionnalité pour l'intégration d'Amazon Redshift pour Apache Spark | 
| 23/11 | Mise à jour des notes de mise à jour | Suppression de l'entrée Log4j | 
| 11/18 | Déploiement terminé | [Amazon EMR 6.9 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 11/18 | Publication de documents | Première publication des notes de mise à jour d'Amazon EMR 6.9 | 
| 14/11 | Première version | Amazon EMR 6.9 déployé dans des régions commerciales limitées | 

# Amazon EMR version 6.8.1
<a name="emr-681-release"></a>

## Versions d’application 6.8.1
<a name="emr-681-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,15 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.15.1 | 1.15.1 | 1.14.2 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 
| HCatalog | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 
| Hadoop | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 
| Hive | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 
| Hudi | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 
| Spark | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.9.1 | 2.9.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 
| Zeppelin | 0,1,1 | 0,1,1 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.7 | 3.5.7 | 

## Notes de mise à jour 6.8.1
<a name="emr-681-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.8.1. Les modifications ont été apportées à la version 6.8.0. Pour plus d'informations sur le calendrier de publication, consultez le [Journal des modifications 6.8.1](#681-changelog).

**Modifications, améliorations et problèmes résolus**
+ Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

  Dans les versions 6.11.0 et supérieures d'Amazon EMR ainsi que dans les versions 6.8.1, 6.9.1 et 6.10.1, la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` est définie sur `false` dans `yarn-site.xml` pour résoudre ce problème.

  Bien que ce correctif règle les problèmes introduits par YARN-9608, il peut entraîner l'échec des tâches Hive en raison de la perte de données de réorganisation sur les clusters pour lesquels la mise à l'échelle gérée est activée. Nous avons atténué ce risque dans cette version en définissant également `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` pour les charges de travail Hive. Cette configuration n'est disponible qu'à partir de la version 6.11.0 d'Amazon EMR.
+ Le collecteur de métriques n'enverra aucune métrique au plan de contrôle après le basculement du nœud primaire dans les clusters avec la configuration des groupes d'instances.
+ Cette version élimine les nouvelles tentatives en cas d'échec des requêtes HTTP vers les points de terminaison du collecteur de métriques.
+ Cette version inclut une modification qui permet aux clusters à haute disponibilité de se remettre d'un état défaillant après le redémarrage.
+ Cette version corrige un problème selon lequel de grandes quantités créées par l'utilisateur UIDs provoquaient des exceptions de dépassement.
+ Cette version corrige les problèmes de dépassement de délai avec le processus de reconfiguration d'Amazon EMR.
+ Cette version permet d'éviter un problème selon lequel l'échec de la reconfiguration pourrait interrompre d'autres processus indépendants.
+ Cette version inclut des correctifs de sécurité.
+ Cette version résout un problème selon lequel les clusters exécutant des charges de travail sur Spark avec Amazon EMR peuvent recevoir silencieusement des résultats incorrects avec `contains`, `startsWith`, `endsWith` et `like`. Ce problème se produit lorsque vous utilisez les expressions sur des champs partitionnés contenant des métadonnées dans Amazon EMR Hive3 Metastore Server (HMS).
+ Avec Amazon EMR 6.6.0 à 6.9.x, les requêtes INSERT avec partition dynamique et clause ORDER BY ou SORT BY auront toujours deux réducteurs. Ce problème est dû à la modification d'OSS [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703), qui place l'optimisation des partitions dynamiques de tri dans le cadre d'une décision basée sur les coûts. Si votre charge de travail ne nécessite pas le tri des partitions dynamiques, nous vous recommandons de définir la propriété `hive.optimize.sort.dynamic.partition.threshold` sur `-1` pour désactiver la nouvelle fonctionnalité et obtenir le nombre de réducteurs correctement calculé. Ce problème est résolu dans OSS Hive dans le cadre de [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) et dans Amazon EMR 6.10.0.
+ Hive peut subir des pertes de données lorsque vous utilisez HDFS comme répertoire scratch et que vous avez activé la fusion de petits fichiers, et que la table contient des chemins de partition statiques.
+ Cette version corrige un problème de performance avec Hive si la fusion des petits fichiers (désactivée par défaut) est activée à la fin de la tâche ETL.
+ Cette version corrige un problème de limitation du côté de Glue en l'absence de fonctions définies par l'utilisateur (UDF).
+ Cette version corrige un problème qui supprime les journaux des conteneurs par le service d'agrégation des journaux des nœuds avant que le transmetteur de journaux ne puisse les envoyer vers S3 en cas de mise hors service de YARN.
+ Cette version corrige la gestion des fichiers compactés/archivés avec un suivi permanent des fichiers de stockage pour. HBase
+ Cette version corrige un problème qui affectait les performances de Spark lorsque vous définissez une valeur `true` par défaut pour la configuration `spark.yarn.heterogeneousExecutors.enabled` dans `spark-defaults.conf`.
+ Cette version corrige un problème lié à l'échec de la lecture des données de shuffle par Reduce Task. Ce problème provoquait des échecs de requêtes Hive avec une erreur de mémoire corrompue.
+ Cette version corrige un problème qui provoquait l'échec du fournisseur de nœuds si le service HDFS NameNode (NN) était bloqué en mode sécurisé lors du remplacement du nœud.
+ Cette version ajoute un nouveau mécanisme de nouvelle tentative au flux de travail de dimensionnement des clusters pour les clusters EMR qui exécutent Presto ou Trino. Cette amélioration réduit le risque que le redimensionnement du cluster soit bloqué indéfiniment en raison de l'échec d'une seule opération de redimensionnement. Cela améliore également l'utilisation du cluster, car celui-ci augmente et diminue la capacité plus rapidement.
+ Cette version améliore la logique de réduction de la taille des clusters afin que votre cluster ne tente pas une réduction d'échelle des nœuds principaux en dessous du paramètre de facteur de réplication HDFS défini pour le cluster. Cela répond à vos exigences en matière de redondance des données et réduit le risque de blocage d'une opération de dimensionnement.
+ Le démon de gestion des journaux a été mis à niveau pour identifier tous les journaux en cours d'utilisation avec des descripteurs de fichiers ouverts sur le stockage d'instance local, ainsi que les processus associés. Cette mise à niveau garantit qu'Amazon EMR supprime correctement les fichiers et récupère de l'espace de stockage une fois les journaux archivés dans Amazon S3.
+ Cette version inclut une amélioration du démon de gestion des journaux qui supprime les répertoires d'étapes vides et inutilisés dans le système de fichiers du cluster local. Un trop grand nombre de répertoires vides peut dégrader les performances des démons Amazon EMR et entraîner une surutilisation du disque.
+ Cette version résout un problème qui peut survenir lorsque vous créez un nœud périphérique en répliquant l'un des nœuds primaires à partir d'un cluster comportant plusieurs nœuds primaires. Le nœud périphérique répliqué peut retarder les opérations de réduction d'échelle ou entraîner une utilisation élevée de la mémoire sur les nœuds primaires. Pour plus d'informations sur la création d'un nœud périphérique pour communiquer avec votre cluster EMR, consultez la section [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) dans le `aws-samples` référentiel sur. GitHub
+ Cette version améliore le processus d'automatisation utilisé par Amazon EMR pour remonter les volumes Amazon EBS sur une instance après un redémarrage.
+ Cette version corrige un problème qui entraînait des écarts intermittents dans les métriques Hadoop publiées par Amazon EMR sur Amazon. CloudWatch
+ Cette version résout un problème lié aux clusters EMR où une mise à jour du fichier de configuration YARN contenant la liste d'exclusion des nœuds du cluster est interrompue en raison d'une surutilisation du disque. La mise à jour incomplète entrave les futures opérations de réduction de la taille du cluster. Cette version garantit que votre cluster reste sain et que les opérations de dimensionnement fonctionnent comme prévu.
+ Cette version améliore le démon de gestion des journaux sur le cluster afin de surveiller des dossiers de journaux supplémentaires dans votre cluster EMR. Cette amélioration permet de minimiser les scénarios de surutilisation des disques.
+ Cette version redémarre automatiquement le démon de gestion des journaux sur le cluster lorsqu'il s'arrête. Cette amélioration réduit le risque que les nœuds apparaissent défectueux en raison d'une surutilisation du disque. 
+ Cette version ajoute la prise en charge de l'archivage des journaux sur Amazon S3 lors de la réduction de la capacité du cluster. Auparavant, vous pouviez uniquement archiver les fichiers journaux sur Amazon S3 lors de la résiliation du cluster. Cette nouvelle fonctionnalité garantit que les fichiers journaux générés sur le cluster sont conservés sur Amazon S3 même après la résiliation du nœud. Pour plus d'informations, consultez [Configuration de la journalisation et du débogage de cluster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html).
+ Cette version corrige un problème qui s'est produit lorsque l'URI Amazon S3 pour une action d'amorçage se terminait par un numéro de port, par exemple : `a.b.c.d:4345`. Amazon EMR les analysait incorrectement URIs, de sorte que toutes les actions d'amorçage associées échoueraient.
+ Cette version corrige un problème d'inadéquation des séquences temporelles entre Apache BigTop et Amazon EMR sur la séquence de démarrage du cluster EC2. Ce décalage se produit lorsqu'un système tente d'effectuer deux ou plusieurs opérations en même temps au lieu de les effectuer dans le bon ordre. Par conséquent, certaines configurations de cluster ont connu des délais de démarrage des instances et des temps de démarrage des clusters plus lents.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-681-release.html)

## Versions des composants 6.8.1
<a name="emr-681-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.22.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,53,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.15.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.15.1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-8.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-8.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-8.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-8.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-8.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-8.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-8.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-8.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-8.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-8.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-8.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.12-amzn-0.1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.12-amzn-0.1 | Service destiné à desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.12-amzn-0.1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.12-amzn-0.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.12-amzn-0.1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.12-amzn-0.1 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-1.1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-1.1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-1.1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-1.1 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-1.1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-1.1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-1.1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.11.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.11.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.11.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.11.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.14.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,7.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.2 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 5.1.2 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.273.3-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.273.3-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.273.3-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 388-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 388-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 388-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.0-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.0-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.0-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.0-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.06.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.9.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.8.1
<a name="emr-681-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.8.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.8.1
<a name="681-changelog"></a>


**Journal des modifications pour la version 6.8.1 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 30/08/2023 | Mise à jour des notes de mise à jour | Ajout de plusieurs corrections liées au plan de contrôle dans les notes de mise à jour | 
| 21/08/2023 | Publication de documents | Notes de mise à jour d'Amazon EMR 6.8.1 publiées pour la première fois | 
| 16/08/2023 | Déploiement terminé | [Amazon EMR 6.8.1 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 04/08/2023 | Première version | Amazon EMR 6.8.1 a été déployé pour la première fois dans des régions commerciales limitées | 

# Amazon EMR version 6.8.0
<a name="emr-680-release"></a>

## Versions d’application 6.8.0
<a name="emr-680-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,170 | 1,12,170 | 1,12,170 | 1,12,31 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,15 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.15.1 | 1.14.2 | 1.14.2 | 1.14.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 
| HCatalog | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 
| Hadoop | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 
| Hive | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 
| Hudi | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 
| Iceberg | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 
| Spark | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.9.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 360 | 
| Zeppelin | 0,1,1 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.7 | 3.5.7 | 3.5.7 | 

## Notes de mise à jour 6.8.0
<a name="emr-680-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.8.0. Les modifications ont été apportées à la version 6.7.0.

**Nouvelles fonctionnalités**
+ La fonctionnalité Amazon EMR Steps prend désormais en charge le point de terminaison et les clients Apache Livy. JDBC/ODBC Pour obtenir des informations supplémentaires, consultez [Configuration des rôles d'exécution pour les étapes d'Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-steps-runtime-roles.html).
+ La version 6.8.0 d'Amazon EMR est fournie avec la version 2.4.12 d'Apache HBase . Avec cette HBase version, vous pouvez à la fois archiver et supprimer vos HBase tables. Le processus d'archivage Amazon S3 renomme tous les fichiers de table dans le répertoire d'archive. Ce processus peut être long et coûteux. Vous pouvez désormais ignorer le processus d'archivage et supprimer rapidement des tables volumineuses. Pour de plus amples informations, veuillez consulter [Utilisation de la HBase coque](emr-hbase-connect.md).

**Problèmes connus**
+ Hadoop 3.3.3 a introduit une modification dans YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) qui maintient les nœuds sur lesquels les conteneurs s'exécutaient dans un état de mise hors service jusqu'à ce que l'application soit terminée. Cette modification permet de s'assurer que les données locales telles que les données réorganisées ne sont pas perdues et que vous n'avez pas besoin de réexécuter la tâche. Dans Amazon EMR 6.8.0 et 6.9.0, cette approche peut également entraîner une sous-utilisation des ressources sur les clusters avec ou sans activation de la mise à l'échelle gérée.

  Avec [Amazon EMR 6.10.0](emr-6100-release.md#emr-6100-relnotes), il existe une solution à ce problème qui consiste à définir la valeur de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` sur `false` dans `yarn-site.xml`. Dans les versions 6.11.0 et supérieures d'Amazon EMR, ainsi que 6.8.1, 6.9.1 et 6.10.1, la configuration est définie sur `false` par défaut pour résoudre ce problème.

**Modifications, améliorations et problèmes résolus**
+ Lorsqu'Amazon EMR version 6.5.0, 6.6.0 ou 6.7.0 lisait les tables Apache Phoenix via le shell Apache Spark, Amazon EMR a produit une erreur `NoSuchMethodError`. La version 6.8.0 d'Amazon EMR résout ce problème.
+ La version 6.8.0 d'Amazon EMR est fournie avec [Apache Hudi](https://hudi.apache.org/) 0.11.1 ; toutefois, les clusters Amazon EMR 6.8.0 sont également compatibles avec le `hudi-spark3.3-bundle_2.12` open source de Hudi 0.12.0.
+ La version 6.8.0 d'Amazon EMR est fournie avec la version 3.3.0 d'Apache Spark. Cette version de Spark utilise Apache Log4j 2 et le fichier `log4j2.properties` pour configurer Log4j dans les processus Spark. Si vous utilisez Spark dans le cluster ou si vous créez des clusters EMR avec des paramètres de configuration personnalisés, et que vous voulez passer à la version 6.8.0 d'Amazon EMR, vous devez migrer vers la nouvelle classification de configuration `spark-log4j2` et le nouveau format de clé pour Apache Log4j 2. Pour de plus amples informations, veuillez consulter [Migration d'Apache Log4j 1.x vers Log4j 2.x](emr-spark-configure.md#spark-migrate-logj42).
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**Note**  
Cette version ne bénéficie plus de mises à jour automatiques de l'AMI puisqu'elle a été suivie d'une version supplémentaire de correctifs. La version du correctif est indiquée par le numéro qui suit la deuxième décimale (`6.8.1`). Pour savoir si vous utilisez la dernière version du correctif, consultez les versions disponibles dans le [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide), ou consultez le menu déroulant des **versions d'Amazon EMR** lorsque vous créez un cluster dans la console, ou utilisez l'action d'API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) ou de CLI [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html). Pour être tenu au courant des nouvelles versions, abonnez-vous au flux RSS sur la page [Quoi de neuf ?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-680-release.html)

**Problèmes connus**
+ Lorsque vous utilisez le connecteur DynamoDB avec Spark sur les versions 6.6.0, 6.7.0 et 6.8.0 d'Amazon EMR, toutes les lectures de votre table renvoient un résultat vide, même si la division d'entrée fait référence à des données non vides. Cela est dû au fait que Spark 3.2.0 définit `spark.hadoopRDD.ignoreEmptySplits` sur `true` par défaut. Pour contourner le problème, définissez explicitement `spark.hadoopRDD.ignoreEmptySplits` sur `false`. La version 6.9.0 d'Amazon EMR résout ce problème.
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.
+ Avec les versions 5.36.0 et 6.6.0 à 6.9.0 d'Amazon EMR, les composants de service `SecretAgent` et `RecordServer` peuvent subir une perte de données de journal en raison d'une configuration incorrecte du modèle de nom de fichier dans les propriétés de Log4j2. En cas de configuration incorrecte, les composants ne génèrent qu'un seul fichier journal par jour. Lorsque la stratégie de rotation est appliquée, elle remplace le fichier existant au lieu de générer un nouveau fichier journal comme prévu. Pour contourner le problème, utilisez une action d'amorçage pour générer des journaux toutes les heures et ajoutez un nombre entier auto-incrémenté dans le nom du fichier pour gérer la rotation.

  Pour les versions 6.6.0 à 6.9.0 d'Amazon EMR, utilisez l'action de démarrage suivante lorsque vous lancez un cluster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Pour Amazon EMR 5.36.0, utilisez l'action de démarrage suivante lorsque vous lancez un cluster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

Pour plus d'informations sur le calendrier de publication, consultez le [journal des modifications](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-680-release.html#680-changelog).

## Versions des composants 6.8.0
<a name="emr-680-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.7.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.22.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,53,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.15.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.15.1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-8 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-8 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-8 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-8 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-8 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-8 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-8 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-8 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-8 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-8 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-8 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.12-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.12-amzn-0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.12-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.12-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.12-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.12-amzn-0 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-1 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-1 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-1 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-1 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-1 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-1 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-1 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.11.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.11.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.11.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.11.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.14.0-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.9.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,7.0 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.2 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 5.1.2 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.273.3-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.273.3-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.273.3-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 388-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 388-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 388-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.3.0-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.3.0-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.3.0-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.3.0-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.06.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.9.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0,1,1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.10 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.8.0
<a name="emr-680-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.8.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j2 | Modifiez les valeurs dans le fichier log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

## Journal des modifications 6.8.0
<a name="680-changelog"></a>


**Journal des modifications pour la version 6.8.0 et les notes de mise à jour**  

| Date | Événement | Description | 
| --- | --- | --- | 
| 21/08/2023 | Mettre à jour | Ajout d'un problème connu avec Hadoop 3.3.3. | 
| 26/07/2023 | Mettre à jour | Étiquettes 2.0.20230612.0 et 2.0.20230628.0 de la nouvelle version du système d'exploitation. | 
| 05.09-06 | Déploiement terminé | [Amazon EMR 6.8 entièrement déployé dans toutes les régions prises en charge](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 05.09-06 | Publication initiale | Première publication des notes de mise à jour d'Amazon EMR 6.8 | 
| 08-31 | Première version | Amazon EMR 6.8 déployé dans des régions commerciales limitées | 

# Amazon EMR version 6.7.0
<a name="emr-670-release"></a>

## Versions d’application 6.7.0
<a name="emr-670-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,170 | 1,12,170 | 1,12,31 | 1,12,31 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,15 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.0 | 1.13.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 
| HCatalog | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 
| Hadoop | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 
| Hive | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 
| Hudi | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 
| Spark | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 378-amzn-0 | 367-amzn-0 | 360 | 359 | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 
| ZooKeeper | 3.5.7 | 3.5.7 | 3.5.7 | 3.5.7 | 

## Notes de mise à jour 6.7.0
<a name="emr-670-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.7.0. Les modifications ont été apportées à la version 6.6.0.

Date de parution initiale : 15 juillet 2022

**Nouvelles fonctionnalités**
+ Amazon EMR prend désormais en charge Apache Spark 3.2.1, Apache Hive 3.1.3, HUDI 0.11, PrestoDB 0.272 et Trino 0.378.
+ Prend en charge les contrôles d'accès basés sur les rôles IAM et Lake Formation avec des étapes EMR (Spark, Hive) pour Amazon EMR sur des clusters EC2.
+ Prend en charge les instructions de définition de données Apache Spark sur les clusters compatibles avec Apache Ranger. Cela inclut désormais la prise en charge des applications Trino lisant et écrivant des métadonnées Apache Hive sur des clusters compatibles avec Apache Ranger. Pour plus d'informations, consultez [Mise en place d'une gouvernance fédérée à l'aide de Trino et d'Apache Ranger sur Amazon EMR](https://aws.amazon.com/blogs/big-data/enable-federated-governance-using-trino-and-apache-ranger-on-amazon-emr/).
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-670-release.html)

**Problèmes connus**
+ Lorsque les versions 6.5.0, 6.6.0 ou 6.7.0 d'Amazon EMR lisent les tables Apache Phoenix via le shell Apache Spark, une erreur `NoSuchMethodError` se produit car Amazon EMR utilise une `Hbase.compat.version` incorrecte. La version 6.8.0 d'Amazon EMR résout ce problème.
+ Lorsque vous utilisez le connecteur DynamoDB avec Spark sur les versions 6.6.0, 6.7.0 et 6.8.0 d'Amazon EMR, toutes les lectures de votre table renvoient un résultat vide, même si la division d'entrée fait référence à des données non vides. Cela est dû au fait que Spark 3.2.0 définit `spark.hadoopRDD.ignoreEmptySplits` sur `true` par défaut. Pour contourner le problème, définissez explicitement `spark.hadoopRDD.ignoreEmptySplits` sur `false`. La version 6.9.0 d'Amazon EMR résout ce problème.
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.
+ Avec les versions 5.36.0 et 6.6.0 à 6.9.0 d'Amazon EMR, les composants de service `SecretAgent` et `RecordServer` peuvent subir une perte de données de journal en raison d'une configuration incorrecte du modèle de nom de fichier dans les propriétés de Log4j2. En cas de configuration incorrecte, les composants ne génèrent qu'un seul fichier journal par jour. Lorsque la stratégie de rotation est appliquée, elle remplace le fichier existant au lieu de générer un nouveau fichier journal comme prévu. Pour contourner le problème, utilisez une action d'amorçage pour générer des journaux toutes les heures et ajoutez un nombre entier auto-incrémenté dans le nom du fichier pour gérer la rotation.

  Pour les versions 6.6.0 à 6.9.0 d'Amazon EMR, utilisez l'action de démarrage suivante lorsque vous lancez un cluster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Pour Amazon EMR 5.36.0, utilisez l'action de démarrage suivante lorsque vous lancez un cluster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```
+ L’API `GetClusterSessionCredentials` n’est pas prise en charge avec les clusters qui s’exécutent sur Amazon EMR 6.7 ou version antérieure.
+ Les commits Hadoop suivants ont été rétroportés.

  - [[HADOOP-16080]](https://issues.apache.org/jira/browse/HADOOP-16080) Corrigez un problème qui ne fonctionnait pas avec. `hadoop-aws` `hadoop-client-api`

  - [[HADOOP-18237]](https://issues.apache.org/jira/browse/HADOOP-18237) Mettez à jour Apache Xerces Java vers la version 2.12.2.

  - [[YARN-11092]](https://issues.apache.org/jira/browse/YARN-11092) Mettez à jour jquery vers ui vers la version 1.13.1.

  - [[YARN-10720]](https://issues.apache.org/jira/browse/YARN-10720) YARN WebAppProxyServlet devrait prendre en charge le délai d'expiration de la connexion pour empêcher le serveur proxy de se bloquer.

## Versions des composants 6.7.0
<a name="emr-670-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.6.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.22.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,52,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.14.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.14.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-7 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-7 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-7 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-7 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-7 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-7 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-7 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-7 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-7 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-7 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-7 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.4-amzn-3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.4-amzn-3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.4-amzn-3 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.4-amzn-3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.4-amzn-3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.4-amzn-3 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.3-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.3-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.3-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.3-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.3-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.3-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.11.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.11.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.11.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.11.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.13.1-amzn-0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.8.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,0,194 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.2 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 5.1.2 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.272-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.272-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.272-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 378-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 378-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 378-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.2.1-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.2.1-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.2.1-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.2.1-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.02.0-amzn-1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.10.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.7 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.7 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.7.0
<a name="emr-670-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.7.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.6.0
<a name="emr-660-release"></a>

## Versions d’application 6.6.0
<a name="emr-660-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,170 | 1,12,31 | 1,12,31 | 1,1,977 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.0 | 1.13.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 
| HCatalog | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 
| Hadoop | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 
| Hive | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 
| Hudi | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 
| Hue | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.13.1 | 0.12.0 |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 367-amzn-0 | 360 | 359 | 350 | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3.5.7 | 3.5.7 | 3.5.7 | 3.4.14 | 

## Notes de mise à jour 6.6.0
<a name="emr-660-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.6.0. Les modifications ont été apportées à la version 6.5.0.

Date de parution initiale : 9 mai 2022

Date de mise à jour de la documentation : 15 juin 2022

**Nouvelles fonctionnalités**
+ Amazon EMR 6.6 prend désormais en charge Apache Spark 3.2, Apache Spark RAPIDS 22.02, CUDA 11, Apache Hudi 0.10.1, Apache Iceberg 0.13, Trino 0.367 et PrestoDB 0.267.
+ Lorsque vous lancez un cluster avec *le dernier correctif* d'Amazon EMR 5.36 ou supérieur, 6.6 ou supérieur, ou 7.0 ou supérieur, Amazon EMR utilise la dernière version d'Amazon Linux 2023 ou Amazon Linux 2 pour l'AMI Amazon EMR par défaut. Pour plus d'informations, consultez [Utilisation de l'AMI Amazon Linux par défaut pour Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-660-release.html)
+ Avec Amazon EMR 6.6 et les versions ultérieures, les applications qui utilisent Log4j 1.x et Log4j 2.x sont mises à niveau pour utiliser respectivement Log4j 1.2.17 (ou supérieur) et Log4j 2.17.1 (ou supérieur), et n'ont pas besoin d'utiliser les [actions d'amorçage](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-log4j-vulnerability.html) fournies pour atténuer les problèmes liés aux CVE.
+ **[Mise à l'échelle gérée] Optimisation de la mise à l'échelle gérée des données de réorganisation Spark** – Pour Amazon EMR versions 5.34.0 et ultérieures, et EMR versions 6.4.0 et ultérieures, la mise à l'échelle gérée prend désormais en compte les données de réorganisation Spark (données que Spark redistribue entre les partitions pour effectuer des opérations spécifiques). Pour plus d'informations sur les opérations de réorganisation, consultez [Utilisation de la mise à l'échelle gérée par EMR dans Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) dans le *Guide de gestion Amazon EMR* et le [Guide de programmation Spark](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ À partir d'Amazon EMR 5.32.0 et 6.5.0, le dimensionnement dynamique de l'exécuteur pour Apache Spark est activé par défaut. Pour activer ou désactiver cette fonctionnalité, vous pouvez utiliser le paramètre de configuration `spark.yarn.heterogeneousExecutors.enabled`.

**Modifications, améliorations et problèmes résolus**
+ Amazon EMR réduit le temps de démarrage des clusters de 80 secondes en moyenne pour les clusters qui utilisent l'option AMI par défaut d'EMR et n'installent que des applications courantes, telles qu'Apache Hadoop, Apache Spark et Apache Hive.

**Problèmes connus**
+ Lorsque les versions 6.5.0, 6.6.0 ou 6.7.0 d'Amazon EMR lisent les tables Apache Phoenix via le shell Apache Spark, une erreur `NoSuchMethodError` se produit car Amazon EMR utilise une `Hbase.compat.version` incorrecte. La version 6.8.0 d'Amazon EMR résout ce problème.
+ Lorsque vous utilisez le connecteur DynamoDB avec Spark sur les versions 6.6.0, 6.7.0 et 6.8.0 d'Amazon EMR, toutes les lectures de votre table renvoient un résultat vide, même si la division d'entrée fait référence à des données non vides. Cela est dû au fait que Spark 3.2.0 définit `spark.hadoopRDD.ignoreEmptySplits` sur `true` par défaut. Pour contourner le problème, définissez explicitement `spark.hadoopRDD.ignoreEmptySplits` sur `false`. La version 6.9.0 d'Amazon EMR résout ce problème.
+ Sur les clusters de longue durée de Trino, Amazon EMR 6.6.0 active les paramètres de journalisation du récupérateur de mémoire dans le fichier jvm.config de Trino afin d'obtenir de meilleures informations à partir des journaux du récupérateur de mémoire. Cette modification ajoute de nombreux journaux de collecte des déchets au fichier launcher.log (/var/log/trino/launcher.log). Si vous utilisez des clusters Trino dans Amazon EMR 6.6.0, vous pouvez rencontrer des nœuds à court d'espace disque après quelques jours d'exécution du cluster en raison des journaux ajoutés.

  La solution à ce problème consiste à exécuter le script ci-dessous en tant qu'action d'amorçage afin de désactiver les paramètres de journalisation du récupérateur de mémoire dans jvm.config lors de la création ou du clonage du cluster pour Amazon EMR 6.6.0.

  ```
  #!/bin/bash
    set -ex
    PRESTO_PUPPET_DIR='/var/aws/emr/bigtop-deploy/puppet/modules/trino'
    sudo bash -c "sed -i '/-Xlog/d' ${PRESTO_PUPPET_DIR}/templates/jvm.config"
  ```
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.
+ Avec les versions 5.36.0 et 6.6.0 à 6.9.0 d'Amazon EMR, les composants de service `SecretAgent` et `RecordServer` peuvent subir une perte de données de journal en raison d'une configuration incorrecte du modèle de nom de fichier dans les propriétés de Log4j2. En cas de configuration incorrecte, les composants ne génèrent qu'un seul fichier journal par jour. Lorsque la stratégie de rotation est appliquée, elle remplace le fichier existant au lieu de générer un nouveau fichier journal comme prévu. Pour contourner le problème, utilisez une action d'amorçage pour générer des journaux toutes les heures et ajoutez un nombre entier auto-incrémenté dans le nom du fichier pour gérer la rotation.

  Pour les versions 6.6.0 à 6.9.0 d'Amazon EMR, utilisez l'action de démarrage suivante lorsque vous lancez un cluster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Pour Amazon EMR 5.36.0, utilisez l'action de démarrage suivante lorsque vous lancez un cluster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

## Versions des composants 6.6.0
<a name="emr-660-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.5.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.20.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,50,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.14.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.14.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-6 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-6 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-6 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-6 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-6 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-6 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-6 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-6 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-6 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-6 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-6 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.4-amzn-2 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.4-amzn-2 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.4-amzn-2 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.4-amzn-2 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.4-amzn-2 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hbase-operator-tools | 2.4.4-amzn-2 | Outil de réparation pour les HBase clusters Apache. | 
| hcatalog-client | 3.1.2-amzn-7 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-7 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-7 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-7 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-7 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-7 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-7 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.10.1-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.10.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.10.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.10.1-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.10.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.13.1 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.8.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 11,0,194 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-connectors | 5.1.2 | Connecteurs Apache Phoenix pour Spark-3 | 
| phoenix-query-server | 5.1.2 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.267-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.267-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.267-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 367-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 367-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 367-amzn-0 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.2.0-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.2.0-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.2.0-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.2.0-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 22.02.0-amzn-0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.10.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.7 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.7 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.6.0
<a name="emr-660-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.6.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Modifiez les valeurs dans le fichier iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.5.0
<a name="emr-650-release"></a>

## Versions d’application 6.5.0
<a name="emr-650-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,31 | 1,12,31 | 1,1,977 | 1,1,977 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.0 | 1.13.1 | 1.12.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 
| HCatalog | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 
| Hadoop | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 
| Hive | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 
| Hudi | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.12.0 |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 360 | 359 | 350 | 350 | 
| Zeppelin | 0.10.0 | 0.9.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3.5.7 | 3.5.7 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.5.0
<a name="emr-650-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.5.0. Les modifications ont été apportées à la version 6.4.0.

Date de parution initiale : 20 janvier 2022

Date de mise à niveau : 21 mars 2022

**Nouvelles fonctionnalités**
+ **[Mise à l'échelle gérée] Optimisation de la mise à l'échelle gérée des données de réorganisation Spark** – Pour Amazon EMR versions 5.34.0 et ultérieures, et EMR versions 6.4.0 et ultérieures, la mise à l'échelle gérée prend désormais en compte les données de réorganisation Spark (données que Spark redistribue entre les partitions pour effectuer des opérations spécifiques). Pour plus d'informations sur les opérations de réorganisation, consultez [Utilisation de la mise à l'échelle gérée par EMR dans Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) dans le *Guide de gestion Amazon EMR* et le [Guide de programmation Spark](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ À partir d'Amazon EMR 5.32.0 et 6.5.0, le dimensionnement dynamique de l'exécuteur pour Apache Spark est activé par défaut. Pour activer ou désactiver cette fonctionnalité, vous pouvez utiliser le paramètre de configuration `spark.yarn.heterogeneousExecutors.enabled`.
+ Prise en charge du format de table ouvert Apache Iceberg pour les jeux de données analytiques volumineux.
+ Support pour ranger-trino-plugin 2.0.1-amzn-1
+ Prise en charge de toree 0.5.0

**Modifications, améliorations et problèmes résolus**
+ La version 6.5 d'Amazon EMR prend désormais en charge Apache Iceberg 0.12.0 et apporte des améliorations d'exécution avec l'environnement d'exécution Amazon EMR pour Apache Spark, l'environnement d'exécution Amazon EMR pour Presto et l'environnement d'exécution Amazon EMR pour Apache Hive.
+ [Apache Iceberg](https://iceberg.apache.org/) est un format de table ouvert pour les grands jeux de données dans Amazon S3. Il fournit des performances de requête rapides sur de grandes tables, des validations atomiques, des écritures simultanées et une évolution de table compatible avec SQL. Avec EMR 6.5, vous pouvez utiliser Apache Spark 3.1.2 avec le format de table Iceberg.
+ Apache Hudi 0.9 ajoute la prise en charge de DDL et DML de Spark SQL. Cela vous permet de créer et de modifier des tables Hudi en utilisant uniquement des instructions SQL. Apache Hudi 0.9 inclut également des améliorations des performances côté requête et côté écriture.
+ L'environnement d'exécution Amazon EMR pour Apache Hive améliore les performances d'Apache Hive sur Amazon S3 en supprimant les opérations de changement de nom pendant les opérations intermédiaires et en améliorant les performances des commandes de vérification du métastore (MSCK) utilisées pour la réparation des tables.

**Problèmes connus**
+ Lorsque les versions 6.5.0, 6.6.0 ou 6.7.0 d'Amazon EMR lisent les tables Apache Phoenix via le shell Apache Spark, une erreur `NoSuchMethodError` se produit car Amazon EMR utilise une `Hbase.compat.version` incorrecte. La version 6.8.0 d'Amazon EMR résout ce problème.
+ Les clusters de la solution groupée Hbase en haute disponibilité (HA) ne parviennent pas à se provisionner avec la taille de volume et le type d'instance par défaut. La solution à ce problème consiste à augmenter la taille du volume racine.
+ Pour utiliser les actions Spark avec Apache Oozie, vous devez ajouter la configuration suivante à votre fichier Oozie `workflow.xml`. Sinon, plusieurs bibliothèques critiques telles que Hadoop et EMRFS seront absentes du classpath des exécuteurs Spark lancés par Oozie.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 6.5.0
<a name="emr-650-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.4.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.19.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,48,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.14.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.14.0 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-5 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-5 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-5 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-5 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-5 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-5 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-5 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-5 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-5 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-5 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-5 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.4-amzn-1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.4-amzn-1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.4-amzn-1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.4-amzn-1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.4-amzn-1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-6 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-6 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-6 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-6 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-6 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-6 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-6 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.9.0-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.9.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.9.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.9.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.9.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| iceberg | 0.12.0 | Apache Iceberg est un format de table ouvert pour les jeux de données analytiques de grande taille. | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.8.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5.1.2 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.261-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.261-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.261-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 360 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 360 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 360 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.1.2-amzn-1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.1.2-amzn-1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.1.2-amzn-1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.1.2-amzn-1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 0,4.1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.10.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.7 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.7 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.5.0
<a name="emr-650-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.5.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Modification des valeurs du fichier iceberg-defaults.conf d'Iceberg. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.4.0
<a name="emr-640-release"></a>

## Versions d’application 6.4.0
<a name="emr-640-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,12,31 | 1,1,977 | 1,1,977 | 1,1880 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 
| HCatalog | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 
| Hadoop | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 
| Hive | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 
| Hudi | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 
| Livy | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 
| Phoenix | 5.1.2 | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 
| Spark | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 359 | 350 | 350 | 343 | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 
| ZooKeeper | 3.5.7 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.4.0
<a name="emr-640-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.4.0. Les modifications ont été apportées à la version 6.3.0.

Date de parution initiale : 20 septembre 2021

Date de mise à niveau : 21 mars 2022

**Applications prises en charge**
+ AWS SDK pour Java version 1.12.31
+ CloudWatch Version 2.2.0 de l'évier
+ Connecteur DynamoDB version 4.16.0
+ EMRFS version 2.47.0
+ Amazon EMR Goodies version 3.2.0
+ Amazon EMR Kinesis Connector version 3.5.0
+ Amazon EMR Record Server version 2.1.0
+ Amazon EMR Scripts version 2.5.0
+ Flink version 1.13.1
+ Ganglia version 3.7.2
+ AWS Client Glue Hive Metastore version 3.3.0
+ Hadoop version 3.2.1-amzn-4
+ HBase version 2.4.4-amzn-0
+ HBase-operator-tools 1.1.0
+ HCatalog version 3.1.2-amzn-5
+ Hive version 3.1.2-amzn-5
+ Hudi version 0.8.0-amzn-0
+ Hue version 4.9.0
+ Java JDK version Corretto-8.302.08.1 (build 1.8.0\$1302-b08)
+ JupyterHub version 1.4.1
+ Livy version 0.7.1-incubating
+ MXNet version 1.8.0
+ Oozie version 5.2.1
+ Phoenix version 5.1.2
+ Pig version 0.17.0
+ Presto version 0.254.1-amzn-0
+ Trino version 359
+ Apache Ranger KMS (chiffrement transparent à plusieurs maîtres) version 2.0.0
+ ranger-plugins 2.0.1-amzn-0
+ ranger-s3-plugin 1.2.0
+ SageMaker Version 1.4.1 du SDK Spark
+ Scala version 2.12.10 (machine virtuelle du serveur OpenJDK 64 bits, Java 1.8.0\$1282)
+ Spark version 3.1.2-amzn-0
+ spark-rapids 0.4.1
+ Sqoop version 1.4.7
+ TensorFlow version 2.4.1
+ tez version 0.9.2
+ Zeppelin version 0.9.0
+ Zookeeper version 3.5.7
+ Connecteurs et pilotes : Connecteur DynamoDB 4.16.0

**Nouvelles fonctionnalités**
+ **[Mise à l'échelle gérée] Optimisation de la mise à l'échelle gérée des données de réorganisation Spark** – Pour Amazon EMR versions 5.34.0 et ultérieures, et EMR versions 6.4.0 et ultérieures, la mise à l'échelle gérée prend désormais en compte les données de réorganisation Spark (données que Spark redistribue entre les partitions pour effectuer des opérations spécifiques). Pour plus d'informations sur les opérations de réorganisation, consultez [Utilisation de la mise à l'échelle gérée par EMR dans Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) dans le *Guide de gestion Amazon EMR* et le [Guide de programmation Spark](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ Sur les clusters Amazon EMR compatibles avec Apache Ranger, vous pouvez utiliser Apache Spark SQL pour insérer des données dans les tables de métastore Apache Hive ou les mettre à jour à l'aide de `INSERT INTO`, `INSERT OVERWRITE` et `ALTER TABLE`. Lorsque vous utilisez ALTER TABLE avec Spark SQL, l'emplacement d'une partition doit être le répertoire enfant d'un emplacement de table. Amazon EMR ne prend actuellement pas en charge l'insertion de données dans une partition où l'emplacement de la partition est différent de celui de la table.
+ PrestoSQL a été [renommé Trino.](https://trino.io/blog/2020/12/27/announcing-trino.html) 
+ Hive : l'exécution de requêtes SELECT simples avec la clause LIMIT est accélérée en arrêtant l'exécution de la requête dès que le nombre d'enregistrements mentionné dans la clause LIMIT est récupéré. Les requêtes SELECT simples sont des requêtes qui ne contiennent pas de clause GROUP BY/ORDER BY ou des requêtes qui n'ont pas d'étape de réduction. Par exemple, `SELECT * from <TABLE> WHERE <Condition> LIMIT <Number>`. 

**Contrôles de simultanéité Hudi**
+ Hudi prend désormais en charge le contrôle de simultanéité optimiste (OCC), qui peut être exploité avec des opérations d'écriture telles que UPSERT et INSERT pour permettre les modifications de plusieurs enregistreurs sur la même table Hudi. Il s'agit d'un OCC au niveau du fichier, de sorte que deux validations (ou enregistreurs) peuvent écrire dans la même table, si leurs modifications n'entrent pas en conflit. Pour plus d'informations, consultez le [contrôle de simultanéité de Hudi](https://hudi.apache.org/docs/concurrency_control/). 
+ Zookeeper est installé sur les clusters Amazon EMR, qui peut être utilisé comme fournisseur de verrous pour OCC. Pour faciliter l'utilisation de cette fonctionnalité, les propriétés préconfigurées des clusters Amazon EMR sont les suivantes :

  ```
  hoodie.write.lock.provider=org.apache.hudi.client.transaction.lock.ZookeeperBasedLockProvider
  hoodie.write.lock.zookeeper.url=<EMR Zookeeper URL>
  hoodie.write.lock.zookeeper.port=<EMR Zookeeper Port>
  hoodie.write.lock.zookeeper.base_path=/hudi
  ```

  Pour activer l'OCC, vous devez configurer les propriétés suivantes soit avec leurs options de tâche Hudi, soit au niveau du cluster à l'aide de l'API de configuration Amazon EMR :

  ```
  hoodie.write.concurrency.mode=optimistic_concurrency_control
  hoodie.cleaner.policy.failed.writes=LAZY (Performs cleaning of failed writes lazily instead of inline with every write)
  hoodie.write.lock.zookeeper.lock_key=<Key to uniquely identify the Hudi table> (Table Name is a good option)
  ```

**Hudi Monitoring : CloudWatch intégration d'Amazon pour générer des rapports sur Hudi Metrics**
+ Amazon EMR prend en charge la publication de Hudi Metrics sur Amazon. CloudWatch Elle est activée en définissant les configurations requises suivantes :

  ```
  hoodie.metrics.on=true
  hoodie.metrics.reporter.type=CLOUDWATCH
  ```
+ Les configurations Hudi facultatives que vous pouvez modifier sont les suivantes :    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/emr/latest/ReleaseGuide/emr-640-release.html)

**Prise en charge et amélioration des configurations Hudi d'Amazon EMR**
+ Les clients peuvent désormais tirer parti de l'API de configuration EMR et de la fonctionnalité de reconfiguration pour configurer les configurations Hudi au niveau du cluster. Un nouveau support de configuration basé sur des fichiers a été introduit via/etc/hudi/conf/hudi-defaults.conf, à l'instar d'autres applications telles que Spark, Hive, etc. EMR configure quelques paramètres par défaut pour améliorer l'expérience utilisateur :

  — `hoodie.datasource.hive_sync.jdbcurl ` est configuré selon l'URL du serveur Hive du cluster et n'a plus besoin d'être spécifié. Cela est particulièrement utile lorsque vous exécutez une tâche en mode cluster Spark, où vous deviez auparavant spécifier l'adresse IP principale Amazon EMR. 

  — HBase des configurations spécifiques, utiles pour utiliser l' HBase index avec Hudi.

  — Configuration spécifique au fournisseur de verrous Zookeeper, comme indiqué dans la section Contrôle de simultanéité, qui facilite l'utilisation du contrôle de simultanéité optimiste (OCC).
+ Des modifications supplémentaires ont été introduites pour réduire le nombre de configurations à transmettre et pour en déduire automatiquement dans la mesure du possible :

  — Le mot clé `partitionBy ` peut être utilisé pour spécifier la colonne de partition. 

  — Lorsque vous activez Hive Sync, il n'est plus obligatoire de spécifier `HIVE_TABLE_OPT_KEY, HIVE_PARTITION_FIELDS_OPT_KEY, HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY`. Ces valeurs peuvent être déduites du nom de la table Hudi et du champ de partition. 

  — `KEYGENERATOR_CLASS_OPT_KEY` n'est pas obligatoire et peut être déduite de cas plus simples de `SimpleKeyGenerator` et`ComplexKeyGenerator`. 

**Mises en garde de Hudi**
+ Hudi ne prend pas en charge l'exécution vectorisée dans les tables Hive for Merge on Read (MoR) et Bootstrap. Par exemple, `count(*)` échoue avec la table en temps réel de Hudi lorsque `hive.vectorized.execution.enabled` est défini sur true. Comme solution de contournement, vous pouvez désactiver la lecture vectorisée en définissant `hive.vectorized.execution.enabled` sur `false`. 
+ La prise en charge des enregistreurs multiples n'est pas compatible avec la fonction d'amorçage de Hudi.
+ Flink Streamer et Flink SQL sont des fonctionnalités expérimentales dans cette version. Ces fonctionnalités ne sont pas recommandées pour les déploiements de production.

**Modifications, améliorations et problèmes résolus**

Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Auparavant, le redémarrage manuel du gestionnaire de ressources sur un cluster multimaître provoquait le rechargement par les démons Amazon EMR on-cluster, comme Zookeeper, de tous les nœuds précédemment mis hors service ou perdus dans le fichier znode de Zookeeper. Cela a entraîné le dépassement des limites par défaut dans certaines situations. Amazon EMR supprime désormais les enregistrements de nœuds mis hors service ou perdus datant de plus d'une heure du fichier Zookeeper et les limites internes ont été augmentées.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ **Configuration d'un cluster pour résoudre les problèmes de performances d'Apache YARN Timeline Server versions 1 et 1.5**

  Les versions 1 et 1.5 d'Apache YARN Timeline Server peuvent entraîner des problèmes de performances avec de grands clusters EMR très actifs, en particulier avec `yarn.resourcemanager.system-metrics-publisher.enabled=true`, le paramètre par défaut d'Amazon EMR. YARN Timeline Server v2 open source résout le problème de performance lié à la capacité de mise à l'échelle de YARN Timeline Server.

  Les autres solutions à ce problème incluent :
  + Configuration de yarn.resourcemanager. system-metrics-publisher.enabled=false dans le fichier yarn-site.xml.
  + Activation du correctif pour ce problème lors de la création d'un cluster, comme décrit ci-dessous.

  Les versions Amazon EMR suivantes contiennent un correctif pour ce problème de performance de YARN Timeline Server.

  EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x

  Pour activer le correctif sur l'une des versions Amazon EMR spécifiées ci-dessus, définissez ces propriétés sur `true` dans un fichier JSON de configuration transmis à l'aide du [paramètre de commande `aws emr create-cluster`](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html) : `--configurations file://./configurations.json`. Vous pouvez également activer le correctif à l'aide de l'[interface utilisateur de la console de reconfiguration](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html).

  Exemple du contenu du fichier configurations.json :

  ```
  [
  {
  "Classification": "yarn-site",
  "Properties": {
  "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true",
  "yarn.resourcemanager.system-metrics-publisher.enabled": "true"
  },
  "Configurations": []
  }
  ]
  ```
+ WebHDFS et le serveur HttpFS sont désactivés par défaut. Vous pouvez réactiver WebHDFS en utilisant la configuration Hadoop, `dfs.webhdfs.enabled`. Le serveur HttpFS peut être démarré en utilisant `sudo systemctl start hadoop-httpfs`.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 
+ Hive : les performances des requêtes d'écriture sont améliorées en permettant l'utilisation d'un répertoire temporaire sur HDFS pour la dernière tâche. Les données temporaires pour la tâche finale sont écrites sur HDFS au lieu d'Amazon S3 et les performances sont améliorées car les données sont déplacées de HDFS vers l'emplacement de la table finale (Amazon S3) au lieu d'être déplacées entre les appareils Amazon S3.
+ Hive : amélioration du temps de compilation des requêtes jusqu'à 2,5 fois avec l'élimination des partitions du métastore Glue.
+ Par défaut, lorsque les éléments intégrés UDFs sont transmis par Hive au serveur Hive Metastore, seul un sous-ensemble de ces éléments intégrés UDFs est transmis au Glue Metastore, car Glue ne prend en charge que des opérateurs d'expression limités. Si vous définissez `hive.glue.partition.pruning.client=true`, tout l'élimination des partitions se fait du côté client. Si vous définissez `hive.glue.partition.pruning.server=true`, tout l'élimination des partitions se fait du côté serveur. 

**Problèmes connus**
+ Les requêtes Hue ne fonctionnent pas dans Amazon EMR 6.4.0 car le serveur Apache Hadoop HTTPFS est désactivé par défaut. Pour utiliser Hue sur Amazon EMR 6.4.0, démarrez manuellement le serveur HttpFS sur le nœud primaire d'Amazon EMR à l'aide de `sudo systemctl start hadoop-httpfs`, ou [utilisez une étape d'Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html).
+ La fonctionnalité Blocs-notes Amazon EMR utilisée avec l'emprunt d'identité de l'utilisateur Livy ne fonctionne pas car HttpFS est désactivé par défaut. Dans ce cas, le bloc-notes EMR ne peut pas se connecter au cluster dont l'emprunt d'identité Livy est activé. La solution consiste à démarrer le serveur HttpFS avant de connecter le bloc-notes EMR au cluster à l'aide de `sudo systemctl start hadoop-httpfs`.
+ Dans la version 6.4.0 d'Amazon EMR, Phoenix ne prend pas en charge le composant des connecteurs Phoenix.
+ Pour utiliser les actions Spark avec Apache Oozie, vous devez ajouter la configuration suivante à votre fichier Oozie `workflow.xml`. Sinon, plusieurs bibliothèques critiques telles que Hadoop et EMRFS seront absentes du classpath des exécuteurs Spark lancés par Oozie.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 6.4.0
<a name="emr-640-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.3.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.18.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,47,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.13.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.13.1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-4 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-4 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-4 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-4 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-4 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-4 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-4 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-4 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-4 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-4 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-4 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.4.4-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.4.4-amzn-0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.4.4-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.4.4-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.4.4-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-5 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-5 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-5 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-5 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-5 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-5 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-5 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.8.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.8.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-trino | 0.8.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Trino avec Hudi. | 
| hudi-spark | 0.8.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.9.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.4.1 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.1-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.8.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5.1.2 | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5.1.2 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.254.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.254.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.254.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| trino-coordinator | 359 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants trino-workers. | 
| trino-worker | 359 | Service pour exécuter les éléments d'une requête. | 
| trino-client | 359 | Client de ligne de commande Trino installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Trino n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.1.2-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.1.2-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.1.2-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.1.2-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 0,4.1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.5.7 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.5.7 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.4.0
<a name="emr-640-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.4.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| hudi-defaults | Modifiez les valeurs dans le fichier hudi-defaults.conf de Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| trino-log | Modifiez les valeurs dans le fichier log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Modifiez les valeurs dans le fichier config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Modification des valeurs dans le fichier trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Modifiez les valeurs dans le fichier node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.3.1
<a name="emr-631-release"></a>

## Versions d’application 6.3.1
<a name="emr-631-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,977 | 1,1,977 | 1,1880 | 1,1880 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 
| HCatalog | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 
| Hadoop | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 
| Hive | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 
| Hudi | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 
| Hue | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 
| Spark | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 350 | 350 | 343 | 343 | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.3.1
<a name="emr-631-relnotes"></a>

Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.

**Modifications, améliorations et problèmes résolus**
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

**Problèmes connus**
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 6.3.1
<a name="emr-631-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.2.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.18.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,46,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.12.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.12.1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-3.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-3.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-3.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-3.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-3.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-3.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-3.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-3.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-3.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-3.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-3.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.6-amzn-1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.6-amzn-1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.6-amzn-1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.6-amzn-1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.6-amzn-1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-4 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-4 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-4 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-4 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-4 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-4 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-4 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.7.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-prestosql | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter PrestoSQL avec Hudi. | 
| hudi-spark | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.9.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.2.2 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.7.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.245.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.245.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.245.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| prestosql-coordinator | 350 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers. | 
| prestosql-worker | 350 | Service pour exécuter les éléments d'une requête. | 
| prestosql-client | 350 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.1.1-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.1.1-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.1.1-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.1.1-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 0,4.1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.3.1
<a name="emr-631-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.3.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| prestosql-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Modifiez les valeurs dans le fichier node.properties de PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de PrestoSQL. | Not available. | 
| prestosql-connector-hive | Modifiez les valeurs dans le fichier hive.properties de PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de PrestoSQL. | Not available. | 
| prestosql-connector-memory | Modifiez les valeurs dans le fichier memory.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redis | Modifiez les valeurs dans le fichier redis.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.3.0
<a name="emr-630-release"></a>

## Versions d’application 6.3.0
<a name="emr-630-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,977 | 1,1880 | 1,1880 | 1,1,828 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 
| HCatalog | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 
| Hadoop | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 
| Hive | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 
| Hudi | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 
| Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 |  -  | 
| JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 
| Spark | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 350 | 343 | 343 | 338 | 
| Zeppelin | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.3.0
<a name="emr-630-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.3.0. Les modifications ont été apportées à la version 6.2.0.

Date de parution initiale : 12 mai 2021

Dernière mise à jour : 9 août 2021

**Applications prises en charge**
+ AWS SDK pour Java version 1.11.977
+ CloudWatch Version 2.1.0 de l'évier
+ Connecteur DynamoDB version 4.16.0
+ EMRFS version 2.46.0
+ Amazon EMR Goodies version 3.2.0
+ Amazon EMR Kinesis Connector version 3.5.0
+ Amazon EMR Record Server version 2.0.0
+ Amazon EMR Scripts version 2.5.0
+ Flink version 1.12.1
+ Ganglia version 3.7.2
+ AWS Client Glue Hive Metastore version 3.2.0
+ Hadoop version 3.2.1-amzn-3
+ HBase version 2.2.6-amzn-1
+ HBase-operator-tools 1.0.0
+ HCatalog version 3.1.2-amzn-0
+ Hive version 3.1.2-amzn-4
+ Hudi version 0.7.0-amzn-0
+ Hue version 4.9.0
+ Java JDK version Corretto-8.282.08.1 (build 1.8.0\$1282-b08)
+ JupyterHub version 1.2.0
+ Livy version 0.7.0-incubating
+ MXNet version 1.7.0
+ Oozie version 5.2.1
+ Phoenix version 5.0.0
+ Pig version 0.17.0
+ Presto version 0.245.1-amzn-0
+ PrestoSQL version 350
+ Apache Ranger KMS (chiffrement transparent à plusieurs maîtres) version 2.0.0
+ ranger-plugins 2.0.1-amzn-0
+ ranger-s3-plugin 1.1.0
+ SageMaker Version 1.4.1 du SDK Spark
+ Scala version 2.12.10 (machine virtuelle du serveur OpenJDK 64 bits, Java 1.8.0\$1282)
+ Spark version 3.1.1-amzn-0
+ spark-rapids 0.4.1
+ Sqoop version 1.4.7
+ TensorFlow version 2.4.1
+ tez version 0.9.2
+ Zeppelin version 0.9.0
+ Zookeeper version 3.4.14
+ Connecteurs et pilotes : Connecteur DynamoDB 4.16.0

**Nouvelles fonctionnalités**
+ Amazon EMR prend en charge les points d'accès Amazon S3, une fonctionnalité d'Amazon S3 qui vous permet de gérer facilement l'accès aux lacs de données partagés. En utilisant votre alias de point d'accès Amazon S3, vous pouvez simplifier l'accès aux données à grande échelle sur Amazon EMR. Vous pouvez utiliser les points d'accès Amazon S3 avec toutes les versions d'Amazon EMR sans frais supplémentaires dans toutes les AWS régions où Amazon EMR est disponible. Pour en savoir plus sur les points d'accès Amazon S3 et les alias de points d'accès, consultez [Utilisation d'un alias de type compartiment pour votre point d'accès](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-alias.html) dans le *Guide de l'utilisateur Amazon S3*.
+ Les nouveaux paramètres d'API `DescribeReleaseLabel` et `ListReleaseLabel` fournissent des détails sur les étiquettes de version d'Amazon EMR. Vous pouvez répertorier par programmation les versions disponibles dans la région où la demande d'API est exécutée, et répertorier les applications disponibles pour une étiquette de version Amazon EMR spécifique. Les paramètres d'étiquette de version répertorient également les versions Amazon EMR qui prennent en charge une application spécifiée, telle que Spark. Ces informations peuvent être utilisées pour lancer par programmation des clusters Amazon EMR. Par exemple, vous pouvez lancer un cluster à l'aide de la dernière version des résultats de `ListReleaseLabel`. Pour plus d'informations, consultez [DescribeReleaseLabel](https://docs.aws.amazon.com/emr/latest/APIReference/API_DescribeReleaseLabel.html)et consultez [ListReleaseLabels](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html)le manuel *Amazon EMR API* Reference.
+ Avec Amazon EMR 6.3.0, vous pouvez lancer un cluster qui s'intègre nativement à Apache Ranger. Apache Ranger est un cadre open source permettant d'activer, de surveiller et de gérer la sécurité globale des données sur la plateforme Hadoop. Pour plus d'informations, consultez [Apache Ranger](https://ranger.apache.org/). Grâce à l'intégration native, vous pouvez utiliser votre propre Apache Ranger pour appliquer un contrôle précis de l'accès aux données sur Amazon EMR. Consultez [Intégration d'Amazon EMR avec Apache Ranger](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger.html) dans le Guide de gestion Amazon EMR.
+ Politiques gérées délimitées : pour s'aligner sur les AWS meilleures pratiques, Amazon EMR a introduit des politiques gérées par défaut définies dans la version 2 EMR en remplacement des politiques qui seront déconseillées. Consultez [Politiques gérées par Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html)
+ État de prise en charge du service de métadonnées d'instance (IMDS) V2 : pour Amazon EMR 6.2 ou version ultérieure, les composants Amazon EMR sont IMDSv2 utilisés pour tous les appels IMDS. Pour les appels IMDS dans le code de votre application, vous pouvez utiliser les deux IMDSv1 ou configurer l'IMDS pour qu'il ne soit utilisé que IMDSv2 pour renforcer la sécurité. IMDSv2 Si vous la désactivez IMDSv1 dans les versions antérieures d'Amazon EMR 6.x, cela entraîne un échec du démarrage du cluster.

**Modifications, améliorations et problèmes résolus**
+ Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Le mode explain par défaut de l'interface utilisateur Spark SQL est passé de `extended` à `formatted` dans [Spark 3.1](https://issues.apache.org/jira/browse/SPARK-31325). Amazon EMR l'a ramené à `extended` pour inclure des informations sur le plan logique dans l'interface utilisateur Spark SQL. Ceci peut être inversé en définissant `spark.sql.ui.explainMode` sur `formatted`.
+ Les commits suivants ont été rétroportés depuis la branche master de Spark.

  - [[SPARK-34752]](https://issues.apache.org/jira/browse/SPARK-34752)[BUILD] Passer Jetty à la version 9.4.37 pour résoudre la CVE-2020-27223.

  - [[SPARK-34534]](https://issues.apache.org/jira/browse/SPARK-34534) Corrige l'ordre des blocs lorsque vous l'utilisez pour récupérer des blocs. FetchShuffleBlocks 

  - [[SPARK-34681]](https://issues.apache.org/jira/browse/SPARK-34681) [SQL] Correction d'un bogue pour les jointures de hachage réorganisées externes complètes lorsque le côté gauche est créé avec une condition non égale.

  - [[SPARK-34497]](https://issues.apache.org/jira/browse/SPARK-34497) [SQL] Correction des fournisseurs de connexion JDBC intégrés pour restaurer les changements de contexte de sécurité de la JVM.
+ Pour améliorer l'interopérabilité avec le RAPIDs plugin Nvidia Spark, une solution de contournement a été ajoutée pour résoudre un problème empêchant le déclenchement de l'élagage dynamique des partitions lors de l'utilisation de Nvidia Spark RAPIDs alors que l'exécution adaptative des requêtes est désactivée, consultez [les numéros \$11378 de RAPIDS et \$11386](https://github.com/NVIDIA/spark-rapids/issues/1378) de [RAPIDS](https://github.com/NVIDIA/spark-rapids/issues/1386). Pour plus de détails sur la nouvelle configuration `spark.sql.optimizer.dynamicPartitionPruning.enforceBroadcastReuse`, consultez [Problème RAPIDS n°1386](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html#emr-spark-performance-dynamic).
+ L'algorithme par défaut du validateur de sortie de fichier a été modifié de l'algorithme v2 à l'algorithme v1 dans Spark 3.1 open source. Pour plus d'informations, consultez cette page [Amazon EMR optimisant les performances de Spark – élimination dynamique des partitions](https://issues.apache.org/jira/browse/SPARK-33019).
+ Amazon EMR est revenu à l'algorithme v2, l'algorithme par défaut utilisé dans les versions antérieures d'Amazon EMR 6.x, pour éviter une régression des performances. Pour rétablir le comportement de Spark 3.1 open source, définissez `spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version` sur `1`. Le Spark open source a apporté cette modification parce que la validation des tâches dans l'algorithme v2 du validateur de sortie de fichier n'est pas atomique, ce qui peut entraîner un problème d'exactitude des données de sortie dans certains cas. Cependant, la validation des tâches dans l'algorithme v1 n'est pas non plus atomique. Dans certains scénarios, la validation des tâches comprend une suppression effectuée avant un changement de nom. Cela peut entraîner un problème silencieux d'exactitude des données.
+ Correction des problèmes de Managed Scaling dans les versions précédentes d'Amazon EMR et améliorations permettant de réduire considérablement les taux d'échec des applications.
+ Le bundle AWS Java SDK a été installé sur chaque nouveau cluster. Il s'agit d'un fichier jar unique contenant tous les services SDKs et leurs dépendances, au lieu de fichiers jar de composants individuels. Pour plus d'informations, consultez [Dépendance du kit SDK Java groupé](https://aws.amazon.com/blogs/developer/java-sdk-bundle/).

**Problèmes connus**
+ Pour les clusters de sous-réseaux privés Amazon EMR 6.3.0 et 6.2.0, vous ne pouvez pas accéder à l'interface utilisateur Web de Ganglia. Vous recevrez un message d'erreur « accès refusé (403) ». D'autres sites Web UIs, tels que Spark, Hue JupyterHub, Zeppelin, Livy et Tez, fonctionnent normalement. L'accès à l'interface utilisateur Web de Ganglia sur les clusters de sous-réseaux publics fonctionne également normalement. Pour résoudre ce problème, redémarrez le service httpd sur le nœud primaire avec `sudo systemctl restart httpd`. Ce problème est résolu dans Amazon EMR 6.4.0.
+ Lorsque AWS Glue Data Catalog est activé, l'utilisation de Spark pour accéder à une base de données AWS Glue avec un URI d'emplacement de chaîne nul peut échouer. Cela se produit pour les versions antérieures d'Amazon EMR, mais pour SPARK-31709 (https://issues.apache). org/jira/browse/SPARK-31709) le rend applicable à un plus grand nombre de cas. Par exemple, lorsque vous créez une table dans la base de données AWS Glue par défaut dont l'URI d'emplacement est une chaîne nulle, le message « Impossible de créer un chemin à partir d'une chaîne vide » `spark.sql("CREATE TABLE mytest (key string) location '/table_path';")` échoue. Pour contourner ce problème, définissez manuellement l'URI de localisation de vos bases de données AWS Glue, puis créez des tables dans ces bases de données à l'aide de Spark.
+ Dans Amazon EMR 6.3.0, PrestoSQL a mis à niveau de la version 343 à la version 350. Il y a deux changements liés à la sécurité de l'open source qui se rapportent à ce changement de version. Le contrôle d'accès au catalogue basé sur les fichiers passe de `deny` à `allow` lorsque les règles de propriété de table, de schéma ou de session ne sont pas définies. De même, le contrôle d'accès au système basé sur les fichiers est modifié pour prendre en charge les fichiers sans règles de catalogue définies. Dans ce cas, tous les accès aux catalogues sont autorisés.

  Pour plus d'informations, consultez [Version 344 (9 octobre 2020)](https://trino.io/docs/current/release/release-344.html#security).
+ Notez que le répertoire utilisateur Hadoop (/) home/hadoop) is readable by everyone. It has Unix 755 (drwxr-xr-x) directory permissions to allow read access by frameworks like Hive. You can put files in /home/hadoop et ses sous-répertoires, mais soyez conscient des autorisations associées à ces répertoires afin de protéger les informations sensibles.
+ **Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions].** Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. AL2 Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster. 

  Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

**Définir explicitement un ulimit à partir de la ligne de commande**

  1. Modifiez `/etc/systemd/system/instance-controller.service` pour ajouter les paramètres suivants à la section Service.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Redémarrer InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Définissez un ulimit à l'aide de l'action d'amorçage (BA)**

  Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Important**  
Les clusters EMR qui exécutent des AMI (Amazon Linux Machine Images) Amazon Linux ou Amazon Linux 2 utilisent le comportement par défaut d’Amazon Linux et ne téléchargent pas et n’installent pas automatiquement les mises à jour importantes et critiques du noyau nécessitant un redémarrage. Ce comportement est identique à celui des autres instances Amazon EC2 qui exécutent l’AMI Amazon Linux par défaut. Si de nouvelles mises à jour logicielles Amazon Linux nécessitant un redémarrage (telles que les mises à jour du noyau, de NVIDIA et de CUDA) sont disponibles après la publication d’une version d’Amazon EMR, les instances de cluster EMR qui exécutent l’AMI par défaut ne téléchargent pas et n’installent pas automatiquement ces mises à jour. Pour obtenir les mises à jour du noyau, vous pouvez [personnaliser votre AMI Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) afin d'[utiliser la dernière AMI Amazon Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ Pour utiliser les actions Spark avec Apache Oozie, vous devez ajouter la configuration suivante à votre fichier Oozie `workflow.xml`. Sinon, plusieurs bibliothèques critiques telles que Hadoop et EMRFS seront absentes du classpath des exécuteurs Spark lancés par Oozie.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 6.3.0
<a name="emr-630-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.2.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.2.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.18.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.1.0 | Connecteur S3Select EMR | 
| emrfs | 2,46,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.12.1 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.12.1 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-3 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-3 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-3 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-3 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.6-amzn-1 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.6-amzn-1 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.6-amzn-1 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.6-amzn-1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.6-amzn-1 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-4 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-4 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-4 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-4 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-4 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-4 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-4 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.7.0-amzn-0 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-prestosql | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter PrestoSQL avec Hudi. | 
| hudi-spark | 0.7.0-amzn-0 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.9.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.2.2 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.7.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5,5,68 ans et plus | Serveur de base de données MariaDB. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.1 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.1 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.5.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.245.1-amzn-0 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.245.1-amzn-0 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.245.1-amzn-0 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| prestosql-coordinator | 350 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers. | 
| prestosql-worker | 350 | Service pour exécuter les éléments d'une requête. | 
| prestosql-client | 350 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 4.0.2 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.1.1-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.1.1-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.1.1-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.1.1-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 0,4.1 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.3.0
<a name="emr-630-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.3.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Restarts Flink history server. | 
| flink-log4j-session | Modifiez les paramètres Flink log4j-session.properties pour la session. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Restarts Flink history server. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| prestosql-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Modifiez les valeurs dans le fichier node.properties de PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de PrestoSQL. | Not available. | 
| prestosql-connector-hive | Modifiez les valeurs dans le fichier hive.properties de PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de PrestoSQL. | Not available. | 
| prestosql-connector-memory | Modifiez les valeurs dans le fichier memory.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redis | Modifiez les valeurs dans le fichier redis.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Modification des paramètres de configuration dans zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.2.1
<a name="emr-621-release"></a>

## Versions d’application 6.2.1
<a name="emr-621-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1880 | 1,1880 | 1,1,828 | 1,1,828 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 
| HCatalog | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 
| Hadoop | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 
| Hive | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 
| Hudi | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 
| Hue | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 0.232 | 
| Spark | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 343 | 343 | 338 | 338 | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.2.1
<a name="emr-621-relnotes"></a>

Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.

**Modifications, améliorations et problèmes résolus**
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

**Problèmes connus**
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 6.2.1
<a name="emr-621-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.0.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.16.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.0.0 | Connecteur S3Select EMR | 
| emrfs | 2,44,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.11.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.11.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-2.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-2.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-2.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-2.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-2.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-2.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-2.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-2.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-2.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-2.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-2.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.6-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.6-amzn-0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.6-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.6-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.6-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-3 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-3 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-3 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-3 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-3 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-3 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-3 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.6.0-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.6.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-prestosql | 0.6.0-amzn-1 | Bibliothèque de solution groupée pour exécuter PrestoSQL avec Hudi. | 
| hudi-spark | 0.6.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.8.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.7.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MariaDB. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.238.3-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.238.3-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.238.3-amzn-1 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| prestosql-coordinator | 343 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers. | 
| prestosql-worker | 343 | Service pour exécuter les éléments d'une requête. | 
| prestosql-client | 343 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.0.1-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.0.1-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.0.1-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.0.1-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 0.2.0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.3.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0-preview1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.2.1
<a name="emr-621-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.2.1**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Not available. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Not available. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | Not available. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Not available. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| prestosql-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Modifiez les valeurs dans le fichier node.properties de PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de PrestoSQL. | Not available. | 
| prestosql-connector-hive | Modifiez les valeurs dans le fichier hive.properties de PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de PrestoSQL. | Not available. | 
| prestosql-connector-memory | Modifiez les valeurs dans le fichier memory.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redis | Modifiez les valeurs dans le fichier redis.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.2.0
<a name="emr-620-release"></a>

## Versions d’application 6.2.0
<a name="emr-620-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1880 | 1,1,828 | 1,1,828 | 1,1,711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.0 | 1.11.0 |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 
| Hive | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 
| Hudi | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.8.0 | 4.7.1 | 4.7.1 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 
| MXNet | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 |  -  | 
| Presto | 0.238.3-amzn-1 | 0.232 | 0.232 | 0.230 | 
| Spark | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 |  -  | 
| TensorFlow | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 343 | 338 | 338 |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.2.0
<a name="emr-620-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.2.0. Les modifications ont été apportées à la version 6.1.0.

Date de parution initiale : 9 décembre 2020

Dernière mise à jour : 4 octobre 2021

**Applications prises en charge**
+ AWS SDK pour Java version 1.11.828
+ emr-record-server version 1.7.0
+ Flink version 1.11.2
+ Ganglia version 3.7.2
+ Hadoop version 3.2.1-amzn-1
+ HBase version 2.2.6-amzn-0
+ HBase-operator-tools 1.0.0
+ HCatalog version 3.1.2-amzn-0
+ Hive version 3.1.2-amzn-3
+ Hudi version 0.6.0-amzn-1
+ Hue version 4.8.0
+ JupyterHub version 1.1.0
+ Livy version 0.7.0
+ MXNet version 1.7.0
+ Oozie version 5.2.0
+ Phoenix version 5.0.0
+ Pig version 0.17.0
+ Presto version 0.238.3-amzn-1
+ PrestoSQL version 343
+ Spark version 3.0.1-amzn-0
+ spark-rapids 0.2.0
+ TensorFlow version 2.3.1
+ Zeppelin version 0.9.0-preview1
+ Zookeeper version 3.4.14
+ Connecteurs et pilotes : Connecteur DynamoDB 4.16.0

**Nouvelles fonctionnalités**
+ HBase: Suppression du changement de nom lors de la phase de validation et ajout d'un HFile suivi persistant. Consultez la section [ HFile Suivi permanent](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html#emr-hbase-s3-hfile-tracking) dans le guide de *mise à jour d'Amazon EMR.*
+ HBase: Rétroporté [Créez une configuration qui oblige à mettre en cache les blocs lors du compactage](https://issues.apache.org/jira/browse/HBASE-23066).
+ PrestoDB : améliorations apportées à l'élimination dynamique des partitions. Join Reorder basée sur des règles fonctionne sur des données non partitionnées.
+ Politiques gérées délimitées : pour s'aligner sur les AWS meilleures pratiques, Amazon EMR a introduit des politiques gérées par défaut définies dans la version 2 EMR en remplacement des politiques qui seront déconseillées. Consultez [Politiques gérées par Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html)
+ État de prise en charge du service de métadonnées d'instance (IMDS) V2 : pour Amazon EMR 6.2 ou version ultérieure, les composants Amazon EMR sont IMDSv2 utilisés pour tous les appels IMDS. Pour les appels IMDS dans le code de votre application, vous pouvez utiliser les deux IMDSv1 ou configurer l'IMDS pour qu'il ne soit utilisé que IMDSv2 pour renforcer la sécurité. IMDSv2 Si vous la désactivez IMDSv1 dans les versions antérieures d'Amazon EMR 6.x, cela entraîne un échec du démarrage du cluster.

**Modifications, améliorations et problèmes résolus**
+ Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Spark : amélioration des performances dans l'environnement d'exécution de Spark.

**Problèmes connus**
+ Les autorisations définies sur Amazon EMR 6.2 sont incorrectes. Le répertoire/etc/cron.d/libinstance-controller-java file in EMR 6.2.0. Permissions on the file are 645 (-rw-r--r-x), when they should be 644 (-rw-r--r--). As a result, Amazon EMR version 6.2 does not log instance-state logs, and the /emr/instance-logs est vide. Ce problème est corrigé dans Amazon EMR 6.3.0 et les versions ultérieures.

  Pour contourner ce problème, exécutez le script suivant en tant qu'action d'amorçage lors du lancement du cluster. 

  ```
  #!/bin/bash
  sudo chmod 644 /etc/cron.d/libinstance-controller-java
  ```
+ Pour les clusters de sous-réseaux privés Amazon EMR 6.2.0 et 6.3.0, vous ne pouvez pas accéder à l'interface utilisateur Web de Ganglia. Vous recevrez un message d'erreur « accès refusé (403) ». D'autres sites Web UIs, tels que Spark, Hue JupyterHub, Zeppelin, Livy et Tez, fonctionnent normalement. L'accès à l'interface utilisateur Web de Ganglia sur les clusters de sous-réseaux publics fonctionne également normalement. Pour résoudre ce problème, redémarrez le service httpd sur le nœud primaire avec `sudo systemctl restart httpd`. Ce problème est résolu dans Amazon EMR 6.4.0.
+ Amazon EMR 6.2.0 présente un problème selon lequel httpd échoue continuellement, ce qui rend Ganglia indisponible. Le message d'erreur « Impossible de se connecter au serveur » s'affiche. Pour réparer un cluster déjà en cours d'exécution présentant ce problème, connectez-vous en SSH au nœud primaire du cluster et ajoutez la ligne `Listen 80` au fichier `httpd.conf` situé dans `/etc/httpd/conf/httpd.conf`. Ce problème est résolu dans Amazon EMR 6.3.0.
+ HTTTD échoue sur les clusters EMR 6.2.0 lorsque vous utilisez une configuration de sécurité. Cela rend l'interface utilisateur de l'application web Ganglia indisponible. Pour accéder à l'interface utilisateur de l'application web Ganglia, ajoutez `Listen 80` au fichier `/etc/httpd/conf/httpd.conf` sur le nœud primaire de votre cluster. Pour plus d'informations sur la connexion à votre cluster, consultez [Connexion au nœud primaire à l'aide de SSH](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-connect-master-node-ssh.html).

  Blocs-notes EMR ne parvient pas non plus à établir une connexion avec les clusters EMR 6.2.0 lorsque vous utilisez une configuration de sécurité. Le bloc-notes ne parviendra pas à répertorier les noyaux et à soumettre les tâches Spark. Nous vous recommandons d'utiliser Blocs-notes EMR avec une autre version d'Amazon EMR à la place.
+ **Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions].** Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. AL2 Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster. 

  Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

**Définir explicitement un ulimit à partir de la ligne de commande**

  1. Modifiez `/etc/systemd/system/instance-controller.service` pour ajouter les paramètres suivants à la section Service.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Redémarrer InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Définissez un ulimit à l'aide de l'action d'amorçage (BA)**

  Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Important**  
Amazon EMR 6.1.0 et 6.2.0 présentent un problème de performance qui peut affecter de manière critique toutes les opérations insert, upsert et delete de Hudi. Si vous envisagez d'utiliser Hudi avec Amazon EMR 6.1.0 ou 6.2.0, AWS contactez le support pour obtenir un RPM Hudi corrigé.
+ 
**Important**  
Les clusters EMR qui exécutent des AMI (Amazon Linux Machine Images) Amazon Linux ou Amazon Linux 2 utilisent le comportement par défaut d’Amazon Linux et ne téléchargent pas et n’installent pas automatiquement les mises à jour importantes et critiques du noyau nécessitant un redémarrage. Ce comportement est identique à celui des autres instances Amazon EC2 qui exécutent l’AMI Amazon Linux par défaut. Si de nouvelles mises à jour logicielles Amazon Linux nécessitant un redémarrage (telles que les mises à jour du noyau, de NVIDIA et de CUDA) sont disponibles après la publication d’une version d’Amazon EMR, les instances de cluster EMR qui exécutent l’AMI par défaut ne téléchargent pas et n’installent pas automatiquement ces mises à jour. Pour obtenir les mises à jour du noyau, vous pouvez [personnaliser votre AMI Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) afin d'[utiliser la dernière AMI Amazon Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ Les artefacts Maven d'Amazon EMR 6.2.0 ne sont pas publiés. Ils seront publiés avec une future version d'Amazon EMR.
+ Le HFile suivi permanent à l'aide de la table système HBase Storefile ne prend pas en charge la fonctionnalité de réplication des HBase régions. Pour plus d'informations sur HBase la réplication régionale, consultez la section Nombre [élevé de lectures disponibles cohérentes avec la chronologie](http://hbase.apache.org/book.html#arch.timelineconsistent.reads).
+ Différences de version entre Amazon EMR 6.x et EMR 5.x pour la compartimentation Hive

  EMR 5.x utilise OOS Apache Hive 2, tandis que EMR 6.x utilise OOS Apache Hive 3. La version open source Hive2 utilise la version 1 de Bucketing, tandis que la version open source Hive3 utilise la version 2. Cette différence de version de compartimentation entre Hive 2 (EMR 5.x) et Hive 3 (EMR 6.x) signifie que le hachage de compartimentation de Hive fonctionne différemment. Consultez l'exemple ci-dessous.

  Le tableau suivant est un exemple créé dans EMR 6.x et EMR 5.x, respectivement.

  ```
  -- Using following LOCATION in EMR 6.x
  CREATE TABLE test_bucketing (id INT, desc STRING)
  PARTITIONED BY (day STRING)
  CLUSTERED BY(id) INTO 128 BUCKETS
  LOCATION 's3://your-own-s3-bucket/emr-6-bucketing/';
  
  -- Using following LOCATION in EMR 5.x 
  LOCATION 's3://your-own-s3-bucket/emr-5-bucketing/';
  ```

  Insertion des mêmes données dans EMR 6.x et EMR 5.x.

  ```
  INSERT INTO test_bucketing PARTITION (day='01') VALUES(66, 'some_data');
  INSERT INTO test_bucketing PARTITION (day='01') VALUES(200, 'some_data');
  ```

  La vérification de l'emplacement S3 montre que le nom du fichier de compartimentation est différent, car la fonction de hachage est différente entre EMR 6.x (Hive 3) et EMR 5.x (Hive 2).

  ```
  [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-6-bucketing/day=01/
  2020-10-21 20:35:16         13 000025_0
  2020-10-21 20:35:22         14 000121_0
  [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-5-bucketing/day=01/
  2020-10-21 20:32:07         13 000066_0
  2020-10-21 20:32:51         14 000072_0
  ```

  Vous pouvez également constater la différence de version en exécutant la commande suivante dans la CLI Hive dans EMR 6.x. Notez qu'il renvoie la version 2 de compartimentation.

  ```
  hive> DESCRIBE FORMATTED test_bucketing;
  ...
  Table Parameters:
      bucketing_version       2
  ...
  ```
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.
+ Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :
  + Deux partitions ou plus sont analysées à partir de la même table.
  + Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, `s3://bucket/table/p=a` est un préfixe de `s3://bucket/table/p=a b`.
  + Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère `/` (U\$1002F). Par exemple, le caractère d'espace (U\$10020) qui apparaît entre a et b dans `s3://bucket/table/p=a b` entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : `!"#$%&‘()*+,-`. Pour plus d'informations, consultez [Table de codage UTF-8 et les caractères Unicode](https://www.utf8-chartable.de/).

  Pour contourner ce problème, définissez la configuration `spark.sql.sources.fastS3PartitionDiscovery.enabled` sur `false` dans la classification `spark-defaults`.

## Versions des composants 6.2.0
<a name="emr-620-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4,16,0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-notebook-env | 1.0.0 | Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise | 
| emr-s3-dist-cp | 2.16.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.0.0 | Connecteur S3Select EMR | 
| emrfs | 2,44,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.11.2 | Applications et scripts client de la ligne de commande Apache Flink. | 
| flink-jobmanager-config | 1.11.2 | Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-2 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-2 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-2 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-2 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-2 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-2 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-2 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-2 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-2 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-2 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-2 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.6-amzn-0 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.6-amzn-0 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.6-amzn-0 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.6-amzn-0 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.6-amzn-0 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-3 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-3 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-3 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-3 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-3 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-3 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-3 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.6.0-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.6.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-prestosql | 0.6.0-amzn-1 | Bibliothèque de solution groupée pour exécuter PrestoSQL avec Hudi. | 
| hudi-spark | 0.6.0-amzn-1 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.8.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.7.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MariaDB. | 
| nvidia-cuda | 10,1243 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.238.3-amzn-1 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.238.3-amzn-1 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.238.3-amzn-1 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| prestosql-coordinator | 343 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers. | 
| prestosql-worker | 343 | Service pour exécuter les éléments d'une requête. | 
| prestosql-client | 343 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.0.1-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.0.1-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.0.1-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.0.1-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| spark-rapids | 0.2.0 | Plugin Nvidia Spark RAPIDS qui accélère Apache Spark avec GPUs. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.3.1 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0-preview1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.2.0
<a name="emr-620-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter [Reconfigurer un groupe d'instances dans un cluster en cours d'exécution](emr-configure-apps-running-cluster.md).


**Classifications emr-6.2.0**  

| Classifications | Description | Actions de reconfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Modifiez les paramètres liés au docker. | Not available. | 
| emrfs-site | Modifiez les paramètres EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | Not available. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | Not available. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | Not available. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | Not available. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | Not available. | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | Not available. | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | Not available. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | Restarts Hadoop HDFS ZKFC. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | Restarts Hive WebHCat server. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | Not available. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | Not available. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | Not available. | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | Not available. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | Not available. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | Restarts Livy Server. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | Restarts Livy Server. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | Restarts Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | Restarts Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | Not available. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | Not available. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Not available. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | Not available. | 
| prestosql-log | Modifiez les valeurs dans le fichier log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Modifiez les valeurs dans le fichier config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Modifiez les valeurs dans le fichier node.properties de PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de PrestoSQL. | Not available. | 
| prestosql-connector-hive | Modifiez les valeurs dans le fichier hive.properties de PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de PrestoSQL. | Not available. | 
| prestosql-connector-memory | Modifiez les valeurs dans le fichier memory.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redis | Modifiez les valeurs dans le fichier redis.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | Not available. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | Not available. | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | Not available. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | Not available. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | Restart Oozie. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | Restarts Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR version 6.1.1
<a name="emr-611-release"></a>

## Versions d’application 6.1.1
<a name="emr-611-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,828 | 1,1,828 | 1,1,711 | 1,1,711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.1.1
<a name="emr-611-relnotes"></a>

Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.

**Modifications, améliorations et problèmes résolus**
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

## Versions des composants 6.1.1
<a name="emr-611-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.0.0 | Connecteur S3Select EMR | 
| emrfs | 2,42,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.11.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-1.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-1.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-1.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-1.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-1.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-1.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-1.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-1.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-1.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-1.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-1.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.5 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.5 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.5 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.5 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.5 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.2-incubating-amzn-2 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.2-incubating-amzn-2 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-prestosql | 0.5.2-incubating-amzn-2 | Bibliothèque de solution groupée pour exécuter PrestoSQL avec Hudi. | 
| hudi-spark | 0.5.2-incubating-amzn-2 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.7.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.6.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MariaDB. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.3.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.232 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.232 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.232 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| prestosql-coordinator | 338 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers. | 
| prestosql-worker | 338 | Service pour exécuter les éléments d'une requête. | 
| prestosql-client | 338 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.0.0-amzn-0.1 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.0.0-amzn-0.1 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.0.0-amzn-0.1 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.0.0-amzn-0.1 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.1.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0-preview1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.1.1
<a name="emr-611-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-6.1.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| prestosql-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| prestosql-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| prestosql-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| prestosql-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| prestosql-node | Modifiez les valeurs dans le fichier node.properties de PrestoSQL. | 
| prestosql-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de PrestoSQL. | 
| prestosql-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de PrestoSQL. | 
| prestosql-connector-hive | Modifiez les valeurs dans le fichier hive.properties de PrestoSQL. | 
| prestosql-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de PrestoSQL. | 
| prestosql-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de PrestoSQL. | 
| prestosql-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de PrestoSQL. | 
| prestosql-connector-memory | Modifiez les valeurs dans le fichier memory.properties de PrestoSQL. | 
| prestosql-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de PrestoSQL. | 
| prestosql-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de PrestoSQL. | 
| prestosql-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de PrestoSQL. | 
| prestosql-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de PrestoSQL. | 
| prestosql-connector-redis | Modifiez les valeurs dans le fichier redis.properties de PrestoSQL. | 
| prestosql-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de PrestoSQL. | 
| prestosql-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de PrestoSQL. | 
| prestosql-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de PrestoSQL. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 6.1.0
<a name="emr-610-release"></a>

## Versions d’application 6.1.0
<a name="emr-610-app-versions"></a>

Cette version inclut les applications suivantes : [https://flink.apache.org/](https://flink.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,828 | 1,1,828 | 1,1,711 | 1,1,711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.1.0
<a name="emr-610-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.1.0. Les modifications ont été apportées à la version 6.0.0.

Date de parution initiale : 4 septembre 2020

Dernière mise à jour : 15 octobre 2020

**Applications prises en charge**
+ AWS SDK pour Java version 1.11.828
+ Flink version 1.11.0
+ Ganglia version 3.7.2
+ Hadoop version 3.2.1-amzn-1
+ HBase version 2.2.5
+ HBase-operator-tools 1.0.0
+ HCatalog version 3.1.2-amzn-0
+ Hive version 3.1.2-amzn-1
+ Hudi version 0.5.2-incubation
+ Hue version 4.7.1
+ JupyterHub version 1.1.0
+ Livy version 0.7.0
+ MXNet version 1.6.0
+ Oozie version 5.2.0
+ Phoenix version 5.0.0
+ Presto version 0.232
+ PrestoSQL version 338
+ Spark version 3.0.0-amzn-0
+ TensorFlow version 2.1.0
+ Zeppelin version 0.9.0-preview1
+ Zookeeper version 3.4.14
+ Connecteurs et pilotes : Connecteur DynamoDB 4.14.0

**Nouvelles fonctionnalités**
+ Les types d'instance ARM sont pris en charge à partir des versions 5.30.0 et 6.1.0 d'Amazon EMR.
+ Les types d'instances à usage général M6g sont pris en charge à partir des versions 6.1.0 et 5.30.0 d'Amazon EMR. Pour plus d'informations, consultez [Types d'instance pris en charge](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-supported-instance-types.html) dans le *Guide de gestion Amazon EMR*.
+ La fonctionnalité de groupe de placement EC2 est prise en charge à partir de la version 5.23.0 d'Amazon EMR en tant qu'option pour plusieurs clusters de nœuds primaires. Actuellement, seuls les types de nœuds primaires sont pris en charge par la fonctionnalité de groupe de placement. La stratégie `SPREAD` est appliquée à ces nœuds primaires. La stratégie `SPREAD` place un petit groupe d'instances sur un matériel sous-jacent distinct afin de se prémunir contre la perte de plusieurs nœuds primaires en cas de panne matérielle. Pour plus d'informations, consultez [Intégration d'EMR au groupe de placement EC2](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-placementgroup.html) dans le *Guide de gestion Amazon EMR*.
+ Mise à l'échelle gérée – Avec la version 6.1.0 d'Amazon EMR, vous pouvez activer la mise à l'échelle gérée par Amazon EMR pour augmenter ou diminuer automatiquement le nombre d'instances ou d'unités dans votre cluster en fonction de la charge de travail. Amazon EMR évalue en permanence les métriques de cluster pour prendre des décisions de dimensionnement qui optimisent vos clusters en termes de coût et de vitesse. Managed Scaling est également disponible sur Amazon EMR version 5.30.0 et suivantes, à l'exception de 6.0.0. Pour plus d'informations, consultez [Mise à l'échelle des ressources de cluster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scale-on-demand.html) dans le *Guide de gestion Amazon EMR*.
+ La version 338 de PrestoSQL est prise en charge avec EMR 6.1.0. Pour plus d'informations, consultez [Presto](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html).
  + PrestoSQL est uniquement pris en charge sur EMR 6.1.0 et versions ultérieures, pas sur EMR 6.0.0 ou EMR 5.x.
  + Le nom de l'application, `Presto` continue d'être utilisé pour installer PrestoDB sur des clusters. Pour installer PrestoSQL sur des clusters, utilisez le nom de l'application `PrestoSQL`.
  + Vous pouvez installer PrestoDB ou PrestoSQL, mais vous ne pouvez pas installer les deux sur un seul cluster. Si PrestoDB et PrestoSQL sont spécifiés lors de la tentative de création d'un cluster, une erreur de validation se produit et la demande de création de cluster échoue.
  + PrestoSQL est pris en charge sur les clusters mono-maître et muti-maître. Sur les clusters multi-maîtres, un métastore Hive externe est requis pour exécuter PrestoSQL ou Prestodb. Consultez [Applications prises en charge dans un cluster EMR avec plusieurs nœuds primaires](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html#emr-plan-ha-applications-list).
+ Prise en charge de l'authentification automatique ECR sur Apache Hadoop et Apache Spark avec Docker : les utilisateurs de Spark peuvent utiliser des images Docker provenant de Docker Hub et d'Amazon Elastic Container Registry (Amazon ECR) pour définir les dépendances de l'environnement et des bibliothèques.

  [Configurez Docker](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-docker.html) et [exécutez des applications Spark avec Docker à l'aide d'Amazon EMR 6.x](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-docker.html).
+ EMR prend en charge les transactions ACID d'Apache Hive : Amazon EMR 6.1.0 prend en charge les transactions ACID de Hive afin qu'elles soient conformes aux propriétés ACID d'une base de données. Grâce à cette fonctionnalité, vous pouvez exécuter les opérations `INSERT, UPDATE, DELETE,` et `MERGE` dans des tables gérées par Hive avec des données stockées dans Amazon Simple Storage Service (Amazon S3). Il s'agit d'une fonctionnalité essentielle pour les cas d'utilisation tels que l'ingestion en continu, le retraitement des données, les mises à jour en masse à l'aide de MERGE et les dimensions qui changent lentement. Pour plus d'informations, notamment des exemples de configuration et des cas supports, consultez [Amazon EMR prend en charge les transactions ACID d'Apache Hive](https://aws.amazon.com/blogs/big-data/amazon-emr-supports-apache-hive-acid-transactions).

**Modifications, améliorations et problèmes résolus**
+ Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Apache Flink n'est pas pris en charge sur EMR 6.0.0, mais il l'est sur EMR 6.1.0 avec Flink 1.11.0. Il s'agit de la première version de Flink officiellement compatible avec Hadoop 3. Consultez [Annonce de sortie d'Apache Flink 1.11.0](https://flink.apache.org/news/2020/07/06/release-1.11.0.html).
+ Ganglia a été supprimé des packages EMR 6.1.0 par défaut.

**Problèmes connus**
+ **Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions].** Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. AL2 Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster. 

  Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

**Définir explicitement un ulimit à partir de la ligne de commande**

  1. Modifiez `/etc/systemd/system/instance-controller.service` pour ajouter les paramètres suivants à la section Service.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Redémarrer InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Définissez un ulimit à l'aide de l'action d'amorçage (BA)**

  Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Important**  
Amazon EMR 6.1.0 et 6.2.0 présentent un problème de performance qui peut affecter de manière critique toutes les opérations insert, upsert et delete de Hudi. Si vous envisagez d'utiliser Hudi avec Amazon EMR 6.1.0 ou 6.2.0, AWS contactez le support pour obtenir un RPM Hudi corrigé.
+ Si vous définissez une configuration de collecte des déchets personnalisée avec `spark.driver.extraJavaOptions` et`spark.executor.extraJavaOptions`, cela entraînera un échec du driver/executor lancement d'EMR 6.1 en raison d'une configuration de collecte des déchets conflictuelle. Avec la version 6.1.0 d'EMR, vous devez spécifier la configuration personnalisée du récupérateur de mémoire Spark pour les pilotes et les exécuteurs avec les propriétés `spark.driver.defaultJavaOptions` et `spark.executor.defaultJavaOptions` à la place. Pour en savoir plus, consultez [Environnement d'exécution Apache Spark](https://spark.apache.org/docs/latest/configuration.html#runtime-environment) et [Configuration du récupérateur de mémoire Spark sur Amazon EMR 6.1.0](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-configure.html#spark-gc-config).
+ L'utilisation de Pig avec Oozie (et au sein de Hue, puisque Hue utilise les actions Oozie pour exécuter les scripts Pig), génère une erreur indiquant qu'une bibliothèque native-lzo ne peut pas être chargée. Ce message d'erreur est informatif et n'empêche pas Pig de fonctionner.
+ Prise en charge de la simultanéité dans Hudi : Actuellement, Hudi ne prend pas en charge les écritures simultanées dans une seule table Hudi. De plus, Hudi annule toutes les modifications effectuées par les enregistreurs en cours avant de permettre à un nouvel enregistreur de démarrer. Les écritures simultanées peuvent interférer avec ce mécanisme et introduire des conditions de concurrence, ce qui peut entraîner une corruption des données. Vous devez vous assurer que, dans le cadre de votre flux de traitement des données, il n'y a qu'un seul enregistreur Hudi opérant sur une table Hudi à tout moment. Hudi prend en charge plusieurs lecteurs simultanés opérant sur la même table Hudi.
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.
+ Il y a un problème dans Amazon EMR 6.1.0 qui affecte les clusters exécutant Presto. Après une période prolongée (plusieurs jours), le cluster peut générer des erreurs telles que "su : failed to execute /bin/bash : Resource temporarily unavailable" ou "shell request failed on channel 0". Ce problème est dû à un processus interne Amazon EMR (InstanceController) qui génère trop de processus légers (LWP), ce qui finit par amener l'utilisateur Hadoop à dépasser sa limite nproc. Cela empêche l'utilisateur d'ouvrir des processus supplémentaires. La solution à ce problème est de mettre à niveau vers EMR 6.2.0.

## Versions des composants 6.1.0
<a name="emr-610-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.1.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 2.0.0 | Connecteur S3Select EMR | 
| emrfs | 2,42,0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| flink-client | 1.11.0 | Applications et scripts client de la ligne de commande Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.5 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.5 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.5 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.5 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.5 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-2 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-2 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-2 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-2 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-2 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-2 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-2 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.2-incubating-amzn-2 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.2-incubating-amzn-2 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hudi-prestosql | 0.5.2-incubating-amzn-2 | Bibliothèque de solution groupée pour exécuter PrestoSQL avec Hudi. | 
| hudi-spark | 0.5.2-incubating-amzn-2 | Bibliothèque de solution groupée pour exécuter Spark avec Hudi. | 
| hue-server | 4.7.1 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.1.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.7.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.6.0 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MariaDB. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.2.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.2.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 4.3.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.232 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.232 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.232 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| prestosql-coordinator | 338 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers. | 
| prestosql-worker | 338 | Service pour exécuter les éléments d'une requête. | 
| prestosql-client | 338 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| pig-client | 0.17.0 | Client de ligne de commande Pig. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| ranger-kms-server | 2.0.0 | Système de gestion des clés Apache Ranger | 
| spark-client | 3.0.0-amzn-0 | Clients de ligne de commande Spark. | 
| spark-history-server | 3.0.0-amzn-0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 3.0.0-amzn-0 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 3.0.0-amzn-0 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| sqoop-client | 1.4.7 | Client de ligne de commande Apache Sqoop. | 
| tensorflow | 2.1.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0-preview1 | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.1.0
<a name="emr-610-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-6.1.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| flink-conf | Modifiez les paramètres flink-conf.yaml. | 
| flink-log4j | Modifiez les paramètres log4j.properties Flink. | 
| flink-log4j-yarn-session | Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4. | 
| flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| hudi-env | Modifiez les valeurs dans l'environnement Hudi. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Modifiez les valeurs dans l'environnement Pig. | 
| pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | 
| pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| prestosql-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| prestosql-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| prestosql-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| prestosql-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| prestosql-node | Modifiez les valeurs dans le fichier node.properties de PrestoSQL. | 
| prestosql-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de PrestoSQL. | 
| prestosql-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de PrestoSQL. | 
| prestosql-connector-hive | Modifiez les valeurs dans le fichier hive.properties de PrestoSQL. | 
| prestosql-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de PrestoSQL. | 
| prestosql-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de PrestoSQL. | 
| prestosql-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de PrestoSQL. | 
| prestosql-connector-memory | Modifiez les valeurs dans le fichier memory.properties de PrestoSQL. | 
| prestosql-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de PrestoSQL. | 
| prestosql-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de PrestoSQL. | 
| prestosql-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de PrestoSQL. | 
| prestosql-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de PrestoSQL. | 
| prestosql-connector-redis | Modifiez les valeurs dans le fichier redis.properties de PrestoSQL. | 
| prestosql-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de PrestoSQL. | 
| prestosql-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de PrestoSQL. | 
| prestosql-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de PrestoSQL. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| sqoop-env | Modifiez les valeurs d'environnement Sqoop. | 
| sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop. | 
| sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 6.0.1
<a name="emr-601-release"></a>

## Versions d’application 6.0.1
<a name="emr-601-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,828 | 1,1,828 | 1,1,711 | 1,1,711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.0.1
<a name="emr-601-relnotes"></a>

Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.

**Modifications, améliorations et problèmes résolus**
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux `arn:aws:s3:::amazonlinux-2-repos-$region/*` à votre politique (remplacez `$region` par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. [Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

## Versions des composants 6.0.1
<a name="emr-601-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.5.0 | Connecteur S3Select EMR | 
| emrfs | 2.39.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-0.1 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-0.1 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-0.1 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-0.1 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-0.1 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-0.1 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-0.1 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-0.1 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-0.1 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-0.1 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-0.1 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.3 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.0-incubating-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.0-incubating-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.4.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.0.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.6.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.5.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MariaDB. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.230 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.230 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.230 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.4 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.4 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.4 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.4 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| tensorflow | 1.14.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0-SNAPSHOT | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.0.1
<a name="emr-601-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-6.0.1**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 

# Amazon EMR version 6.0.0
<a name="emr-600-release"></a>

## Versions d’application 6.0.0
<a name="emr-600-app-versions"></a>

Cette version inclut les applications suivantes : [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), et [https://zookeeper.apache.org](https://zookeeper.apache.org).

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
+ [Versions des applications dans les versions 7.x d’Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versions des applications dans les versions 6.x d'Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versions des applications dans les versions 5.x d'Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versions des applications dans les versions 4.x d'Amazon EMR](emr-release-app-versions-4.x.md)


**Informations sur la version de l'application**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK pour Java | 1,1,828 | 1,1,828 | 1,1,711 | 1,1,711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2,1,10 | 2,1,10 | 2,1,10 | 2,1,12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 5,0,0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notes de mise à jour 6.0.0
<a name="emr-600-relnotes"></a>

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 6.0.0.

Date de parution initiale : 10 mars 2020

**Applications prises en charge**
+ AWS SDK pour Java version 1.11.711
+ Ganglia version 3.7.2
+ Hadoop version 3.2.1
+ HBase version 2.2.3
+ HCatalog version 3.1.2
+ Hive version 3.1.2
+ Hudi version 0.5.0-incubation
+ Hue version 4.4.0
+ JupyterHub version 1.0.0
+ Livy version 0.6.0
+ MXNet version 1.5.1
+ Oozie version 5.1.0
+ Phoenix version 5.0.0
+ Presto version 0.230
+ Spark version 2.4.4
+ TensorFlow version 1.14.0
+ Zeppelin version 0.9.0-SNAPSHOT
+ Zookeeper version 3.4.14
+ Connecteurs et pilotes : Connecteur DynamoDB 4.14.0

**Note**  
Flink, Sqoop, Pig et Mahout ne sont pas disponibles dans Amazon EMR version 6.0.0. 

**Nouvelles fonctionnalités**
+ Prise en charge de l'exécution de Docker pour YARN - Les applications YARN, telles que les tâches Spark, peuvent désormais s'exécuter dans le contexte d'un conteneur Docker. Vous pouvez ainsi définir facilement des dépendances dans une image Docker sans avoir besoin d'installer des bibliothèques personnalisées sur votre cluster Amazon EMR. Pour plus d'informations, consultez [Configuration de l'intégration Docker](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-docker.html) et [Exécution des applications Spark avec Docker à l'aide d'Amazon EMR version 6.0.0](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-docker.html).
+ Prise en charge de LLAP pour Hive - Hive prend désormais en charge le mode d'exécution LLAP pour améliorer les performances des requêtes. Pour de plus amples informations, veuillez consulter [Utilisation de LLAP pour Hive](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hive-llap.html).

**Modifications, améliorations et problèmes résolus**
+ Cette version vise à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'elle ne parvient pas à up/scale réduire correctement un cluster ou entraîne des défaillances d'applications.
+ Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.
+ Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.
+ Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.
+ Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela s'explique par le fait que le démon Amazon EMR intégré au cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité avec HDFS/YARN l'exécution sur le nœud principal.
+ Les nouvelles versions d'Amazon EMR corrigent le problème en abaissant la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions d' AL2 Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.
+ Amazon Linux
  + Amazon Linux 2 est le système d'exploitation de la série EMR version 6.x.
  + `systemd` est utilisé pour la gestion des services au lieu d'`upstart`, utilisé dans Amazon Linux 1.
+ Kit de développement Java (JDK)
  + Corretto JDK 8 est le JDK par défaut pour la série EMR version 6.x.
+ Scala
  + Scala 2.12 est utilisé avec Apache Spark et Apache Livy.
+ Python 3
  + Python 3 est maintenant la version par défaut de Python dans EMR.
+ Étiquettes de nœud YARN
  + À partir de la série Amazon EMR version 6.x, la fonction des étiquettes de nœud YARN est désactivée par défaut. Les processus principaux des applications peuvent s'exécuter à la fois sur les nœuds de noyau et sur les nœuds de tâche par défaut. Vous pouvez activer la fonction des étiquettes de nœud YARN en configurant les propriétés suivantes : `yarn.node-labels.enabled` et `yarn.node-labels.am.default-node-label-expression`. Pour plus d'informations, consultez [Comprendre les nœuds primaires, les nœuds principaux et les nœuds de tâches](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-master-core-task-nodes.html).

**Problèmes connus**
+ **Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions].** Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. AL2 Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster. 

  Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

**Définir explicitement un ulimit à partir de la ligne de commande**

  1. Modifiez `/etc/systemd/system/instance-controller.service` pour ajouter les paramètres suivants à la section Service.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Redémarrer InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Définissez un ulimit à l'aide de l'action d'amorçage (BA)**

  Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ Le shell interactif Spark PySpark, y compris SparkR et spark-shell, ne prend pas en charge l'utilisation de Docker avec des bibliothèques supplémentaires.
+ Pour utiliser Python 3 avec Amazon EMR version 6.0.0, vous devez ajouter `PATH` à `yarn.nodemanager.env-whitelist`.
+ La fonctionnalité Live Long and Process (LLAP) n'est pas prise en charge lorsque vous utilisez le catalogue de données AWS Glue comme métastore pour Hive.
+ Lorsque vous utilisez Amazon EMR 6.0.0 avec l'intégration Spark et Docker, vous devez configurer les instances de votre cluster avec le même type d'instance et la même quantité de volumes EBS pour éviter les échecs lors de la soumission d'une tâche Spark avec l'exécution Docker.
+ Dans Amazon EMR 6.0.0, le mode de stockage Amazon HBase S3 est impacté par le problème [HBASE-24286](https://issues.apache.org/jira/browse/HBASE-24286). HBase master ne peut pas s'initialiser lorsque le cluster est créé à l'aide de données S3 existantes.
+ Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

  Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées. 

  Solution :
  + SSH en tant qu'utilisateur `hadoop` au nœud primaire du cluster EMR avec plusieurs nœuds primaires.
  +  Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Généralement, le fichier keytab se trouve dans `/etc/hadoop.keytab` et le principal se présente sous la forme de `hadoop/<hostname>@<REALM>`.
**Note**  
Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

## Versions des composants 6.0.0
<a name="emr-600-components"></a>

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par `emr` ou `aws`. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme `CommunityVersion-amzn-EmrVersion`. `EmrVersion` commence à 0. Par exemple, si un composant de la communauté open source nommé `myapp-component` avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom `2.2-amzn-2`.


| Composant | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Kit de développement logiciel Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. | 
| emr-goodies | 3.0.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. | 
| emr-kinesis | 3.5.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Application de copie distribuée optimisée pour Amazon S3. | 
| emr-s3-select | 1.5.0 | Connecteur S3Select EMR | 
| emrfs | 2.39.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. | 
| ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. | 
| ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. | 
| hadoop-client | 3.2.1-amzn-0 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». | 
| hadoop-hdfs-datanode | 3.2.1-amzn-0 | HDFS node-level service for storing blocks. | 
| hadoop-hdfs-library | 3.2.1-amzn-0 | Bibliothèque et client de ligne de commande HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-0 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-0 | Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA. | 
| hadoop-httpfs-server | 3.2.1-amzn-0 | Point de terminaison HTTP pour les opérations HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-0 | Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-0 | MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-0 | Service YARN pour la gestion de conteneurs sur un nœud individuel. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-0 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-0 | Service de récupération d'informations actuelles et historiques pour les applications YARN. | 
| hbase-hmaster | 2.2.3 | Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives. | 
| hbase-region-server | 2.2.3 | Service pour desservir une ou plusieurs HBase régions. | 
| hbase-client | 2.2.3 | HBase client en ligne de commande. | 
| hbase-rest-server | 2.2.3 | Service fournissant un point de terminaison RESTful HTTP pour HBase. | 
| hbase-thrift-server | 2.2.3 | Service fournissant un point de terminaison Thrift pour. HBase | 
| hcatalog-client | 3.1.2-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-0 | Fourniture de services HCatalog, table et couche de gestion du stockage pour les applications distribuées. | 
| hcatalog-webhcat-server | 3.1.2-amzn-0 | Point de terminaison HTTP fournissant une interface REST pour HCatalog. | 
| hive-client | 3.1.2-amzn-0 | Client de ligne de commande Hive. | 
| hive-hbase | 3.1.2-amzn-0 | Client Hive-hbase. | 
| hive-metastore-server | 3.1.2-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. | 
| hive-server2 | 3.1.2-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. | 
| hudi | 0.5.0-incubating-amzn-1 | Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée. | 
| hudi-presto | 0.5.0-incubating-amzn-1 | Bibliothèque de solution groupée pour exécuter Presto avec Hudi. | 
| hue-server | 4.4.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop | 
| jupyterhub | 1.0.0 | Serveur multi-utilisateurs pour blocs-notes Jupyter | 
| livy-server | 0.6.0-incubating | Interface REST pour interagir avec Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] est un serveur HTTP et à proxy inverse | 
| mxnet | 1.5.1 | Bibliothèque flexible, évolutive et efficace pour le deep learning. | 
| mariadb-server | 5.5.64\$1 | Serveur de base de données MariaDB. | 
| nvidia-cuda | 9.2.88 | Pilotes Nvidia et boîte à outils Cuda | 
| oozie-client | 5.1.0 | Client de ligne de commande Oozie. | 
| oozie-server | 5.1.0 | Service pour l'acceptation des demandes de flux de travail Oozie. | 
| opencv | 3.4.0 | Bibliothèque open source Vision par ordinateur | 
| phoenix-library | 5,0,0- -2,0 HBase | Les bibliothèques phoenix pour serveur et client | 
| phoenix-query-server | 5,0,0- -2,0 HBase | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica  | 
| presto-coordinator | 0.230 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. | 
| presto-worker | 0.230 | Service pour exécuter les éléments d'une requête. | 
| presto-client | 0.230 | Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré. | 
| r | 3.4.3 | Projet R pour les calculs statistiques | 
| spark-client | 2.4.4 | Clients de ligne de commande Spark. | 
| spark-history-server | 2.4.4 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. | 
| spark-on-yarn | 2.4.4 | Moteur d'exécution en mémoire pour YARN. | 
| spark-yarn-slave | 2.4.4 | Bibliothèques Apache Spark requises par les esclaves YARN. | 
| tensorflow | 1.14.0 | TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance. | 
| tez-on-yarn | 0.9.2 | Les bibliothèques et l'application tez YARN. | 
| webserver | 2.4.41\$1 | Serveur HTTP Apache. | 
| zeppelin-server | 0.9.0-SNAPSHOT | Portable basé sur le web qui permet l'analyse de données interactives. | 
| zookeeper-server | 3.4.14 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. | 
| zookeeper-client | 3.4.14 | ZooKeeper client en ligne de commande. | 

## Classifications des configurations 6.0.0
<a name="emr-600-class"></a>

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que `hive-site.xml`. Pour de plus amples informations, veuillez consulter [Configuration des applications](emr-configure-apps.md).


**Classifications emr-6.0.0**  

| Classifications | Description | 
| --- | --- | 
| capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | 
| container-executor | Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN. | 
| container-log4j | Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN. | 
| core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | 
| emrfs-site | Modifiez les paramètres EMRFS. | 
| hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | 
| hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | 
| hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | 
| hadoop-ssl-client | Modifier la configuration du client ssl hadoop | 
| hbase | Paramètres sélectionnés par Amazon EMR pour Apache. HBase | 
| hbase-env | Changez les valeurs dans HBase l'environnement. | 
| hbase-log4j | Modifiez les valeurs dans le fichier HBase hbase-log4j.properties. | 
| hbase-metrics | Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties. | 
| hbase-policy | Modifiez les valeurs dans HBase le fichier hbase-policy.xml. | 
| hbase-site | Modifiez les valeurs dans HBase le fichier hbase-site.xml. | 
| hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | 
| hdfs-env | Modifiez les valeurs dans l'environnement HDFS. | 
| hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | 
| hcatalog-env | Changez les valeurs dans HCatalog l'environnement. | 
| hcatalog-server-jndi | Modifiez les valeurs dans le fichier HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml. | 
| hcatalog-webhcat-env | Modifiez les valeurs dans HCat l'environnement HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Modifiez les valeurs dans HCatalog HCat log4j2.properties du Web. | 
| hcatalog-webhcat-site | Modifiez les valeurs dans HCatalog le fichier webhcat-site.xml HCat du Web. | 
| hive | Paramètres définis par Amazon EMR pour Apache Hive. | 
| hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | 
| hive-env | Modifiez les valeurs dans l'environnement Hive. | 
| hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive. | 
| hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | 
| hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | 
| hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | 
| hue-ini | Modifiez les valeurs dans le fichier ini de Hue | 
| httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | 
| httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | 
| hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Modifiez les valeurs dans le fichier jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Modifiez les valeurs dans JupyterHubs le fichier jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configuration de la persistance S3 de bloc-notes Jupyter. | 
| jupyter-sparkmagic-conf | Modifiez les valeurs dans le fichier config.json de Sparkmagic. | 
| livy-conf | Modifiez les valeurs dans le fichier livy.conf de Livy. | 
| livy-env | Modifiez les valeurs dans l'environnement Livy. | 
| livy-log4j | Modifiez les paramètres Livy log4j.properties. | 
| mapred-env | Modifiez les valeurs dans l'environnement de l' MapReduce application. | 
| mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application. | 
| oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | 
| oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | 
| oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | 
| phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | 
| phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | 
| phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | 
| presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | 
| presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | 
| presto-password-authenticator | Modifiez les valeurs dans le fichier password-authenticator.properties de Presto. | 
| presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | 
| presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | 
| presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | 
| presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | 
| presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | 
| presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | 
| presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | 
| presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | 
| presto-connector-memory | Modifiez les valeurs dans le fichier memory.properties de Presto. | 
| presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | 
| presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | 
| presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | 
| presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | 
| presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | 
| presto-connector-redshift | Modifiez les valeurs dans le fichier redshift.properties de Presto. | 
| presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | 
| presto-connector-tpcds | Modifiez les valeurs dans le fichier tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS. | 
| ranger-kms-env | Modifiez les valeurs dans l'environnement Ranger KMS. | 
| ranger-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS. | 
| recordserver-env | Modifiez les valeurs dans l'environnement EMR. RecordServer  | 
| recordserver-conf | Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR. | 
| recordserver-log4j | Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR. | 
| spark | Paramètres définis par Amazon EMR pour Apache Spark. | 
| spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | 
| spark-env | Modifiez les valeurs dans l'environnement Spark. | 
| spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | 
| spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | 
| spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | 
| tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | 
| yarn-env | Modifiez les valeurs dans l'environnement YARN. | 
| yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | 
| zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | 
| zookeeper-config | Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg. | 
| zookeeper-log4j | Modifiez les valeurs dans le ZooKeeper fichier log4j.properties. | 