

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Amazon-EMR-6.x-Versionen
<a name="emr-release-6x"></a>

Dieser Abschnitt enthält Anwendungsversionen, Versionshinweise, Komponentenversionen und Konfigurationsklassifizierungen, die in jeder Amazon-EMR-6.x-Version verfügbar sind.

Wenn Sie einen Cluster starten, können Sie aus verschiedenen Versionen von Amazon EMR wählen. Auf diese Weise können Sie Anwendungsversionen testen und verwenden, die zu den Kompatibilitätsanforderungen passen. Sie geben die Versionsnummer zusammen mit dem *Release-Label* an. Versionsbezeichnungen haben die Form `emr-x.x.x`. Beispiel, `emr-7.12.0`.

Neue Amazon-EMR-Versionen werden über einen Zeitraum von mehreren Tagen in verschiedenen Regionen verfügbar gemacht, beginnend mit der ersten Region am ursprünglichen Veröffentlichungsdatum. Die neueste Version ist in diesem Zeitraum möglicherweise nicht in Ihrer Region verfügbar.

Eine umfassende Tabelle der Anwendungsversionen in jeder Amazon-EMR-6.x-Version finden Sie unter [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md).

**Topics**
+ [

# Anwendungsversionen in Amazon-EMR-6.x-Versionen
](emr-release-app-versions-6.x.md)
+ [

# Amazon-EMR-Version 6.15.0
](emr-6150-release.md)
+ [

# Amazon-EMR-Version 6.14.0
](emr-6140-release.md)
+ [

# Amazon-EMR-Version 6.13.0
](emr-6130-release.md)
+ [

# Amazon-EMR-Version 6.12.0
](emr-6120-release.md)
+ [

# Amazon-EMR-Version 6.11.1
](emr-6111-release.md)
+ [

# Amazon-EMR-Version 6.11.0
](emr-6110-release.md)
+ [

# Amazon-EMR-Version 6.10.1
](emr-6101-release.md)
+ [

# Amazon-EMR-Version 6.10.0
](emr-6100-release.md)
+ [

# Amazon-EMR-Version 6.9.1
](emr-691-release.md)
+ [

# Amazon-EMR-Version 6.9.0
](emr-690-release.md)
+ [

# Amazon-EMR-Version 6.8.1
](emr-681-release.md)
+ [

# Amazon-EMR-Version 6.8.0
](emr-680-release.md)
+ [

# Amazon-EMR-Version 6.7.0
](emr-670-release.md)
+ [

# Amazon-EMR-Version 6.6.0
](emr-660-release.md)
+ [

# Amazon-EMR-Version 6.5.0
](emr-650-release.md)
+ [

# Amazon-EMR-Version 6.4.0
](emr-640-release.md)
+ [

# Amazon-EMR-Version 6.3.1
](emr-631-release.md)
+ [

# Amazon-EMR-Version 6.3.0
](emr-630-release.md)
+ [

# Amazon-EMR-Version 6.2.1
](emr-621-release.md)
+ [

# Amazon-EMR-Version 6.2.0
](emr-620-release.md)
+ [

# Amazon-EMR-Version 6.1.1
](emr-611-release.md)
+ [

# Amazon-EMR-Version 6.1.0
](emr-610-release.md)
+ [

# Amazon-EMR-Version 6.0.1
](emr-601-release.md)
+ [

# Amazon-EMR-Version 6.0.0
](emr-600-release.md)

# Anwendungsversionen in Amazon-EMR-6.x-Versionen
<a name="emr-release-app-versions-6.x"></a>

In der folgenden Tabelle sind die Anwendungsversionen aufgeführt, die in jeder Amazon-EMR-6.x-Version verfügbar sind.


**Informationen zur Anwendungsversion**  

|  | emr-6.15.0 | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS SDK for Java | 2,20.160-amzn-0, 1,12.569 | 1.12.543 | 1,12,513 | 1.12,490 | 1.12,446 | 1.12,446 | 1.12,397 | 1,12,397 | 1.12,170 | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 1.12,31 | 1.12.31 | 1.11.977 | 1,11,977 | 1.11.880 | 1.11.880 | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Flink | 1.17.1-amzn-1 | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 1.16.0 | 1.16.0 | 1.16.0 | 1.16.0 | 1.15.2 | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 | 1.14.2 | 1.14.0 | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-3 | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.3.6-amzn-1 | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.14.0-amzn-0 | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg | 1.4.0-amzn-0 | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.0.0- -2.0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.283-amzn-0 | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.10.0 | 2.10.0 | 2.9.1 | 2.9.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.10.2-amzn-6 | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 426-amzn-0 | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 360 | 359 | 350 | 350 | 343 | 343 | 338 | 338 |  -  |  -  | 
| Zeppelin | 0,10,1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.7 | 3.5.7 | 3.5.7 | 3.5.7 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

# Amazon-EMR-Version 6.15.0
<a name="emr-6150-release"></a>

## 6.15.0 Anwendungsversionen
<a name="emr-6150-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://delta.io/](https://delta.io/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.15.0 | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 2,20.160-amzn-0, 1,12.569 | 1.12.543 | 1,12,513 | 1.12,490 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Flink | 1.17.1-amzn-1 | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-3 | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 
| HCatalog | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 
| Hadoop | 3.3.6-amzn-1 | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 
| Hive | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 
| Hudi | 0.14.0-amzn-0 | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.4.0-amzn-0 | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.283-amzn-0 | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 
| Spark | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-6 | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 
| Trino (PrestoSQL) | 426-amzn-0 | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.15.0 Versionshinweise
<a name="emr-6150-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.15.0. Änderungen beziehen sich auf Version 6.14.0. Informationen zum Zeitplan für die Veröffentlichung finden Sie unter [6.15.0 Änderungsprotokoll](#6150-changelog).

**Neue Features**
+ **Anwendungs-Upgrades** – Amazon EMR 6.15.0 application upgrades include Apache Hadoop 3.3.6, Apache Hudi 0.14.0-amzn-0, Iceberg 1.4.0-amzn-0, and Trino 426.
+ **[Schnellere Starts für EMR-Cluster, die in EC2 ausgeführt werden](https://aws.amazon.com/about-aws/whats-new/2023/11/amazon-emr-ec2-clusters-5-minutes-less/)** – Ein Amazon EMR kann jetzt bis zu 35 % schneller in einem EC2-Cluster gestartet werden. Mit dieser Verbesserung können die meisten Kunden ihre Cluster in 5 Minuten oder weniger starten.
+ **[CodeWhisperer für EMR Studio](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-studio-codewhisperer.html)** — Sie können Amazon jetzt CodeWhisperer mit Amazon EMR Studio verwenden, um Empfehlungen in Echtzeit zu erhalten, während Sie Code einschreiben. JupyterLab CodeWhisperer kann Ihre Kommentare vervollständigen, einzelne Codezeilen fertigstellen, line-by-line Empfehlungen aussprechen und vollständig formatierte Funktionen generieren.
+ **[Schnellere Auftrag-Neustartzeiten mit Flink](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/flink-restart.html)** – Mit Amazon EMR 6.15.0 und höher sind mehrere neue Mechanismen für Apache Flink verfügbar, um die Auftrag-Neustartzeit bei Aufgabenwiederherstellungs- oder -skalierungsvorgängen zu verkürzen. Dadurch wird die Geschwindigkeit der Wiederherstellung und des Neustarts von Ausführungsdiagrammen optimiert, um die Auftragsstabilität zu verbessern.
+ Detaillierte **[Zugriffskontrolle auf Tabellenebene für Open-Table-Formate](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lf-enable.html)** — Wenn Sie mit Amazon EMR 6.15.0 und höher Spark-Jobs auf Amazon EMR auf EC2-Clustern ausführen, die auf Daten im AWS Glue-Datenkatalog zugreifen, können Sie damit Berechtigungen auf Tabellen-, Zeilen-, Spalten- und Zellenebene auf Hudi-, Iceberg- oder Delta Lake-basierte Tabellen anwenden. AWS Lake Formation 
+ **Hadoop-Upgrade** – Amazon EMR 6.15.0 beinhaltet ein Upgrade von Apache Hadoop auf Version 3.3.6. Hadoop 3.3.6 war die neueste Version zum Zeitpunkt der Bereitstellung von Amazon EMR 6.15, die im Juni 2023 von Apache veröffentlicht wurde. Frühere Versionen von Amazon EMR (6.9.0 bis 6.14.x) verwendeten Hadoop 3.3.3.

  Das Upgrade umfasst Hunderte Verbesserungen und Fehlerbehebungen sowie Features wie rekonfigurierbare Datenknotenparameter, die `DFSAdmin`-Option zum Initiieren von Massenrekonfigurationsvorgängen für alle Live-Datenknoten und eine vektorbasierte API, die es suchlastigen Lesern ermöglicht, mehrere Lesebereiche anzugeben. Hadoop 3.3.6 bietet außerdem Unterstützung für HDFS APIs und Semantik für sein Write-Ahead-Log (WAL), sodass es auf anderen Speichersystemimplementierungen ausgeführt werden HBase kann. Weitere Informationen finden Sie in den Änderungsprotokollen für Versionen [3.3.4](https://hadoop.apache.org/docs/r3.3.4/hadoop-project-dist/hadoop-common/release/3.3.4/CHANGELOG.3.3.4.html), [3.3.5](https://hadoop.apache.org/docs/r3.3.5/hadoop-project-dist/hadoop-common/release/3.3.5/CHANGELOG.3.3.5.html) und [3.3.6](https://hadoop.apache.org/docs/r3.3.6/hadoop-project-dist/hadoop-common/release/3.3.6/CHANGELOG.3.3.6.html) in der *Apache-Hadoop-Dokumentation*.
+ **Support für AWS SDK for Java, Version 2** — Amazon EMR 6.15.0-Anwendungen können AWS SDK for Java Java-Versionen [1.12.569](https://github.com/aws/aws-sdk-java/tree/1.12.569) oder [2.20.160](https://github.com/aws/aws-sdk-java-v2/tree/2.20.160) verwenden, wenn die Anwendung Version 2 unterstützt. Das AWS SDK for Java 2.x ist eine umfassende Neufassung der Codebasis von Version 1.x. Sie basiert auf Java 8\$1 und fügt mehrere häufig angeforderte Funktionen hinzu. Dies umfasst die Unterstützung von blockierungsfreiem E/A und die Möglichkeit, zur Laufzeit eine andere HTTP-Implementierung einzubinden. Weitere Informationen, einschließlich eines **Migrationshandbuchs von SDK für Java v1 zu v2**, finden Sie im Handbuch [AWS SDK für Java, Version 2.](https://docs.aws.amazon.com/sdk-for-java)

**Bekannte Probleme**
+ Ein auf dem Cluster installiertes Instance-State-Skript, das den Zustand der Instanz überwacht, kann übermäßig viele CPU- und Speicherressourcen verbrauchen, wenn auf dem Knoten eine große Anzahl von Threads mit Dateihandles and/or geöffnet ist.

**Änderungen, Verbesserungen und behobene Probleme**
+  *Ab Spark 3.3.1 (unterstützt in EMR-Versionen 6.10 und höher) werden alle Executors auf einem Stilllegungshost in einen neuen Status versetzt, der als DECOMMISSIONING-Status bezeichnet wird. `ExecutorState`* Die Executoren, die außer Betrieb genommen werden, können von Yarn nicht zur Zuweisung von Aufgaben verwendet werden. Daher werden bei Bedarf neue Executoren für die ausgeführten Aufgaben angefordert. Wenn Sie also Spark DRA deaktivieren, während Sie EMR Managed Scaling, EMR Auto Scaling oder einen beliebigen benutzerdefinierten Skalierungsmechanismus auf EMR-EC2-Clustern verwenden, fordert Yarn möglicherweise die maximal zulässigen Executoren für jeden Job an. Um dieses Problem zu vermeiden, lassen Sie die `spark.dynamicAllocation.enabled` Eigenschaft auf gesetzt `TRUE` (was die Standardeinstellung ist), wenn Sie die oben genannte Kombination von Funktionen verwenden. Darüber hinaus können Sie auch minimale und maximale Executor-Beschränkungen festlegen, indem Sie Werte `spark.dynamicAllocation.maxExecutors` und `spark.dynamicAllocation.minExecutors` Eigenschaften für Ihre Spark-Jobs festlegen, um die Anzahl der Executoren zu begrenzen, die während der Ausführung des Jobs zugewiesen werden. 
+ Um Ihre EMR-Cluster mit hoher Verfügbarkeit zu verbessern, ermöglicht diese Version Konnektivität zu Amazon-EMR-Daemons auf lokalen Hosts, die IPv6-Endpunkte verwenden.
+ Diese Version aktiviert TLS 1.2 für die Kommunikation mit ZooKeeper Provisioned auf allen primären Knoten Ihres Hochverfügbarkeitsclusters.
+ Diese Version verbessert die Verwaltung von ZooKeeper Transaktionsprotokolldateien, die auf primären Knoten verwaltet werden, um Szenarien zu minimieren, in denen die Protokolldateien über die Grenzen hinaus wachsen und den Clusterbetrieb unterbrechen.
+ Diese Version verbessert die Widerstandsfähigkeit der knoteninternen Kommunikation von EMR-Clustern mit hoher Verfügbarkeit. Durch diese Verbesserung wird die Wahrscheinlichkeit, dass Bootstrap-Aktionen oder Cluster-Startfehler auftreten, verringert.
+ Tez in Amazon EMR 6.15.0 führt Konfigurationen ein, die Sie angeben können, um die Eingabe-Splits in einem gruppierten Tez-Split asynchron zu öffnen. Dies führt zu einer schnelleren Leistung von Leseabfragen, wenn ein einzelner gruppierter Tez-Split eine große Anzahl von Eingabe-Splits enthält. Weitere Informationen finden Sie unter [Asynchrone Öffnung von Tez-Splits](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/tez-configure.html#tez-configure-async).
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-6150-release.html)

## 6.15.0 Standard-Java-Versionen
<a name="emr-6150-jdk"></a>

Amazon-EMR-Versionen 6.12.0 und höher unterstützen standardmäßig alle Anwendungen mit Amazon Corretto 8, mit Ausnahme von Trino. Für Trino unterstützt Amazon EMR Amazon Corretto 17 ab Amazon-EMR-Version 6.9.0 standardmäßig. Amazon EMR unterstützt auch einige Anwendungen mit Amazon Corretto 11 und 17. Diese Anwendungen werden in der folgenden Tabelle aufgelistet. Wenn Sie die Standard-JVM auf Ihrem Cluster ändern möchten, folgen Sie den Anweisungen unter [Anwendungen für die Verwendung einer bestimmten Java Virtual Machine konfigurieren](configuring-java8.md) für jede Anwendung, die auf dem Cluster ausgeführt wird. Sie können nur eine Java-Laufzeit-Version für einen Cluster verwenden. Amazon EMR unterstützt nicht die Ausführung verschiedener Knoten oder Anwendungen auf verschiedenen Laufzeitversionen auf demselben Cluster.

Amazon EMR unterstützt zwar sowohl Amazon Corretto 11 als auch 17 auf Apache Spark, Apache Hadoop und Apache Hive, bei einigen Workloads kann es jedoch zu Leistungseinbußen kommen, wenn Sie diese Versionen von Corretto verwenden. Wir empfehlen Ihnen, Ihre Workloads zu testen, bevor Sie die Standardeinstellungen ändern.

Die folgende Tabelle zeigt die Standard-Java-Versionen für Anwendungen in Amazon EMR 6.15.0:


| Anwendung | Java-/Amazon-Corretto-Version (Standard ist fett gedruckt) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## 6.15.0 Komponentenversionen
<a name="emr-6150-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark-SDK | 
| delta | 2.4.0 | Delta Lake ist ein offenes Tabellenformat für riesige analytische Datensätze | 
| delta-standalone-connectors | 0.6.0 | Delta-Konnektoren bieten unterschiedliche Laufzeiten, um Delta Lake mit Engines wie Flink, Hive und Presto zu integrieren. | 
| emr-ddb | 5.2.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.8.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.12.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.7.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.29.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.8.0 | EMR S3Select-Konnektor | 
| emr-wal-cli | 1.2.0 | Cli wird für die emrwal list/deletion verwendet. | 
| emrfs | 2.60.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.17.1-amzn-1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.17.1-amzn-1 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.3.6-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.3.6-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.3.6-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.3.6-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.3.6-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.3.6-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.3.6-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.17-amzn-3 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.17-amzn-3 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.17-amzn-3 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.17-amzn-3 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.17-amzn-3 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.17-amzn-3 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.3-amzn-8 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.3-amzn-8 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.3-amzn-8 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.3-amzn-8 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.3-amzn-8 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-8 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.3-amzn-8 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.14.0-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.14.0-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.14.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.14.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.11.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 1.4.0-amzn-0 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.5.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.9.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,8,0 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.7.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.3 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 5.1.3 | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 6.0.0 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.283-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.283-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.283-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 426-amzn-0 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 426-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 426-amzn-0 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.4.1-amzn-2 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.4.1-amzn-2 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.4.1-amzn-2 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.4.1-amzn-2 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 23.08.1-amzn-0 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.11.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.10.2-amzn-6 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| tez-on-worker | 0.10.2-amzn-6 | Die Tez-YARN-Anwendung und Bibliotheken für Worker-Knoten. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.10 | ZooKeeper Befehlszeilen-Client. | 

## 6.15.0 Konfigurationsklassifizierungen
<a name="emr-6150-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.15.0 Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Das KMS-Java-Home von Hadoop ändern | Not available. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| delta-defaults | Ändern Sie die Werte in der delta-defaults.conf-Datei von Delta. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j2 | Ändern Sie die log4j2.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-lakeformation | Ändern Sie die Werte in der lakeformation.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-delta | Ändern Sie die Werte in der delta.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Ändern Sie die Werte in der exchange-manager.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Ändern Sie die Werte in der hudi.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ändern Sie die Werte in der kms-logback.xml-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j2 | Ändern Sie die Werte in der log4j2.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 6.15.0 Änderungsprotokoll
<a name="6150-changelog"></a>


**Änderungsprotokoll für Version 6.15.0 und Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2025-09-03 | Überarbeitung der Dokumente | In den Versionshinweisen zu Amazon EMR 6.15.0 wurde ein bekanntes Problem hinzugefügt | 
| 17.11.2023- | Veröffentlichung von Dokumenten | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 6.15.0 | 
| 17.11.2023- | Die Bereitstellung ist abgeschlossen | [Amazon EMR 6.15.0 vollständig in allen unterstützten Regionen bereitgestellt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-11-13 | Erstversion | Amazon EMR 6.15.0 wurde zuerst in ersten kommerziellen Regionen bereitgestellt | 

# Amazon-EMR-Version 6.14.0
<a name="emr-6140-release"></a>

## 6.14.0 Anwendungsversionen
<a name="emr-6140-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.543 | 1,12,513 | 1.12,490 | 1.12,446 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.2.0 | 
| Flink | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 
| HCatalog | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 
| Hadoop | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 
| Hive | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 
| Hudi | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 
| Spark | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 
| Trino (PrestoSQL) | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.14.0 Versionshinweise
<a name="emr-6140-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon EMR Version 6.14.0. Änderungen beziehen sich auf Version 6.13.0. Informationen zum Zeitplan für die Veröffentlichung finden Sie unter [6.14.0 Änderungsprotokoll](#6140-changelog).

**Neue Features**
+ Amazon EMR 6.14.0 supports Apache Spark 3.4.1, Apache Spark RAPIDS 23.06.0-amzn-2, Flink 1.17.1, Iceberg 1.3.1, and Trino 422.
+ [Amazon EMR Managed Scaling](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) ist jetzt in der Region `ap-southeast-3` Asien-Pazifik (Jakarta) für Cluster verfügbar, die Sie mit Amazon EMR 6.14.0 und höher erstellen.

**Bekannte Probleme**
+ Ein auf dem Cluster installiertes Instance-State-Skript, das den Zustand der Instanz überwacht, kann übermäßig viele CPU- und Speicherressourcen verbrauchen, wenn auf dem Knoten eine große Anzahl von Threads mit Dateihandles and/or geöffnet ist.

**Änderungen, Verbesserungen und behobene Probleme**
+  *Ab Spark 3.3.1 (unterstützt in EMR-Versionen 6.10 und höher) werden alle Executors auf einem Stilllegungshost in einen neuen Status versetzt, der als DECOMMISSIONING-Status bezeichnet wird. `ExecutorState`* Die Executoren, die außer Betrieb genommen werden, können von Yarn nicht zur Zuweisung von Aufgaben verwendet werden. Daher werden bei Bedarf neue Executoren für die ausgeführten Aufgaben angefordert. Wenn Sie also Spark DRA deaktivieren, während Sie EMR Managed Scaling, EMR Auto Scaling oder einen beliebigen benutzerdefinierten Skalierungsmechanismus auf EMR-EC2-Clustern verwenden, fordert Yarn möglicherweise die maximal zulässigen Executoren für jeden Job an. Um dieses Problem zu vermeiden, lassen Sie die `spark.dynamicAllocation.enabled` Eigenschaft auf gesetzt `TRUE` (was die Standardeinstellung ist), wenn Sie die oben genannte Kombination von Funktionen verwenden. Darüber hinaus können Sie auch minimale und maximale Executor-Beschränkungen festlegen, indem Sie Werte `spark.dynamicAllocation.maxExecutors` und `spark.dynamicAllocation.minExecutors` Eigenschaften für Ihre Spark-Jobs festlegen, um die Anzahl der Executoren zu begrenzen, die während der Ausführung des Jobs zugewiesen werden. 
+ Die Version 6.14.0 optimiert die Protokollverwaltung mit Amazon EMR, das auf Amazon EC2 ausgeführt wird. Infolgedessen können Sie eine leichte Senkung der Speicherkosten für Ihre Cluster-Protokolle feststellen.
+ Die Version 6.14.0 verbessert den Skalierungs-Workflow, um verschiedene Core-Instances zu berücksichtigen, deren Größe für ihre Amazon-EBS-Volumes erheblich variiert. Diese Verbesserung gilt nur für Core-Knoten; Herunterskalierungs-Operationen für Aufgabenknoten sind davon nicht betroffen.
+ Die Version 6.14.0 verbessert die Interaktion von Amazon EMR mit Open-Source-Anwendungen wie Apache Hadoop YARN ResourceManager and HDFS NameNode. Diese Verbesserung reduziert das Risiko von Betriebsverzögerungen bei der Cluster-Skalierung und verringert Startup-Fehler, die aufgrund von Verbindungsproblemen mit den Open-Source-Anwendungen auftreten.
+ Die Version 6.14.0 optimiert die Anwendungsinstallation beim Clusterstart. Dies verbessert die Cluster-Startup-Zeiten für bestimmte Kombinationen von Amazon-EMR-Anwendungen.
+ Die Version 6.14.0 behebt ein Problem, bei dem Cluster-Herunterskalierungs-Operationen möglicherweise zum Stillstand kommen, wenn ein Cluster, der in einer VPC mit einer benutzerdefinierten Domain ausgeführt wird, auf einen Core- oder Aufgabenknoten-Neustart stößt.
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-6140-release.html)

## 6.14.0 Standard-Java-Versionen
<a name="emr-6140-jdk"></a>

Amazon-EMR-Versionen 6.12.0 und höher unterstützen standardmäßig alle Anwendungen mit Amazon Corretto 8, mit Ausnahme von Trino. Für Trino unterstützt Amazon EMR Amazon Corretto 17 ab Amazon-EMR-Version 6.9.0 standardmäßig. Amazon EMR unterstützt auch einige Anwendungen mit Amazon Corretto 11 und 17. Diese Anwendungen werden in der folgenden Tabelle aufgelistet. Wenn Sie die Standard-JVM auf Ihrem Cluster ändern möchten, folgen Sie den Anweisungen unter [Anwendungen für die Verwendung einer bestimmten Java Virtual Machine konfigurieren](configuring-java8.md) für jede Anwendung, die auf dem Cluster ausgeführt wird. Sie können nur eine Java-Laufzeit-Version für einen Cluster verwenden. Amazon EMR unterstützt nicht die Ausführung verschiedener Knoten oder Anwendungen auf verschiedenen Laufzeitversionen auf demselben Cluster.

Amazon EMR unterstützt zwar sowohl Amazon Corretto 11 als auch 17 auf Apache Spark, Apache Hadoop und Apache Hive, bei einigen Workloads kann es jedoch zu Leistungseinbußen kommen, wenn Sie diese Versionen von Corretto verwenden. Wir empfehlen Ihnen, Ihre Workloads zu testen, bevor Sie die Standardeinstellungen ändern.

Die folgende Tabelle zeigt die Standard-Java-Versionen für Anwendungen in Amazon EMR 6.14.0:


| Anwendung | Java-/Amazon-Corretto-Version (Standard ist fett gedruckt) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## 6.14.0 Komponentenversionen
<a name="emr-6140-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark-SDK | 
| delta | 2.4.0 | Delta Lake ist ein offenes Tabellenformat für riesige analytische Datensätze | 
| delta-standalone-connectors | 0.6.0 | Delta-Konnektoren bieten unterschiedliche Laufzeiten, um Delta Lake mit Engines wie Flink, Hive und Presto zu integrieren. | 
| emr-ddb | 5.1.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.7.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.11.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.7.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.28.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.7.0 | EMR S3Select-Konnektor | 
| emr-wal-cli | 1.1.0 | Cli wird für die emrwal list/deletion verwendet. | 
| emrfs | 2.59.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.17.1-amzn-0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.17.1-amzn-0 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.3.3-amzn-6 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-6 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.3.3-amzn-6 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.3.3-amzn-6 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-6 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.3.3-amzn-6 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.3.3-amzn-6 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-6 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-6 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-6 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-6 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.17-amzn-2 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.17-amzn-2 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.17-amzn-2 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.17-amzn-2 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.17-amzn-2 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.17-amzn-2 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.3-amzn-7 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.3-amzn-7 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.3-amzn-7 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.3-amzn-7 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.3-amzn-7 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-7 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.3-amzn-7 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.13.1-amzn-2 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.13.1-amzn-2 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.13.1-amzn-2 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.13.1-amzn-2 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.11.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 1.3.1-amzn-0 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.5.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.9.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,8,0 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.7.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.3 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 5.1.3 | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 6.0.0 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.281-amzn-2 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.281-amzn-2 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.281-amzn-2 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 422-amzn-0 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 422-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 422-amzn-0 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.4.1-amzn-1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.4.1-amzn-1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.4.1-amzn-1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.4.1-amzn-1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 23.06.0-amzn-2 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.11.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.10.2-amzn-5 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| tez-on-worker | 0.10.2-amzn-5 | Die Tez-YARN-Anwendung und Bibliotheken für Worker-Knoten. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.10 | ZooKeeper Befehlszeilen-Client. | 

## 6.14.0 Konfigurationsklassifizierungen
<a name="emr-6140-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.14.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Das KMS-Java-Home von Hadoop ändern | Not available. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| delta-defaults | Ändern Sie die Werte in der delta-defaults.conf-Datei von Delta. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j2 | Ändern Sie die log4j2.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-lakeformation | Ändern Sie die Werte in der lakeformation.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-delta | Ändern Sie die Werte in der delta.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Ändern Sie die Werte in der exchange-manager.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Ändern Sie die Werte in der hudi.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ändern Sie die Werte in der kms-logback.xml-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j2 | Ändern Sie die Werte in der log4j2.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 6.14.0 Änderungsprotokoll
<a name="6140-changelog"></a>


**Änderungsprotokoll für Version 6.14.0 und Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2025-09-03 | Überarbeitung der Dokumente | In den Versionshinweisen zu Amazon EMR 6.14.0 wurde ein bekanntes Problem hinzugefügt | 
| *2023-11-02* | Die Bereitstellung ist abgeschlossen | [Amazon EMR 6.14.0 vollständig in allen unterstützten Regionen bereitgestellt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-10-10 | Veröffentlichung von Dokumenten | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 6.14.0 | 
| 2023-10-04 | Erstversion | Amazon EMR 6.14.0 wurde zuerst in ersten kommerziellen Regionen bereitgestellt | 

# Amazon-EMR-Version 6.13.0
<a name="emr-6130-release"></a>

## 6.13.0 Anwendungsversionen
<a name="emr-6130-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.513 | 1.12,490 | 1.12,446 | 1.12,446 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.17.0 | 1.17.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 
| HCatalog | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 
| Hadoop | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 
| Hive | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 
| Hudi | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 
| Spark | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 
| Trino (PrestoSQL) | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.13.0 Versionshinweise
<a name="emr-6130-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.13.0. Änderungen beziehen sich auf Version 6.12.0. Informationen zum Zeitplan für die Veröffentlichung finden Sie unter [6.13.0 Änderungsprotokoll](#6130-changelog).

**Neue Features**
+ Amazon EMR 6.13.0 supports Apache Spark 3.4.1, Apache Spark RAPIDS 23.06.0-amzn-1, CUDA Toolkit 11.8.0, and JupyterHub 1.5.0.

**Bekannte Probleme**
+ Ein auf dem Cluster installiertes Instance-State-Skript, das den Zustand der Instanz überwacht, kann übermäßig viele CPU- und Speicherressourcen verbrauchen, wenn auf dem Knoten eine große Anzahl von Threads mit Dateihandles and/or geöffnet ist.

**Änderungen, Verbesserungen und behobene Probleme**
+  *Ab Spark 3.3.1 (unterstützt in EMR-Versionen 6.10 und höher) werden alle Executors auf einem Stilllegungshost in einen neuen Status versetzt, der als DECOMMISSIONING-Status bezeichnet wird. `ExecutorState`* Die Executoren, die außer Betrieb genommen werden, können von Yarn nicht zur Zuweisung von Aufgaben verwendet werden. Daher werden bei Bedarf neue Executoren für die ausgeführten Aufgaben angefordert. Wenn Sie also Spark DRA deaktivieren, während Sie EMR Managed Scaling, EMR Auto Scaling oder einen beliebigen benutzerdefinierten Skalierungsmechanismus auf EMR-EC2-Clustern verwenden, fordert Yarn möglicherweise die maximal zulässigen Executoren für jeden Job an. Um dieses Problem zu vermeiden, lassen Sie die `spark.dynamicAllocation.enabled` Eigenschaft auf gesetzt `TRUE` (was die Standardeinstellung ist), wenn Sie die oben genannte Kombination von Funktionen verwenden. Darüber hinaus können Sie auch minimale und maximale Executor-Beschränkungen festlegen, indem Sie Werte `spark.dynamicAllocation.maxExecutors` und `spark.dynamicAllocation.minExecutors` Eigenschaften für Ihre Spark-Jobs festlegen, um die Anzahl der Executoren zu begrenzen, die während der Ausführung des Jobs zugewiesen werden. 
+ Die Version 6.13.0 verbessert den Amazon-EMR-Protokollverwaltungs-Daemon, um sicherzustellen, dass alle Protokolle in regelmäßigen Abständen auf Amazon S3 hochgeladen werden, wenn ein Befehl zur Clusterbeendigung ausgegeben wird. Dies ermöglicht schnellere Clusterbeendigungen.
+ Die Version 6.13.0 verbessert die Protokollverwaltungsfunktionen von Amazon EMR, um einen konsistenten und zeitnahen Upload aller Protokolldateien auf Amazon S3 sicherzustellen. Davon profitieren vor allem langlaufende EMR-Cluster.
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-6130-release.html)

## 6.13.0 Standard-Java-Versionen
<a name="emr-6130-jdk"></a>

Amazon-EMR-Versionen 6.12.0 und höher unterstützen standardmäßig alle Anwendungen mit Amazon Corretto 8, mit Ausnahme von Trino. Für Trino unterstützt Amazon EMR Amazon Corretto 17 ab Amazon-EMR-Version 6.9.0 standardmäßig. Amazon EMR unterstützt auch einige Anwendungen mit Amazon Corretto 11 und 17. Diese Anwendungen werden in der folgenden Tabelle aufgelistet. Wenn Sie die Standard-JVM auf Ihrem Cluster ändern möchten, folgen Sie den Anweisungen unter [Anwendungen für die Verwendung einer bestimmten Java Virtual Machine konfigurieren](configuring-java8.md) für jede Anwendung, die auf dem Cluster ausgeführt wird. Sie können nur eine Java-Laufzeit-Version für einen Cluster verwenden. Amazon EMR unterstützt nicht die Ausführung verschiedener Knoten oder Anwendungen auf verschiedenen Laufzeitversionen auf demselben Cluster.

Amazon EMR unterstützt zwar sowohl Amazon Corretto 11 als auch 17 auf Apache Spark, Apache Hadoop und Apache Hive, bei einigen Workloads kann es jedoch zu Leistungseinbußen kommen, wenn Sie diese Versionen von Corretto verwenden. Wir empfehlen Ihnen, Ihre Workloads zu testen, bevor Sie die Standardeinstellungen ändern.

Die folgende Tabelle zeigt die Standard-Java-Versionen für Anwendungen in Amazon EMR 6.13.0:


| Anwendung | Java-/Amazon-Corretto-Version (Standard ist fett gedruckt) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## 6.13.0 Komponentenversionen
<a name="emr-6130-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark-SDK | 
| delta | 2.4.0 | Delta Lake ist ein offenes Tabellenformat für riesige analytische Datensätze | 
| delta-standalone-connectors | 0.6.0 | Delta-Konnektoren bieten unterschiedliche Laufzeiten, um Delta Lake mit Engines wie Flink, Hive und Presto zu integrieren. | 
| emr-ddb | 5.1.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.6.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.10.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.7.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.27.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.6.0 | EMR S3Select-Konnektor | 
| emr-wal-cli | 1.1.0 | Cli wird für die emrwal list/deletion verwendet. | 
| emrfs | 2,58,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.17.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.17.0 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.3.3-amzn-5 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-5 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.3.3-amzn-5 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.3.3-amzn-5 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-5 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.3.3-amzn-5 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.3.3-amzn-5 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-5 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-5 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-5 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-5 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.17-amzn-1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.17-amzn-1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.17-amzn-1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.17-amzn-1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.17-amzn-1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.17-amzn-1 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.3-amzn-6 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.3-amzn-6 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.3-amzn-6 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.3-amzn-6 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.3-amzn-6 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-6 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.3-amzn-6 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.13.1-amzn-1 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.13.1-amzn-1 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.13.1-amzn-1 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.13.1-amzn-1 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.11.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 1.3.0-amzn-1 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.5.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.9.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,8,0 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.7.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.3 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 5.1.3 | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 6.0.0 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.281-amzn-1 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.281-amzn-1 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.281-amzn-1 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 414-amzn-1 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 414-amzn-1 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 414-amzn-1 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.4.1-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.4.1-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.4.1-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.4.1-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 23.06.0-amzn-1 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.11.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.10.2-amzn-4 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| tez-on-worker | 0.10.2-amzn-4 | Die Tez-YARN-Anwendung und Bibliotheken für Worker-Knoten. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.10 | ZooKeeper Befehlszeilen-Client. | 

## 6.13.0 Konfigurationsklassifizierungen
<a name="emr-6130-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.13.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Das KMS-Java-Home von Hadoop ändern | Not available. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| delta-defaults | Ändern Sie die Werte in der delta-defaults.conf-Datei von Delta. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j2 | Ändern Sie die log4j2.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-lakeformation | Ändern Sie die Werte in der lakeformation.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-delta | Ändern Sie die Werte in der delta.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Ändern Sie die Werte in der exchange-manager.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Ändern Sie die Werte in der hudi.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ändern Sie die Werte in der kms-logback.xml-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j2 | Ändern Sie die Werte in der log4j2.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 6.13.0 Änderungsprotokoll
<a name="6130-changelog"></a>


**Änderungsprotokoll für Version 6.13.0 und Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2025-09-03 | Überarbeitung der Dokumente | In den Versionshinweisen zu Amazon EMR 6.13.0 wurde ein bekanntes Problem hinzugefügt | 
| *2023-09-23* | Die Bereitstellung ist abgeschlossen | [Amazon EMR 6.13.0 vollständig in allen unterstützten Regionen bereitgestellt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-09-12 | Veröffentlichung von Dokumenten | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 6.13.0 | 
| 2023-09-01 | Erstversion | Amazon EMR 6.13.0 wurde zuerst in ersten kommerziellen Regionen bereitgestellt | 

# Amazon-EMR-Version 6.12.0
<a name="emr-6120-release"></a>

## 6.12.0 Anwendungsversionen
<a name="emr-6120-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.490 | 1.12,446 | 1.12,446 | 1.12,397 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.17.0 | 1.16.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 
| Hadoop | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 
| Hive | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 
| Hudi | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.10.0 | 
| Iceberg | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.5.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 
| Spark | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 
| Trino (PrestoSQL) | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.12.0 Versionshinweise
<a name="emr-6120-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.12.0. Änderungen beziehen sich auf Version 6.11.0. Informationen zum Zeitplan für die Veröffentlichung finden Sie unter [6.12.0 Änderungsprotokoll](#6120-changelog).

**Neue Features**
+ Amazon EMR 6.12.0 supports Apache Spark 3.4.0, Apache Spark RAPIDS 23.06.0-amzn-0, CUDA 11.8.0, Apache Hudi 0.13.1-amzn-0, Apache Iceberg 1.3.0-amzn-0, Trino 414, and PrestoDB 0.281.
+ Amazon EMR-Versionen 6.12.0 und höher unterstützen die LDAP-Integration mit Apache Livy, Apache Hive bis HiveServer 2 (HS2), Trino, Presto und Hue. Sie können Apache Spark und Apache Hadoop auch auf einem EMR-Cluster installieren, der 6.12.0 oder höher verwendet, und sie für die Verwendung von LDAP konfigurieren. Weitere Informationen finden Sie unter [Verwenden von Active-Directory- oder LDAP-Servern für die Authentifizierung mit Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/ldap.html).

**Bekannte Probleme**
+ Ein auf dem Cluster installiertes Instance-State-Skript, das den Zustand der Instance überwacht, kann übermäßig viele CPU- und Speicherressourcen verbrauchen, wenn auf dem Knoten eine große Anzahl von Threads mit Dateihandles geöffnet ist. and/or 

**Änderungen, Verbesserungen und behobene Probleme**
+  *Ab Spark 3.3.1 (unterstützt in EMR-Versionen 6.10 und höher) werden alle Executors auf einem Stilllegungshost in einen neuen Status versetzt, der als DECOMMISSIONING-Status bezeichnet wird. `ExecutorState`* Die Executoren, die außer Betrieb genommen werden, können von Yarn nicht zur Zuweisung von Aufgaben verwendet werden. Daher werden bei Bedarf neue Executoren für die ausgeführten Aufgaben angefordert. Wenn Sie also Spark DRA deaktivieren, während Sie EMR Managed Scaling, EMR Auto Scaling oder einen beliebigen benutzerdefinierten Skalierungsmechanismus auf EMR-EC2-Clustern verwenden, fordert Yarn möglicherweise die maximal zulässigen Executoren für jeden Job an. Um dieses Problem zu vermeiden, lassen Sie die `spark.dynamicAllocation.enabled` Eigenschaft auf gesetzt `TRUE` (was die Standardeinstellung ist), wenn Sie die oben genannte Kombination von Funktionen verwenden. Darüber hinaus können Sie auch minimale und maximale Executor-Beschränkungen festlegen, indem Sie Werte `spark.dynamicAllocation.maxExecutors` und `spark.dynamicAllocation.minExecutors` Eigenschaften für Ihre Spark-Jobs festlegen, um die Anzahl der Executoren zu begrenzen, die während der Ausführung des Jobs zugewiesen werden. 
+ Amazon-EMR-Versionen 6.12.0 und höher bieten Java-11-Laufzeitunterstützung für Flink. Weitere Informationen finden Sie unter [Flink für die Ausführung mit Java 11 konfigurieren](flink-configure.md#flink-configure-java11).
+ Die Version 6.12.0 fügt dem Cluster-Skalierungs-Workflow für EMR-Cluster, auf denen Presto oder Trino ausgeführt werden, einen neuen Wiederholungsmechanismus hinzu. Diese Verbesserung verringert das Risiko, dass die Clustergrößenänderung aufgrund eines einzigen fehlgeschlagenen Größenänderungsvorgangs auf unbestimmte Zeit zum Stillstand kommt. Sie verbessert auch die Clusterauslastung, da Ihr Cluster schneller hoch- und herunterskaliert wird.
+ Die Version 6.12.0 behebt ein Problem, bei dem Cluster-Herunterskalierungs-Operationen zum Stillstand kommen können, wenn ein Core-Knoten, der einer ordnungsgemäßen Außerbetriebnahme unterzogen wird, aus irgendeinem Grund nicht mehr funktionsfähig ist, bevor er vollständig außer Betrieb genommen wird.
+ Die Version 6.12.0 verbessert die Cluster-Herunterskalierungs-Logik, sodass Ihr Cluster nicht versucht, die Core-Knoten unter die für den Cluster eingestellte HDFS-Replikationsfaktor-Einstellung herunterzuskalieren. Dies entspricht Ihren Anforderungen an die Datenredundanz und verringert die Wahrscheinlichkeit, dass ein Skalierungsvorgang zum Stillstand kommt.
+ Die Version 6.12.0 verbessert die Leistung und Effizienz des Health Monitoring Service für Amazon EMR, indem die Geschwindigkeit erhöht wird, mit der Statusänderungen für Instances protokolliert werden. Diese Verbesserung verringert das Risiko einer Leistungseinbuße bei Cluster-Knoten, auf denen mehrere benutzerdefinierte Client-Tools oder Drittanbieteranwendungen ausgeführt werden.
+ Die Version 6.12.0 verbessert die Leistung des On-Cluster-Protokollverwaltungs-Daemons für Amazon EMR. Daher ist die Wahrscheinlichkeit einer Leistungsverschlechterung bei EMR-Clustern, die Schritte mit hoher Parallelität ausführen, geringer.
+ Mit der Amazon-EMR-Version 6.12.0 wurde der Protokoll-Management-Daemon aktualisiert, um alle Protokolle, die aktiv verwendet werden, mit offenen Datei-Handles auf dem lokalen Instance-Speicher und die zugehörigen Prozesse zu identifizieren. Dieses Upgrade stellt sicher, dass Amazon EMR die Dateien ordnungsgemäß löscht und Speicherplatz zurückgewinnt, nachdem die Protokolle in Amazon S3 archiviert wurden.
+ Die Version 6.12.0 beinhaltet eine Erweiterung des Protokollverwaltungs-Daemons, die leere, unbenutzte Schrittverzeichnisse im lokalen Cluster-Dateisystem löscht. Eine zu große Anzahl leerer Verzeichnisse kann die Leistung der Amazon-EMR-Daemons beeinträchtigen und zu einer Überauslastung der Festplatte führen.
+ Die Version 6.12.0 ermöglicht die Protokollrotation für YARN Timeline Server-Protokolle. Dadurch werden Szenarien mit übermäßiger Festplattenauslastung minimiert, insbesondere bei Clustern mit langer Laufzeit.
+ Die Standardgröße des Root-Volumes wurde in Amazon EMR 6.10.0 und höher auf 15 GB erhöht. Frühere Versionen haben eine Standardgröße für das Root-Volume von 10 GB.
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-6120-release.html)

## 6.12.0 Standard-Java-Versionen
<a name="emr-6120-jdk"></a>

Amazon-EMR-Versionen 6.12.0 und höher unterstützen standardmäßig alle Anwendungen mit Amazon Corretto 8, mit Ausnahme von Trino. Für Trino unterstützt Amazon EMR Amazon Corretto 17 ab Amazon-EMR-Version 6.9.0 standardmäßig. Amazon EMR unterstützt auch einige Anwendungen mit Amazon Corretto 11 und 17. Diese Anwendungen werden in der folgenden Tabelle aufgelistet. Wenn Sie die Standard-JVM auf Ihrem Cluster ändern möchten, folgen Sie den Anweisungen unter [Anwendungen für die Verwendung einer bestimmten Java Virtual Machine konfigurieren](configuring-java8.md) für jede Anwendung, die auf dem Cluster ausgeführt wird. Sie können nur eine Java-Laufzeit-Version für einen Cluster verwenden. Amazon EMR unterstützt nicht die Ausführung verschiedener Knoten oder Anwendungen auf verschiedenen Laufzeitversionen auf demselben Cluster.

Amazon EMR unterstützt zwar sowohl Amazon Corretto 11 als auch 17 auf Apache Spark, Apache Hadoop und Apache Hive, bei einigen Workloads kann es jedoch zu Leistungseinbußen kommen, wenn Sie diese Versionen von Corretto verwenden. Wir empfehlen Ihnen, Ihre Workloads zu testen, bevor Sie die Standardeinstellungen ändern.

Die folgende Tabelle zeigt die Standard-Java-Versionen für Anwendungen in Amazon EMR 6.12.0:


| Anwendung | Java-/Amazon-Corretto-Version (Standard ist fett gedruckt) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## 6.12.0 Komponentenversionen
<a name="emr-6120-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark-SDK | 
| delta | 2.4.0 | Delta Lake ist ein offenes Tabellenformat für riesige analytische Datensätze | 
| delta-standalone-connectors | 0.6.0 | Delta-Konnektoren bieten unterschiedliche Laufzeiten, um Delta Lake mit Engines wie Flink, Hive und Presto zu integrieren. | 
| emr-ddb | 5.1.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.5.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.9.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.7.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.26.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.5.0 | EMR S3Select-Konnektor | 
| emr-wal-cli | 1.1.0 | Cli wird für die emrwal list/deletion verwendet. | 
| emrfs | 2,57,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.17.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.17.0 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.3.3-amzn-4 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-4 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.3.3-amzn-4 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.3.3-amzn-4 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-4 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.3.3-amzn-4 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.3.3-amzn-4 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-4 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-4 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-4 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-4 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.17-amzn-0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.17-amzn-0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.17-amzn-0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.17-amzn-0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.17-amzn-0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.17-amzn-0 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.3-amzn-5 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.3-amzn-5 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.3-amzn-5 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.3-amzn-5 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.3-amzn-5 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-5 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.3-amzn-5 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.13.1-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.13.1-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.13.1-amzn-0 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.13.1-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.11.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 1.3.0-amzn-0 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.9.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,8,0 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.7.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.3 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 5.1.3 | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 6.0.0 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.281-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.281-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.281-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 414-amzn-0 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 414-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 414-amzn-0 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.4.0-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.4.0-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.4.0-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.4.0-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 23.06.0-amzn-0 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.11.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.10.2-amzn-3 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| tez-on-worker | 0.10.2-amzn-3 | Die Tez-YARN-Anwendung und Bibliotheken für Worker-Knoten. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.10 | ZooKeeper Befehlszeilen-Client. | 

## 6.12.0 Konfigurationsklassifizierungen
<a name="emr-6120-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.12.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Das KMS-Java-Home von Hadoop ändern | Not available. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| delta-defaults | Ändern Sie die Werte in der delta-defaults.conf-Datei von Delta. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j2 | Ändern Sie die log4j2.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-lakeformation | Ändern Sie die Werte in der lakeformation.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-delta | Ändern Sie die Werte in der delta.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Ändern Sie die Werte in der exchange-manager.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Ändern Sie die Werte in der hudi.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ändern Sie die Werte in der kms-logback.xml-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j2 | Ändern Sie die Werte in der log4j2.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 6.12.0 Änderungsprotokoll
<a name="6120-changelog"></a>


**Änderungsprotokoll für Version 6.12.0 und Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2025-09-03 | Überarbeitung der Dokumente | In den Versionshinweisen zu Amazon EMR 6.12.0 wurde ein bekanntes Problem hinzugefügt | 
| 2023-07-27 | Dokumentation der Aktualisierung | Aktualisieren Sie die Java-Optionen für 6.12 und fügen Sie das Oozie-Tutorial hinzu, um JVM zu aktualisieren | 
| 2023-07-21 | Die Bereitstellung ist abgeschlossen | [Amazon EMR 6.12.0 vollständig in allen unterstützten Regionen bereitgestellt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-07-21 | Veröffentlichung von Dokumenten | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 6.12.0 | 
| 2023-07-12 | Erstversion | Amazon EMR 6.12.0 wurde zuerst in ersten kommerziellen Regionen bereitgestellt | 

# Amazon-EMR-Version 6.11.1
<a name="emr-6111-release"></a>

## 6.11.1 Anwendungsversionen
<a name="emr-6111-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.446 | 1.12,446 | 1.12,397 | 1,12,397 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 
| HCatalog | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 
| Hadoop | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 
| Hive | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 
| Hudi | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.5.0 | 1.5.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 
| Spark | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 
| Trino (PrestoSQL) | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.11.1 Versionshinweise
<a name="emr-6111-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.11.1. Änderungen beziehen sich auf Version 6.11.0. Informationen zum Zeitplan für die Veröffentlichung finden Sie unter [6.11.1 Änderungsprotokoll](#6111-changelog).

**Änderungen, Verbesserungen und behobene Probleme**
+  *Ab Spark 3.3.1 (unterstützt in EMR-Versionen 6.10 und höher) werden alle Executors auf einem Stilllegungshost in einen neuen Status versetzt, der als DECOMMISSIONING-Status bezeichnet wird. `ExecutorState`* Die Executoren, die außer Betrieb genommen werden, können von Yarn nicht zur Zuweisung von Aufgaben verwendet werden. Daher werden bei Bedarf neue Executoren für die ausgeführten Aufgaben angefordert. Wenn Sie also Spark DRA deaktivieren, während Sie EMR Managed Scaling, EMR Auto Scaling oder einen beliebigen benutzerdefinierten Skalierungsmechanismus auf EMR-EC2-Clustern verwenden, fordert Yarn möglicherweise die maximal zulässigen Executoren für jeden Job an. Um dieses Problem zu vermeiden, lassen Sie die `spark.dynamicAllocation.enabled` Eigenschaft auf gesetzt `TRUE` (was die Standardeinstellung ist), wenn Sie die oben genannte Kombination von Funktionen verwenden. Darüber hinaus können Sie auch minimale und maximale Executor-Beschränkungen festlegen, indem Sie Werte `spark.dynamicAllocation.maxExecutors` und `spark.dynamicAllocation.minExecutors` Eigenschaften für Ihre Spark-Jobs festlegen, um die Anzahl der Executoren zu begrenzen, die während der Ausführung des Jobs zugewiesen werden. 
+ Aufgrund von Sperrkonflikten kann ein Knoten in einen Deadlock geraten, wenn er gleichzeitig mit dem Versuch, ihn außer Betrieb zu nehmen, hinzugefügt oder entfernt wird. Infolgedessen reagiert der Hadoop Resource Manager (YARN) nicht mehr und wirkt sich auf alle eingehenden und aktuell laufenden Container aus.
+ Diese Version enthält eine Änderung, die es Hochverfügbarkeitsclustern ermöglicht, nach einem Neustart den Status „Fehler“ wiederherzustellen.
+ Diese Version enthält Sicherheitskorrekturen für Hue und. HBase
+ Diese Version behebt ein Problem, bei dem Cluster, die Workloads auf Spark mit Amazon EMR ausführen, möglicherweise unbemerkt falsche Ergebnisse mit `contains`, `startsWith`, `endsWith` und `like` erhalten. Dieses Problem tritt auf, wenn Sie die Ausdrücke für partitionierte Felder verwenden, die Metadaten im Amazon EMR Hive3 Metastore Server (HMS) haben.
+ Diese Version behebt ein Problem mit der Drosselung auf der Glue-Seite, wenn es keine benutzerdefinierten Funktionen (UDF) gibt.
+ Diese Version behebt ein Problem, bei dem Container-Protokolle vom Knotenprotokoll-Aggregationsservice gelöscht werden, bevor Log Pusher sie im Falle einer Außerbetriebnahme von YARN an S3 weiterleiten kann.
+ Diese Version behebt ein Problem mit FairShare Scheduler-Metriken, wenn Node Label für Hadoop aktiviert ist.
+ Diese Version behebt ein Problem, das die Leistung von Spark beeinträchtigte, wenn Sie einen `true`-Standardwert für die `spark.yarn.heterogeneousExecutors.enabled`-Konfiguration in `spark-defaults.conf` festlegen.
+ Diese Version behebt ein Problem, bei dem Reduce Task die Shuffle-Daten nicht lesen konnte. Das Problem führte zu Hive-Abfragefehlern mit einem Speicherfehler.
+ Diese Version fügt dem Cluster-Skalierungs-Workflow für EMR-Cluster, auf denen Presto oder Trino ausgeführt werden, einen neuen Wiederholungsmechanismus hinzu. Diese Verbesserung verringert das Risiko, dass die Clustergrößenänderung aufgrund eines einzigen fehlgeschlagenen Größenänderungsvorgangs auf unbestimmte Zeit zum Stillstand kommt. Sie verbessert auch die Clusterauslastung, da Ihr Cluster schneller hoch- und herunterskaliert wird.
+ Diese Version verbessert die Cluster-Herunterskalierungs-Logik, sodass Ihr Cluster nicht versucht, die Core-Knoten unter die für den Cluster eingestellte HDFS-Replikationsfaktor-Einstellung herunterzuskalieren. Dies entspricht Ihren Anforderungen an die Datenredundanz und verringert die Wahrscheinlichkeit, dass ein Skalierungsvorgang zum Stillstand kommt.
+ Der Protokoll-Management-Daemon wurde aktualisiert, um alle Protokolle, die aktiv verwendet werden, mit offenen Datei-Handles auf dem lokalen Instance-Speicher und die zugehörigen Prozesse zu identifizieren. Dieses Upgrade stellt sicher, dass Amazon EMR die Dateien ordnungsgemäß löscht und Speicherplatz zurückgewinnt, nachdem die Protokolle in Amazon S3 archiviert wurden.
+ Diese Version beinhaltet eine Erweiterung des Protokollverwaltungs-Daemons, die leere, unbenutzte Schrittverzeichnisse im lokalen Cluster-Dateisystem löscht. Eine zu große Anzahl leerer Verzeichnisse kann die Leistung der Amazon-EMR-Daemons beeinträchtigen und zu einer Überauslastung der Festplatte führen.
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-6111-release.html)

## 6.11.1 Komponentenversionen
<a name="emr-6111-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark-SDK | 
| delta | 2.2.0 | Delta Lake ist ein offenes Tabellenformat für riesige analytische Datensätze | 
| delta-standalone-connectors | 0.6.0 | Delta-Konnektoren bieten unterschiedliche Laufzeiten, um Delta Lake mit Engines wie Flink, Hive und Presto zu integrieren. | 
| emr-ddb | 5.1.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.8.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.7.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.25.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.4.0 | EMR S3Select-Konnektor | 
| emr-wal-cli | 1.1.0 | Cli wird für die emrwal list/deletion verwendet. | 
| emrfs | 2,56,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.16.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.16.0 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.3.3-amzn-3.1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-3.1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.3.3-amzn-3.1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.3.3-amzn-3.1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-3.1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.3.3-amzn-3.1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.3.3-amzn-3.1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-3.1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-3.1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-3.1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-3.1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.15-amzn-1.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.15-amzn-1.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.15-amzn-1.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.15-amzn-1.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.15-amzn-1.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.15-amzn-1.1 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.3-amzn-4.1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.3-amzn-4.1 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.3-amzn-4.1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.3-amzn-4.1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.3-amzn-4.1 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-4.1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.3-amzn-4.1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.13.0-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.13.0-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.13.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.13.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.11.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 1.2.0-amzn-0 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.9.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,8,0 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 5.1.2 | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 6.0.0 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.279-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.279-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.279-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 410-amzn-0 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 410-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 410-amzn-0 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.3.2-amzn-0.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.3.2-amzn-0.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.3.2-amzn-0.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.3.2-amzn-0.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 23.02.0-amzn-0 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.11.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.10.2-amzn-2.1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| tez-on-worker | 0.10.2-amzn-2.1 | Die Tez-YARN-Anwendung und Bibliotheken für Worker-Knoten. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.10 | ZooKeeper Befehlszeilen-Client. | 

## 6.11.1 Konfigurationsklassifizierungen
<a name="emr-6111-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.11.1-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| delta-defaults | Ändern Sie die Werte in der delta-defaults.conf-Datei von Delta. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j2 | Ändern Sie die log4j2.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-lakeformation | Ändern Sie die Werte in der lakeformation.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-delta | Ändern Sie die Werte in der delta.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Ändern Sie die Werte in der exchange-manager.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Ändern Sie die Werte in der hudi.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ändern Sie die Werte in der kms-logback.xml-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j2 | Ändern Sie die Werte in der log4j2.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 6.11.1 Änderungsprotokoll
<a name="6111-changelog"></a>


**Änderungsprotokoll für Version 6.11.1 und Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2023-08-30 | Versionshinweise der Aktualisierung | Den Versionshinweisen wurden mehrere Korrekturen im Zusammenhang mit der Steuerebene hinzugefügt | 
| 2023-08-21 | Veröffentlichung von Dokumenten | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 6.11.1 | 
| 2023-08-16 | Die Bereitstellung ist abgeschlossen | [Amazon EMR 6.11.1 vollständig in allen unterstützten Regionen bereitgestellt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-08-04 | Erstversion | Amazon EMR 6.11.1 wurde zuerst in begrenzten kommerziellen Regionen bereitgestellt | 

# Amazon-EMR-Version 6.11.0
<a name="emr-6110-release"></a>

## 6.11.0 Anwendungsversionen
<a name="emr-6110-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.446 | 1.12,397 | 1,12,397 | 1.12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.16.0 | 1.15.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 
| Hadoop | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 
| Hive | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 
| Hudi | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 
| Hue | 4.11.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.5.0 | 1.5.0 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 
| Spark | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.10.0 | 
| Tez | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 
| Trino (PrestoSQL) | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.11.0 Versionshinweise
<a name="emr-6110-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.11.0. Änderungen beziehen sich auf Version 6.10.0. Informationen zum Zeitplan der Veröffentlichung finden Sie im [Änderungsprotokoll](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-6110-release.html#6110-changelog).

**Neue Features**
+ Amazon EMR 6.11.0 unterstützt Apache Spark 3.3.2-amzn-0, Apache Spark RAPIDS 23.02.0-amzn-0, CUDA 11.8.0, Apache Hudi 0.13.0-amzn-0, Apache Iceberg 1.2.0-amzn-0, Trino 410-amzn-0 und PrestoDB 0.279-amzn-0.

**Änderungen, Verbesserungen und behobene Probleme**
+  *Ab Spark 3.3.1 (unterstützt in EMR-Versionen 6.10 und höher) werden alle Executors auf einem Stilllegungshost in einen neuen Status versetzt, der als DECOMMISSIONING-Status bezeichnet wird. `ExecutorState`* Die Executoren, die außer Betrieb genommen werden, können von Yarn nicht zur Zuweisung von Aufgaben verwendet werden. Daher werden bei Bedarf neue Executoren für die ausgeführten Aufgaben angefordert. Wenn Sie also Spark DRA deaktivieren, während Sie EMR Managed Scaling, EMR Auto Scaling oder einen beliebigen benutzerdefinierten Skalierungsmechanismus auf EMR-EC2-Clustern verwenden, fordert Yarn möglicherweise die maximal zulässigen Executoren für jeden Job an. Um dieses Problem zu vermeiden, lassen Sie die `spark.dynamicAllocation.enabled` Eigenschaft auf gesetzt `TRUE` (was die Standardeinstellung ist), wenn Sie die oben genannte Kombination von Funktionen verwenden. Darüber hinaus können Sie auch minimale und maximale Executor-Beschränkungen festlegen, indem Sie Werte `spark.dynamicAllocation.maxExecutors` und `spark.dynamicAllocation.minExecutors` Eigenschaften für Ihre Spark-Jobs festlegen, um die Anzahl der Executoren zu begrenzen, die während der Ausführung des Jobs zugewiesen werden. 
+ Mit Amazon EMR 6.11.0 wurde der DynamoDB-Konnektor auf Version 5.0.0 aktualisiert. Version 5.0.0 verwendet. AWS SDK for Java 2.x In früheren Versionen wurde AWS SDK für Java 1.x verwendet. Aufgrund dieses Upgrades empfehlen wir Ihnen dringend, Ihren Code zu testen, bevor Sie den DynamoDB-Konnektor mit Amazon EMR 6.11 verwenden.
+ Wenn der DynamoDB-Konnektor für Amazon EMR 6.11.0 den DynamoDB-Service aufruft, verwendet er den Region-Wert, den Sie für die Eigenschaft `dynamodb.endpoint` angeben. Wir empfehlen, dass Sie auch `dynamodb.region` konfigurieren, wenn Sie `dynamodb.endpoint` verwenden, und dass beide Eigenschaften auf dieselbe AWS-Region abzielen. Wenn Sie verwenden `dynamodb.endpoint` und nicht konfigurieren`dynamodb.region`, gibt der DynamoDB-Connector für Amazon EMR 6.11.0 eine ungültige Region-Ausnahme zurück und versucht, Ihre AWS-Region Informationen aus dem Amazon EC2 EC2-Instance-Metadaten-Service (IMDS) abzugleichen. Wenn der Konnektor die Region nicht aus IMDS abrufen kann, verwendet er standardmäßig USA Ost (Nord-Virginia) (`us-east-1`). Der folgende Fehler ist ein Beispiel für die ungültige Region-Ausnahme, die möglicherweise angezeigt wird, wenn Sie die `dynamodb.region` Eigenschaft nicht richtig konfigurieren: `error software.amazon.awssdk.services.dynamodb.model.DynamoDbException: Credential should be scoped to a valid region.` Weitere Informationen zu den Klassen, die vom AWS SDK für Java Upgrade auf 2.x betroffen sind, finden Sie im Commit [Upgrade AWS SDK für Java from 1.x auf 2.x (\$1175)](https://github.com/awslabs/emr-dynamodb-connector/commit/1dec9d1972d3673c3fae6c6ea51f19f295147ccf) im GitHub Repository für den Amazon EMR — DynamoDB-Connector.
+ Diese Version behebt ein Problem, bei dem Spaltendaten zu `NULL` werden, wenn Sie Delta Lake zum Speichern von Delta-Tabellendaten in Amazon S3 nach dem Spaltenumbenennungsvorgang verwenden. Weitere Informationen zu diesem experimentellen Feature in Delta Lake finden Sie unter [Vorgang zum Umbenennen von Spalten](https://docs.delta.io/latest/delta-batch.html#rename-columns) im Delta-Lake-Benutzerhandbuch.
+ Die Version 6.11.0 behebt ein Problem, das auftreten kann, wenn Sie einen Edge-Knoten erstellen, indem Sie einen der Primärknoten aus einem Cluster mit mehreren Primärknoten replizieren. Der replizierte Edge-Knoten kann zu Verzögerungen bei Scale-Down-Vorgängen oder zu einer hohen Arbeitsspeicherauslastung auf den Primärknoten führen. Weitere Informationen zum Erstellen eines Edge-Knotens für die Kommunikation mit Ihrem EMR-Cluster finden Sie unter [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) im `aws-samples` Repo unter. GitHub
+ Die Version 6.11.0 verbessert den Automatisierungsprozess, den Amazon EMR verwendet, um Amazon-EBS-Volumes nach einem Neustart erneut in eine Instance einzubinden.
+ Die Version 6.11.0 behebt ein Problem, das zu zeitweiligen Lücken in den Hadoop-Metriken führte, die Amazon EMR auf Amazon veröffentlicht. CloudWatch
+ Die Version 6.11.0 behebt ein Problem mit EMR-Clustern, bei dem ein Update der YARN-Konfigurationsdatei, die die Ausschlussliste der Knoten für den Cluster enthält, aufgrund einer Überauslastung der Festplatte unterbrochen wird. Das unvollständige Update behindert zukünftige Cluster-Herunterskalierungs-Vorgänge. Diese Version stellt sicher, dass Ihr Cluster fehlerfrei bleibt und dass die Skalierungsvorgänge wie erwartet funktionieren.
+ Die Standardgröße des Root-Volumes wurde in Amazon EMR 6.10.0 und höher auf 15 GB erhöht. Frühere Versionen haben eine Standardgröße für das Root-Volume von 10 GB.
+ Mit Hadoop 3.3.3 wurde eine Änderung in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) eingeführt, die dafür sorgt, dass Knoten, auf denen Container laufen, außer Betrieb genommen werden, bis die Anwendung abgeschlossen ist. Diese Änderung stellt sicher, dass lokale Daten wie Shuffle-Daten nicht verloren gehen und Sie den Auftrag nicht erneut ausführen müssen. Dieser Ansatz kann auch zu einer Unterauslastung von Ressourcen in Clustern mit oder ohne aktivierter verwalteter Skalierung führen.

  Bei den Amazon-EMR-Versionen 6.11.0 und höher sowie 6.8.1, 6.9.1 und 6.10.1 ist der Wert in `yarn-site.xml` von `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` auf `false` gesetzt, um dieses Problem zu beheben.

  Der Fix behebt zwar die Probleme, die durch YARN-9608 eingeführt wurden, kann jedoch dazu führen, dass Hive-Aufträge aufgrund von Shuffle-Datenverlusten auf Clustern, für die verwaltete Skalierung aktiviert ist, fehlschlagen. Wir haben dieses Risiko in dieser Version verringert, indem wir auch `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` für Hive-Workloads eingerichtet haben. Diese Konfiguration ist nur mit Amazon-EMR-Versionen 6.11.0 und höher verfügbar.
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)
**Anmerkung**  
Diese Version erhält keine automatischen AMI-Updates mehr, da sie von einer weiteren Patch-Versionen abgelöst wurde. Die Patch-Version wird durch die Zahl nach dem zweiten Dezimalpunkt (`6.8.1`) gekennzeichnet. Um zu sehen, ob Sie die neueste Patch-Version verwenden, überprüfen Sie die verfügbaren Versionen im [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide) oder überprüfen Sie die **Amazon-EMR-Versions-**Dropdownliste, wenn Sie einen Cluster in der Konsole erstellen, oder verwenden Sie die [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html)-API- oder [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html)-CLI-Aktion. Um aktuelle Informationen über Neuerscheinungen erhalten, abonnieren Sie den RSS-Feed auf der Seite [Was ist neu?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-6110-release.html)

## 6.11.0 Komponentenversionen
<a name="emr-6110-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark-SDK | 
| delta | 2.2.0 | Delta Lake ist ein offenes Tabellenformat für riesige analytische Datensätze | 
| delta-standalone-connectors | 0.6.0 | Delta-Konnektoren bieten unterschiedliche Laufzeiten, um Delta Lake mit Engines wie Flink, Hive und Presto zu integrieren. | 
| emr-ddb | 5.1.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.4.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.8.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.7.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.25.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.4.0 | EMR S3Select-Konnektor | 
| emr-wal-cli | 1.1.0 | Cli wird für die emrwal list/deletion verwendet. | 
| emrfs | 2,56,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.16.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.16.0 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.3.3-amzn-3 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-3 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.3.3-amzn-3 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.3.3-amzn-3 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-3 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.3.3-amzn-3 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.3.3-amzn-3 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-3 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-3 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-3 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-3 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.15-amzn-1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.15-amzn-1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.15-amzn-1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.15-amzn-1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.15-amzn-1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.15-amzn-1 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.3-amzn-4 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.3-amzn-4 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.3-amzn-4 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.3-amzn-4 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.3-amzn-4 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-4 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.3-amzn-4 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.13.0-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.13.0-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.13.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.13.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.11.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 1.2.0-amzn-0 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.9.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,8,0 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 5.1.2 | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 6.0.0 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.279-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.279-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.279-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 410-amzn-0 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 410-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 410-amzn-0 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.3.2-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.3.2-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.3.2-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.3.2-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 23.02.0-amzn-0 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.11.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.10.2-amzn-2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| tez-on-worker | 0.10.2-amzn-2 | Die Tez-YARN-Anwendung und Bibliotheken für Worker-Knoten. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.10 | ZooKeeper Befehlszeilen-Client. | 

## 6.11.0 Konfigurationsklassifizierungen
<a name="emr-6110-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.11.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| delta-defaults | Ändern Sie die Werte in der delta-defaults.conf-Datei von Delta. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j2 | Ändern Sie die log4j2.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-lakeformation | Ändern Sie die Werte in der lakeformation.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-delta | Ändern Sie die Werte in der delta.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Ändern Sie die Werte in der exchange-manager.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Ändern Sie die Werte in der hudi.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ändern Sie die Werte in der kms-logback.xml-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j2 | Ändern Sie die Werte in der log4j2.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 6.11.0 Änderungsprotokoll
<a name="6110-changelog"></a>


**Änderungsprotokoll für Version 6.11.0 und Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2023-08-21 | Aktualisierung | Das mit Hadoop 3.3.3 eingeführte Problem wurde behoben. | 
| 2023-07-26 | Aktualisierung | Neue Betriebssystem-Release-Labels 2.0.20230612.0 und 2.0.20230628.0. | 
| 2023-06-09 | Die Bereitstellung ist abgeschlossen | [Amazon EMR 6.11.0 vollständig in allen unterstützten Regionen bereitgestellt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-06-09 | Veröffentlichung von Dokumenten | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 6.11.0 | 
| 2023-06-08 | Erstversion | Amazon EMR 6.11.0 wurde zuerst in ersten kommerziellen Regionen bereitgestellt | 

# Amazon-EMR-Version 6.10.1
<a name="emr-6101-release"></a>

## 6.10.1 Anwendungsversionen
<a name="emr-6101-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.397 | 1,12,397 | 1.12,170 | 1.12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.1.0 | 2.1.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.15.2 | 1.15.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 
| HCatalog | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 
| Hadoop | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 
| Hive | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 
| Hudi | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 
| Spark | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.10.0 | 2.10.0 | 
| Tez | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 
| Trino (PrestoSQL) | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.10.1 Versionshinweise
<a name="emr-6101-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.10.1. Änderungen beziehen sich auf Version 6.10.0. Informationen zum Zeitplan für die Veröffentlichung finden Sie unter [6.10.1 Änderungsprotokoll](#6101-changelog).

**Bekannte Probleme**
+  *Ab Spark 3.3.1 (unterstützt in EMR-Versionen 6.10 und höher) werden alle Executors auf einem Stilllegungshost in einen neuen Status versetzt, der als DECOMMISSIONING-Status bezeichnet wird. `ExecutorState`* Die Executoren, die außer Betrieb genommen werden, können von Yarn nicht zur Zuweisung von Aufgaben verwendet werden. Daher werden bei Bedarf neue Executoren für die ausgeführten Aufgaben angefordert. Wenn Sie also Spark DRA deaktivieren, während Sie EMR Managed Scaling, EMR Auto Scaling oder einen beliebigen benutzerdefinierten Skalierungsmechanismus auf EMR-EC2-Clustern verwenden, fordert Yarn möglicherweise die maximal zulässigen Executoren für jeden Job an. Um dieses Problem zu vermeiden, lassen Sie die `spark.dynamicAllocation.enabled` Eigenschaft auf gesetzt `TRUE` (was die Standardeinstellung ist), wenn Sie die oben genannte Kombination von Funktionen verwenden. Darüber hinaus können Sie auch minimale und maximale Executor-Beschränkungen festlegen, indem Sie Werte `spark.dynamicAllocation.maxExecutors` und `spark.dynamicAllocation.minExecutors` Eigenschaften für Ihre Spark-Jobs festlegen, um die Anzahl der Executoren zu begrenzen, die während der Ausführung des Jobs zugewiesen werden. 

**Änderungen, Verbesserungen und behobene Probleme**
+ Aufgrund von Sperrkonflikten kann ein Knoten in einen Deadlock geraten, wenn er gleichzeitig mit dem Versuch, ihn außer Betrieb zu nehmen, hinzugefügt oder entfernt wird. Infolgedessen reagiert der Hadoop Resource Manager (YARN) nicht mehr und wirkt sich auf alle eingehenden und aktuell laufenden Container aus.
+ Mit Hadoop 3.3.3 wurde eine Änderung in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) eingeführt, die dafür sorgt, dass Knoten, auf denen Container laufen, außer Betrieb genommen werden, bis die Anwendung abgeschlossen ist. Diese Änderung stellt sicher, dass lokale Daten wie Shuffle-Daten nicht verloren gehen und Sie den Auftrag nicht erneut ausführen müssen. Dieser Ansatz kann auch zu einer Unterauslastung von Ressourcen in Clustern mit oder ohne aktivierter verwalteter Skalierung führen.

  Bei den Amazon-EMR-Versionen 6.11.0 und höher sowie 6.8.1, 6.9.1 und 6.10.1 ist der Wert in `yarn-site.xml` von `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` auf `false` gesetzt, um dieses Problem zu beheben.

  Der Fix behebt zwar die Probleme, die durch YARN-9608 eingeführt wurden, kann jedoch dazu führen, dass Hive-Aufträge aufgrund von Shuffle-Datenverlusten auf Clustern, für die verwaltete Skalierung aktiviert ist, fehlschlagen. Wir haben dieses Risiko in dieser Version verringert, indem wir auch `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` für Hive-Workloads eingerichtet haben. Diese Konfiguration ist nur mit Amazon-EMR-Versionen 6.11.0 und höher verfügbar.
+ Der Metrics Collector sendet nach einem Failover des Primärknotens in Clustern mit der Instance-Gruppenkonfiguration keine Metriken an die Steuerebene.
+ Diese Version enthält eine Änderung, die es Hochverfügbarkeitsclustern ermöglicht, nach einem Neustart den Status „Fehler“ wiederherzustellen.
+ Diese Version enthält Sicherheitskorrekturen für Hue und. HBase
+ Diese Version behebt ein Problem, bei dem Cluster, die Workloads auf Spark mit Amazon EMR ausführen, möglicherweise unbemerkt falsche Ergebnisse mit `contains`, `startsWith`, `endsWith` und `like` erhalten. Dieses Problem tritt auf, wenn Sie die Ausdrücke für partitionierte Felder verwenden, die Metadaten im Amazon EMR Hive3 Metastore Server (HMS) haben.
+ Diese Version behebt ein Problem mit der Drosselung auf der Glue-Seite, wenn es keine benutzerdefinierten Funktionen (UDF) gibt.
+ Diese Version behebt ein Problem, bei dem Container-Protokolle vom Knotenprotokoll-Aggregationsservice gelöscht werden, bevor Log Pusher sie im Falle einer Außerbetriebnahme von YARN an S3 weiterleiten kann.
+ Diese Version behebt ein Problem mit FairShare Scheduler-Metriken, wenn Node Label für Hadoop aktiviert ist.
+ Diese Version behebt ein Problem, das die Leistung von Spark beeinträchtigte, wenn Sie einen `true`-Standardwert für die `spark.yarn.heterogeneousExecutors.enabled`-Konfiguration in `spark-defaults.conf` festlegen.
+ Diese Version behebt ein Problem, bei dem Reduce Task die Shuffle-Daten nicht lesen konnte. Das Problem führte zu Hive-Abfragefehlern mit einem Speicherfehler.
+ Diese Version fügt dem Cluster-Skalierungs-Workflow für EMR-Cluster, auf denen Presto oder Trino ausgeführt werden, einen neuen Wiederholungsmechanismus hinzu. Diese Verbesserung verringert das Risiko, dass die Clustergrößenänderung aufgrund eines einzigen fehlgeschlagenen Größenänderungsvorgangs auf unbestimmte Zeit zum Stillstand kommt. Sie verbessert auch die Clusterauslastung, da Ihr Cluster schneller hoch- und herunterskaliert wird.
+ Diese Version verbessert die Cluster-Herunterskalierungs-Logik, sodass Ihr Cluster nicht versucht, die Core-Knoten unter die für den Cluster eingestellte HDFS-Replikationsfaktor-Einstellung herunterzuskalieren. Dies entspricht Ihren Anforderungen an die Datenredundanz und verringert die Wahrscheinlichkeit, dass ein Skalierungsvorgang zum Stillstand kommt.
+ Der Protokoll-Management-Daemon wurde aktualisiert, um alle Protokolle, die aktiv verwendet werden, mit offenen Datei-Handles auf dem lokalen Instance-Speicher und die zugehörigen Prozesse zu identifizieren. Dieses Upgrade stellt sicher, dass Amazon EMR die Dateien ordnungsgemäß löscht und Speicherplatz zurückgewinnt, nachdem die Protokolle in Amazon S3 archiviert wurden.
+ Diese Version beinhaltet eine Erweiterung des Protokollverwaltungs-Daemons, die leere, unbenutzte Schrittverzeichnisse im lokalen Cluster-Dateisystem löscht. Eine zu große Anzahl leerer Verzeichnisse kann die Leistung der Amazon-EMR-Daemons beeinträchtigen und zu einer Überauslastung der Festplatte führen.
+ Diese Version behebt ein Problem, das auftreten kann, wenn Sie einen Edge-Knoten erstellen, indem Sie einen der Primärknoten aus einem Cluster mit mehreren Primärknoten replizieren. Der replizierte Edge-Knoten kann zu Verzögerungen bei Scale-Down-Vorgängen oder zu einer hohen Arbeitsspeicherauslastung auf den Primärknoten führen. Weitere Informationen zum Erstellen eines Edge-Knotens für die Kommunikation mit Ihrem EMR-Cluster finden Sie unter [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) im `aws-samples` Repo unter. GitHub
+ Diese Version verbessert den Automatisierungsprozess, den Amazon EMR verwendet, um Amazon-EBS-Volumes nach einem Neustart erneut in eine Instance einzubinden.
+ Diese Version behebt ein Problem, das zu zeitweiligen Lücken in den Hadoop-Metriken führte, die Amazon EMR auf Amazon veröffentlicht. CloudWatch
+ Diese Version behebt ein Problem mit EMR-Clustern, bei dem ein Update der YARN-Konfigurationsdatei, die die Ausschlussliste der Knoten für den Cluster enthält, aufgrund einer Überauslastung der Festplatte unterbrochen wird. Das unvollständige Update behindert zukünftige Cluster-Herunterskalierungs-Vorgänge. Diese Version stellt sicher, dass Ihr Cluster fehlerfrei bleibt und dass die Skalierungsvorgänge wie erwartet funktionieren.
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-6101-release.html)

## 6.10.1 Komponentenversionen
<a name="emr-6101-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark-SDK | 
| delta | 2.2.0 | Delta Lake ist ein offenes Tabellenformat für riesige analytische Datensätze | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.7.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.7.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.24.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.3.0 | EMR S3Select-Konnektor | 
| emr-wal-cli | 1.0.0 | Cli wird für die emrwal list/deletion verwendet. | 
| emrfs | 2,55,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.16.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.16.0 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.3.3-amzn-2.1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-2.1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.3.3-amzn-2.1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.3.3-amzn-2.1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-2.1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.3.3-amzn-2.1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.3.3-amzn-2.1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-2.1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-2.1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-2.1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-2.1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.15-amzn-0.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.15-amzn-0.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.15-amzn-0.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.15-amzn-0.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.15-amzn-0.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.15-amzn-0.1 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.3-amzn-3.1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.3-amzn-3.1 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.3-amzn-3.1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.3-amzn-3.1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.3-amzn-3.1 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-3.1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.3-amzn-3.1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.12.2-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.12.2-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.12.2-amzn-0 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.12.2-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.10.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 1.1.0-amzn-0 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.5.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.9.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,8,0 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 6.0.0 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.278.1-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.278.1-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.278.1-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 403-amzn-0 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 403-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 403-amzn-0 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.3.1-amzn-0.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.3.1-amzn-0.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.3.1-amzn-0.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.3.1-amzn-0.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 22.12.0-amzn-0 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.11.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.10.2-amzn-1.1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| tez-on-worker | 0.10.2-amzn-1.1 | Die Tez-YARN-Anwendung und Bibliotheken für Worker-Knoten. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.10 | ZooKeeper Befehlszeilen-Client. | 

## 6.10.1 Konfigurationsklassifizierungen
<a name="emr-6101-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.10.1-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| delta-defaults | Ändern Sie die Werte in der delta-defaults.conf-Datei von Delta. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j2 | Ändern Sie die log4j2.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-lakeformation | Ändern Sie die Werte in der lakeformation.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-delta | Ändern Sie die Werte in der delta.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Ändern Sie die Werte in der exchange-manager.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Ändern Sie die Werte in der hudi.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ändern Sie die Werte in der kms-logback.xml-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j2 | Ändern Sie die Werte in der log4j2.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 6.10.1 Änderungsprotokoll
<a name="6101-changelog"></a>


**Änderungsprotokoll für Version 6.10.1 und Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2023-08-30 | Versionshinweise der Aktualisierung | Den Versionshinweisen wurden mehrere Korrekturen im Zusammenhang mit der Steuerebene hinzugefügt | 
| 2023-08-21 | Veröffentlichung von Dokumenten | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 6.10.1 | 
| 2023-08-16 | Die Bereitstellung ist abgeschlossen | [Amazon EMR 6.10.1 vollständig in allen unterstützten Regionen bereitgestellt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-08-04 | Erstversion | Amazon EMR 6.10.1 wurde zuerst in begrenzten kommerziellen Regionen bereitgestellt | 

# Amazon-EMR-Version 6.10.0
<a name="emr-6100-release"></a>

## 6.10.0 Anwendungsversionen
<a name="emr-6100-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.397 | 1.12,170 | 1.12,170 | 1.12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.1.0 | 2.1.0 |  -  | 
| Flink | 1.16.0 | 1.15.2 | 1.15.2 | 1.15.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 
| Hadoop | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 
| Hive | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 
| Hudi | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.1.0 | 
| JupyterHub | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 
| Spark | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.10.0 | 2.10.0 | 2.9.1 | 
| Tez | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 
| Trino (PrestoSQL) | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.10.0 Versionshinweise
<a name="emr-6100-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.10.0. Änderungen beziehen sich auf Version 6.9.0. Informationen zum Zeitplan der Veröffentlichung finden Sie im [Änderungsprotokoll](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-6100-release.html#6100-changelog).

**Neue Features**
+ Amazon EMR 6.10.0 unterstützt Apache Spark 3.3.1, Apache Spark RAPIDS 22.12.0, CUDA 11.8.0, Apache Hudi 0.12.2-amzn-0, Apache Iceberg 1.1.0-amzn-0, Trino 403 und PrestoDB 0.278.1.
+ Amazon EMR 6.10.0 enthält einen nativen Trino-Hudi-Konnektor, der Lesezugriff auf Daten in Hudi-Tabellen ermöglicht. Sie können den Konnektor mit `trino-cli --catalog hudi` aktivieren und den Konnektor für Ihre Anforderungen mit `trino-connector-hudi` konfigurieren. Durch die native Integration mit Amazon EMR müssen Sie `trino-connector-hive` nicht mehr zum Abfragen von Hudi-Tabellen verwenden. Eine Liste der unterstützten Konfigurationen mit dem neuen Konnektor finden Sie auf der [Hudi-Konnektor-Seite](https://trino.io/docs/current/connector/hudi.html) der Trino-Dokumentation.
+ Amazon-EMR-Versionen 6.10.0 und höher unterstützen die Apache-Zeppelin-Integration mit Apache Flink. Weitere Informationen finden Sie unter [Arbeiten mit Flink-Aufträgen von Zeppelin in Amazon EMR](flink-zeppelin.md).

**Bekannte Probleme**
+ Mit Hadoop 3.3.3 wurde eine Änderung in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) eingeführt, die dafür sorgt, dass Knoten, auf denen Container laufen, außer Betrieb genommen werden, bis die Anwendung abgeschlossen ist. Diese Änderung stellt sicher, dass lokale Daten wie Shuffle-Daten nicht verloren gehen und Sie den Auftrag nicht erneut ausführen müssen. Dieser Ansatz kann auch zu einer Unterauslastung von Ressourcen in Clustern mit oder ohne aktivierter verwalteter Skalierung führen.

  Um dieses Problem in Amazon EMR 6.10.0 zu umgehen, können Sie den Wert `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` auf `false` in `yarn-site.xml` setzen. In den Amazon-EMR-Versionen 6.11.0 und höher sowie 6.8.1, 6.9.1 und 6.10.1 ist die Konfiguration standardmäßig auf `false` eingestellt, um dieses Problem zu beheben.
+  *Ab Spark 3.3.1 (unterstützt in EMR-Versionen 6.10 und höher) werden alle Executors auf einem Stilllegungshost in einen neuen Status versetzt, der als DECOMMISSIONING-Status bezeichnet wird. `ExecutorState`* Die Executoren, die außer Betrieb genommen werden, können von Yarn nicht zur Zuweisung von Aufgaben verwendet werden. Daher werden bei Bedarf neue Executoren für die ausgeführten Aufgaben angefordert. Wenn Sie also Spark DRA deaktivieren, während Sie EMR Managed Scaling, EMR Auto Scaling oder einen beliebigen benutzerdefinierten Skalierungsmechanismus auf EMR-EC2-Clustern verwenden, fordert Yarn möglicherweise die maximal zulässigen Executoren für jeden Job an. Um dieses Problem zu vermeiden, lassen Sie die `spark.dynamicAllocation.enabled` Eigenschaft auf gesetzt `TRUE` (was die Standardeinstellung ist), wenn Sie die oben genannte Kombination von Funktionen verwenden. Darüber hinaus können Sie auch minimale und maximale Executor-Beschränkungen festlegen, indem Sie Werte `spark.dynamicAllocation.maxExecutors` und `spark.dynamicAllocation.minExecutors` Eigenschaften für Ihre Spark-Jobs festlegen, um die Anzahl der Executoren zu begrenzen, die während der Ausführung des Jobs zugewiesen werden. 

**Änderungen, Verbesserungen und behobene Probleme**
+ Amazon EMR 6.10.0 entfernt die Abhängigkeit von der `minimal-json.jar` für die [Amazon-Redshift-Integration für Apache Spark](emr-spark-redshift-launch.md) und fügt automatisch die erforderlichen Spark-Redshift-bezogenen JAR-Dateien zum Executor-Klassenpfad für Spark hinzu: `spark-redshift.jar`, `spark-avro.jar` und `RedshiftJDBC.jar`.
+ Die Version 6.10.0 verbessert den On-Cluster-Log-Management-Daemon zur Überwachung zusätzlicher Protokollordner in Ihrem EMR-Cluster. Durch diese Verbesserung werden Szenarien mit übermäßiger Festplattenauslastung minimiert.
+ Die Version 6.10.0 startet den Protokoll-Management-Daemon auf dem Cluster automatisch neu, wenn er beendet wird. Durch diese Verbesserung wird das Risiko verringert, dass Knoten aufgrund übermäßiger Festplattenauslastung als fehlerhaft erscheinen. 
+ Amazon EMR 6.10.0 unterstützt regionale Endpunkte für die EMRFS-Benutzerzuordnung.
+ Die Standardgröße des Root-Volumes wurde in Amazon EMR 6.10.0 und höher auf 15 GB erhöht. Frühere Versionen haben eine Standardgröße für das Root-Volume von 10 GB.
+ Die Version 6.10.0 behebt ein Problem, das dazu führte, dass Spark-Aufträge zum Stillstand kamen, wenn sich alle verbleibenden Spark-Ausführern auf einem außer Betrieb genommenen Host mit dem YARN-Ressourcenmanager befanden. 
+ Bei Amazon EMR 6.6.0 bis 6.9.x haben INSERT-Abfragen mit dynamischer Partition und einer ORDER-BY- oder SORT-BY-Klausel immer zwei Reduzierungen. Dieses Problem wird durch die OSS-Änderung [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703) verursacht, die die Optimierung dynamischer Sortierpartitionen einer kostenbasierten Entscheidung unterstellt. Wenn Ihr Workload keine Sortierung dynamischer Partitionen erfordert, empfehlen wir Ihnen, die `hive.optimize.sort.dynamic.partition.threshold`-Eigenschaft auf `-1` zu setzen, um das neue Feature zu deaktivieren und die korrekt berechnete Anzahl von Reduzierern zu erhalten. Dieses Problem wurde behoben in OSS Hive als Teil von [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) und in Amazon EMR 6.10.0 behoben.
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)
**Anmerkung**  
Diese Version erhält keine automatischen AMI-Updates mehr, da sie von einer weiteren Patch-Versionen abgelöst wurde. Die Patch-Version wird durch die Zahl nach dem zweiten Dezimalpunkt (`6.8.1`) gekennzeichnet. Um zu sehen, ob Sie die neueste Patch-Version verwenden, überprüfen Sie die verfügbaren Versionen im [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide) oder überprüfen Sie die **Amazon-EMR-Versions-**Dropdownliste, wenn Sie einen Cluster in der Konsole erstellen, oder verwenden Sie die [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html)-API- oder [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html)-CLI-Aktion. Um aktuelle Informationen über Neuerscheinungen erhalten, abonnieren Sie den RSS-Feed auf der Seite [Was ist neu?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-6100-release.html)

## 6.10.0 Komponentenversionen
<a name="emr-6100-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark-SDK | 
| delta | 2.2.0 | Delta Lake ist ein offenes Tabellenformat für riesige analytische Datensätze | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.7.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.7.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.24.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.3.0 | EMR S3Select-Konnektor | 
| emr-wal-cli | 1.0.0 | Cli wird für die emrwal list/deletion verwendet. | 
| emrfs | 2,55,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.16.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.16.0 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.3.3-amzn-2 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-2 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.3.3-amzn-2 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.3.3-amzn-2 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-2 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.3.3-amzn-2 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.3.3-amzn-2 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-2 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-2 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-2 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-2 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.15-amzn-0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.15-amzn-0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.15-amzn-0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.15-amzn-0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.15-amzn-0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.15-amzn-0 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.3-amzn-3 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.3-amzn-3 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.3-amzn-3 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.3-amzn-3 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.3-amzn-3 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-3 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.3-amzn-3 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.12.2-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.12.2-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.12.2-amzn-0 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.12.2-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.10.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 1.1.0-amzn-0 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.5.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.9.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,8,0 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 6.0.0 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.278.1-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.278.1-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.278.1-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 403-amzn-0 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 403-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 403-amzn-0 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.3.1-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.3.1-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.3.1-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.3.1-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 22.12.0-amzn-0 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.11.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.10.2-amzn-1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| tez-on-worker | 0.10.2-amzn-1 | Die Tez-YARN-Anwendung und Bibliotheken für Worker-Knoten. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.10 | ZooKeeper Befehlszeilen-Client. | 

## 6.10.0 Konfigurationsklassifizierungen
<a name="emr-6100-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.10.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| delta-defaults | Ändern Sie die Werte in der delta-defaults.conf-Datei von Delta. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j2 | Ändern Sie die log4j2.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-lakeformation | Ändern Sie die Werte in der lakeformation.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-delta | Ändern Sie die Werte in der delta.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Ändern Sie die Werte in der exchange-manager.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Ändern Sie die Werte in der hudi.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ändern Sie die Werte in der kms-logback.xml-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j2 | Ändern Sie die Werte in der log4j2.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 6.10.0 Änderungsprotokoll
<a name="6100-changelog"></a>


**Änderungsprotokoll für Version 6.10.0 und Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2023-08-21 | Aktualisierung | Es wurde ein bekanntes Problem hinzugefügt, das mit Hadoop 3.3.3 eingefügt wurde. | 
| 2023-07-26 | Aktualisierung | Neue Betriebssystem-Release-Labels 2.0.20230612.0 und 2.0.20230628.0. | 
| 2023-03-02 | Die Bereitstellung ist abgeschlossen | [Amazon EMR 6.10 vollständig in allen unterstützten Regionen bereitgestellt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-03-02 | Veröffentlichung von Dokumenten | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 6.10 | 
| 2023-02-27 | Erstversion | Amazon EMR 6.10 wurde zuerst in begrenzten kommerziellen Regionen bereitgestellt | 

# Amazon-EMR-Version 6.9.1
<a name="emr-691-release"></a>

## 6.9.1 Anwendungsversionen
<a name="emr-691-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://delta.io/](https://delta.io/),, [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/),, [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.170 | 1.12,170 | 1.12,170 | 1.12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.1.0 | 2.1.0 |  -  |  -  | 
| Flink | 1.15.2 | 1.15.2 | 1.15.1 | 1.15.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 
| HCatalog | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 
| Hadoop | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 
| Hive | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 
| Hudi | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 
| Spark | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.10.0 | 2.10.0 | 2.9.1 | 2.9.1 | 
| Tez | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.9.1 Versionshinweise
<a name="emr-691-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.9.1. Änderungen beziehen sich auf Version 6.9.0. Informationen zum Zeitplan für die Veröffentlichung finden Sie unter [6.9.1 Änderungsprotokoll](#691-changelog).

**Änderungen, Verbesserungen und behobene Probleme**
+ Mit Hadoop 3.3.3 wurde eine Änderung in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) eingeführt, die dafür sorgt, dass Knoten, auf denen Container laufen, außer Betrieb genommen werden, bis die Anwendung abgeschlossen ist. Diese Änderung stellt sicher, dass lokale Daten wie Shuffle-Daten nicht verloren gehen und Sie den Auftrag nicht erneut ausführen müssen. Dieser Ansatz kann auch zu einer Unterauslastung von Ressourcen in Clustern mit oder ohne aktivierter verwalteter Skalierung führen.

  Bei den Amazon-EMR-Versionen 6.11.0 und höher sowie 6.8.1, 6.9.1 und 6.10.1 ist der Wert in `yarn-site.xml` von `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` auf `false` gesetzt, um dieses Problem zu beheben.

  Der Fix behebt zwar die Probleme, die durch YARN-9608 eingeführt wurden, kann jedoch dazu führen, dass Hive-Aufträge aufgrund von Shuffle-Datenverlusten auf Clustern, für die verwaltete Skalierung aktiviert ist, fehlschlagen. Wir haben dieses Risiko in dieser Version verringert, indem wir auch `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` für Hive-Workloads eingerichtet haben. Diese Konfiguration ist nur mit Amazon-EMR-Versionen 6.11.0 und höher verfügbar.
+ Der Metrics Collector sendet nach einem Failover des Primärknotens in Clustern mit der Instance-Gruppenkonfiguration keine Metriken an die Steuerebene.
+ Diese Version macht Wiederholungsversuche bei fehlgeschlagenen HTTP-Anfragen an die Endpunkte der Metrics Collector überflüssig.
+ Diese Version enthält eine Änderung, die es Hochverfügbarkeitsclustern ermöglicht, nach einem Neustart den Status „Fehler“ wiederherzustellen.
+ Diese Version behebt ein Problem, bei dem große, von Benutzern erstellte Ausnahmen zu UIDs Überläufen führten.
+ Diese Version behebt Timeout-Probleme beim Amazon-EMR-Rekonfigurationsprozess.
+ Diese Version enthält Sicherheitskorrekturen.
+ Diese Version behebt ein Problem, bei dem Cluster, die Workloads auf Spark mit Amazon EMR ausführen, möglicherweise unbemerkt falsche Ergebnisse mit `contains`, `startsWith`, `endsWith` und `like` erhalten. Dieses Problem tritt auf, wenn Sie die Ausdrücke für partitionierte Felder verwenden, die Metadaten im Amazon EMR Hive3 Metastore Server (HMS) haben.
+ Bei Amazon EMR 6.6.0 bis 6.9.x haben INSERT-Abfragen mit dynamischer Partition und einer ORDER-BY- oder SORT-BY-Klausel immer zwei Reduzierungen. Dieses Problem wird durch die OSS-Änderung [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703) verursacht, die die Optimierung dynamischer Sortierpartitionen einer kostenbasierten Entscheidung unterstellt. Wenn Ihr Workload keine Sortierung dynamischer Partitionen erfordert, empfehlen wir Ihnen, die `hive.optimize.sort.dynamic.partition.threshold`-Eigenschaft auf `-1` zu setzen, um das neue Feature zu deaktivieren und die korrekt berechnete Anzahl von Reduzierern zu erhalten. Dieses Problem wurde behoben in OSS Hive als Teil von [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) und in Amazon EMR 6.10.0 behoben.
+ In Hive kann es zu Datenverlusten kommen, wenn Sie HDFS als Scratch-Verzeichnis verwenden und die Option „Kleine Dateien zusammenführen“ aktiviert haben und die Tabelle statische Partitionspfade enthält.
+ Diese Version behebt ein Leistungsproblem mit Hive, wenn das Zusammenführen kleiner Dateien (standardmäßig deaktiviert) am Ende des ETL-Auftrags aktiviert ist.
+ Diese Version behebt ein Problem mit der Drosselung auf der Glue-Seite, wenn es keine benutzerdefinierten Funktionen (UDF) gibt.
+ Diese Version behebt ein Problem, bei dem Container-Protokolle vom Knotenprotokoll-Aggregationsservice gelöscht werden, bevor Log Pusher sie im Falle einer Außerbetriebnahme von YARN an S3 weiterleiten kann.
+ Diese Version behebt den Umgang mit komprimierten/archivierten Dateien mit persistenter Speicherdateiverfolgung für. HBase
+ Diese Version behebt ein Problem, das die Leistung von Spark beeinträchtigte, wenn Sie einen `true`-Standardwert für die `spark.yarn.heterogeneousExecutors.enabled`-Konfiguration in `spark-defaults.conf` festlegen.
+ Diese Version behebt ein Problem, bei dem Reduce Task die Shuffle-Daten nicht lesen konnte. Das Problem führte zu Hive-Abfragefehlern mit einem Speicherfehler.
+ Diese Version behebt ein Problem, das dazu führte, dass der Node Provisioner ausfiel, wenn der HDFS NameNode (NN) -Dienst während des Knotenaustauschs im abgesicherten Modus hängen blieb.
+ Diese Version fügt dem Cluster-Skalierungs-Workflow für EMR-Cluster, auf denen Presto oder Trino ausgeführt werden, einen neuen Wiederholungsmechanismus hinzu. Diese Verbesserung verringert das Risiko, dass die Clustergrößenänderung aufgrund eines einzigen fehlgeschlagenen Größenänderungsvorgangs auf unbestimmte Zeit zum Stillstand kommt. Sie verbessert auch die Clusterauslastung, da Ihr Cluster schneller hoch- und herunterskaliert wird.
+ Diese Version verbessert die Cluster-Herunterskalierungs-Logik, sodass Ihr Cluster nicht versucht, die Core-Knoten unter die für den Cluster eingestellte HDFS-Replikationsfaktor-Einstellung herunterzuskalieren. Dies entspricht Ihren Anforderungen an die Datenredundanz und verringert die Wahrscheinlichkeit, dass ein Skalierungsvorgang zum Stillstand kommt.
+ Der Protokoll-Management-Daemon wurde aktualisiert, um alle Protokolle, die aktiv verwendet werden, mit offenen Datei-Handles auf dem lokalen Instance-Speicher und die zugehörigen Prozesse zu identifizieren. Dieses Upgrade stellt sicher, dass Amazon EMR die Dateien ordnungsgemäß löscht und Speicherplatz zurückgewinnt, nachdem die Protokolle in Amazon S3 archiviert wurden.
+ Diese Version beinhaltet eine Erweiterung des Protokollverwaltungs-Daemons, die leere, unbenutzte Schrittverzeichnisse im lokalen Cluster-Dateisystem löscht. Eine zu große Anzahl leerer Verzeichnisse kann die Leistung der Amazon-EMR-Daemons beeinträchtigen und zu einer Überauslastung der Festplatte führen.
+ Diese Version behebt ein Problem, das auftreten kann, wenn Sie einen Edge-Knoten erstellen, indem Sie einen der Primärknoten aus einem Cluster mit mehreren Primärknoten replizieren. Der replizierte Edge-Knoten kann zu Verzögerungen bei Scale-Down-Vorgängen oder zu einer hohen Arbeitsspeicherauslastung auf den Primärknoten führen. Weitere Informationen zum Erstellen eines Edge-Knotens für die Kommunikation mit Ihrem EMR-Cluster finden Sie unter [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) im `aws-samples` Repo unter. GitHub
+ Diese Version verbessert den Automatisierungsprozess, den Amazon EMR verwendet, um Amazon-EBS-Volumes nach einem Neustart erneut in eine Instance einzubinden.
+ Diese Version behebt ein Problem, das zu zeitweiligen Lücken in den Hadoop-Metriken führte, die Amazon EMR auf Amazon veröffentlicht. CloudWatch
+ Diese Version behebt ein Problem mit EMR-Clustern, bei dem ein Update der YARN-Konfigurationsdatei, die die Ausschlussliste der Knoten für den Cluster enthält, aufgrund einer Überauslastung der Festplatte unterbrochen wird. Das unvollständige Update behindert zukünftige Cluster-Herunterskalierungs-Vorgänge. Diese Version stellt sicher, dass Ihr Cluster fehlerfrei bleibt und dass die Skalierungsvorgänge wie erwartet funktionieren.
+ Diese Version verbessert den On-Cluster-Log-Management-Daemon zur Überwachung zusätzlicher Protokollordner in Ihrem EMR-Cluster. Durch diese Verbesserung werden Szenarien mit übermäßiger Festplattenauslastung minimiert.
+ Diese Version startet den Protokoll-Management-Daemon auf dem Cluster automatisch neu, wenn er beendet wird. Durch diese Verbesserung wird das Risiko verringert, dass Knoten aufgrund übermäßiger Festplattenauslastung als fehlerhaft erscheinen. 
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-691-release.html)

## 6.9.1 Komponentenversionen
<a name="emr-691-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark-SDK | 
| delta | 2.1.0 | Delta Lake ist ein offenes Tabellenformat für riesige analytische Datensätze | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.6.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.7.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.23.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.2.0 | EMR S3Select-Konnektor | 
| emrfs | 2,54,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.15.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.15.2 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.3.3-amzn-1.1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-1.1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.3.3-amzn-1.1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.3.3-amzn-1.1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-1.1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.3.3-amzn-1.1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.3.3-amzn-1.1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-1.1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-1.1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-1.1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-1.1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.13-amzn-0.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.13-amzn-0.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.13-amzn-0.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.13-amzn-0.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.13-amzn-0.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.13-amzn-0.1 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.3-amzn-2.1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.3-amzn-2.1 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.3-amzn-2.1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.3-amzn-2.1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.3-amzn-2.1 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-2.1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.3-amzn-2.1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.12.1-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.12.1-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.12.1-amzn-0 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.12.1-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.10.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 0.14.1-amzn-0 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.9.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,7,0 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 6.0.0 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.276-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.276-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.276-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 398-amzn-0 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 398-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 398-amzn-0 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.3.0-amzn-1.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.3.0-amzn-1.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.3.0-amzn-1.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.3.0-amzn-1.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 22.08.0-amzn-0 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.10.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.10.2-amzn-0.1 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.10 | ZooKeeper Befehlszeilen-Client. | 

## 6.9.1 Konfigurationsklassifizierungen
<a name="emr-691-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.9.1-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| delta-defaults | Ändern Sie die Werte in der delta-defaults.conf-Datei von Delta. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j2 | Ändern Sie die log4j2.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-lakeformation | Ändern Sie die Werte in der lakeformation.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-delta | Ändern Sie die Werte in der delta.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Ändern Sie die Werte in der exchange-manager.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j2 | Ändern Sie die Werte in der log4j2.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 6.9.1 Änderungsprotokoll
<a name="691-changelog"></a>


**Änderungsprotokoll für Version 6.9.1 und Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2023-08-30 | Versionshinweise der Aktualisierung | Den Versionshinweisen wurden mehrere Korrekturen im Zusammenhang mit der Steuerebene hinzugefügt | 
| 2023-08-21 | Veröffentlichung von Dokumenten | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 6.9.1 | 
| 2023-08-16 | Die Bereitstellung ist abgeschlossen | [Amazon EMR 6.9.1 vollständig in allen unterstützten Regionen bereitgestellt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-08-04 | Erstversion | Amazon EMR 6.9.1 wurde zuerst in begrenzten kommerziellen Regionen bereitgestellt | 

# Amazon-EMR-Version 6.9.0
<a name="emr-690-release"></a>

## 6.9.0 Anwendungsversionen
<a name="emr-690-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/) [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.170 | 1.12,170 | 1.12,170 | 1.12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.1.0 |  -  |  -  |  -  | 
| Flink | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 
| HCatalog | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 
| Hadoop | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 
| Hive | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 
| Hudi | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 
| Spark | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.10.0 | 2.9.1 | 2.9.1 | 2.4.1 | 
| Tez | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.7 | 

## 6.9.0 Versionshinweise
<a name="emr-690-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.9.0. Änderungen beziehen sich auf Amazon-EMR-Version 6.8.0. Informationen zum Zeitplan der Veröffentlichung finden Sie im [Änderungsprotokoll](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-690-release.html#690-changelog).

**Neue Features**
+ Amazon EMR Version 6.9.0 unterstützt Apache Spark RAPIDS 22.08.0, Apache Hudi 0.12.1, Apache Iceberg 0.14.1, Trino 398 und Tez 0.10.2.
+ Amazon EMR Version 6.9.0 enthält eine neue Open-Source-Anwendung, [Delta Lake](emr-delta.md) 2.1.0.
+ Die Amazon-Redshift-Integration für Apache Spark ist in den Amazon-EMR-Versionen 6.9.0 und höher enthalten. Die native Integration war bisher ein Open-Source-Tool und ist ein Spark-Konnektor, mit dem Sie Apache-Spark-Anwendungen erstellen können, die Daten in Amazon Redshift und Amazon Redshift Serverless lesen und in diese schreiben. Weitere Informationen finden Sie unter [Amazon-Redshift-Integration für Apache Spark mit Amazon EMR verwenden](emr-spark-redshift.md).
+ Amazon EMR Version 6.9.0 bietet Unterstützung für die Archivierung von Protokollen in Amazon S3 während der Cluster-Herunterskalierung. Bisher konnten Sie Protokolldateien nur während der Clusterbeendigung in Amazon S3 archivieren. Die neue Funktion stellt sicher, dass auf dem Cluster generierte Protokolldateien auch nach dem Beenden des Knotens auf Amazon S3 bestehen bleiben. Weitere Informationen finden Sie unter [Konfigurieren der Cluster-Protokollierung und des Debuggings](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html).
+ Um Abfragen mit langer Laufzeit zu unterstützen, verfügt Trino jetzt über einen fehlertoleranten Ausführungsmechanismus. Die fehlertolerante Ausführung minimiert Abfragefehler, indem fehlgeschlagene Abfragen oder deren Komponentenaufgaben wiederholt werden.
+ Sie können Apache Flink auf Amazon EMR für die einheitliche `BATCH`- und `STREAM`-Verarbeitung von Apache-Hive-Tabellen oder Metadaten beliebiger Flink-Tabellenquellen wie Iceberg, Kinesis oder Kafka verwenden. Sie können den AWS Glue-Datenkatalog mithilfe der Amazon EMR-API AWS-Managementkonsole AWS CLI, oder als Metastore für Flink angeben. Weitere Informationen finden Sie unter [Konfiguration von Flink in Amazon EMR](flink-configure.md).
+ Sie können jetzt AWS Identity and Access Management (IAM-) Runtime-Rollen und eine AWS Lake Formation basierte Zugriffskontrolle für Apache Spark-, Apache Hive- und Presto-Abfragen auf Amazon EMR auf EC2-Clustern mit Amazon AI Studio angeben. SageMaker Weitere Informationen finden Sie unter [Laufzeit-Rollen für Amazon EMR konfigurieren](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-steps-runtime-roles.html). 

**Bekannte Probleme**
+ Für Amazon-EMR-Version 6.9.0 funktioniert Trino nicht auf Clustern, die für Apache Ranger aktiviert sind. Wenn Sie Trino mit Ranger verwenden müssen, wenden Sie sich an [Support](https://console.aws.amazon.com/support/home#/).
+ Wenn Sie die Amazon Redshift Redshift-Integration für Apache Spark verwenden und eine Zeit, eine Zeitangabe, einen Zeitstempel oder einen Zeitstempel mit Mikrosekundengenauigkeit im Parquet-Format haben, rundet der Konnektor die Zeitwerte auf den nächsten Millisekundenwert. Um das Problem zu umgehen, verwenden Sie den `unload_s3_format`-Formatparameter-Text-Unload.
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.
+ Verbindungen zu Amazon EMR-Clustern von Amazon SageMaker AI Studio aus können zeitweise mit dem Antwortcode **403 Forbidden** fehlschlagen. Dieser Fehler tritt auf, wenn die Einrichtung der IAM-Rolle auf dem Cluster länger als 60 Sekunden dauert. Um dieses Problem zu umgehen, können Sie einen Amazon-EMR-Patch installieren, um Wiederholungsversuche zu ermöglichen und das Timeout auf mindestens 300 Sekunden zu erhöhen. Verwenden Sie die folgenden Schritte, um die Bootstrap-Aktion anzuwenden, wenn Sie Ihren Cluster starten.

  1.  Laden Sie das Bootstrap-Skript und die RPM-Dateien vom folgenden Amazon S3 URIs herunter.

     ```
     s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/replace-rpms.sh
     s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/emr-secret-agent-1.18.0-SNAPSHOT20221121212949.noarch.rpm
     ```

  1. Laden Sie die Dateien aus dem vorherigen Schritt in einen Amazon-S3-Bucket hoch, dessen Eigentümer Sie sind. Der Bucket muss sich in dem Bereich befinden AWS-Region , in dem Sie den Cluster starten möchten.

  1. Schließen Sie die folgende Bootstrap-Aktion ein, wenn Sie Ihren EMR-Cluster starten. Ersetzen Sie *bootstrap\$1URI* und *RPM\$1URI* durch das entsprechende URIs aus Amazon S3. 

     ```
     --bootstrap-actions "Path=bootstrap_URI,Args=[RPM_URI]"
     ```
+ Bei den Amazon-EMR-Versionen 5.36.0 und 6.6.0 bis 6.9.0 kann es bei `SecretAgent`- und `RecordServer`-Servicekomponenten aufgrund einer falschen Konfiguration des Dateinamenmusters in den Log4j2-Eigenschaften zu einem Verlust von Protokolldaten kommen. Die falsche Konfiguration führt dazu, dass die Komponenten nur eine Protokolldatei pro Tag generieren. Wenn die Rotationsstrategie angewendet wird, überschreibt sie die vorhandene Datei, anstatt wie erwartet eine neue Protokolldatei zu generieren. Um das Problem zu umgehen, verwenden Sie eine Bootstrap-Aktion, um jede Stunde Protokolldateien zu generieren, und fügen Sie eine automatisch inkrementierte Ganzzahl an den Dateinamen an, um die Rotation zu handhaben.

  Verwenden Sie für die Versionen Amazon EMR 6.6.0 bis 6.9.0 die folgende Bootstrap-Aktion, wenn Sie einen Cluster starten. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Verwenden Sie für Amazon EMR 5.36.0 die folgende Bootstrap-Aktion, wenn Sie einen Cluster starten.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```
+ Apache Flink bietet native S3 FileSystem - und FileSystem Hadoop-Konnektoren, mit denen Anwendungen Daten erstellen FileSink und in Amazon S3 schreiben können. Dies FileSink schlägt mit einer der folgenden zwei Ausnahmen fehl.

  ```
  java.lang.UnsupportedOperationException: Recoverable writers on Hadoop are only supported for HDFS
  ```

  ```
  Caused by: java.lang.NoSuchMethodError: org.apache.hadoop.io.retry.RetryPolicies.retryOtherThanRemoteAndSaslException(Lorg/apache/hadoop/io/retry/RetryPolicy;Ljava/util/Map;)Lorg/apache/hadoop/io/retry/RetryPolicy;
                                          at org.apache.hadoop.yarn.client.RMProxy.createRetryPolicy(RMProxy.java:302) ~[hadoop-yarn-common-3.3.3-amzn-0.jar:?]
  ```

  Als Workaround können Sie einen Amazon-EMR-Patch installieren, der das oben genannte Problem in Flink behebt. Führen Sie die folgenden Schritte aus, um die Bootstrap-Aktion beim Start Ihres Clusters anzuwenden.

  1. Laden Sie das flink-rpm in Ihren Amazon-S3-Bucket herunter. Ihr RPM-Pfad ist `s3://DOC-EXAMPLE-BUCKET/rpms/flink/`.

  1. Laden Sie das Bootstrap-Skript und die RPM-Dateien mit dem folgenden URI von Amazon S3 herunter. `regionName`Ersetzen Sie durch den AWS-Region Ort, an dem Sie den Cluster starten möchten.

     ```
     s3://emr-data-access-control-regionName/customer-bootstrap-actions/gcsc/replace-rpms.sh
     ```

  1. Mit Hadoop 3.3.3 wurde eine Änderung in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) eingeführt, die dafür sorgt, dass Knoten, auf denen Container laufen, außer Betrieb genommen werden, bis die Anwendung abgeschlossen ist. Diese Änderung stellt sicher, dass lokale Daten wie Shuffle-Daten nicht verloren gehen und Sie den Auftrag nicht erneut ausführen müssen. In Amazon EMR 6.8.0 und 6.9.0 kann dieser Ansatz auch zu einer Unterauslastung von Ressourcen auf Clustern mit oder ohne aktivierter verwalteter Skalierung führen.

     Mit [Amazon EMR 6.10.0](emr-6100-release.md#emr-6100-relnotes) gibt es einen Workaround für dieses Problem, indem Sie den Wert in `yarn-site.xml` von `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` auf `false` setzen. In den Amazon-EMR-Versionen 6.11.0 und höher sowie 6.8.1, 6.9.1 und 6.10.1 ist die Konfiguration standardmäßig auf `false` eingestellt, um dieses Problem zu beheben.

**Änderungen, Verbesserungen und behobene Probleme**
+ Für Amazon-EMR-Version 6.9.0 und höher verwenden alle von Amazon EMR installierten Komponenten, die Log4j-Bibliotheken verwenden, Log4j Version 2.17.1 oder höher.
+ Wenn Sie den DynamoDB-Konnektor mit Spark auf den Amazon-EMR-Versionen 6.6.0, 6.7.0 und 6.8.0 verwenden, geben alle Lesevorgänge aus Ihrer Tabelle ein leeres Ergebnis zurück, obwohl der Eingabe-Split auf nicht leere Daten verweist. Amazon EMR Version 6.9.0 behebt dieses Problem.
+ Amazon EMR 6.9.0 bietet eingeschränkte Unterstützung für die auf Lake Formation basierende Zugriffskontrolle mit Apache Hudi beim Lesen von Daten mit Spark SQL. Die Unterstützung gilt für SELECT-Abfragen mit Spark SQL und ist auf die Zugriffskontrolle auf Spaltenebene beschränkt. Weitere Informationen finden Sie unter [Hudi und Lake Formation](https://docs.aws.amazon.com/emr/latest/ManagementGuide/hudi-with-lake-formation.html).
+ Wenn Sie Amazon EMR 6.9.0 verwenden, um einen Hadoop-Cluster mit aktivierten [Knoten-Kennzeichnungen](https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/NodeLabel.html) zu erstellen, gibt die [YARN-Metriken-API](https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/ResourceManagerRest.html#Cluster_Metrics_API) aggregierte Informationen über alle Partitionen statt der Standardpartition zurück. Weitere Informationen finden Sie unter [YARN-11414](https://issues.apache.org/jira/browse/YARN-11414).
+ Mit Amazon-EMR-Version 6.9.0 haben wir Trino auf Version 398 aktualisiert, die Java 17 verwendet. Die vorherige unterstützte Version von Trino für Amazon EMR 6.8.0 war Trino 388, das auf Java 11 lief. Weitere Informationen zu dieser Änderung finden Sie unter [Trino-Updates für Java 17 im Trino-Blog](https://trino.io/blog/2022/07/14/trino-updates-to-java-17.html).
+ Diese Version behebt ein Problem mit der Nichtübereinstimmung der Timing-Sequenz zwischen Apache BigTop und Amazon EMR in der EC2-Cluster-Startsequenz. Diese Nichtübereinstimmung der Timing-Sequenz tritt auf, wenn ein System versucht, zwei oder mehr Operationen gleichzeitig auszuführen, anstatt sie in der richtigen Reihenfolge auszuführen. Infolgedessen kam es bei bestimmten Clusterkonfigurationen zu Timeouts beim Instance-Start und zu langsameren Cluster-Startup-Zeiten.
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)
**Anmerkung**  
Diese Version erhält keine automatischen AMI-Updates mehr, da sie von einer weiteren Patch-Versionen abgelöst wurde. Die Patch-Version wird durch die Zahl nach dem zweiten Dezimalpunkt (`6.8.1`) gekennzeichnet. Um zu sehen, ob Sie die neueste Patch-Version verwenden, überprüfen Sie die verfügbaren Versionen im [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide) oder überprüfen Sie die **Amazon-EMR-Versions-**Dropdownliste, wenn Sie einen Cluster in der Konsole erstellen, oder verwenden Sie die [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html)-API- oder [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html)-CLI-Aktion. Um aktuelle Informationen über Neuerscheinungen erhalten, abonnieren Sie den RSS-Feed auf der Seite [Was ist neu?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-690-release.html)

## 6.9.0 Komponentenversionen
<a name="emr-690-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark-SDK | 
| delta | 2.1.0 | Delta Lake ist ein offenes Tabellenformat für riesige analytische Datensätze | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.3.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.6.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.7.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.23.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.2.0 | EMR S3Select-Konnektor | 
| emrfs | 2,54,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.15.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.15.2 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.3.3-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.3.3-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.3.3-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.3.3-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.3.3-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.13-amzn-0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.13-amzn-0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.13-amzn-0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.13-amzn-0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.13-amzn-0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.13-amzn-0 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.3-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.3-amzn-2 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.3-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.3-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.3-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.3-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.12.1-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.12.1-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.12.1-amzn-0 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.12.1-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.10.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 0.14.1-amzn-0 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.9.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,7,0 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 6.0.0 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.276-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.276-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.276-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 398-amzn-0 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 398-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 398-amzn-0 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.3.0-amzn-1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.3.0-amzn-1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.3.0-amzn-1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.3.0-amzn-1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 22.08.0-amzn-0 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.10.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.10.2-amzn-0 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.10 | ZooKeeper Befehlszeilen-Client. | 

## 6.9.0 Konfigurationsklassifizierungen
<a name="emr-690-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.9.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| delta-defaults | Ändern Sie die Werte in der delta-defaults.conf-Datei von Delta. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j2 | Ändern Sie die log4j2.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-lakeformation | Ändern Sie die Werte in der lakeformation.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-delta | Ändern Sie die Werte in der delta.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Ändern Sie die Werte in der exchange-manager.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j2 | Ändern Sie die Werte in der log4j2.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 6.9.0 Änderungsprotokoll
<a name="690-changelog"></a>


**Änderungsprotokoll für Version 6.9.0 und Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2023-08-30 | Versionshinweise der Aktualisierung | Korrektur für das Problem mit der Nichtübereinstimmung der Timing-Sequenz hinzugefügt | 
| 2023-08-21 | Versionshinweise der Aktualisierung | Es wurde ein bekanntes Problem mit Hadoop 3.3.3 hinzugefügt. | 
| 2023-07-26 | Aktualisierung | Neue Betriebssystem-Release-Labels 2.0.20230612.0 und 2.0.20230628.0. | 
| 13.12.2022 | Versionshinweise | Funktion hinzugefügt und bekanntes Problem bei der Laufzeit mit KI SageMaker  | 
| 29.11.2022 | Versionshinweise und Dokumentation wurden aktualisiert | Feature für die Amazon-Redshift-Integration für Apache Spark hinzugefügt | 
| 23.11.2022 | Versionshinweise | Der Log4j-Eintrag wurde entfernt | 
| 18.11.2022 | Die Bereitstellung ist abgeschlossen | [Amazon EMR 6.9 wurde vollständig in allen unterstützten Regionen bereitgestellt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 18.11.2022 | Veröffentlichung von Dokumenten | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 6.9 | 
| 14.11.2022 | Erstversion | Amazon EMR 6.9 wurde zuerst in begrenzten kommerziellen Regionen bereitgestellt | 

# Amazon-EMR-Version 6.8.1
<a name="emr-681-release"></a>

## 6.8.1 Anwendungsversionen
<a name="emr-681-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.170 | 1.12,170 | 1.12,170 | 1.12,170 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,15 | 2.12,15 | 2.12,10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.15.1 | 1.15.1 | 1.14.2 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 
| HCatalog | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 
| Hadoop | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 
| Hive | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 
| Hudi | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 
| Spark | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.9.1 | 2.9.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.7 | 3.5.7 | 

## 6.8.1 Versionshinweise
<a name="emr-681-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.8.1. Änderungen beziehen sich auf Version 6.8.0. Informationen zum Zeitplan für die Veröffentlichung finden Sie unter [6.8.1 Änderungsprotokoll](#681-changelog).

**Änderungen, Verbesserungen und behobene Probleme**
+ Mit Hadoop 3.3.3 wurde eine Änderung in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) eingeführt, die dafür sorgt, dass Knoten, auf denen Container laufen, außer Betrieb genommen werden, bis die Anwendung abgeschlossen ist. Diese Änderung stellt sicher, dass lokale Daten wie Shuffle-Daten nicht verloren gehen und Sie den Auftrag nicht erneut ausführen müssen. Dieser Ansatz kann auch zu einer Unterauslastung von Ressourcen in Clustern mit oder ohne aktivierter verwalteter Skalierung führen.

  Bei den Amazon-EMR-Versionen 6.11.0 und höher sowie 6.8.1, 6.9.1 und 6.10.1 ist der Wert in `yarn-site.xml` von `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` auf `false` gesetzt, um dieses Problem zu beheben.

  Der Fix behebt zwar die Probleme, die durch YARN-9608 eingeführt wurden, kann jedoch dazu führen, dass Hive-Aufträge aufgrund von Shuffle-Datenverlusten auf Clustern, für die verwaltete Skalierung aktiviert ist, fehlschlagen. Wir haben dieses Risiko in dieser Version verringert, indem wir auch `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` für Hive-Workloads eingerichtet haben. Diese Konfiguration ist nur mit Amazon-EMR-Versionen 6.11.0 und höher verfügbar.
+ Der Metrics Collector sendet nach einem Failover des Primärknotens in Clustern mit der Instance-Gruppenkonfiguration keine Metriken an die Steuerebene.
+ Diese Version macht Wiederholungsversuche bei fehlgeschlagenen HTTP-Anfragen an die Endpunkte der Metrics Collector überflüssig.
+ Diese Version enthält eine Änderung, die es Hochverfügbarkeitsclustern ermöglicht, nach einem Neustart den Status „Fehler“ wiederherzustellen.
+ Diese Version behebt ein Problem, bei dem große, von Benutzern erstellte Ausnahmen zu UIDs Überläufen führten.
+ Diese Version behebt Timeout-Probleme beim Amazon-EMR-Rekonfigurationsprozess.
+ Diese Version verhindert ein Problem, bei dem eine fehlgeschlagene Neukonfiguration andere, nicht miteinander verbundene Prozesse unterbrechen könnte.
+ Diese Version enthält Sicherheitskorrekturen.
+ Diese Version behebt ein Problem, bei dem Cluster, die Workloads auf Spark mit Amazon EMR ausführen, möglicherweise unbemerkt falsche Ergebnisse mit `contains`, `startsWith`, `endsWith` und `like` erhalten. Dieses Problem tritt auf, wenn Sie die Ausdrücke für partitionierte Felder verwenden, die Metadaten im Amazon EMR Hive3 Metastore Server (HMS) haben.
+ Bei Amazon EMR 6.6.0 bis 6.9.x haben INSERT-Abfragen mit dynamischer Partition und einer ORDER-BY- oder SORT-BY-Klausel immer zwei Reduzierungen. Dieses Problem wird durch die OSS-Änderung [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703) verursacht, die die Optimierung dynamischer Sortierpartitionen einer kostenbasierten Entscheidung unterstellt. Wenn Ihr Workload keine Sortierung dynamischer Partitionen erfordert, empfehlen wir Ihnen, die `hive.optimize.sort.dynamic.partition.threshold`-Eigenschaft auf `-1` zu setzen, um das neue Feature zu deaktivieren und die korrekt berechnete Anzahl von Reduzierern zu erhalten. Dieses Problem wurde behoben in OSS Hive als Teil von [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) und in Amazon EMR 6.10.0 behoben.
+ In Hive kann es zu Datenverlusten kommen, wenn Sie HDFS als Scratch-Verzeichnis verwenden und die Option „Kleine Dateien zusammenführen“ aktiviert haben und die Tabelle statische Partitionspfade enthält.
+ Diese Version behebt ein Leistungsproblem mit Hive, wenn das Zusammenführen kleiner Dateien (standardmäßig deaktiviert) am Ende des ETL-Auftrags aktiviert ist.
+ Diese Version behebt ein Problem mit der Drosselung auf der Glue-Seite, wenn es keine benutzerdefinierten Funktionen (UDF) gibt.
+ Diese Version behebt ein Problem, bei dem Container-Protokolle vom Knotenprotokoll-Aggregationsservice gelöscht werden, bevor Log Pusher sie im Falle einer Außerbetriebnahme von YARN an S3 weiterleiten kann.
+ Diese Version behebt den Umgang mit komprimierten/archivierten Dateien mit persistenter Speicherdateiverfolgung für. HBase
+ Diese Version behebt ein Problem, das die Leistung von Spark beeinträchtigte, wenn Sie einen `true`-Standardwert für die `spark.yarn.heterogeneousExecutors.enabled`-Konfiguration in `spark-defaults.conf` festlegen.
+ Diese Version behebt ein Problem, bei dem Reduce Task die Shuffle-Daten nicht lesen konnte. Das Problem führte zu Hive-Abfragefehlern mit einem Speicherfehler.
+ Diese Version behebt ein Problem, das dazu führte, dass der Node Provisioner ausfiel, wenn der HDFS NameNode (NN) -Dienst während des Knotenaustauschs im abgesicherten Modus hängen blieb.
+ Diese Version fügt dem Cluster-Skalierungs-Workflow für EMR-Cluster, auf denen Presto oder Trino ausgeführt werden, einen neuen Wiederholungsmechanismus hinzu. Diese Verbesserung verringert das Risiko, dass die Clustergrößenänderung aufgrund eines einzigen fehlgeschlagenen Größenänderungsvorgangs auf unbestimmte Zeit zum Stillstand kommt. Sie verbessert auch die Clusterauslastung, da Ihr Cluster schneller hoch- und herunterskaliert wird.
+ Diese Version verbessert die Cluster-Herunterskalierungs-Logik, sodass Ihr Cluster nicht versucht, die Core-Knoten unter die für den Cluster eingestellte HDFS-Replikationsfaktor-Einstellung herunterzuskalieren. Dies entspricht Ihren Anforderungen an die Datenredundanz und verringert die Wahrscheinlichkeit, dass ein Skalierungsvorgang zum Stillstand kommt.
+ Der Protokoll-Management-Daemon wurde aktualisiert, um alle Protokolle, die aktiv verwendet werden, mit offenen Datei-Handles auf dem lokalen Instance-Speicher und die zugehörigen Prozesse zu identifizieren. Dieses Upgrade stellt sicher, dass Amazon EMR die Dateien ordnungsgemäß löscht und Speicherplatz zurückgewinnt, nachdem die Protokolle in Amazon S3 archiviert wurden.
+ Diese Version beinhaltet eine Erweiterung des Protokollverwaltungs-Daemons, die leere, unbenutzte Schrittverzeichnisse im lokalen Cluster-Dateisystem löscht. Eine zu große Anzahl leerer Verzeichnisse kann die Leistung der Amazon-EMR-Daemons beeinträchtigen und zu einer Überauslastung der Festplatte führen.
+ Diese Version behebt ein Problem, das auftreten kann, wenn Sie einen Edge-Knoten erstellen, indem Sie einen der Primärknoten aus einem Cluster mit mehreren Primärknoten replizieren. Der replizierte Edge-Knoten kann zu Verzögerungen bei Scale-Down-Vorgängen oder zu einer hohen Arbeitsspeicherauslastung auf den Primärknoten führen. Weitere Informationen zum Erstellen eines Edge-Knotens für die Kommunikation mit Ihrem EMR-Cluster finden Sie unter [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) im `aws-samples` Repo unter. GitHub
+ Diese Version verbessert den Automatisierungsprozess, den Amazon EMR verwendet, um Amazon-EBS-Volumes nach einem Neustart erneut in eine Instance einzubinden.
+ Diese Version behebt ein Problem, das zu zeitweiligen Lücken in den Hadoop-Metriken führte, die Amazon EMR auf Amazon veröffentlicht. CloudWatch
+ Diese Version behebt ein Problem mit EMR-Clustern, bei dem ein Update der YARN-Konfigurationsdatei, die die Ausschlussliste der Knoten für den Cluster enthält, aufgrund einer Überauslastung der Festplatte unterbrochen wird. Das unvollständige Update behindert zukünftige Cluster-Herunterskalierungs-Vorgänge. Diese Version stellt sicher, dass Ihr Cluster fehlerfrei bleibt und dass die Skalierungsvorgänge wie erwartet funktionieren.
+ Diese Version verbessert den On-Cluster-Log-Management-Daemon zur Überwachung zusätzlicher Protokollordner in Ihrem EMR-Cluster. Durch diese Verbesserung werden Szenarien mit übermäßiger Festplattenauslastung minimiert.
+ Diese Version startet den Protokoll-Management-Daemon auf dem Cluster automatisch neu, wenn er beendet wird. Durch diese Verbesserung wird das Risiko verringert, dass Knoten aufgrund übermäßiger Festplattenauslastung als fehlerhaft erscheinen. 
+ Diese Version bietet Unterstützung für die Archivierung von Protokollen in Amazon S3 während der Cluster-Scale-Down. Bisher konnten Sie Protokolldateien nur während der Clusterbeendigung in Amazon S3 archivieren. Die neue Funktion stellt sicher, dass auf dem Cluster generierte Protokolldateien auch nach dem Beenden des Knotens auf Amazon S3 bestehen bleiben. Weitere Informationen finden Sie unter [Konfigurieren der Cluster-Protokollierung und des Debuggings](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html).
+ Diese Version behebt ein Problem, das auftrat, als der Amazon S3 URI für eine Bootstrap-Aktion mit einer Portnummer endete, zum Beispiel: `a.b.c.d:4345`. Amazon EMR hat diese falsch analysiert URIs, sodass alle zugehörigen Bootstrap-Aktionen fehlschlagen würden.
+ Diese Version behebt ein Problem mit der Nichtübereinstimmung der Timing-Sequenz zwischen Apache BigTop und Amazon EMR in der EC2-Cluster-Startsequenz. Diese Nichtübereinstimmung der Timing-Sequenz tritt auf, wenn ein System versucht, zwei oder mehr Operationen gleichzeitig auszuführen, anstatt sie in der richtigen Reihenfolge auszuführen. Infolgedessen kam es bei bestimmten Clusterkonfigurationen zu Timeouts beim Instance-Start und zu langsameren Cluster-Startup-Zeiten.
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-681-release.html)

## 6.8.1 Komponentenversionen
<a name="emr-681-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.7.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.22.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.1.0 | EMR S3Select-Konnektor | 
| emrfs | 2,53,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.15.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.15.1 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-8.1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-8.1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-8.1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-8.1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-8.1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-8.1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-8.1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-8.1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-8.1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-8.1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-8.1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.12-amzn-0.1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.12-amzn-0.1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.12-amzn-0.1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.12-amzn-0.1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.12-amzn-0.1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.12-amzn-0.1 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.3-amzn-1.1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.3-amzn-1.1 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.3-amzn-1.1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.3-amzn-1.1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.3-amzn-1.1 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-1.1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.3-amzn-1.1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.11.1-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.11.1-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.11.1-amzn-0 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.11.1-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.10.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 0.14.0-amzn-0 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.9.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,7,0 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 5.1.2 | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 5.1.2 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.273.3-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.273.3-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.273.3-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 388-amzn-0 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 388-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 388-amzn-0 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.3.0-amzn-0.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.3.0-amzn-0.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.3.0-amzn-0.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.3.0-amzn-0.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 22.06.0-amzn-0 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.9.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.10 | ZooKeeper Befehlszeilen-Client. | 

## 6.8.1 Konfigurationsklassifizierungen
<a name="emr-681-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.8.1-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j2 | Ändern Sie die Werte in der log4j2.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 6.8.1 Änderungsprotokoll
<a name="681-changelog"></a>


**Änderungsprotokoll für Version 6.8.1 und Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2023-08-30 | Versionshinweise der Aktualisierung | Den Versionshinweisen wurden mehrere Korrekturen im Zusammenhang mit der Steuerebene hinzugefügt | 
| 2023-08-21 | Veröffentlichung von Dokumenten | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 6.8.1 | 
| 2023-08-16 | Die Bereitstellung ist abgeschlossen | [Amazon EMR 6.8.1 vollständig in allen unterstützten Regionen bereitgestellt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-08-04 | Erstversion | Amazon EMR 6.8.1 wurde zuerst in begrenzten kommerziellen Regionen bereitgestellt | 

# Amazon-EMR-Version 6.8.0
<a name="emr-680-release"></a>

## 6.8.0 Anwendungsversionen
<a name="emr-680-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/),, [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.170 | 1.12,170 | 1.12,170 | 1.12,31 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,15 | 2.12,10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.15.1 | 1.14.2 | 1.14.2 | 1.14.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 
| HCatalog | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 
| Hadoop | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 
| Hive | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 
| Hudi | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 
| Iceberg | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 
| Spark | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.9.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 360 | 
| Zeppelin | 0.10.1 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.7 | 3.5.7 | 3.5.7 | 

## 6.8.0 Versionshinweise
<a name="emr-680-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.8.0. Änderungen beziehen sich auf Version 6.7.0.

**Neue Features**
+ Die Amazon EMR-Schrittfunktion unterstützt jetzt Apache Livy-Endgeräte und JDBC/ODBC -Clients. Weitere Informationen finden Sie unter [Laufzeit-Rollen für Amazon EMR konfigurieren](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-steps-runtime-roles.html).
+ Amazon EMR Version 6.8.0 wird mit Apache HBase Version 2.4.12 geliefert. Mit dieser HBase Version können Sie Ihre Tabellen sowohl archivieren als auch löschen. HBase Der Amazon-S3-Archivierungsprozess benennt alle Tabellendateien in das Archivverzeichnis um. Dies kann ein kostspieliger und langwieriger Prozess sein. Jetzt können Sie den Archivierungsvorgang überspringen und große Tabellen schnell löschen und löschen. Weitere Informationen finden Sie unter [Verwenden der HBase Shell](emr-hbase-connect.md).

**Bekannte Probleme**
+ Mit Hadoop 3.3.3 wurde eine Änderung in YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) eingeführt, die dafür sorgt, dass Knoten, auf denen Container laufen, außer Betrieb genommen werden, bis die Anwendung abgeschlossen ist. Diese Änderung stellt sicher, dass lokale Daten wie Shuffle-Daten nicht verloren gehen und Sie den Auftrag nicht erneut ausführen müssen. In Amazon EMR 6.8.0 und 6.9.0 kann dieser Ansatz auch zu einer Unterauslastung von Ressourcen auf Clustern mit oder ohne aktivierter verwalteter Skalierung führen.

  Mit [Amazon EMR 6.10.0](emr-6100-release.md#emr-6100-relnotes) gibt es einen Workaround für dieses Problem, indem Sie den Wert in `yarn-site.xml` von `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` auf `false` setzen. In den Amazon-EMR-Versionen 6.11.0 und höher sowie 6.8.1, 6.9.1 und 6.10.1 ist die Konfiguration standardmäßig auf `false` eingestellt, um dieses Problem zu beheben.

**Änderungen, Verbesserungen und behobene Probleme**
+ Als Amazon-EMR-Version 6.5.0, 6.6.0 oder 6.7.0 Apache Phoenix-Tabellen über die Apache-Spark-Shell las, erzeugte Amazon EMR eine `NoSuchMethodError`. Amazon EMR Version 6.8.0 behebt dieses Problem.
+ Amazon-EMR-Version 6.8.0 enthält [Apache Hudi](https://hudi.apache.org/) 0.11.1. Amazon-EMR-6.8.0-Cluster sind jedoch auch mit der Open-Source-Version von Hudi 0.12.0 kompatibel. `hudi-spark3.3-bundle_2.12`
+ Amazon-EMR-Version 6.8.0 wird mit Apache Spark 3.3.0 geliefert. Diese Spark-Version verwendet Apache Log4j 2 und die `log4j2.properties`-Datei zur Konfiguration von Log4j in Spark-Prozessen. Wenn Sie Spark im Cluster verwenden oder EMR-Cluster mit benutzerdefinierten Konfigurationsparametern erstellen und ein Upgrade auf Amazon-EMR-Version 6.8.0 durchführen möchten, müssen Sie auf die neue `spark-log4j2`-Konfigurationsklassifizierung und das neue Schlüsselformat für Apache Log4j 2 migrieren. Weitere Informationen finden Sie unter [Migration von Apache Log4j 1.x zu Log4j 2.x](emr-spark-configure.md#spark-migrate-logj42).
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)
**Anmerkung**  
Diese Version erhält keine automatischen AMI-Updates mehr, da sie von einer weiteren Patch-Versionen abgelöst wurde. Die Patch-Version wird durch die Zahl nach dem zweiten Dezimalpunkt (`6.8.1`) gekennzeichnet. Um zu sehen, ob Sie die neueste Patch-Version verwenden, überprüfen Sie die verfügbaren Versionen im [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide) oder überprüfen Sie die **Amazon-EMR-Versions-**Dropdownliste, wenn Sie einen Cluster in der Konsole erstellen, oder verwenden Sie die [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html)-API- oder [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html)-CLI-Aktion. Um aktuelle Informationen über Neuerscheinungen erhalten, abonnieren Sie den RSS-Feed auf der Seite [Was ist neu?](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-680-release.html)

**Bekannte Probleme**
+ Wenn Sie den DynamoDB-Konnektor mit Spark auf den Amazon-EMR-Versionen 6.6.0, 6.7.0 und 6.8.0 verwenden, geben alle Lesevorgänge aus Ihrer Tabelle ein leeres Ergebnis zurück, obwohl der Eingabe-Split auf nicht leere Daten verweist. Das liegt daran, dass Spark 3.2.0 standardmäßig `spark.hadoopRDD.ignoreEmptySplits` auf `true` einstellt. Um das Problem zu umgehen, setzen Sie explizit `spark.hadoopRDD.ignoreEmptySplits` auf `false`. Amazon EMR Version 6.9.0 behebt dieses Problem.
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.
+ Bei den Amazon-EMR-Versionen 5.36.0 und 6.6.0 bis 6.9.0 kann es bei `SecretAgent`- und `RecordServer`-Servicekomponenten aufgrund einer falschen Konfiguration des Dateinamenmusters in den Log4j2-Eigenschaften zu einem Verlust von Protokolldaten kommen. Die falsche Konfiguration führt dazu, dass die Komponenten nur eine Protokolldatei pro Tag generieren. Wenn die Rotationsstrategie angewendet wird, überschreibt sie die vorhandene Datei, anstatt wie erwartet eine neue Protokolldatei zu generieren. Um das Problem zu umgehen, verwenden Sie eine Bootstrap-Aktion, um jede Stunde Protokolldateien zu generieren, und fügen Sie eine automatisch inkrementierte Ganzzahl an den Dateinamen an, um die Rotation zu handhaben.

  Verwenden Sie für die Versionen Amazon EMR 6.6.0 bis 6.9.0 die folgende Bootstrap-Aktion, wenn Sie einen Cluster starten. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Verwenden Sie für Amazon EMR 5.36.0 die folgende Bootstrap-Aktion, wenn Sie einen Cluster starten.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

Informationen zum Zeitplan der Veröffentlichung finden Sie im [Änderungsprotokoll](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-680-release.html#680-changelog).

## 6.8.0 Komponentenversionen
<a name="emr-680-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.7.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.22.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.1.0 | EMR S3Select-Konnektor | 
| emrfs | 2,53,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.15.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.15.1 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-8 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-8 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-8 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-8 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-8 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-8 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-8 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-8 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-8 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-8 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-8 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.12-amzn-0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.12-amzn-0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.12-amzn-0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.12-amzn-0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.12-amzn-0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.12-amzn-0 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.3-amzn-1 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.3-amzn-1 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.3-amzn-1 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.3-amzn-1 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.3-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-1 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.3-amzn-1 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.11.1-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.11.1-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.11.1-amzn-0 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.11.1-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.10.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 0.14.0-amzn-0 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.9.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,7,0 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 5.1.2 | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 5.1.2 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.273.3-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.273.3-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.273.3-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 388-amzn-0 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 388-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 388-amzn-0 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.3.0-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.3.0-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.3.0-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.3.0-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 22.06.0-amzn-0 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.9.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.10 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.10 | ZooKeeper Befehlszeilen-Client. | 

## 6.8.0 Konfigurationsklassifizierungen
<a name="emr-680-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.8.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j2 | Ändern Sie die Werte in der log4j2.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

## 6.8.0 Änderungsprotokoll
<a name="680-changelog"></a>


**Änderungsprotokoll für Version 6.8.0 und Versionshinweise**  

| Date | Veranstaltung | Description | 
| --- | --- | --- | 
| 2023-08-21 | Aktualisierung | Es wurde ein bekanntes Problem mit Hadoop 3.3.3 hinzugefügt. | 
| 2023-07-26 | Aktualisierung | Neue Betriebssystem-Release-Labels 2.0.20230612.0 und 2.0.20230628.0. | 
| 06.09.2022 | Die Bereitstellung ist abgeschlossen | Amazon EMR 6.8 vollständig in allen [unterstützten](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) Regionen bereitgestellt | 
| 06.09.2022 | Erste Veröffentlichung | Erste Veröffentlichung der Versionshinweise zu Amazon EMR 6.8 | 
| 31.08.2022 | Erstversion | Amazon EMR 6.8 wurde zuerst in begrenzten kommerziellen Regionen veröffentlicht | 

# Amazon-EMR-Version 6.7.0
<a name="emr-670-release"></a>

## 6.7.0 Anwendungsversionen
<a name="emr-670-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog),, [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.170 | 1.12.170 | 1.12,31 | 1.12.31 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,15 | 2.12,10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.0 | 1.13.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 
| HCatalog | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 
| Hadoop | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 
| Hive | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 
| Hudi | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 
| Spark | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 378-amzn-0 | 367-amzn-0 | 360 | 359 | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 
| ZooKeeper | 3,5.7 | 3.5.7 | 3.5.7 | 3.5.7 | 

## 6.7.0 Versionshinweise
<a name="emr-670-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.7.0. Änderungen beziehen sich auf Version 6.6.0.

Erste Version: 15. Juli 2022

**Neue Features**
+ Amazon EMR unterstützt jetzt Apache Spark 3.2.1, Apache Hive 3.1.3, HUDI 0.11, PrestoDB 0.272 und Trino 0.378.
+ Unterstützt Zugriffskontrollen auf Basis der IAM-Rolle und Lake Formation mit EMR-Schritten (Spark, Hive) für Amazon EMR auf EC2-Clustern.
+ Unterstützt Apache-Spark-Datendefinitionsanweisungen auf Apache-Ranger-fähigen Clustern. Dies beinhaltet jetzt die Unterstützung für Trino-Anwendungen, die Apache-Hive-Metadaten auf Apache-Ranger-fähigen Clustern lesen und schreiben. Weitere Informationen finden Sie unter [Aktivieren von Verbund-Governance mit Trino und Apache Ranger auf](https://aws.amazon.com/blogs/big-data/enable-federated-governance-using-trino-and-apache-ranger-on-amazon-emr/) Amazon EMR.
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-670-release.html)

**Bekannte Probleme**
+ Wenn Amazon-EMR-Version 6.5.0, 6.6.0 oder 6.7.0 Apache Phoenix-Tabellen über die Apache Spark-Shell liest, tritt `NoSuchMethodError` ein, weil Amazon EMR ein falsches `Hbase.compat.version` verwendet. Amazon EMR Version 6.8.0 behebt dieses Problem.
+ Wenn Sie den DynamoDB-Konnektor mit Spark auf den Amazon-EMR-Versionen 6.6.0, 6.7.0 und 6.8.0 verwenden, geben alle Lesevorgänge aus Ihrer Tabelle ein leeres Ergebnis zurück, obwohl der Eingabe-Split auf nicht leere Daten verweist. Das liegt daran, dass Spark 3.2.0 standardmäßig `spark.hadoopRDD.ignoreEmptySplits` auf `true` einstellt. Um das Problem zu umgehen, setzen Sie explizit `spark.hadoopRDD.ignoreEmptySplits` auf `false`. Amazon EMR Version 6.9.0 behebt dieses Problem.
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.
+ Bei den Amazon-EMR-Versionen 5.36.0 und 6.6.0 bis 6.9.0 kann es bei `SecretAgent`- und `RecordServer`-Servicekomponenten aufgrund einer falschen Konfiguration des Dateinamenmusters in den Log4j2-Eigenschaften zu einem Verlust von Protokolldaten kommen. Die falsche Konfiguration führt dazu, dass die Komponenten nur eine Protokolldatei pro Tag generieren. Wenn die Rotationsstrategie angewendet wird, überschreibt sie die vorhandene Datei, anstatt wie erwartet eine neue Protokolldatei zu generieren. Um das Problem zu umgehen, verwenden Sie eine Bootstrap-Aktion, um jede Stunde Protokolldateien zu generieren, und fügen Sie eine automatisch inkrementierte Ganzzahl an den Dateinamen an, um die Rotation zu handhaben.

  Verwenden Sie für die Versionen Amazon EMR 6.6.0 bis 6.9.0 die folgende Bootstrap-Aktion, wenn Sie einen Cluster starten. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Verwenden Sie für Amazon EMR 5.36.0 die folgende Bootstrap-Aktion, wenn Sie einen Cluster starten.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```
+ Die `GetClusterSessionCredentials`-API wird nicht mit Clustern unterstützt, die in Amazon EMR 6.7 oder niedriger ausgeführt werden.
+ Die folgenden Hadoop-Commits wurden zurückportiert.

  - [[HADOOP-16080]](https://issues.apache.org/jira/browse/HADOOP-16080) Problem behoben, bei dem es nicht funktionierte. `hadoop-aws` `hadoop-client-api`

  - [[HADOOP-18237](https://issues.apache.org/jira/browse/HADOOP-18237)] Aktualisieren Sie Apache Xerces Java auf 2.12.2.

  - [[YARN-11092](https://issues.apache.org/jira/browse/YARN-11092)] Aktualisiere JQuery auf UI auf Version 1.13.1.

  - [[YARN-10720] YARN](https://issues.apache.org/jira/browse/YARN-10720) WebAppProxyServlet sollte Verbindungs-Timeout unterstützen, um zu verhindern, dass der Proxy-Server hängen bleibt.

## 6.7.0 Komponentenversionen
<a name="emr-670-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.6.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.22.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.1.0 | EMR S3Select-Konnektor | 
| emrfs | 2,52,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1,14,2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.14.2 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-7 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-7 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-7 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-7 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-7 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-7 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-7 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-7 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-7 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-7 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-7 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.4-amzn-3 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.4-amzn-3 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.4-amzn-3 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.4-amzn-3 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.4-amzn-3 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.4-amzn-3 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.3-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.3-amzn-0 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.3-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.3-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.3-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.3-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.11.0-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.11.0-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.11.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.11.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.10.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 0.13.1-amzn-0 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.8.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,0,194 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 5.1.2 | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 5.1.2 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.272-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.272-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.272-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 378-amzn-0 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 378-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 378-amzn-0 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.2.1-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.2.1-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.2.1-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.2.1-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 22.02.0-amzn-1 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.4.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.7 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.7 | ZooKeeper Befehlszeilen-Client. | 

## 6.7.0 Konfigurationsklassifizierungen
<a name="emr-670-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.7.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Werte in HBase der Umgebung ändern. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 6.6.0
<a name="emr-660-release"></a>

## 6.6.0 Anwendungsversionen
<a name="emr-660-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/),, [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.170 | 1.12,31 | 1.12.31 | 1.11.977 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.0 | 1.13.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 
| HCatalog | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 
| Hadoop | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 
| Hive | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 
| Hudi | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 
| Hue | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.13.1 | 0.12.0 |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.0.0- -2.0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 367-amzn-0 | 360 | 359 | 350 | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3,5.7 | 3.5.7 | 3.5.7 | 3.4.14 | 

## 6.6.0 Versionshinweise
<a name="emr-660-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.6.0. Änderungen beziehen sich auf Version 6.5.0.

Erste Version: 09. Mai 2022

Letzte Aktualisierung der Dokumentation: 15. Juni 2022

**Neue Features**
+ Amazon EMR 6.6 unterstützt jetzt Apache Spark 3.2, Apache Spark RAPIDS 22.02, CUDA 11, Apache Hudi 0.10.1, Apache Iceberg 0.13, Trino 0.367 und PrestoDB 0.267.
+ Wenn Sie einen Cluster mit *der neuesten Patch-Version* von Amazon EMR 5.36 oder höher, 6.6 oder höher oder 7.0 oder höher starten, verwendet Amazon EMR die neueste Version von Amazon Linux 2023 oder Amazon Linux 2 für das standardmäßige Amazon EMR-AMI. Weitere Informationen finden Sie unter [Verwenden des standardmäßigen Amazon-Linux-AMI für Amazon EMR.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-660-release.html)
+ Mit Amazon EMR 6.6 und höher werden Anwendungen, die Log4j 1.x und Log4j 2.x verwenden, auf Log4j 1.2.17 (oder höher) bzw. Log4j 2.17.1 (oder höher) aktualisiert, sodass die [Bootstrap-Aktionen](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-log4j-vulnerability.html) die zur Behebung der CVE-Probleme bereitgestellt werden, nicht erforderlich sind.
+ **[Verwaltete Skalierung] Spark Shuffle Data Managed Scaling Optimization** – Für Amazon-EMR-Versionen 5.34.0 und höher sowie EMR-Versionen 6.4.0 und höher unterstützt verwaltete Skalierung jetzt Spark Shuffle Data (Daten, die Spark partitionsübergreifend verteilt, um bestimmte Operationen auszuführen). Weitere Informationen zu Shuffle-Vorgängen finden Sie unter [Nutzung von Managed Scaling in Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) im *Verwaltungshandbuch für Amazon EMR* und [Spark-Programmierungs-Handbuch](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ Ab Amazon EMR 5.32.0 und 6.5.0 ist die dynamische Executor-Größenanpassung für Apache Spark standardmäßig aktiviert. Sie können dieses Feature ein- oder ausschalten, indem Sie den Konfigurationsparameter `spark.yarn.heterogeneousExecutors.enabled` verwenden.

**Änderungen, Verbesserungen und behobene Probleme**
+ Amazon EMR reduziert die Cluster-Startup-Zeit für Cluster, die die EMR-Standard-AMI-Option verwenden und nur gängige Anwendungen wie Apache Hadoop, Apache Spark und Apache Hive installieren, um durchschnittlich bis zu 80 Sekunden.

**Bekannte Probleme**
+ Wenn Amazon-EMR-Version 6.5.0, 6.6.0 oder 6.7.0 Apache Phoenix-Tabellen über die Apache Spark-Shell liest, tritt `NoSuchMethodError` ein, weil Amazon EMR ein falsches `Hbase.compat.version` verwendet. Amazon EMR Version 6.8.0 behebt dieses Problem.
+ Wenn Sie den DynamoDB-Konnektor mit Spark auf den Amazon-EMR-Versionen 6.6.0, 6.7.0 und 6.8.0 verwenden, geben alle Lesevorgänge aus Ihrer Tabelle ein leeres Ergebnis zurück, obwohl der Eingabe-Split auf nicht leere Daten verweist. Das liegt daran, dass Spark 3.2.0 standardmäßig `spark.hadoopRDD.ignoreEmptySplits` auf `true` einstellt. Um das Problem zu umgehen, setzen Sie explizit `spark.hadoopRDD.ignoreEmptySplits` auf `false`. Amazon EMR Version 6.9.0 behebt dieses Problem.
+ Auf Trino-Clustern mit langer Laufzeit aktiviert Amazon EMR 6.6.0 die Garbage-Collection-Protokollierungs-Parameter in der Trino jvm.config, um bessere Einblicke in die Garbage-Collection-Protokolle zu erhalten. Durch diese Änderung werden viele Garbage-Collection-Logs an die Datei launcher.log (/var/log/trino/launcher.log) angehängt. Wenn Sie Trino-Cluster in Amazon EMR 6.6.0 ausführen, kann es vorkommen, dass Knoten aufgrund der angehängten Protokolle nicht mehr genügend Festplattenspeicher haben, nachdem der Cluster einige Tage lang ausgeführt wurde.

  Um dieses Problem zu umgehen, führen Sie das folgende Skript als Bootstrap-Aktion aus, um die Garbage-Collection-Protokollierungs-Parameter in jvm.config zu deaktivieren, während Sie den Cluster für Amazon EMR 6.6.0 erstellen oder klonen.

  ```
  #!/bin/bash
    set -ex
    PRESTO_PUPPET_DIR='/var/aws/emr/bigtop-deploy/puppet/modules/trino'
    sudo bash -c "sed -i '/-Xlog/d' ${PRESTO_PUPPET_DIR}/templates/jvm.config"
  ```
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.
+ Bei den Amazon-EMR-Versionen 5.36.0 und 6.6.0 bis 6.9.0 kann es bei `SecretAgent`- und `RecordServer`-Servicekomponenten aufgrund einer falschen Konfiguration des Dateinamenmusters in den Log4j2-Eigenschaften zu einem Verlust von Protokolldaten kommen. Die falsche Konfiguration führt dazu, dass die Komponenten nur eine Protokolldatei pro Tag generieren. Wenn die Rotationsstrategie angewendet wird, überschreibt sie die vorhandene Datei, anstatt wie erwartet eine neue Protokolldatei zu generieren. Um das Problem zu umgehen, verwenden Sie eine Bootstrap-Aktion, um jede Stunde Protokolldateien zu generieren, und fügen Sie eine automatisch inkrementierte Ganzzahl an den Dateinamen an, um die Rotation zu handhaben.

  Verwenden Sie für die Versionen Amazon EMR 6.6.0 bis 6.9.0 die folgende Bootstrap-Aktion, wenn Sie einen Cluster starten. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Verwenden Sie für Amazon EMR 5.36.0 die folgende Bootstrap-Aktion, wenn Sie einen Cluster starten.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

## 6.6.0 Komponentenversionen
<a name="emr-660-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.5.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.20.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.1.0 | EMR S3Select-Konnektor | 
| emrfs | 2,50,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1,14,2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.14.2 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-6 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-6 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-6 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-6 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-6 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-6 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-6 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-6 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-6 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-6 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-6 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.4-amzn-2 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.4-amzn-2 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.4-amzn-2 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.4-amzn-2 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.4-amzn-2 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hbase-operator-tools | 2.4.4-amzn-2 | Reparaturtool für HBase Apache-Cluster. | 
| hcatalog-client | 3.1.2-amzn-7 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.2-amzn-7 | Bereitstellung von Diensten HCatalog, eine Tabellen- und Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.2-amzn-7 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.2-amzn-7 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.2-amzn-7 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-7 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.2-amzn-7 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.10.1-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.10.1-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.10.1-amzn-0 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.10.1-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.10.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 0.13.1 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.8.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 11,0,194 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-connectors | 5.1.2 | Apache-Phoenix-Konnektoren für Spark-3 | 
| phoenix-query-server | 5.1.2 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.267-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.267-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.267-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 367-amzn-0 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 367-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 367-amzn-0 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.2.0-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.2.0-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.2.0-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.2.0-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 22.02.0-amzn-0 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.4.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.7 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.7 | ZooKeeper Befehlszeilen-Client. | 

## 6.6.0 Konfigurationsklassifizierungen
<a name="emr-660-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.6.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Ändern Sie die Werte in der iceberg.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 6.5.0
<a name="emr-650-release"></a>

## 6.5.0 Anwendungsversionen
<a name="emr-650-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/),, [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.31 | 1.12.31 | 1.11.977 | 1,11,977 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.0 | 1.13.1 | 1.12.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 
| HCatalog | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 
| Hadoop | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 
| Hive | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 
| Hudi | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.12.0 |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.0.0- -2.0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 360 | 359 | 350 | 350 | 
| Zeppelin | 0.10.0 | 0.9.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3,5.7 | 3.5.7 | 3.4.14 | 3.4.14 | 

## 6.5.0 Versionshinweise
<a name="emr-650-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.5.0. Änderungen beziehen sich auf Version 6.4.0.

Erste Version: 20. Januar 2022

Aktualisiertes Veröffentlichungsdatum: 21. März 2022

**Neue Features**
+ **[Verwaltete Skalierung] Spark Shuffle Data Managed Scaling Optimization** – Für Amazon-EMR-Versionen 5.34.0 und höher sowie EMR-Versionen 6.4.0 und höher unterstützt verwaltete Skalierung jetzt Spark Shuffle Data (Daten, die Spark partitionsübergreifend verteilt, um bestimmte Operationen auszuführen). Weitere Informationen zu Shuffle-Vorgängen finden Sie unter [Nutzung von Managed Scaling in Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) im *Verwaltungshandbuch für Amazon EMR* und [Spark-Programmierungs-Handbuch](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ Ab Amazon EMR 5.32.0 und 6.5.0 ist die dynamische Executor-Größenanpassung für Apache Spark standardmäßig aktiviert. Sie können dieses Feature ein- oder ausschalten, indem Sie den Konfigurationsparameter `spark.yarn.heterogeneousExecutors.enabled` verwenden.
+ Support für das offene Tabellenformat von Apache Iceberg für riesige analytische Datensätze.
+ Support für ranger-trino-plugin 2.0.1-amzn-1
+ Support für toree 0.5.0

**Änderungen, Verbesserungen und behobene Probleme**
+ Die Release-Version von Amazon EMR 6.5 unterstützt jetzt Apache Iceberg 0.12.0 und bietet Laufzeitverbesserungen mit Amazon-EMR-Laufzeit für Apache Spark, Amazon-EMR-Laufzeit für Presto und Amazon-EMR-Laufzeit für Apache Hive.
+ [Apache Iceberg](https://iceberg.apache.org/) ist ein offenes Tabellenformat für große Datensätze in Amazon S3 und bietet schnelle Abfrageleistung bei großen Tabellen, atomare Commits, gleichzeitige Schreibvorgänge und eine SQL-kompatible Tabellenentwicklung. Mit EMR 6.5 können Sie Apache Spark 3.1.2 mit dem Iceberg-Tabellenformat verwenden.
+ Apache Hudi 0.9 fügt Spark SQL DDL- und DML-Unterstützung hinzu. Auf diese Weise können Sie Hudi-Tabellen nur mit SQL-Anweisungen erstellen und ändern. Apache Hudi 0.9 beinhaltet auch Leistungsverbesserungen auf der Abfrageseite und auf der Writer-Seite.
+ Amazon-EMR-Laufzeit für Apache Hive verbessert die Leistung von Apache Hive auf Amazon S3, indem Umbenennungsvorgänge bei Staging-Vorgängen entfernt werden, und verbessert die Leistung von Metastore Check (MSCK)-Befehlen, die zur Reparatur von Tabellen verwendet werden.

**Bekannte Probleme**
+ Wenn Amazon-EMR-Version 6.5.0, 6.6.0 oder 6.7.0 Apache Phoenix-Tabellen über die Apache Spark-Shell liest, tritt `NoSuchMethodError` ein, weil Amazon EMR ein falsches `Hbase.compat.version` verwendet. Amazon EMR Version 6.8.0 behebt dieses Problem.
+ Hbase-Bundle-Cluster mit hoher Verfügbarkeit (HA) können nicht mit der Standard-Volume-Größe und dem Instance-Typ bereitgestellt werden. Dieses Problem lässt sich umgehen, indem Sie die Größe des Root-Volumes erhöhen.
+ Um Spark-Aktionen mit Apache Oozie zu verwenden, müssen Sie Ihrer Oozie-`workflow.xml`-Datei die folgende Konfiguration hinzufügen. Andernfalls fehlen mehrere wichtige Bibliotheken wie Hadoop und EMRFS im Klassenpfad der Spark-Executoren, die Oozie startet.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 6.5.0 Komponentenversionen
<a name="emr-650-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.4.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.19.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.1.0 | EMR S3Select-Konnektor | 
| emrfs | 2,48,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.14.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.14.0 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-5 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-5 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-5 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-5 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-5 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-5 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-5 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-5 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-5 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-5 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-5 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.4-amzn-1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.4-amzn-1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.4-amzn-1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.4-amzn-1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.4-amzn-1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 3.1.2-amzn-6 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.2-amzn-6 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.2-amzn-6 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.2-amzn-6 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.2-amzn-6 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-6 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.2-amzn-6 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.9.0-amzn-1 | Inkrementelles Verarbeitungs-Framework zur Versorgung der Datenpipline mit geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.9.0-amzn-1 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.9.0-amzn-1 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.9.0-amzn-1 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.9.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| iceberg | 0.12.0 | Apache Iceberg ist ein offenes Tabellenformat für sehr große analytische Datensätze | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.8.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 10.1,243 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 5.1.2 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.261-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.261-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.261-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 360 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 360 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 360 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.1.2-amzn-1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.1.2-amzn-1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.1.2-amzn-1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.1.2-amzn-1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 0.4.1 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.4.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.10.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.7 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.7 | ZooKeeper Befehlszeilen-Client. | 

## 6.5.0 Konfigurationsklassifizierungen
<a name="emr-650-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.5.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| iceberg-defaults | Ändern Sie die Werte in der iceberg-defaults.conf-Datei von Iceberg. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 6.4.0
<a name="emr-640-release"></a>

## 6.4.0 Anwendungsversionen
<a name="emr-640-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.31 | 1.11.977 | 1,11,977 | 1.11.880 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 
| HCatalog | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 
| Hadoop | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 
| Hive | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 
| Hudi | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 
| Livy | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 
| Phoenix | 5.1.2 | 5.0.0- -2.0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 
| Spark | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 359 | 350 | 350 | 343 | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0-Vorschau1 | 
| ZooKeeper | 3,5.7 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.4.0 Versionshinweise
<a name="emr-640-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.4.0. Änderungen beziehen sich auf Version 6.3.0.

Erste Version: 20. September 2021

Aktualisiertes Veröffentlichungsdatum: 21. März 2022

**Unterstützte Anwendungen**
+ AWS SDK für Java Ausführung 1.12.31
+ CloudWatch Version 2.2.0 senken
+ Version 4.16.0 von EMR DynamoDB Connector
+ EMRFS-Version 2.47.0
+ Version 3.2.0 von Amazon EMR Goodies
+ Version 3.5.0 von Amazon EMR Kinesis Connector
+ Amazon-EMR-Aufzeichnungsserver Version 2.1.0
+ Version 2.5.0 von Amazon EMR Skripts
+ Flink, Version 1.13.1
+ Ganglia Version 3.7.2
+ AWS Glue Hive Metastore Client Version 3.3.0
+ Hadoop Version 3.2.1-amzn-4
+ HBase Ausführung 2.4.4-amzn-0
+ HBase-operator-tools 1.1.0
+ HCatalog Ausführung 3.1.2-amzn-5
+ Hive Version 3.1.2-amzn-5
+ Hudi Version 0.8.0-amzn-0
+ Hue Version 4.9.0
+ Java JDK-Version Corretto-8.302.08.1 (Build 1.8.0\$1302-b08)
+ JupyterHub Ausführung 1.4.1
+ Livy Version 0.7.1-incubating
+ MXNet Ausführung 1.8.0
+ Oozie-Version 5.2.1
+ Phoenix Version 5.1.2
+ Pig Version 0.17.0
+ Presto Version 0.254.1-amzn-0
+ Trino Version 359
+ Version 2.0.0 von Apache Ranger KMS (transparente Multi-Master-Verschlüsselung)
+ Ranger-Plugins 2.0.1-amzn-0
+ Ranger-S3-Plugin 1.2.0
+ SageMaker Spark SDK, Version 1.4.1
+ Scala-Version 2.12.10 (OpenJDK 64-Bit-Server-VM, Java 1.8.0\$1282)
+ Spark Version 3.1.2-amzn-0
+ Spark-Rapids 0.4.1
+ Sqoop-Version 1.4.7
+ TensorFlow Ausführung 2.4.1
+ Tez-Version 0.9.2
+ Zeppelin-Version 0.9.0
+ Zookeeper Version 3.5.7
+ Konnektoren und Treiber: DynamoDB Connector 4.16.0

**Neue Features**
+ **[Verwaltete Skalierung] Spark Shuffle Data Managed Scaling Optimization** – Für Amazon-EMR-Versionen 5.34.0 und höher sowie EMR-Versionen 6.4.0 und höher unterstützt verwaltete Skalierung jetzt Spark Shuffle Data (Daten, die Spark partitionsübergreifend verteilt, um bestimmte Operationen auszuführen). Weitere Informationen zu Shuffle-Vorgängen finden Sie unter [Nutzung von Managed Scaling in Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) im *Verwaltungshandbuch für Amazon EMR* und [Spark-Programmierungs-Handbuch](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ Auf Apache-Ranger-fähigen Amazon-EMR-Clustern können Sie Apache Spark SQL verwenden, um Daten mit, `INSERT INTO`, `INSERT OVERWRITE` und `ALTER TABLE` in die Apache-Hive-Metastore-Tabellen einzufügen oder diese zu aktualisieren. Wenn Sie ALTER TABLE mit Spark SQL verwenden, muss ein Partitionsspeicherort das untergeordnete Verzeichnis eines Tabellenspeicherorts sein. Amazon EMR unterstützt derzeit nicht das Einfügen von Daten in eine Partition, deren Partitionsspeicherort sich von der Tabellenposition unterscheidet.
+ PrestoSQL wurde [in Trino umbenannt](https://trino.io/blog/2020/12/27/announcing-trino.html). 
+ Hive: Die Ausführung einfacher SELECT-Abfragen mit LIMIT-Klausel wird beschleunigt, indem die Abfrageausführung gestoppt wird, sobald die in der LIMIT-Klausel angegebene Anzahl von Datensätzen abgerufen wurde. Einfache SELECT-Abfragen sind Abfragen ohne GROUP BY/ORDER BY-Klausel oder Abfragen ohne Reducer-Stage. Beispiel, `SELECT * from <TABLE> WHERE <Condition> LIMIT <Number>`. 

**Hudi-Parallelitätskontrolle**
+ Hudi unterstützt jetzt Optimistic Concurrency Control (OCC – Optimistische Parallelitätskontrolle), die mit Schreiboperationen wie UPSERT und INSERT genutzt werden kann, um Änderungen von mehreren Autoren an derselben Hudi-Tabelle zu ermöglichen. Dies ist OCC auf Dateiebene, sodass zwei beliebige Commits (oder Writer) in dieselbe Tabelle schreiben können, sofern ihre Änderungen nicht kollidieren. Weitere Informationen finden Sie unter [Hudi-Parallelitätskontrolle.](https://hudi.apache.org/docs/concurrency_control/). 
+ Auf Amazon-EMR-Clustern ist Zookeeper installiert, der als Sperranbieter für OCC genutzt werden kann. Um die Verwendung dieses Features zu vereinfachen, sind in Amazon-EMR-Clustern die folgenden Eigenschaften vorkonfiguriert:

  ```
  hoodie.write.lock.provider=org.apache.hudi.client.transaction.lock.ZookeeperBasedLockProvider
  hoodie.write.lock.zookeeper.url=<EMR Zookeeper URL>
  hoodie.write.lock.zookeeper.port=<EMR Zookeeper Port>
  hoodie.write.lock.zookeeper.base_path=/hudi
  ```

  Um OCC zu aktivieren, müssen Sie die folgenden Eigenschaften entweder mit ihren Hudi-Auftragsoptionen oder auf Cluster-Ebene mithilfe der Amazon-EMR-Konfigurations-API konfigurieren:

  ```
  hoodie.write.concurrency.mode=optimistic_concurrency_control
  hoodie.cleaner.policy.failed.writes=LAZY (Performs cleaning of failed writes lazily instead of inline with every write)
  hoodie.write.lock.zookeeper.lock_key=<Key to uniquely identify the Hudi table> (Table Name is a good option)
  ```

**Hudi Monitoring: CloudWatch Amazon-Integration zur Berichterstattung über Hudi-Metriken**
+ Amazon EMR unterstützt die Veröffentlichung von Hudi Metrics auf Amazon. CloudWatch Es wird aktiviert, indem die folgenden erforderlichen Konfigurationen festgelegt werden:

  ```
  hoodie.metrics.on=true
  hoodie.metrics.reporter.type=CLOUDWATCH
  ```
+ Im Folgenden finden Sie optionale Hudi-Konfigurationen, die Sie ändern können:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/emr/latest/ReleaseGuide/emr-640-release.html)

**Unterstützung und Verbesserungen für Amazon-EMR-Hudi-Konfigurationen**
+ Kunden können jetzt die EMR-Konfigurations-API und das Rekonfigurationsfeature nutzen, um Hudi-Konfigurationen auf Cluster-Ebene zu konfigurieren. In Anlehnung an andere Anwendungen wie Spark, Hive usw. wurde über/etc/hudi/conf/hudi-defaults.conf eine neue dateibasierte Konfigurationsunterstützung eingeführt. EMR konfiguriert einige Standardwerte, um die Benutzererfahrung zu verbessern:

  – `hoodie.datasource.hive_sync.jdbcurl ` ist für die Cluster-Hive-Server-URL konfiguriert und muss nicht mehr angegeben werden. Dies ist besonders nützlich, wenn Sie einen Auftrag im Spark-Cluster-Modus ausführen, wo Sie zuvor die Amazon-EMR-Master-IP angeben mussten. 

  — HBase spezifische Konfigurationen, die für die Verwendung des Index mit Hudi nützlich sind. HBase 

  – Spezifische Konfiguration des Zookeeper-Sperranbieters, wie unter Parallelitätskontrolle beschrieben, was die Verwendung von Optimistischer Parallelitätskontrolle (OCC) erleichtert.
+ Zusätzliche Änderungen wurden eingeführt, um die Anzahl der Konfigurationen zu reduzieren, die Sie bestehen müssen, und um nach Möglichkeit automatische Schlüsse zu ziehen:

  – Das `partitionBy `-Schlüsselwort kann verwendet werden, um die Partitionsspalte zu spezifizieren. 

  – Bei der Aktivierung von Hive Sync ist es nicht mehr erforderlich, den Vorgang `HIVE_TABLE_OPT_KEY, HIVE_PARTITION_FIELDS_OPT_KEY, HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY` zu bestehen. Diese Werte können aus dem Hudi-Tabellennamen und dem Partitionsfeld abgeleitet werden. 

  – `KEYGENERATOR_CLASS_OPT_KEY` ist nicht zwingend erforderlich und kann aus einfacheren Fällen von `SimpleKeyGenerator` und `ComplexKeyGenerator` abgeleitet werden. 

**Vorbehalte von Hudi**
+ Hudi unterstützt keine vektorisierte Ausführung in Hive für Merge on Read (MoR)- und Bootstrap-Tabellen. So schlägt beispielsweise `count(*)` mit der Hudi-Echtzeittabelle fehl, wenn `hive.vectorized.execution.enabled` auf „wahr“ gesetzt ist. Um das Problem zu umgehen, können Sie das vektorisierte Lesen deaktivieren, indem Sie `hive.vectorized.execution.enabled` auf `false` setzen. 
+ Die Multi-Writer-Unterstützung ist nicht mit dem Hudi-Bootstrap-Feature kompatibel.
+ Flink Streamer und Flink SQL sind experimentelle Features in dieser Version. Diese Features werden nicht zur Verwendung in Produktionsbereitstellungen empfohlen.

**Änderungen, Verbesserungen und behobene Probleme**

Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.
+ Zuvor führte ein manueller Neustart des Ressourcenmanagers auf einem Multi-Master-Cluster dazu, dass Amazon-EMR-Cluster-Daemons wie Zookeeper alle zuvor stillgelegten oder verlorenen Knoten in der Zookeeper znode-Datei neu geladen haben. Dies führte dazu, dass die Standardgrenzwerte in bestimmten Situationen überschritten wurden. Amazon EMR entfernt jetzt die außer Betrieb genommenen oder verlorenen Knotendatensätze, die älter als eine Stunde sind, aus der Zookeeper-Datei, und die internen Grenzwerte wurden erhöht.
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ **Konfigurieren eines Clusters zur Behebung von Leistungsproblemen mit Apache YARN Timeline Server Version 1 und 1.5**

  Apache YARN Timeline Server Version 1 und 1.5 können bei sehr aktiven, großen EMR-Clustern zu Leistungsproblemen führen, insbesondere bei `yarn.resourcemanager.system-metrics-publisher.enabled=true`, was die Standardeinstellung in Amazon EMR ist. Ein Open-Source-YARN-Timeline-Server v2 löst das Leistungsproblem im Zusammenhang mit der Skalierbarkeit des YARN Timeline Servers.

  Weitere Lösungen für dieses Problem umfassen:
  + Konfiguration von yarn.resourcemanager. system-metrics-publisher.enabled=false in yarn-site.xml.
  + Aktivieren des Fixes für dieses Problem beim Erstellen eines Clusters, wie unten beschrieben.

  Die folgenden Amazon-EMR-Versionen enthalten eine Lösung für dieses Leistungsproblem mit YARN Timeline Server.

  EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x

  Um den Fix für eine der oben angegebenen Amazon-EMR-Versionen zu aktivieren, legen Sie diese Eigenschaften `true` in einer JSON-Konfigurationsdatei fest, die mit dem [`aws emr create-cluster`-Befehlsparameter](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html) `--configurations file://./configurations.json` übergeben wird. Oder aktivieren Sie den Fix über die Benutzeroberfläche der [Rekonfigurationskonsole](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html).

  Beispiel für den Inhalt der Datei configurations.json:

  ```
  [
  {
  "Classification": "yarn-site",
  "Properties": {
  "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true",
  "yarn.resourcemanager.system-metrics-publisher.enabled": "true"
  },
  "Configurations": []
  }
  ]
  ```
+ WebHDFS- und HttpFS-Server werden standardmäßig deaktiviert. Sie können WebHDFS mithilfe der Hadoop-Konfiguration `dfs.webhdfs.enabled` erneut aktivieren. Der HttpFS-Server kann mit `sudo systemctl start hadoop-httpfs` gestartet werden.
+ HTTPS ist jetzt standardmäßig für Amazon-Linux-Repositorys aktiviert. Wenn Sie eine Amazon-S3-VPCE-Richtlinie verwenden, um den Zugriff auf bestimmte Buckets zu beschränken, müssen Sie den neuen Amazon-Linux-Bucket-ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` zu Ihrer Richtlinie hinzufügen (ersetzen Sie `$region` durch die Region, in der sich der Endpunkt befindet). Weitere Informationen finden Sie unter diesem Thema in den Diskussionsforen. AWS [Ankündigung: Amazon Linux 2 unterstützt jetzt die Möglichkeit, HTTPS zu verwenden, wenn eine Verbindung zu Paket-Repositorys](https://forums.aws.amazon.com/ann.jspa?annID=8528) hergestellt wird. 
+ Hive: Die Leistung bei Schreibabfragen wurde verbessert, indem die Verwendung eines Scratch-Verzeichnisses auf HDFS für den letzten JAuftrag aktiviert wurde. Die temporären Daten für den endgültigen Auftrag werden in HDFS statt in Amazon S3 geschrieben, und die Leistung wurde verbessert, da die Daten von HDFS an den endgültigen Tabellenort (Amazon S3) und nicht zwischen Amazon-S3-Geräten verschoben werden.
+ Hive: Verbesserung der Kompilierungszeit von Abfragen um das 2,5-fache mit Glue Metastore Partition Pruning.
+ Wenn Built-In von Hive an den Hive Metastore Server übergeben UDFs werden, wird standardmäßig nur ein Teil der UDFs Built-In an den Glue Metastore übergeben, da Glue nur begrenzte Ausdrucksoperatoren unterstützt. Wenn Sie `hive.glue.partition.pruning.client=true` festlegen, erfolgt das gesamte Partitionsbereinigen auf der Clientseite. Wenn Sie `hive.glue.partition.pruning.server=true` festlegen, erfolgt das gesamte Bereinigen von Partitionen auf der Serverseite. 

**Bekannte Probleme**
+ Hue-Abfragen funktionieren in Amazon EMR 6.4.0 nicht, da der Apache-Hadoop-HttpFS-Server standardmäßig deaktiviert ist. Um Hue auf Amazon EMR 6.4.0 zu verwenden, starten Sie den HttpFS-Server auf dem Amazon-EMR-Primärknoten entweder manuell mithilfe von `sudo systemctl start hadoop-httpfs` oder [verwenden Sie einen Amazon-EMR-Schritt.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html)
+ Das Amazon-EMR-Notebooks-Feature, das mit dem Livy-Benutzerwechsel verwendet wird, funktioniert nicht, da HttpFS standardmäßig deaktiviert ist. In diesem Fall kann das EMR Notebook keine Verbindung zu dem Cluster herstellen, für den Livy-Identitätswechsel aktiviert ist. Die Problemumgehung besteht darin, den HttpFS-Server zu starten, bevor Sie das EMR-Notebook mit dem Cluster `sudo systemctl start hadoop-httpfs` verbinden.
+ In Amazon-EMR-Version 6.4.0 unterstützt Phoenix die Komponente Phoenix-Konnektoren nicht.
+ Um Spark-Aktionen mit Apache Oozie zu verwenden, müssen Sie Ihrer Oozie-`workflow.xml`-Datei die folgende Konfiguration hinzufügen. Andernfalls fehlen mehrere wichtige Bibliotheken wie Hadoop und EMRFS im Klassenpfad der Spark-Executoren, die Oozie startet.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 6.4.0 Komponentenversionen
<a name="emr-640-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.3.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.18.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.1.0 | EMR S3Select-Konnektor | 
| emrfs | 2,47,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.13.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.13.1 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-4 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-4 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-4 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-4 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-4 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-4 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-4 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-4 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-4 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-4 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-4 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.4.4-amzn-0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.4.4-amzn-0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.4.4-amzn-0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.4.4-amzn-0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.4.4-amzn-0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 3.1.2-amzn-5 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.2-amzn-5 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.2-amzn-5 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.2-amzn-5 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.2-amzn-5 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-5 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.2-amzn-5 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.8.0-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.8.0-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-trino | 0.8.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Trino mit Hudi. | 
| hudi-spark | 0.8.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.9.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.4.1 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.1-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.8.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 10.1,243 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.1.2 | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 5.1.2 | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.254.1-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.254.1-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.254.1-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| trino-coordinator | 359 | Service zur Annahme von Abfragen und Verwaltung der Abfrageausführung der Trino-Worker. | 
| trino-worker | 359 | Service für das Ausführen von Teilen einer Abfrage. | 
| trino-client | 359 | Trino-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Trino-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4,0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.1.2-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.1.2-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.1.2-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.1.2-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 0.4.1 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.4.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.9.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.5.7 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.5.7 | ZooKeeper Befehlszeilen-Client. | 

## 6.4.0 Konfigurationsklassifizierungen
<a name="emr-640-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.4.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| hudi-defaults | Ändern Sie die Werte in der hudi-defaults.conf-Datei in Hudi. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| trino-log | Ändern Sie die Werte in der log.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Ändern Sie die Werte in der config.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Ändern Sie die Werte in der Trino-Datei password-authenticator.properties. | Restarts Trino-Server (for Trino) | 
| trino-env | Ändern Sie die Werte in der trino-env.sh-Datei von Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Ändern Sie die Werte in der node.properties-Datei in Trino. | Not available. | 
| trino-connector-blackhole | Ändern Sie die Werte in der blackhole.properties-Datei in Trino. | Not available. | 
| trino-connector-cassandra | Ändern Sie die Werte in der cassandra.properties-Datei in Trino. | Not available. | 
| trino-connector-hive | Ändern Sie die Werte in der hive.properties-Datei in Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Ändern Sie die Werte in der jmx.properties-Datei in Trino. | Not available. | 
| trino-connector-kafka | Ändern Sie die Werte in der kafka.properties-Datei in Trino. | Not available. | 
| trino-connector-localfile | Ändern Sie die Werte in der localfile.properties-Datei in Trino. | Not available. | 
| trino-connector-memory | Ändern Sie die Werte in der memory.properties-Datei in Trino. | Not available. | 
| trino-connector-mongodb | Ändern Sie die Werte in der mongodb.properties-Datei in Trino. | Not available. | 
| trino-connector-mysql | Ändern Sie die Werte in der mysql.properties-Datei in Trino. | Not available. | 
| trino-connector-postgresql | Ändern Sie die Werte in der postgresql.properties-Datei in Trino. | Not available. | 
| trino-connector-raptor | Ändern Sie die Werte in der raptor.properties-Datei in Trino. | Not available. | 
| trino-connector-redis | Ändern Sie die Werte in der redis.properties-Datei in Trino. | Not available. | 
| trino-connector-redshift | Ändern Sie die Werte in der redshift.properties-Datei in Trino. | Not available. | 
| trino-connector-tpch | Ändern Sie die Werte in der tpch.properties-Datei in Trino. | Not available. | 
| trino-connector-tpcds | Ändern Sie die Werte in der tpcds.properties-Datei in Trino. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 6.3.1
<a name="emr-631-release"></a>

## 6.3.1 Anwendungsversionen
<a name="emr-631-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.977 | 1,11,977 | 1.11.880 | 1.11.880 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 
| HCatalog | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 
| Hadoop | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 
| Hive | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 
| Hudi | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 
| Hue | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 
| Spark | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 350 | 350 | 343 | 343 | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.3.1 Versionshinweise
<a name="emr-631-relnotes"></a>

Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.

**Änderungen, Verbesserungen und behobene Probleme**
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ HTTPS ist jetzt standardmäßig für Amazon-Linux-Repositorys aktiviert. Wenn Sie eine Amazon-S3-VPCE-Richtlinie verwenden, um den Zugriff auf bestimmte Buckets zu beschränken, müssen Sie den neuen Amazon-Linux-Bucket-ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` zu Ihrer Richtlinie hinzufügen (ersetzen Sie `$region` durch die Region, in der sich der Endpunkt befindet). Weitere Informationen finden Sie unter diesem Thema in den Diskussionsforen. AWS [Ankündigung: Amazon Linux 2 unterstützt jetzt die Möglichkeit, HTTPS zu verwenden, wenn eine Verbindung zu Paket-Repositorys](https://forums.aws.amazon.com/ann.jspa?annID=8528) hergestellt wird. 

**Bekannte Probleme**
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 6.3.1 Komponentenversionen
<a name="emr-631-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.2.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.18.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.1.0 | EMR S3Select-Konnektor | 
| emrfs | 2,46,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.12.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.12.1 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-3.1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-3.1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-3.1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-3.1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-3.1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-3.1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-3.1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-3.1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-3.1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-3.1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-3.1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.2.6-amzn-1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.2.6-amzn-1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.2.6-amzn-1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.2.6-amzn-1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.2.6-amzn-1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 3.1.2-amzn-4 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.2-amzn-4 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.2-amzn-4 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.2-amzn-4 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.2-amzn-4 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-4 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.2-amzn-4 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.7.0-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.7.0-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-prestosql | 0.7.0-amzn-0 | Bündel-Bibliothek zum Ausführen von PrestoSQL mit Hudi. | 
| hudi-spark | 0.7.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.9.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.2.2 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.7.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 10.1,243 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2.0 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.245.1-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.245.1-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.245.1-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| prestosql-coordinator | 350 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Prestosql-Worker. | 
| prestosql-worker | 350 | Service für das Ausführen von Teilen einer Abfrage. | 
| prestosql-client | 350 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.1.1-amzn-0.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.1.1-amzn-0.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.1.1-amzn-0.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.1.1-amzn-0.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 0.4.1 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.4.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.9.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 6.3.1 Konfigurationsklassifizierungen
<a name="emr-631-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.3.1-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| prestosql-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Ändern Sie die Werte in PrestoSQLs node.properties-Datei. | Not available. | 
| prestosql-connector-blackhole | Ändern Sie die Werte in PrestoSQLs blackhole.properties-Datei. | Not available. | 
| prestosql-connector-cassandra | Ändern Sie die Werte in PrestoSQLs cassandra.properties-Datei. | Not available. | 
| prestosql-connector-hive | Ändern Sie die Werte in PrestoSQLs hive.properties-Datei. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Ändern Sie die Werte in PrestoSQLs jmx.properties-Datei. | Not available. | 
| prestosql-connector-kafka | Ändern Sie die Werte in PrestoSQLs kafka.properties-Datei. | Not available. | 
| prestosql-connector-localfile | Ändern Sie die Werte in PrestoSQLs localfile.properties-Datei. | Not available. | 
| prestosql-connector-memory | Ändern Sie die Werte in PrestoSQLs memory.properties-Datei in Presto. | Not available. | 
| prestosql-connector-mongodb | Ändern Sie die Werte in PrestoSQLs mongod.properties-Datei in Presto. | Not available. | 
| prestosql-connector-mysql | Ändern Sie die Werte in PrestoSQLs mysql.properties-Datei. | Not available. | 
| prestosql-connector-postgresql | Ändern Sie die Werte in PrestoSQLs postgresql.properties-Datei. | Not available. | 
| prestosql-connector-raptor | Ändern Sie die Werte in PrestoSQLs raptor.properties-Datei. | Not available. | 
| prestosql-connector-redis | Ändern Sie die Werte in PrestoSQLs redis.properties-Datei. | Not available. | 
| prestosql-connector-redshift | Ändern Sie die Werte in PrestoSQLs redshift.properties-Datei. | Not available. | 
| prestosql-connector-tpch | Ändern Sie die Werte in PrestoSQLs tpch.properties-Datei. | Not available. | 
| prestosql-connector-tpcds | Ändern Sie die Werte in PrestoSQLs tpcds.properties-Datei. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 6.3.0
<a name="emr-630-release"></a>

## 6.3.0 Anwendungsversionen
<a name="emr-630-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.977 | 1.11.880 | 1.11.880 | 1.11.828 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 
| HCatalog | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 
| Hadoop | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 
| Hive | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 
| Hudi | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 
| Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 |  -  | 
| JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 
| Spark | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 350 | 343 | 343 | 338 | 
| Zeppelin | 0.9.0 | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.3.0 Versionshinweise
<a name="emr-630-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.3.0. Änderungen beziehen sich auf Version 6.2.0.

Erste Version: 12. Mai 2021

Letzte Aktualisierung: 9. August 2021

**Unterstützte Anwendungen**
+ AWS SDK für Java Ausführung 1.11.977
+ CloudWatch Version 2.1.0 senken
+ Version 4.16.0 von EMR DynamoDB Connector
+ EMRFS-Version 2.46.0
+ Version 3.2.0 von Amazon EMR Goodies
+ Version 3.5.0 von Amazon EMR Kinesis Connector
+ Version 2.0.0 von Amazon EMR Record Server
+ Version 2.5.0 von Amazon EMR Skripts
+ Flink-Version 1.12.1
+ Ganglia Version 3.7.2
+ AWS Glue Hive Metastore Client Version 3.2.0
+ Hadoop-Version 3.2.1-amzn-3
+ HBase Ausführung 2.2.6-amzn-1
+ HBase-operator-tools 1.0.0
+ HCatalog Ausführung 3.1.2-amzn-0
+ Hive-Version 3.1.2-amzn-4
+ Hudi-Version 0.7.0-amzn-0
+ Hue Version 4.9.0
+ Java-JDK-Version Corretto-8.282.08.1 (Build 1.8.0\$1282-b08)
+ JupyterHub Ausführung 1.2.0
+ Livy-Version 0.7.0-incubating
+ MXNet Ausführung 1.7.0
+ Oozie-Version 5.2.1
+ Phoenix Version 5.0.0
+ Pig Version 0.17.0
+ Presto-Version 0.245.1-amzn-0
+ PrestoSQL-Version 350
+ Version 2.0.0 von Apache Ranger KMS (transparente Multi-Master-Verschlüsselung)
+ Ranger-Plugins 2.0.1-amzn-0
+ Ranger-S3-Plugin 1.1.0
+ SageMaker Spark SDK, Version 1.4.1
+ Scala-Version 2.12.10 (OpenJDK 64-Bit-Server-VM, Java 1.8.0\$1282)
+ Spark-Version 3.1.1-amzn-0
+ Spark-Rapids 0.4.1
+ Sqoop-Version 1.4.7
+ TensorFlow Ausführung 2.4.1
+ Tez-Version 0.9.2
+ Zeppelin-Version 0.9.0
+ Zookeeper Version 3.4.14
+ Konnektoren und Treiber: DynamoDB Connector 4.16.0

**Neue Features**
+ Amazon EMR unterstützt Amazon S3 Access Points, ein Feature von Amazon S3, mit dem Sie den Zugriff auf gemeinsam genutzte Data Lakes einfach verwalten können. Mit Ihrem Alias von Amazon S3 Access Point können Sie Ihren Datenzugriff auf Amazon EMR in großem Umfang vereinfachen. Sie können Amazon S3 Access Points mit allen Versionen von Amazon EMR ohne zusätzliche Kosten in allen AWS Regionen verwenden, in denen Amazon EMR verfügbar ist. Weitere Informationen zu Amazon S3 Access Points und Zugangspunkt-Aliassen finden Sie unter [Verwenden eines Alias im Bucket-Stil für Ihren Zugangspunkt](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-alias.html) im *Amazon-S3-Benutzerhandbuch*.
+ Neue `DescribeReleaseLabel` und `ListReleaseLabel` API-Parameter bieten Details zum Amazon-EMR-Release-Label. Sie können programmgesteuert Versionen auflisten, die in der Region verfügbar sind, in der die API-Anfrage ausgeführt wird, und die verfügbaren Anwendungen für ein bestimmtes Amazon-EMR-Release-Label auflisten. In den Release-Label-Parametern sind auch Amazon-EMR-Versionen aufgeführt, die eine bestimmte Anwendung unterstützen, z. B. Spark. Diese Informationen können verwendet werden, um Amazon-EMR-Cluster programmgesteuert zu starten. Sie können beispielsweise einen Cluster mit der neuesten Release-Version aus den `ListReleaseLabel`-Ergebnissen starten. Weitere Informationen finden Sie unter [DescribeReleaseLabel](https://docs.aws.amazon.com/emr/latest/APIReference/API_DescribeReleaseLabel.html)und [ListReleaseLabels](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html)in der *Amazon EMR API-Referenz.*
+ Mit Amazon EMR 6.3.0 können Sie einen Cluster starten, der nativ in Apache Ranger integriert ist. Apache Ranger ist ein Open-Source-Framework zur Aktivierung, Überwachung und Verwaltung einer umfassenden Datensicherheit auf der gesamten Hadoop-Plattform. Weitere Informationen finden Sie unter [Apache Ranger](https://ranger.apache.org/). Dank der nativen Integration können Sie Ihren eigenen Apache Ranger verwenden, um eine detaillierte Datenzugriffskontrolle auf Amazon EMR durchzusetzen. Weitere Informationen [finden Sie unter Amazon EMR mit Apache Ranger](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger.html) im Verwaltungshandbuch für Amazon EMR.
+ Verwaltete Richtlinien mit Geltungsbereich: Um den AWS bewährten Methoden zu entsprechen, hat Amazon EMR verwaltete Standardrichtlinien mit EMR-Geltungsbereich der Version v2 eingeführt, die als Ersatz für Richtlinien dienen, die nicht mehr unterstützt werden. Weitere Informationen finden Sie unter [Verwaltete Richtlinien von Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html).
+ Support-Status für Instance Metadata Service (IMDS) V2: Für Amazon EMR 6.2 oder höher werden Amazon EMR-Komponenten IMDSv2 für alle IMDS-Aufrufe verwendet. Für IMDS-Aufrufe in Ihrem Anwendungscode können Sie sowohl als auch IMDSv1 verwenden oder das IMDS so konfigurieren IMDSv2, dass es nur aus Sicherheitsgründen verwendet wird. IMDSv2 Wenn Sie die Option IMDSv1 in früheren Versionen von Amazon EMR 6.x deaktivieren, führt dies zu einem Cluster-Startfehler.

**Änderungen, Verbesserungen und behobene Probleme**
+ Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ Der Erklärungsmodus der Spark-SQL-Benutzeroberfläche wurde in [Spark 3.1](https://issues.apache.org/jira/browse/SPARK-31325) von `extended` auf `formatted` geändert. Amazon EMR hat ihn wieder auf `extended` zurückgesetzt, um logische Planinformationen in die Spark-SQL-Benutzeroberfläche aufzunehmen. Dies kann durch Einstellen von `spark.sql.ui.explainMode` auf `formatted` rückgängig gemacht werden.
+ Die folgenden Commits wurden aus dem Spark-Master-Branch zurückportiert.

  – [[SPARK-34752] [BUILD]](https://issues.apache.org/jira/browse/SPARK-34752) Bump Jetty auf 9.4.37, um CVE-2020-27223 zu adressieren.

  - [[SPARK-34534]](https://issues.apache.org/jira/browse/SPARK-34534) Die Reihenfolge der BlockIDs beim Abrufen von Blöcken wurde korrigiert. FetchShuffleBlocks 

  – [[SPARK-34681] [SQL]](https://issues.apache.org/jira/browse/SPARK-34681) Es wurde ein Fehler behoben, der beim Erstellen der linken Seite mit einer ungleichen Bedingung beim Erstellen einer linken Seite auftrat.

  – [[SPARK-34497] [SQL]](https://issues.apache.org/jira/browse/SPARK-34497) Korrigiert integrierte JDBC-Verbindungsanbieter, um Änderungen im JVM-Sicherheitskontext wiederherzustellen.
+ [Um die Interoperabilität mit dem Nvidia RAPIDs Spark-Plugin zu verbessern, wurde eine Problemumgehung hinzugefügt, um ein Problem zu beheben, das verhindert, dass dynamisches Partitionsbereinigen ausgelöst wird, wenn Nvidia Spark RAPIDs mit deaktivierter adaptiver Abfrageausführung verwendet wird. Weitere Informationen finden Sie unter RAPIDS-Problem \$11378 und [RAPIDS-Problem](https://github.com/NVIDIA/spark-rapids/issues/1378) Nr. \$11386.](https://github.com/NVIDIA/spark-rapids/issues/1386) Einzelheiten zur neuen `spark.sql.optimizer.dynamicPartitionPruning.enforceBroadcastReuse`-Konfiguration finden Sie in der [RAPIDS-Problem \$1\$11386.](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html#emr-spark-performance-dynamic)
+ Der Standardalgorithmus für den Dateiausgabe-Committer wurde in Open Source Spark 3.1 vom v2-Algorithmus auf den v1-Algorithmus geändert. Weitere Informationen finden Sie unter [Amazon EMR zur Optimierung der Spark-Leistung – dynamisches Bereinigen von Partitionen.](https://issues.apache.org/jira/browse/SPARK-33019)
+ Amazon EMR hat auf den v2-Algorithmus zurückgesetzt, den in früheren Amazon-EMR-6.x-Versionen verwendeten Standard, um eine Leistungsregression zu verhindern. Um das Open-Source-Verhalten von Spark 3.1 wiederherzustellen, setzen Sie `spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version` auf `1`. Open Source Spark hat diese Änderung vorgenommen, weil das Festschreiben von Aufgaben im Datei-Output-Committer-Algorithmus v2 nicht atomar ist, was in einigen Fällen zu Problemen mit der Korrektheit der Ausgabedaten führen kann. Das Festschreiben von Aufgaben im Algorithmus v1 ist jedoch auch nicht atomar. In einigen Szenarien beinhaltet die Aufgabenübergabe ein Löschen, das vor einer Umbenennung durchgeführt wird. Dies kann zu einem unbemerkten Problem mit der Datenkorrektheit führen.
+ Probleme bei der verwalteten Skalierung in früheren Amazon-EMR-Versionen wurden behoben und Verbesserungen vorgenommen, sodass die Ausfallraten von Anwendungen erheblich reduziert wurden.
+ Das AWS Java SDK-Bundle wurde auf jedem neuen Cluster installiert. Dies ist ein einzelnes JAR, das alle Dienste SDKs und ihre Abhängigkeiten enthält, anstatt einzelne Komponenten-Jars. Weitere Informationen finden Sie unter [Gebündelte Java SDK Abhängigkeit](https://aws.amazon.com/blogs/developer/java-sdk-bundle/)

**Bekannte Probleme**
+ Für private Subnetz-Cluster von Amazon EMR 6.3.0 und 6.2.0 können Sie nicht auf die Ganglia-Webbenutzeroberfläche zugreifen. Sie erhalten die Fehlermeldung „Zugriff verweigert (403)“. Andere Websites UIs wie Spark, Hue JupyterHub, Zeppelin, Livy und Tez funktionieren normal. Der Zugriff auf die Ganglia-Web-Benutzeroberfläche auf öffentlichen Subnetzclustern funktioniert ebenfalls normal. Um dieses Problem zu beheben, starten Sie den httpd-Service auf dem Primärknoten mit `sudo systemctl restart httpd` neu. Dieses Problem wurde in Amazon EMR 6.4.0 behoben.
+ Wenn der AWS Glue-Datenkatalog aktiviert ist, kann die Verwendung von Spark für den Zugriff auf eine AWS Glue-Datenbank mit einer Null-Ort-URI fehlschlagen. Dies passiert bei früheren Amazon EMR-Versionen, aber bei SPARK-31709 (https://issues.apache. org/jira/browse/SPARK-31709) macht es auf mehr Fälle anwendbar. Wenn Sie beispielsweise eine Tabelle in der AWS Standard-Glue-DB erstellen, deren Standort-URI eine Nullzeichenfolge ist, `spark.sql("CREATE TABLE mytest (key string) location '/table_path';")` schlägt dies mit der Meldung „Cannot create a Path from an empty string“ fehl. Um dies zu umgehen, legen Sie manuell einen Standort-URI Ihrer AWS Glue-Datenbanken fest und erstellen Sie dann mit Spark Tabellen innerhalb dieser Datenbanken.
+ In Amazon EMR 6.3.0 wurde PrestoSQL von Version 343 auf Version 350 aktualisiert. Es gibt zwei sicherheitsrelevante Änderungen von Open Source, die sich auf diese Versionsänderung beziehen. Die dateibasierte Katalogzugriffssteuerung wurde von `deny` zu `allow` geändert, wenn keine Regeln für Tabellen-, Schema- oder Sitzungseigenschaften definiert sind. Außerdem wurde die dateibasierte Systemzugriffskontrolle dahingehend geändert, dass sie Dateien unterstützt, für die keine Katalogregeln definiert sind. In diesem Fall ist der gesamte Zugriff auf Kataloge zulässig.

  Weitere Informationen finden Sie in [Version 344 (9. Oktober 2020)](https://trino.io/docs/current/release/release-344.html#security).
+ Beachten Sie, dass das Hadoop-Benutzerverzeichnis (/) home/hadoop) is readable by everyone. It has Unix 755 (drwxr-xr-x) directory permissions to allow read access by frameworks like Hive. You can put files in /home/hadoop und seine Unterverzeichnisse, aber achten Sie auf die Berechtigungen für diese Verzeichnisse, um vertrauliche Informationen zu schützen.
+ **Niedrigeres Limit für die maximale Anzahl geöffneter Dateien bei älteren Versionen AL2 [in neueren Versionen behoben].** Amazon EMR-Versionen: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 und emr-6.2.0 basieren auf älteren Versionen von Amazon Linux 2 (AL2), die eine niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ haben, wenn Amazon EMR-Cluster mit dem Standard-AMI erstellt werden. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“. Versionen mit einem niedrigeren Limit für geöffnete Dateien verursachen beim Senden des Spark-Jobs den Fehler „Zu viele offene Dateien“. In den betroffenen Versionen hat das Amazon-EMR-Standard-AMI eine Ulimit-Standardeinstellung von 4 096 für „Max. Anzahl geöffneter Dateien“, was unter dem Dateilimit von 65 536 im neuesten Amazon-Linux-2-AMI liegt. Die niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ führt dazu, dass der Spark-Job fehlschlägt, wenn der Spark-Treiber und der Executor versuchen, mehr als 4 096 Dateien zu öffnen. Um das Problem zu beheben, verfügt Amazon EMR über ein Bootstrap Action (BA)-Skript, das die Ulimit-Einstellung bei der Cluster-Erstellung anpasst. 

  Wenn Sie eine ältere Amazon-EMR-Version verwenden, für die dieses Problem nicht dauerhaft behoben ist, können Sie mit der folgenden Problemumgehung das Instance-Controller-Ulimit explizit auf maximal 65 536 Dateien festlegen.

**Explizit ein ulimit über die Befehlszeile setzen**

  1. Bearbeiten Sie `/etc/systemd/system/instance-controller.service`, um die folgenden Parameter zum Abschnitt Service hinzuzufügen.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Starten Sie neu InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Mithilfe der Bootstrap-Aktion (BA) ein Ulimit festlegen**

  Sie können auch ein Bootstrap-Aktionsskript (BA) verwenden, um das Ulimit für den Instance-Controller bei der Clustererstellung auf 65 536 Dateien zu konfigurieren.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Wichtig**  
EMR-Cluster, auf denen Amazon-Linux- oder Amazon-Linux-2-AMIs (Amazon Machine Images) ausgeführt werden, verwenden das Standardverhalten von Amazon Linux und laden wichtige und kritische Kernel-Updates, die einen Neustart erfordern, nicht automatisch herunter und installieren sie. Dies ist dasselbe Verhalten wie bei anderen Amazon-EC2-Instances, die das standardmäßige Amazon-Linux-AMI ausführen. Wenn neue Amazon-Linux-Softwareupdates, die einen Neustart erfordern (wie Kernel-, NVIDIA- und CUDA-Updates), nach der Veröffentlichung einer Amazon-EMR-Version verfügbar werden, laden EMR-Cluster-Instances, die das Standard-AMI ausführen, diese Updates nicht automatisch herunter und installieren sie. Um Kernel-Updates zu erhalten, können Sie [Ihr Amazon-EMR-AMI](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) so anpassen, dass es [das neueste Amazon-Linux-AMI verwendet](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ Um Spark-Aktionen mit Apache Oozie zu verwenden, müssen Sie Ihrer Oozie-`workflow.xml`-Datei die folgende Konfiguration hinzufügen. Andernfalls fehlen mehrere wichtige Bibliotheken wie Hadoop und EMRFS im Klassenpfad der Spark-Executoren, die Oozie startet.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 6.3.0 Komponentenversionen
<a name="emr-630-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.2.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.2.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.18.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.1.0 | EMR S3Select-Konnektor | 
| emrfs | 2,46,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.12.1 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.12.1 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-3 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-3 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-3 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-3 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-3 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-3 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-3 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-3 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-3 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-3 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-3 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.2.6-amzn-1 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.2.6-amzn-1 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.2.6-amzn-1 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.2.6-amzn-1 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.2.6-amzn-1 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 3.1.2-amzn-4 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.2-amzn-4 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.2-amzn-4 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.2-amzn-4 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.2-amzn-4 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-4 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.2-amzn-4 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.7.0-amzn-0 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.7.0-amzn-0 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-prestosql | 0.7.0-amzn-0 | Bündel-Bibliothek zum Ausführen von PrestoSQL mit Hudi. | 
| hudi-spark | 0.7.0-amzn-0 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.9.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.2.2 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.7.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.68\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 10.1,243 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.1 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.1 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.5.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2.0 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.245.1-amzn-0 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.245.1-amzn-0 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.245.1-amzn-0 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| prestosql-coordinator | 350 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Prestosql-Worker. | 
| prestosql-worker | 350 | Service für das Ausführen von Teilen einer Abfrage. | 
| prestosql-client | 350 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 4.0.2 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.1.1-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.1.1-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.1.1-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.1.1-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 0.4.1 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit. GPUs | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.4.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.9.0 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 6.3.0 Konfigurationsklassifizierungen
<a name="emr-630-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.3.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Restarts Flink history server. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| flink-log4j-session | Ändern Sie die Einstellungen von Flink log4j-session.properties für die Sitzung. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Restarts Flink history server. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| prestosql-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Ändern Sie die Werte in PrestoSQLs node.properties-Datei. | Not available. | 
| prestosql-connector-blackhole | Ändern Sie die Werte in PrestoSQLs blackhole.properties-Datei. | Not available. | 
| prestosql-connector-cassandra | Ändern Sie die Werte in PrestoSQLs cassandra.properties-Datei. | Not available. | 
| prestosql-connector-hive | Ändern Sie die Werte in PrestoSQLs hive.properties-Datei. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Ändern Sie die Werte in PrestoSQLs jmx.properties-Datei. | Not available. | 
| prestosql-connector-kafka | Ändern Sie die Werte in PrestoSQLs kafka.properties-Datei. | Not available. | 
| prestosql-connector-localfile | Ändern Sie die Werte in PrestoSQLs localfile.properties-Datei. | Not available. | 
| prestosql-connector-memory | Ändern Sie die Werte in PrestoSQLs memory.properties-Datei in Presto. | Not available. | 
| prestosql-connector-mongodb | Ändern Sie die Werte in PrestoSQLs mongod.properties-Datei in Presto. | Not available. | 
| prestosql-connector-mysql | Ändern Sie die Werte in PrestoSQLs mysql.properties-Datei. | Not available. | 
| prestosql-connector-postgresql | Ändern Sie die Werte in PrestoSQLs postgresql.properties-Datei. | Not available. | 
| prestosql-connector-raptor | Ändern Sie die Werte in PrestoSQLs raptor.properties-Datei. | Not available. | 
| prestosql-connector-redis | Ändern Sie die Werte in PrestoSQLs redis.properties-Datei. | Not available. | 
| prestosql-connector-redshift | Ändern Sie die Werte in PrestoSQLs redshift.properties-Datei. | Not available. | 
| prestosql-connector-tpch | Ändern Sie die Werte in PrestoSQLs tpch.properties-Datei. | Not available. | 
| prestosql-connector-tpcds | Ändern Sie die Werte in PrestoSQLs tpcds.properties-Datei. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zeppelin-site | Ändern Sie die Konfigurationseinstellungen in zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 6.2.1
<a name="emr-621-release"></a>

## 6.2.1 Anwendungsversionen
<a name="emr-621-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.880 | 1.11.880 | 1.11.828 | 1.11.828 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 
| HCatalog | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 
| Hadoop | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 
| Hive | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 
| Hudi | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 
| Hue | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 0.232 | 
| Spark | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 343 | 343 | 338 | 338 | 
| Zeppelin | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.2.1 Versionshinweise
<a name="emr-621-relnotes"></a>

Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.

**Änderungen, Verbesserungen und behobene Probleme**
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ HTTPS ist jetzt standardmäßig für Amazon-Linux-Repositorys aktiviert. Wenn Sie eine Amazon-S3-VPCE-Richtlinie verwenden, um den Zugriff auf bestimmte Buckets zu beschränken, müssen Sie den neuen Amazon-Linux-Bucket-ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` zu Ihrer Richtlinie hinzufügen (ersetzen Sie `$region` durch die Region, in der sich der Endpunkt befindet). Weitere Informationen finden Sie unter diesem Thema in den AWS Diskussionsforen. [Ankündigung: Amazon Linux 2 unterstützt jetzt die Möglichkeit, HTTPS zu verwenden, wenn eine Verbindung zu Paket-Repositorys](https://forums.aws.amazon.com/ann.jspa?annID=8528) hergestellt wird. 

**Bekannte Probleme**
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 6.2.1 Komponentenversionen
<a name="emr-621-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.1.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.0.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.16.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.0.0 | EMR S3Select-Konnektor | 
| emrfs | 2,44,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.11.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.11.2 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-2.1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-2.1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-2.1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-2.1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-2.1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-2.1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-2.1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-2.1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-2.1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-2.1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-2.1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.2.6-amzn-0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.2.6-amzn-0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.2.6-amzn-0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.2.6-amzn-0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.2.6-amzn-0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 3.1.2-amzn-3 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.2-amzn-3 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.2-amzn-3 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.2-amzn-3 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.2-amzn-3 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-3 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.2-amzn-3 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.6.0-amzn-1 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.6.0-amzn-1 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-prestosql | 0.6.0-amzn-1 | Bündel-Bibliothek zum Ausführen von PrestoSQL mit Hudi. | 
| hudi-spark | 0.6.0-amzn-1 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.8.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.1.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.7.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.64\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 10.1.243 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5,0.0- -2,0 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.238.3-amzn-1 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.238.3-amzn-1 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.238.3-amzn-1 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| prestosql-coordinator | 343 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Prestosql-Worker. | 
| prestosql-worker | 343 | Service für das Ausführen von Teilen einer Abfrage. | 
| prestosql-client | 343 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.3 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.0.1-amzn-0.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.0.1-amzn-0.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.0.1-amzn-0.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.0.1-amzn-0.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 0.2.0 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit GPUs. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.3.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.9.0-Vorschau1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 6.2.1 Konfigurationsklassifizierungen
<a name="emr-621-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.2.1-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Not available. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Not available. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | Not available. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Not available. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| prestosql-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Ändern Sie die Werte in PrestoSQLs node.properties-Datei. | Not available. | 
| prestosql-connector-blackhole | Ändern Sie die Werte in PrestoSQLs blackhole.properties-Datei. | Not available. | 
| prestosql-connector-cassandra | Ändern Sie die Werte in PrestoSQLs cassandra.properties-Datei. | Not available. | 
| prestosql-connector-hive | Ändern Sie die Werte in PrestoSQLs hive.properties-Datei. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Ändern Sie die Werte in PrestoSQLs jmx.properties-Datei. | Not available. | 
| prestosql-connector-kafka | Ändern Sie die Werte in PrestoSQLs kafka.properties-Datei. | Not available. | 
| prestosql-connector-localfile | Ändern Sie die Werte in PrestoSQLs localfile.properties-Datei. | Not available. | 
| prestosql-connector-memory | Ändern Sie die Werte in PrestoSQLs memory.properties-Datei in Presto. | Not available. | 
| prestosql-connector-mongodb | Ändern Sie die Werte in PrestoSQLs mongod.properties-Datei in Presto. | Not available. | 
| prestosql-connector-mysql | Ändern Sie die Werte in PrestoSQLs mysql.properties-Datei. | Not available. | 
| prestosql-connector-postgresql | Ändern Sie die Werte in PrestoSQLs postgresql.properties-Datei. | Not available. | 
| prestosql-connector-raptor | Ändern Sie die Werte in PrestoSQLs raptor.properties-Datei. | Not available. | 
| prestosql-connector-redis | Ändern Sie die Werte in PrestoSQLs redis.properties-Datei. | Not available. | 
| prestosql-connector-redshift | Ändern Sie die Werte in PrestoSQLs redshift.properties-Datei. | Not available. | 
| prestosql-connector-tpch | Ändern Sie die Werte in PrestoSQLs tpch.properties-Datei. | Not available. | 
| prestosql-connector-tpcds | Ändern Sie die Werte in PrestoSQLs tpcds.properties-Datei. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 6.2.0
<a name="emr-620-release"></a>

## 6.2.0 Anwendungsversionen
<a name="emr-620-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/),, [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/) [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.880 | 1.11.828 | 1.11.828 | 1.11.711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.0 | 1.11.0 |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 
| Hive | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 
| Hudi | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.8.0 | 4.7.1 | 4.7.1 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 
| MXNet | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 |  -  | 
| Presto | 0.238.3-amzn-1 | 0.232 | 0.232 | 0.230 | 
| Spark | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 |  -  | 
| TensorFlow | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 343 | 338 | 338 |  -  | 
| Zeppelin | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.2.0 Versionshinweise
<a name="emr-620-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.2.0. Änderungen beziehen sich auf Version 6.1.0.

Veröffentlichungsdatum: 9. Dezember 2020

Letzte Aktualisierung: 4. Oktober 2021

**Unterstützte Anwendungen**
+ AWS SDK für Java Ausführung 1.11.828
+ emr-record-server Ausführung 1.7.0
+ Flink-Version 1.11.2
+ Ganglia Version 3.7.2
+ Hadoop-Version 3.2.1-amzn-1
+ HBase Ausführung 2.2.6-amzn-0
+ HBase-operator-tools 1.0.0
+ HCatalog Ausführung 3.1.2-amzn-0
+ Hive Version 3.1.2-amzn-3
+ Hudi Version 0.6.0-amzn-1
+ Hue Version 4.8.0
+ JupyterHub Ausführung 1.1.0
+ Livy-Version 0.7.0
+ MXNet Ausführung 1.7.0
+ Oozie-Version 5.2.0
+ Phoenix Version 5.0.0
+ Pig Version 0.17.0
+ Presto Version 0.238.3-amzn-1
+ PrestoSQL Version 343
+ Spark Version 3.0.1-amzn-0
+ Spark-Rapids 0.2.0
+ TensorFlow Ausführung 2.3.1
+ Zeppelin-Version 0.9.0-preview1
+ Zookeeper Version 3.4.14
+ Konnektoren und Treiber: DynamoDB Connector 4.16.0

**Neue Features**
+ HBase: Die Umbenennung in der Commit-Phase wurde entfernt und persistentes HFile Tracking hinzugefügt. Weitere Informationen finden Sie unter [Persistent HFile Tracking](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html#emr-hbase-s3-hfile-tracking) im *Amazon EMR-Versionshandbuch*.
+ HBase: Rückportiert [Erstellen Sie eine Konfiguration, die das Zwischenspeichern von Blöcken bei der Komprimierung erzwingt](https://issues.apache.org/jira/browse/HBASE-23066).
+ PrestoDB: Verbesserungen beim dynamischen Partitionsbereinigen. Die regelbasierte Join Reorder funktioniert mit nicht partitionierten Daten.
+ Verwaltete Richtlinien mit Geltungsbereich: Um den AWS bewährten Methoden zu entsprechen, hat Amazon EMR verwaltete Standardrichtlinien mit EMR-Geltungsbereich der Version v2 eingeführt, die als Ersatz für Richtlinien dienen, die nicht mehr unterstützt werden. Weitere Informationen finden Sie unter [Verwaltete Richtlinien von Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html).
+ Support-Status für Instance Metadata Service (IMDS) V2: Für Amazon EMR 6.2 oder höher werden Amazon EMR-Komponenten IMDSv2 für alle IMDS-Aufrufe verwendet. Für IMDS-Aufrufe in Ihrem Anwendungscode können Sie sowohl als auch IMDSv1 verwenden oder das IMDS so konfigurieren IMDSv2, dass es nur aus Sicherheitsgründen verwendet wird. IMDSv2 Wenn Sie die Option IMDSv1 in früheren Versionen von Amazon EMR 6.x deaktivieren, führt dies zu einem Cluster-Startfehler.

**Änderungen, Verbesserungen und behobene Probleme**
+ Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ Spark: Leistungsverbesserungen in der Spark-Laufzeit.

**Bekannte Probleme**
+ Amazon EMR 6.2 hat falsche Berechtigungen für das Verzeichnis/etc/cron.d/libinstance-controller-java file in EMR 6.2.0. Permissions on the file are 645 (-rw-r--r-x), when they should be 644 (-rw-r--r--). As a result, Amazon EMR version 6.2 does not log instance-state logs, and the /emr/instance-logs gesetzt. Es ist leer. Dieses Problem wurde in Amazon EMR 6.3.0 und höher behoben.

  Zur Umgehung dieses Problems führen Sie das folgende Skript als Bootstrap-Aktion beim Clusterstart aus. 

  ```
  #!/bin/bash
  sudo chmod 644 /etc/cron.d/libinstance-controller-java
  ```
+ Für private Subnetz-Cluster von Amazon EMR 6.2.0 und 6.3.0 können Sie nicht auf die Ganglia-Webbenutzeroberfläche zugreifen. Sie erhalten die Fehlermeldung „Zugriff verweigert (403)“. Andere Websites UIs wie Spark, Hue, Zeppelin JupyterHub, Livy und Tez funktionieren normal. Der Zugriff auf die Ganglia-Web-Benutzeroberfläche auf öffentlichen Subnetzclustern funktioniert ebenfalls normal. Um dieses Problem zu beheben, starten Sie den httpd-Service auf dem Primärknoten mit `sudo systemctl restart httpd` neu. Dieses Problem wurde in Amazon EMR 6.4.0 behoben.
+ In Amazon EMR 6.2.0 gibt es ein Problem, bei dem httpd kontinuierlich ausfällt, wodurch Ganglia nicht verfügbar ist. Sie erhalten die Fehlermeldung „Es kann keine Verbindung zum Server hergestellt werden“. Um einen Cluster zu reparieren, der bereits mit diesem Problem läuft, stellen Sie eine SSH-Verbindung zum Cluster-Primärknoten her und fügen Sie die Zeile `Listen 80` zu der Datei `httpd.conf` hinzu, die sich unter `/etc/httpd/conf/httpd.conf` befindet. Dieses Problem wurde in Amazon EMR 6.3.0 behoben.
+ HTTPD schlägt auf EMR-6.2.0-Clustern fehl, wenn Sie eine Sicherheitskonfiguration verwenden. Dadurch ist die Benutzeroberfläche der Ganglia-Webanwendung nicht verfügbar. Um auf die Benutzeroberfläche der Ganglia-Webanwendung zuzugreifen, fügen Sie `Listen 80` der `/etc/httpd/conf/httpd.conf`-Datei auf dem Primärknoten Ihres Clusters etwas hinzu. Informationen zum Herstellen einer Verbindung zu Ihrem Cluster finden Sie unter [Verbinden mit dem Primärknoten über SSH](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-connect-master-node-ssh.html).

  EMR Notebooks können auch keine Verbindung mit EMR-6.2.0-Clustern herstellen, wenn Sie eine Sicherheitskonfiguration verwenden. Das Notebook kann keine Kernel auflisten und Spark-Aufträge nicht weiterleiten. Wir empfehlen, stattdessen EMR Notebooks mit einer anderen Version von Amazon EMR zu verwenden.
+ **Niedrigeres Limit für die maximale Anzahl geöffneter Dateien bei älteren Versionen AL2 [in neueren Versionen behoben].** Amazon EMR-Versionen: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 und emr-6.2.0 basieren auf älteren Versionen von Amazon Linux 2 (AL2), die eine niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ haben, wenn Amazon EMR-Cluster mit dem Standard-AMI erstellt werden. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“. Versionen mit einem niedrigeren Limit für geöffnete Dateien verursachen beim Senden des Spark-Jobs den Fehler „Zu viele offene Dateien“. In den betroffenen Versionen hat das Amazon-EMR-Standard-AMI eine Ulimit-Standardeinstellung von 4 096 für „Max. Anzahl geöffneter Dateien“, was unter dem Dateilimit von 65 536 im neuesten Amazon-Linux-2-AMI liegt. Die niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ führt dazu, dass der Spark-Job fehlschlägt, wenn der Spark-Treiber und der Executor versuchen, mehr als 4 096 Dateien zu öffnen. Um das Problem zu beheben, verfügt Amazon EMR über ein Bootstrap Action (BA)-Skript, das die Ulimit-Einstellung bei der Cluster-Erstellung anpasst. 

  Wenn Sie eine ältere Amazon-EMR-Version verwenden, für die dieses Problem nicht dauerhaft behoben ist, können Sie mit der folgenden Problemumgehung das Instance-Controller-Ulimit explizit auf maximal 65 536 Dateien festlegen.

**Explizit ein ulimit über die Befehlszeile setzen**

  1. Bearbeiten Sie `/etc/systemd/system/instance-controller.service`, um die folgenden Parameter zum Abschnitt Service hinzuzufügen.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Starten Sie neu InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Mithilfe der Bootstrap-Aktion (BA) ein Ulimit festlegen**

  Sie können auch ein Bootstrap-Aktionsskript (BA) verwenden, um das Ulimit für den Instance-Controller bei der Clustererstellung auf 65 536 Dateien zu konfigurieren.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Wichtig**  
Amazon EMR 6.1.0 und 6.2.0 beinhalten ein Leistungsproblem, das sich kritisch auf alle Hudi-Operationen zum Einfügen, Upsert und Löschen auswirken kann. Wenn Sie Hudi mit Amazon EMR 6.1.0 oder 6.2.0 verwenden möchten, sollten Sie sich an den AWS Support wenden, um ein gepatchtes Hudi RPM zu erhalten.
+ 
**Wichtig**  
EMR-Cluster, auf denen Amazon-Linux- oder Amazon-Linux-2-AMIs (Amazon Machine Images) ausgeführt werden, verwenden das Standardverhalten von Amazon Linux und laden wichtige und kritische Kernel-Updates, die einen Neustart erfordern, nicht automatisch herunter und installieren sie. Dies ist dasselbe Verhalten wie bei anderen Amazon-EC2-Instances, die das standardmäßige Amazon-Linux-AMI ausführen. Wenn neue Amazon-Linux-Softwareupdates, die einen Neustart erfordern (wie Kernel-, NVIDIA- und CUDA-Updates), nach der Veröffentlichung einer Amazon-EMR-Version verfügbar werden, laden EMR-Cluster-Instances, die das Standard-AMI ausführen, diese Updates nicht automatisch herunter und installieren sie. Um Kernel-Updates zu erhalten, können Sie [Ihr Amazon-EMR-AMI](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) so anpassen, dass es [das neueste Amazon-Linux-AMI verwendet](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ Maven-Artefakte von Amazon EMR 6.2.0 werden nicht veröffentlicht. Sie werden mit einer zukünftigen Version von Amazon EMR veröffentlicht.
+ Die persistente HFile Nachverfolgung mithilfe der HBase Storefile-Systemtabelle unterstützt die Funktion zur Regionsreplikation nicht. HBase Weitere Informationen zur HBase Regionsreplikation finden Sie unter [Timeline-consistent](http://hbase.apache.org/book.html#arch.timelineconsistent.reads) High Available Reads.
+ Unterschiede zwischen den Bucketing-Versionen von Amazon EMR 6.x und EMR 5.x Hive

  EMR 5.x verwendet OOS Apache Hive 2, während in EMR 6.x OOS Apache Hive 3 verwendet wird. Die Open-Source-Version Hive2 verwendet Bucketing Version 1, während die Open-Source-Version Hive3 Bucketing Version 2 verwendet. Dieser Unterschied in der Bucketing-Version zwischen Hive 2 (EMR 5.x) und Hive 3 (EMR 6.x) bedeutet, dass Hive-Bucketing-Hashing anders funktioniert. Sehen Sie sich das folgende Beispiel an.

  Die folgende Tabelle ist ein Beispiel, das in EMR 6.x bzw. EMR 5.x erstellt wurde.

  ```
  -- Using following LOCATION in EMR 6.x
  CREATE TABLE test_bucketing (id INT, desc STRING)
  PARTITIONED BY (day STRING)
  CLUSTERED BY(id) INTO 128 BUCKETS
  LOCATION 's3://your-own-s3-bucket/emr-6-bucketing/';
  
  -- Using following LOCATION in EMR 5.x 
  LOCATION 's3://your-own-s3-bucket/emr-5-bucketing/';
  ```

  Dieselben Daten werden sowohl in EMR 6.x als auch in EMR 5.x eingefügt.

  ```
  INSERT INTO test_bucketing PARTITION (day='01') VALUES(66, 'some_data');
  INSERT INTO test_bucketing PARTITION (day='01') VALUES(200, 'some_data');
  ```

  Die Überprüfung des S3-Speicherorts zeigt, dass der Name der Bucketing-Datei unterschiedlich ist, da sich die Hashing-Funktion zwischen EMR 6.x (Hive 3) und EMR 5.x (Hive 2) unterscheidet.

  ```
  [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-6-bucketing/day=01/
  2020-10-21 20:35:16         13 000025_0
  2020-10-21 20:35:22         14 000121_0
  [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-5-bucketing/day=01/
  2020-10-21 20:32:07         13 000066_0
  2020-10-21 20:32:51         14 000072_0
  ```

  Sie können den Versionsunterschied auch erkennen, indem Sie den folgenden Befehl in der Hive-CLI in EMR 6.x ausführen. Beachten Sie, dass die Bucketing-Version 2 zurückgegeben wird.

  ```
  hive> DESCRIBE FORMATTED test_bucketing;
  ...
  Table Parameters:
      bucketing_version       2
  ...
  ```
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.
+ Wenn Sie Spark mit der Formatierung des Hive-Partitionsstandorts verwenden, um Daten in Amazon S3 zu lesen, und Sie Spark auf den Amazon-EMR-Versionen 5.30.0 bis 5.36.0 und 6.2.0 bis 6.9.0 ausführen, kann ein Problem auftreten, das verhindert, dass Ihr Cluster Daten korrekt liest. Dies kann passieren, wenn Ihre Partitionen alle der folgenden Eigenschaften aufweisen:
  + Zwei oder mehr Partitionen werden aus derselben Tabelle gescannt.
  + Mindestens ein Partitionsverzeichnispfad ist ein Präfix für mindestens einen anderen Partitionsverzeichnispfad, z. B. ist `s3://bucket/table/p=a` ein Präfix von `s3://bucket/table/p=a b`.
  + Das erste Zeichen, das auf das Präfix im anderen Partitionsverzeichnis folgt, hat einen UTF-8-Wert, der kleiner als das `/`-Zeichen (U\$1002F) ist. Beispielsweise fällt das Leerzeichen (U\$10020), das in `s3://bucket/table/p=a b` zwischen a und b vorkommt, in diese Kategorie. Beachten Sie, dass es 14 weitere Zeichen gibt, die keine Kontrollzeichen sind: `!"#$%&‘()*+,-`. Weitere Informationen finden Sie unter [UTF-8-Kodierungstabelle und](https://www.utf8-chartable.de/) Unicode-Zeichen.

  Um dieses Problem zu umgehen, stellen Sie die `spark.sql.sources.fastS3PartitionDiscovery.enabled`-Konfiguration auf `false` in der `spark-defaults`-Klassifizierung ein.

## 6.2.0 Komponentenversionen
<a name="emr-620-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.16.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.1.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-notebook-env | 1.0.0 | Conda Env für EMR-Notebooks, das Jupyter Enterprise Gateway enthält | 
| emr-s3-dist-cp | 2.16.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.0.0 | EMR S3Select-Konnektor | 
| emrfs | 2,44,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.11.2 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| flink-jobmanager-config | 1.11.2 | Verwaltung von Ressourcen auf EMR-Knoten für Apache JobManager Flink. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-2 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-2 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-2 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-2 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-2 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-2 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-2 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-2 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-2 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-2 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-2 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.2.6-amzn-0 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.2.6-amzn-0 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.2.6-amzn-0 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.2.6-amzn-0 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.2.6-amzn-0 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 3.1.2-amzn-3 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.2-amzn-3 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.2-amzn-3 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.2-amzn-3 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.2-amzn-3 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-3 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.2-amzn-3 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.6.0-amzn-1 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.6.0-amzn-1 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-prestosql | 0.6.0-amzn-1 | Bündel-Bibliothek zum Ausführen von PrestoSQL mit Hudi. | 
| hudi-spark | 0.6.0-amzn-1 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.8.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.1.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.7.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.64\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 10.1.243 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5,0.0- -2,0 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.238.3-amzn-1 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.238.3-amzn-1 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.238.3-amzn-1 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| prestosql-coordinator | 343 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Prestosql-Worker. | 
| prestosql-worker | 343 | Service für das Ausführen von Teilen einer Abfrage. | 
| prestosql-client | 343 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.3 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.0.1-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.0.1-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.0.1-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.0.1-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| spark-rapids | 0.2.0 | Nvidia Spark RAPIDS-Plugin, das Apache Spark beschleunigt mit GPUs. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.3.1 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.9.0-Vorschau1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 6.2.0 Konfigurationsklassifizierungen
<a name="emr-620-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).

Aktionen zur Neukonfiguration treten auf, wenn Sie eine Konfiguration für Instance-Gruppen in einem laufenden Cluster angeben. Amazon EMR initiiert nur Rekonfigurationsaktionen für die Klassifizierungen, die Sie ändern. Weitere Informationen finden Sie unter [Eine Instance-Gruppe in einem laufenden Cluster neu konfigurieren](emr-configure-apps-running-cluster.md).


**emr-6.2.0-Klassifizierungen**  

| Klassifizierungen | Description | Aktionen zur Neukonfiguration | 
| --- | --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | Not available. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | Not available. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Ändern Sie die Docker-bezogenen Einstellungen. | Not available. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | Not available. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | Not available. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | Not available. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | Not available. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | Not available. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | Not available. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | Not available. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | This classification should not be reconfigured. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | Restarts Hadoop HDFS ZKFC. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | Not available. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | Not available. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | Not available. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | Not available. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | Not available. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | Not available. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | Not available. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | Not available. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | Not available. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | Restarts Livy Server. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | Restarts Livy Server. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | Restarts Livy Server. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | Restarts Oozie. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | Restarts Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | Not available. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | Not available. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | Not available. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | Not available. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | Restarts Oozie. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | Not available. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Not available. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | Not available. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | Not available. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | Not available. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | Not available. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | Not available. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | Not available. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | Not available. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | Not available. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | Not available. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | Not available. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | Not available. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | Not available. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | Not available. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | Not available. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | Not available. | 
| prestosql-log | Ändert die Werte in der log.properties-Datei in Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Ändert die Werte in der config.properties-Datei in Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Ändern Sie die Werte in PrestoSQLs node.properties-Datei. | Not available. | 
| prestosql-connector-blackhole | Ändern Sie die Werte in PrestoSQLs blackhole.properties-Datei. | Not available. | 
| prestosql-connector-cassandra | Ändern Sie die Werte in PrestoSQLs cassandra.properties-Datei. | Not available. | 
| prestosql-connector-hive | Ändern Sie die Werte in PrestoSQLs hive.properties-Datei. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Ändern Sie die Werte in PrestoSQLs jmx.properties-Datei. | Not available. | 
| prestosql-connector-kafka | Ändern Sie die Werte in PrestoSQLs kafka.properties-Datei. | Not available. | 
| prestosql-connector-localfile | Ändern Sie die Werte in PrestoSQLs localfile.properties-Datei. | Not available. | 
| prestosql-connector-memory | Ändern Sie die Werte in PrestoSQLs memory.properties-Datei in Presto. | Not available. | 
| prestosql-connector-mongodb | Ändern Sie die Werte in PrestoSQLs mongod.properties-Datei in Presto. | Not available. | 
| prestosql-connector-mysql | Ändern Sie die Werte in PrestoSQLs mysql.properties-Datei. | Not available. | 
| prestosql-connector-postgresql | Ändern Sie die Werte in PrestoSQLs postgresql.properties-Datei. | Not available. | 
| prestosql-connector-raptor | Ändern Sie die Werte in PrestoSQLs raptor.properties-Datei. | Not available. | 
| prestosql-connector-redis | Ändern Sie die Werte in PrestoSQLs redis.properties-Datei. | Not available. | 
| prestosql-connector-redshift | Ändern Sie die Werte in PrestoSQLs redshift.properties-Datei. | Not available. | 
| prestosql-connector-tpch | Ändern Sie die Werte in PrestoSQLs tpch.properties-Datei. | Not available. | 
| prestosql-connector-tpcds | Ändern Sie die Werte in PrestoSQLs tpcds.properties-Datei. | Not available. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | Not available. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | Not available. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | Not available. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | Not available. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | Not available. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | Restart Oozie. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | Restarts Zeppelin. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | Restarts Zookeeper server. | 

# Amazon-EMR-Version 6.1.1
<a name="emr-611-release"></a>

## 6.1.1 Anwendungsversionen
<a name="emr-611-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.1.1 Versionshinweise
<a name="emr-611-relnotes"></a>

Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.

**Änderungen, Verbesserungen und behobene Probleme**
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ HTTPS ist jetzt standardmäßig für Amazon-Linux-Repositorys aktiviert. Wenn Sie eine Amazon-S3-VPCE-Richtlinie verwenden, um den Zugriff auf bestimmte Buckets zu beschränken, müssen Sie den neuen Amazon-Linux-Bucket-ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` zu Ihrer Richtlinie hinzufügen (ersetzen Sie `$region` durch die Region, in der sich der Endpunkt befindet). Weitere Informationen finden Sie unter diesem Thema in den AWS Diskussionsforen. [Ankündigung: Amazon Linux 2 unterstützt jetzt die Möglichkeit, HTTPS zu verwenden, wenn eine Verbindung zu Paket-Repositorys](https://forums.aws.amazon.com/ann.jspa?annID=8528) hergestellt wird. 

## 6.1.1 Komponentenversionen
<a name="emr-611-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.14.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.1.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.14.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.0.0 | EMR S3Select-Konnektor | 
| emrfs | 2.42,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.11.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-1.1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-1.1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-1.1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-1.1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-1.1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-1.1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-1.1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-1.1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-1.1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-1.1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-1.1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.2.5 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.2.5 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.2.5 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.2.5 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.2.5 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 3.1.2-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.2-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.2-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.2-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.2-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.2-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.5.2-incubating-amzn-2 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.5.2-incubating-amzn-2 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-prestosql | 0.5.2-incubating-amzn-2 | Bündel-Bibliothek zum Ausführen von PrestoSQL mit Hudi. | 
| hudi-spark | 0.5.2-incubating-amzn-2 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.7.1 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.1.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.6.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.64\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.3.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2.0 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.232 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.232 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.232 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| prestosql-coordinator | 338 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Prestosql-Worker. | 
| prestosql-worker | 338 | Service für das Ausführen von Teilen einer Abfrage. | 
| prestosql-client | 338 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.3 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.0.0-amzn-0.1 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.0.0-amzn-0.1 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.0.0-amzn-0.1 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.0.0-amzn-0.1 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.1.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.9.0-Vorschau1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 6.1.1 Konfigurationsklassifizierungen
<a name="emr-611-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-6.1.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| prestosql-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| prestosql-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| prestosql-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| prestosql-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| prestosql-node | Ändern Sie die Werte in PrestoSQLs node.properties-Datei. | 
| prestosql-connector-blackhole | Ändern Sie die Werte in PrestoSQLs blackhole.properties-Datei. | 
| prestosql-connector-cassandra | Ändern Sie die Werte in PrestoSQLs cassandra.properties-Datei. | 
| prestosql-connector-hive | Ändern Sie die Werte in PrestoSQLs hive.properties-Datei. | 
| prestosql-connector-jmx | Ändern Sie die Werte in PrestoSQLs jmx.properties-Datei. | 
| prestosql-connector-kafka | Ändern Sie die Werte in PrestoSQLs kafka.properties-Datei. | 
| prestosql-connector-localfile | Ändern Sie die Werte in PrestoSQLs localfile.properties-Datei. | 
| prestosql-connector-memory | Ändern Sie die Werte in PrestoSQLs memory.properties-Datei in Presto. | 
| prestosql-connector-mongodb | Ändern Sie die Werte in PrestoSQLs mongod.properties-Datei in Presto. | 
| prestosql-connector-mysql | Ändern Sie die Werte in PrestoSQLs mysql.properties-Datei. | 
| prestosql-connector-postgresql | Ändern Sie die Werte in PrestoSQLs postgresql.properties-Datei. | 
| prestosql-connector-raptor | Ändern Sie die Werte in PrestoSQLs raptor.properties-Datei. | 
| prestosql-connector-redis | Ändern Sie die Werte in PrestoSQLs redis.properties-Datei. | 
| prestosql-connector-redshift | Ändern Sie die Werte in PrestoSQLs redshift.properties-Datei. | 
| prestosql-connector-tpch | Ändern Sie die Werte in PrestoSQLs tpch.properties-Datei. | 
| prestosql-connector-tpcds | Ändern Sie die Werte in PrestoSQLs tpcds.properties-Datei. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 6.1.0
<a name="emr-610-release"></a>

## 6.1.0 Anwendungsversionen
<a name="emr-610-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [https://flink.apache.org/](https://flink.apache.org/),, [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#),, [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/) [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), und [https://zookeeper.apache.org](https://zookeeper.apache.org).

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.1.0 Versionshinweise
<a name="emr-610-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.1.0. Änderungen beziehen sich auf Version 6.0.0.

Erste Version: 4. September 2020

Letzte Aktualisierung: 15. Oktober 2020

**Unterstützte Anwendungen**
+ AWS SDK für Java Ausführung 1.11.828
+ Flink-Version 1.11.0
+ Ganglia Version 3.7.2
+ Hadoop-Version 3.2.1-amzn-1
+ HBase Ausführung 2.2.5
+ HBase-operator-tools 1.0.0
+ HCatalog Ausführung 3.1.2-amzn-0
+ Hive-Version 3.1.2-amzn-1
+ Hudi-Version 0.5.2-incubating
+ Hue-Version 4.7.1
+ JupyterHub Ausführung 1.1.0
+ Livy-Version 0.7.0
+ MXNet Ausführung 1.6.0
+ Oozie-Version 5.2.0
+ Phoenix Version 5.0.0
+ Presto-Version 0.232
+ PrestoSQL-Version 338
+ Spark-Version 3.0.0-amzn-0
+ TensorFlow Ausführung 2.1.0
+ Zeppelin-Version 0.9.0-preview1
+ Zookeeper Version 3.4.14
+ Anschlüsse und Treiber: DynamoDB Connector 4.14.0

**Neue Features**
+ ARM-Instance-Typen werden ab Amazon-EMR-Version 5.30.0 und Amazon-EMR-Version 6.1.0 unterstützt.
+ Allzweck-Instance-Typen von M6g werden ab den Amazon-EMR-Versionen 6.1.0 und 5.30.0 unterstützt. Weitere Informationen finden Sie unter [Instance-Flotten konfigurieren](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-supported-instance-types.html) im *Verwaltungshandbuch für Amazon EMR*.
+ Das EC2-Platzierungsgruppenfeature wird ab Amazon-EMR-Version 5.23.0 als Option für Cluster mit mehreren Primärknoten unterstützt. Derzeit werden nur Primärknoten-Typen von des Platzierungsgruppenfeatures unterstützt, und die `SPREAD`-Strategie wird auf diese Primärknoten angewendet. Bei dieser `SPREAD`-Strategie wird eine kleine Gruppe von Instances auf separater zugrundeliegender Hardware platziert, um den Verlust mehrerer Primärknoten im Falle eines Hardwarefehlers zu verhindern. Weitere Informationen finden Sie unter [EMR-Integration mit EC2 Placement Group](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-placementgroup.html) im *Verwaltungshandbuch für Amazon EMR*.
+ Verwaltete Skalierung – Mit Amazon EMR ab Version 6.1.0 können Sie Amazon EMR Managed Scaling aktivieren, um die Anzahl der Instances oder Einheiten in Ihrem Cluster basierend auf der Workload automatisch zu erhöhen oder zu verringern. Amazon EMR wertet Cluster-Metriken kontinuierlich aus, um Skalierungsentscheidungen zu treffen, die Ihre Cluster für Kosten und Geschwindigkeit optimieren. Verwaltete Skalierung ist auch in Amazon-EMR-Version 5.30.0 und höher verfügbar, außer 6.0.0. Weitere Informationen finden Sie unter [Skalieren von Clusterressourcen](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scale-on-demand.html) im *Verwaltungshandbuch für Amazon EMR*.
+ PrestoSQL-Version 338 wird mit EMR 6.1.0 unterstützt. Weitere Informationen finden Sie unter [Presto](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html).
  + PrestoSQL wird nur auf EMR 6.1.0 und späteren Versionen unterstützt, nicht auf EMR 6.0.0 oder EMR 5.x.
  + Der Anwendungsname `Presto` wird weiterhin verwendet, um PrestoDB auf Clustern zu installieren. Verwenden Sie den Anwendungsnamen `PrestoSQL`, um PrestoSQL auf Clustern zu installieren.
  + Sie können entweder PrestoDB oder PrestoSQL installieren, aber Sie können nicht beide auf einem einzigen Cluster installieren. Wenn beim Versuch, einen Cluster zu erstellen, sowohl PrestoDB als auch PrestoSQL angegeben werden, tritt ein Validierungsfehler auf und die Clustererstellungsanforderung schlägt fehl.
  + PrestoSQL wird sowohl auf Single-Haupt- als auch auf Multi-Haupt-Clustern unterstützt. Auf Multi-Haupt-Clustern ist ein externer Hive-Metastore erforderlich, um PrestoSQL oder PrestoDB auszuführen. Weitere Informationen finden Sie unter [Unterstützte Anwendungen in einem EMR-Cluster mit mehreren Primärknoten](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html#emr-plan-ha-applications-list).
+ Unterstützung der auto ECR-Authentifizierung auf Apache Hadoop und Apache Spark mit Docker: Spark-Benutzer können Docker-Images von Docker Hub und Amazon Elastic Container Registry (Amazon ECR) verwenden, um Umgebungs- und Bibliotheksabhängigkeiten zu definieren.

  [Konfigurieren Sie Docker](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-docker.html) und [führen Sie Spark-Anwendungen mit Docker mithilfe von Amazon EMR 6.x aus](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-docker.html).
+ EMR unterstützt Apache Hive ACID-Transaktionen: Amazon EMR 6.1.0 bietet Unterstützung für Hive-ACID-Transaktionen, sodass es den ACID-Eigenschaften einer Datenbank entspricht. Mit diesem Feature können Sie `INSERT, UPDATE, DELETE,`- und `MERGE`-Operationen in Hive-Tabellen mit Daten in Amazon Simple Storage Service (Amazon S3) ausführen. Dies ist ein wichtiges Feature für Anwendungsfälle wie Streaming-Erfassung, Neuformulierung von Daten, Massenaktualisierungen mit MERGE und sich langsam ändernde Dimensionen. Weitere Informationen, einschließlich Konfigurationsbeispielen und Anwendungsfällen, finden Sie unter [Amazon EMR unterstützt Apache-Hive-ACID-Transaktionen](https://aws.amazon.com/blogs/big-data/amazon-emr-supports-apache-hive-acid-transactions).

**Änderungen, Verbesserungen und behobene Probleme**
+ Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ Apache Flink wird auf EMR 6.0.0 nicht unterstützt, aber es wird auf EMR 6.1.0 mit Flink 1.11.0 unterstützt. Dies ist die erste Version von Flink, die Hadoop 3 offiziell unterstützt. Siehe Ankündigung der Veröffentlichung von [Apache Flink 1.11.0](https://flink.apache.org/news/2020/07/06/release-1.11.0.html).
+ Ganglia wurde aus den standardmäßigen EMR-6.1.0-Paketen entfernt.

**Bekannte Probleme**
+ **Niedrigeres Limit für „Max. Anzahl geöffneter Dateien“ für ältere Versionen AL2 [in neueren Versionen behoben].** Amazon EMR-Versionen: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 und emr-6.2.0 basieren auf älteren Versionen von Amazon Linux 2 (AL2), die eine niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ haben, wenn Amazon EMR-Cluster mit dem Standard-AMI erstellt werden. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“. Versionen mit einem niedrigeren Limit für geöffnete Dateien verursachen beim Senden des Spark-Jobs den Fehler „Zu viele offene Dateien“. In den betroffenen Versionen hat das Amazon-EMR-Standard-AMI eine Ulimit-Standardeinstellung von 4 096 für „Max. Anzahl geöffneter Dateien“, was unter dem Dateilimit von 65 536 im neuesten Amazon-Linux-2-AMI liegt. Die niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ führt dazu, dass der Spark-Job fehlschlägt, wenn der Spark-Treiber und der Executor versuchen, mehr als 4 096 Dateien zu öffnen. Um das Problem zu beheben, verfügt Amazon EMR über ein Bootstrap Action (BA)-Skript, das die Ulimit-Einstellung bei der Cluster-Erstellung anpasst. 

  Wenn Sie eine ältere Amazon-EMR-Version verwenden, für die dieses Problem nicht dauerhaft behoben ist, können Sie mit der folgenden Problemumgehung das Instance-Controller-Ulimit explizit auf maximal 65 536 Dateien festlegen.

**Explizit ein ulimit über die Befehlszeile setzen**

  1. Bearbeiten Sie `/etc/systemd/system/instance-controller.service`, um die folgenden Parameter zum Abschnitt Service hinzuzufügen.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Starten Sie neu InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Mithilfe der Bootstrap-Aktion (BA) ein Ulimit festlegen**

  Sie können auch ein Bootstrap-Aktionsskript (BA) verwenden, um das Ulimit für den Instance-Controller bei der Clustererstellung auf 65 536 Dateien zu konfigurieren.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**Wichtig**  
Amazon EMR 6.1.0 und 6.2.0 beinhalten ein Leistungsproblem, das sich kritisch auf alle Hudi-Operationen zum Einfügen, Upsert und Löschen auswirken kann. Wenn Sie Hudi mit Amazon EMR 6.1.0 oder 6.2.0 verwenden möchten, sollten Sie sich an den AWS Support wenden, um ein gepatchtes Hudi RPM zu erhalten.
+ Wenn Sie die benutzerdefinierte Garbage-Collection-Konfiguration mit `spark.driver.extraJavaOptions` und festlegen`spark.executor.extraJavaOptions`, führt dies dazu, dass der driver/executor Start mit EMR 6.1 aufgrund einer widersprüchlichen Garbage-Collection-Konfiguration fehlschlägt. Mit EMR Version 6.1.0 sollten Sie stattdessen eine benutzerdefinierte Spark-Garbage-Collection-Konfiguration für Treiber und Executors mit den Eigenschaften `spark.driver.defaultJavaOptions` und `spark.executor.defaultJavaOptions` angeben. Weitere Informationen finden Sie unter [Apache Spark Runtime Environment](https://spark.apache.org/docs/latest/configuration.html#runtime-environment) und [Konfigurieren von Spark Garbage Collection auf Amazon EMR 6.1.0](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-configure.html#spark-gc-config).
+ Die Verwendung von Pig mit Oozie (und innerhalb von Hue, da Hue Oozie-Aktionen zur Ausführung von Pig-Skripten verwendet) generiert den Fehler, dass eine native LZO-Bibliothek nicht geladen werden kann. Diese Fehlermeldung ist informativ und verhindert nicht, dass Pig ausgeführt wird.
+ Hudi-Parallelitätsunterstützung: Derzeit unterstützt Hudi keine gleichzeitigen Schreibvorgänge in eine einzelne Hudi-Tabelle. Darüber hinaus macht Hudi alle Änderungen rückgängig, die von in Bearbeitung befindlichen Autoren vorgenommen wurden, bevor ein neuer Writer beginnen kann. Gleichzeitige Schreibvorgänge können diesen Mechanismus stören und zu Wettlaufbedingungen führen, was zu Datenbeschädigungen führen kann. Sie sollten sicherstellen, dass im Rahmen Ihres Datenverarbeitungs-Workflows immer nur ein einziger Hudi-Writer mit einer Hudi-Tabelle arbeitet. Hudi unterstützt mehrere gleichzeitige Lesegeräte, die mit derselben Hudi-Tabelle arbeiten.
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.
+ In Amazon EMR 6.1.0 gibt es ein Problem, das Cluster betrifft, auf denen Presto ausgeführt wird. Nach einem längeren Zeitraum (Tage) kann der Cluster Fehler wie „su: failed to execute /bin/bash: Resource temporarily unavailable“ oder „Shell-Anfrage auf Kanal 0 fehlgeschlagen“ ausgeben. Dieses Problem wird durch einen internen Amazon EMR-Prozess (InstanceController) verursacht, der zu viele Light Weight Processes (LWP) erzeugt, was letztendlich dazu führt, dass der Hadoop-Benutzer sein Nproc-Limit überschreitet. Dadurch wird verhindert, dass der Benutzer zusätzliche Prozesse öffnet. Die Lösung für dieses Problem ist ein Upgrade auf EMR 6.2.0.

## 6.1.0 Komponentenversionen
<a name="emr-610-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.14.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.1.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.14.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 2.0.0 | EMR S3Select-Konnektor | 
| emrfs | 2.42,0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| flink-client | 1.11.0 | Apache Flink-Clientskripts und -Anwendungen für die Befehlszeile. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.2.5 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.2.5 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.2.5 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.2.5 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.2.5 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 3.1.2-amzn-2 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.2-amzn-2 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.2-amzn-2 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.2-amzn-2 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.2-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-2 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.2-amzn-2 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.5.2-incubating-amzn-2 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.5.2-incubating-amzn-2 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hudi-prestosql | 0.5.2-incubating-amzn-2 | Bündel-Bibliothek zum Ausführen von PrestoSQL mit Hudi. | 
| hudi-spark | 0.5.2-incubating-amzn-2 | Bündel-Bibliothek zum Ausführen von Spark mit Hudi. | 
| hue-server | 4.7.1 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.1.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.7.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.6.0 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.64\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.2.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.2.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 4.3.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2.0 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.232 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.232 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.232 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| prestosql-coordinator | 338 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Prestosql-Worker. | 
| prestosql-worker | 338 | Service für das Ausführen von Teilen einer Abfrage. | 
| prestosql-client | 338 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| pig-client | 0.17.0 | Pig-Befehlszeilen-Client. | 
| r | 3.4.3 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| ranger-kms-server | 2.0.0 | Apache Ranger Key Management System | 
| spark-client | 3.0.0-amzn-0 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 3.0.0-amzn-0 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 3.0.0-amzn-0 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 3.0.0-amzn-0 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| sqoop-client | 1.4.7 | Apache Sqoop-Befehlszeilen-Client. | 
| tensorflow | 2.1.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.9.0-Vorschau1 | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 6.1.0 Konfigurationsklassifizierungen
<a name="emr-610-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-6.1.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| flink-conf | Ändert die flink-conf.yaml-Einstellungen. | 
| flink-log4j | Ändert die log4j.properties-Einstellungen für Flink. | 
| flink-log4j-yarn-session | Ändern Sie die Einstellungen von Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Ändert die log4j-cli.properties-Einstellungen für Flink. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| hudi-env | Ändern der Werte in der Hudi-Umgebung. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| pig-env | Ändert die Werte in der Pig-Umgebung. | 
| pig-properties | Ändert die Werte in der pig.properties-Datei in Pig. | 
| pig-log4j | Ändert die Werte in der log4j.properties-Datei in Pig. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| prestosql-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| prestosql-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| prestosql-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| prestosql-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| prestosql-node | Ändern Sie die Werte in PrestoSQLs node.properties-Datei. | 
| prestosql-connector-blackhole | Ändern Sie die Werte in PrestoSQLs blackhole.properties-Datei. | 
| prestosql-connector-cassandra | Ändern Sie die Werte in PrestoSQLs cassandra.properties-Datei. | 
| prestosql-connector-hive | Ändern Sie die Werte in PrestoSQLs hive.properties-Datei. | 
| prestosql-connector-jmx | Ändern Sie die Werte in PrestoSQLs jmx.properties-Datei. | 
| prestosql-connector-kafka | Ändern Sie die Werte in PrestoSQLs kafka.properties-Datei. | 
| prestosql-connector-localfile | Ändern Sie die Werte in PrestoSQLs localfile.properties-Datei. | 
| prestosql-connector-memory | Ändern Sie die Werte in PrestoSQLs memory.properties-Datei in Presto. | 
| prestosql-connector-mongodb | Ändern Sie die Werte in PrestoSQLs mongod.properties-Datei in Presto. | 
| prestosql-connector-mysql | Ändern Sie die Werte in PrestoSQLs mysql.properties-Datei. | 
| prestosql-connector-postgresql | Ändern Sie die Werte in PrestoSQLs postgresql.properties-Datei. | 
| prestosql-connector-raptor | Ändern Sie die Werte in PrestoSQLs raptor.properties-Datei. | 
| prestosql-connector-redis | Ändern Sie die Werte in PrestoSQLs redis.properties-Datei. | 
| prestosql-connector-redshift | Ändern Sie die Werte in PrestoSQLs redshift.properties-Datei. | 
| prestosql-connector-tpch | Ändern Sie die Werte in PrestoSQLs tpch.properties-Datei. | 
| prestosql-connector-tpcds | Ändern Sie die Werte in PrestoSQLs tpcds.properties-Datei. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| sqoop-env | Ändert die Werte in der Sqoop-Umgebung. | 
| sqoop-oraoop-site | Ändern Sie die Werte in der Datei oraoop-site.xml OraOop von Sqoop. | 
| sqoop-site | Ändert die Werte in der sqoop-site.xml in Sqoop. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 6.0.1
<a name="emr-601-release"></a>

## 6.0.1 Anwendungsversionen
<a name="emr-601-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/),, [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.0.1 Versionshinweise
<a name="emr-601-relnotes"></a>

Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.

**Änderungen, Verbesserungen und behobene Probleme**
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ HTTPS ist jetzt standardmäßig für Amazon-Linux-Repositorys aktiviert. Wenn Sie eine Amazon-S3-VPCE-Richtlinie verwenden, um den Zugriff auf bestimmte Buckets zu beschränken, müssen Sie den neuen Amazon-Linux-Bucket-ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` zu Ihrer Richtlinie hinzufügen (ersetzen Sie `$region` durch die Region, in der sich der Endpunkt befindet). Weitere Informationen finden Sie unter diesem Thema in den AWS Diskussionsforen. [Ankündigung: Amazon Linux 2 unterstützt jetzt die Möglichkeit, HTTPS zu verwenden, wenn eine Verbindung zu Paket-Repositorys](https://forums.aws.amazon.com/ann.jspa?annID=8528) hergestellt wird. 

## 6.0.1 Komponentenversionen
<a name="emr-601-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.14.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.0.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.14.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.5.0 | EMR S3Select-Konnektor | 
| emrfs | 2.39.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-0.1 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-0.1 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-0.1 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-0.1 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-0.1 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-0.1 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-0.1 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-0.1 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-0.1 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-0.1 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-0.1 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.2.3 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.2.3 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.2.3 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.2.3 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.2.3 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 3.1.2-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.2-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.2-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.2-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.2-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.5.0-incubating-amzn-1 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.5.0-incubating-amzn-1 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.4.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.0.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.6.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.5.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.64\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2.0 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.230 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.230 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.230 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| r | 3.4.3 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.4 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.4 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.4 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.4 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| tensorflow | 1.14.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.9.0-SNAPSHOT | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 6.0.1 Konfigurationsklassifizierungen
<a name="emr-601-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-6.0.1-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 

# Amazon-EMR-Version 6.0.0
<a name="emr-600-release"></a>

## 6.0.0 Anwendungsversionen
<a name="emr-600-app-versions"></a>

Diese Version umfasst die folgenden Anwendungen: [http://ganglia.info](http://ganglia.info),, [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/),, [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)und. [https://zookeeper.apache.org](https://zookeeper.apache.org)

In der folgenden Tabelle sind die in dieser Version von Amazon EMR verfügbaren Anwendungsversionen und die Anwendungsversionen der vorherigen drei Amazon-EMR-Versionen (sofern zutreffend) aufgeführt.

Einen umfassenden Verlauf der Anwendungsversionen für jede Version von Amazon EMR finden Sie in den folgenden Themen:
+ [Anwendungsversionen in Amazon-EMR-7.x-Versionen](emr-release-app-versions-7.x.md)
+ [Anwendungsversionen in Amazon-EMR-6.x-Versionen](emr-release-app-versions-6.x.md)
+ [Anwendungsversionen in Amazon-EMR-5.x-Versionen (PNG)](emr-release-app-versions-5.x.md)
+ [Anwendungsversionen in Amazon-EMR-4.x-Versionen](emr-release-app-versions-4.x.md)


**Informationen zur Anwendungsversion**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 
| Scala | 2.12,10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 5.0.0- -2,0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-Vorschau1 | 0.9.0-Vorschau1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.0.0 Versionshinweise
<a name="emr-600-relnotes"></a>

Die folgenden Versionshinweise enthalten Informationen über Amazon-EMR-Version 6.0.0.

Erste Version: 10. März 2020

**Unterstützte Anwendungen**
+ AWS SDK für Java Ausführung 1.11.711
+ Ganglia Version 3.7.2
+ Hadoop Version 3.2.1
+ HBase Ausführung 2.2.3
+ HCatalog Ausführung 3.1.2
+ Hive Version 3.1.2
+ Hudi Version 0.5.0-incubating
+ Hue Version 4.4.0
+ JupyterHub Ausführung 1.0.0
+ Livy Version 0.6.0
+ MXNet Ausführung 1.5.1
+ Oozie Version 5.1.0
+ Phoenix Version 5.0.0
+ Presto Version 0.230
+ Spark Version 2.4.4
+ TensorFlow Ausführung 1.14.0
+ Zeppelin Version 0.9.0-SNAPSHOT
+ Zookeeper Version 3.4.14
+ Anschlüsse und Treiber: DynamoDB Connector 4.14.0

**Anmerkung**  
Flink, Sqoop, Pig und Mahout sind in Amazon-EMR-Version 6.0.0 nicht verfügbar. 

**Neue Features**
+ YARN Docker Runtime Support - YARN-Anwendungen, wie etwa Spark-Aufgaben, können jetzt im Kontext eines Docker-Containers ausgeführt werden. Dadurch können Sie ganz einfach Abhängigkeiten in einem Docker-Image definieren, ohne dass benutzerdefinierte Bibliotheken auf dem Amazon-EMR-Cluster installiert werden müssen. Weitere Informationen finden Sie unter [Konfigurieren der Docker-Integration](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-docker.html) und [Ausführen von Spark-Anwendungen mit Docker mit Amazon EMR 6.0.0](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-docker.html).
+ Unterstützung für Hive LLAP - Hive unterstützt jetzt den LLAP-Ausführungsmodus für eine verbesserte Abfrageleistung. Weitere Informationen finden Sie unter [Verwenden von Hive LLAP](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hive-llap.html).

**Änderungen, Verbesserungen und behobene Probleme**
+ Dies ist eine Version zur Behebung von Problemen mit Amazon EMR Scaling, wenn ein Cluster nicht erfolgreich up/scale herunterskaliert werden kann oder Anwendungsfehler verursacht werden.
+ Es wurde ein Problem behoben, bei dem Skalierungsanforderungen für einen großen, stark ausgelasteten Cluster fehlschlugen, wenn Amazon-EMR-On-Cluster-Daemons Aktivitäten zur Integritätsprüfung durchführten, z. B. das Erfassen des YARN-Knotenstatus und des HDFS-Knotenstatus. Das lag daran, dass Cluster-Daemons die Integritätsstatusdaten eines Knotens nicht an interne Amazon-EMR-Komponenten weitergeben konnten.
+ Verbesserte EMR-On-Cluster-Daemons zur korrekten Nachverfolgung der Knotenstatus bei der Wiederverwendung von IP-Adressen, um die Zuverlässigkeit bei Skalierungsvorgängen zu verbessern.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Es wurde ein Problem behoben, bei dem während der Cluster-Skalierung Auftragsfehler auftraten, da Spark davon ausging, dass alle verfügbaren Knoten auf der Verweigern-Liste standen.
+ [YARN-9011.](https://issues.apache.org/jira/browse/YARN-9011) Es wurde ein Problem behoben, bei dem Auftragsfehler aufgrund eines Fehlers bei der Außerbetriebnahme von YARN auftraten, wenn der Cluster versuchte, hoch- oder herunterzuskalieren.
+ Das Problem mit Schritt- oder Auftragsfehlern bei der Cluster-Skalierung wurde behoben, indem sichergestellt wurde, dass die Knotenstatus zwischen den Amazon-EMR-On-Cluster-Daemons und YARN/HDFS immer konsistent sind.
+ Es wurde ein Problem behoben, bei dem Clustervorgänge wie Herunterskalierung und Schrittübermittlung für Amazon-EMR-Cluster, die mit Kerberos-Authentifizierung aktiviert waren, fehlschlugen. Dies lag daran, dass der Amazon EMR-On-Cluster-Daemon das Kerberos-Ticket nicht erneuert hat, das für die sichere Kommunikation mit HDFS/YARN Running on the Primary Node erforderlich ist.
+ Neuere Amazon EMR-Versionen beheben das Problem mit einem niedrigeren Limit für die maximale Anzahl geöffneter Dateien für ältere Versionen AL2 in Amazon EMR. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten jetzt einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“.
+ Amazon Linux
  + Amazon Linux 2 ist das Betriebssystem für die EMR 6.x-Release-Serie.
  + `systemd` wird für die Serviceverwaltung statt `upstart` in Amazon Linux 1 verwendet.
+ Java Development Kit (JDK)
  + Coretto JDK 8 ist das Standard-JDK für die EMR-6.x-Release-Serie.
+ Scala
  + Scala 2.12 wird mit Apache Spark und Apache Livy verwendet.
+ Python 3
  + Python 3 ist jetzt die Standardversion von Python in EMR.
+ YARN-Knotenbeschriftungen
  + Beginnend mit der Amazon-EMR-6.x-Release-Reihe ist das Feature YARN-Knotenbeschriftungen standardmäßig deaktiviert. Die Anwendungs-Master-Prozesse können standardmäßig sowohl auf Kern- als auch auf Aufgabenknoten ausgeführt werden. Sie können die Funktion YARN-Knotenbeschriftungen aktivieren, indem Sie folgende Eigenschaften konfigurieren: `yarn.node-labels.enabled` und `yarn.node-labels.am.default-node-label-expression`. Weitere Informationen finden Sie unter [Grundlegendes zu Primär-, Kern- und Aufgabenknoten](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-master-core-task-nodes.html).

**Bekannte Probleme**
+ **Niedrigeres Limit für „Max. Anzahl geöffneter Dateien“ für ältere Versionen AL2 [in neueren Versionen behoben].** Amazon EMR-Versionen: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 und emr-6.2.0 basieren auf älteren Versionen von Amazon Linux 2 (AL2), die eine niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ haben, wenn Amazon EMR-Cluster mit dem Standard-AMI erstellt werden. Die Amazon-EMR-Versionen 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 und höher enthalten einen dauerhaften Fix mit einer höheren Einstellung für „Max. Anzahl geöffneter Dateien“. Versionen mit einem niedrigeren Limit für geöffnete Dateien verursachen beim Senden des Spark-Jobs den Fehler „Zu viele offene Dateien“. In den betroffenen Versionen hat das Amazon-EMR-Standard-AMI eine Ulimit-Standardeinstellung von 4 096 für „Max. Anzahl geöffneter Dateien“, was unter dem Dateilimit von 65 536 im neuesten Amazon-Linux-2-AMI liegt. Die niedrigere Ulimit-Einstellung für „Max. Anzahl geöffneter Dateien“ führt dazu, dass der Spark-Job fehlschlägt, wenn der Spark-Treiber und der Executor versuchen, mehr als 4 096 Dateien zu öffnen. Um das Problem zu beheben, verfügt Amazon EMR über ein Bootstrap Action (BA)-Skript, das die Ulimit-Einstellung bei der Cluster-Erstellung anpasst. 

  Wenn Sie eine ältere Amazon-EMR-Version verwenden, für die dieses Problem nicht dauerhaft behoben ist, können Sie mit der folgenden Problemumgehung das Instance-Controller-Ulimit explizit auf maximal 65 536 Dateien festlegen.

**Explizit ein ulimit über die Befehlszeile setzen**

  1. Bearbeiten Sie `/etc/systemd/system/instance-controller.service`, um die folgenden Parameter zum Abschnitt Service hinzuzufügen.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Starten Sie neu InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Mithilfe der Bootstrap-Aktion (BA) ein Ulimit festlegen**

  Sie können auch ein Bootstrap-Aktionsskript (BA) verwenden, um das Ulimit für den Instance-Controller bei der Clustererstellung auf 65 536 Dateien zu konfigurieren.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ Die interaktive Spark-Shell PySpark, einschließlich SparkR und Spark-Shell, unterstützt die Verwendung von Docker mit zusätzlichen Bibliotheken nicht.
+ Um Python 3 mit Amazon-EMR-Version 6.0.0 zu verwenden, müssen Sie `PATH` zu `yarn.nodemanager.env-whitelist` hinzufügen.
+ Die Funktion Live Long and Process (LLAP) wird nicht unterstützt, wenn Sie den AWS Glue-Datenkatalog als Metastore für Hive verwenden.
+ Wenn Sie Amazon EMR 6.0.0 mit Spark- und Docker-Integration verwenden, müssen Sie die Instances in Ihrem Cluster mit demselben Instance-Typ und derselben Anzahl an EBS-Volumes konfigurieren, um Fehler beim Senden eines Spark-Auftrags mit Docker-Laufzeit zu vermeiden.
+ In Amazon EMR 6.0.0 ist der Speichermodus HBase auf Amazon S3 vom [HBASE-24286.-Problem](https://issues.apache.org/jira/browse/HBASE-24286) betroffen. HBase Master kann nicht initialisiert werden, wenn der Cluster mit vorhandenen S3-Daten erstellt wird.
+ Bekanntes Problem in Clustern mit mehreren Primärknoten und Kerberos-Authentifizierung

  Wenn Sie Cluster mit mehreren Primärknoten und Kerberos-Authentifizierung in Amazon-EMR-Versionen 5.20.0 und höher ausführen, können Probleme mit Cluster-Vorgängen wie dem Herunterskalieren oder der schrittweisen Übermittlung auftreten, nachdem der Cluster einige Zeit lang ausgeführt wurde. Der Zeitraum hängt von der Gültigkeitsdauer des Kerberos-Tickets ab, die Sie definiert haben. Das Herunterskalierungs-Problem wirkt sich sowohl auf automatische als auch auf explizite Herunterskalierungs-Anfragen aus, die Sie eingereicht haben. Weitere Clustervorgänge können ebenfalls beeinträchtigt werden. 

  Workaround:
  + SSH als `hadoop`-Benutzer für den führenden Primärknoten des EMR-Clusters mit mehreren Primärknoten.
  +  Führen Sie den folgenden Befehl aus, um das Kerberos-Ticket für den `hadoop`-Benutzer zu erneuern. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    In der Regel befindet sich die Keytab-Datei unter `/etc/hadoop.keytab` und der Prinzipal hat das Format von `hadoop/<hostname>@<REALM>`.
**Anmerkung**  
Diese Problemumgehung gilt für den Zeitraum, in dem das Kerberos-Ticket gültig ist. Diese Dauer beträgt standardmäßig 10 Stunden, kann aber anhand Ihrer Kerberos-Einstellungen konfiguriert werden. Sie müssen den obigen Befehl erneut ausführen, sobald das Kerberos-Ticket abgelaufen ist.

## 6.0.0 Komponentenversionen
<a name="emr-600-components"></a>

Die Komponenten, die Amazon EMR mit dieser Version installiert, sind nachstehend aufgeführt. Einige werden als Teil von Big-Data-Anwendungspaketen installiert. Andere sind nur für Amazon EMR verfügbar und werden für Systemprozesse und -Features installiert. Diese beginnen in der Regel mit `emr` oder `aws`. Big-Data-Anwendungspakete in der aktuellsten Amazon-EMR-Version sind in der Regel die aktuelle Version, die in der Community zu finden ist. Wir stellen Community-Versionen in Amazon EMR so schnell wie möglich zur Verfügung.

Einige Komponenten in Amazon EMR unterscheiden sich von Community-Versionen. Diese Komponenten verfügen über eine Versionsbezeichnung in der Form `CommunityVersion-amzn-EmrVersion`. Der `EmrVersion` beginnt bei 0. Wenn zum Beispiel eine Open-Source-Community-Komponente mit dem Namen `myapp-component` der Version 2.2 dreimal für die Aufnahme in verschiedene Amazon-EMR-Versionen geändert wurde, wird ihre Version als `2.2-amzn-2` aufgeführt.


| Komponente | Version | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark-SDK | 
| emr-ddb | 4.14.0 | Amazon DynamoDB-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-goodies | 3.0.0 | Praktische Bibliotheken für das Hadoop-Ökosystem. | 
| emr-kinesis | 3.5.0 | Amazon Kinesis-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| emr-s3-dist-cp | 2.14.0 | Verteilte Kopieranwendung, die für Amazon S3 optimiert ist. | 
| emr-s3-select | 1.5.0 | EMR S3Select-Konnektor | 
| emrfs | 2.39.0 | Amazon S3-Connector für Anwendungen aus dem Hadoop-Ökosystem. | 
| ganglia-monitor | 3.7.2 | Eingebetteter Ganglia-Agent für Anwendungen aus dem Hadoop-Ökosystem zusammen mit dem Ganglia-Überwachungsagent. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia-Metadaten-Kollektor zum Aggregieren von Metriken aus Ganglia-Überwachungsagenten. | 
| ganglia-web | 3.7.1 | Webanwendung zum Anzeigen von durch den Ganglia-Metadaten-Kollektor gesammelten Metriken. | 
| hadoop-client | 3.2.1-amzn-0 | Hadoop-Befehlszeilen-Clients wie z. B. "hdfs", "Hadoop" oder "Garn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-0 | HDFS-Service auf Knotenebene zum Speichern von Blöcken. | 
| hadoop-hdfs-library | 3.2.1-amzn-0 | HDFS-Client und -Bibliothek für die Befehlszeile | 
| hadoop-hdfs-namenode | 3.2.1-amzn-0 | HDFS-Service für die Nachverfolgung von Dateinamen und Block-Speicherorten. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-0 | HDFS-Service zum Verwalten des Hadoop-Dateisystemjournals auf HA-Clustern. | 
| hadoop-httpfs-server | 3.2.1-amzn-0 | HTTP-Endpunkt für HDFS-Operationen. | 
| hadoop-kms-server | 3.2.1-amzn-0 | Kryptografischer Schlüsselverwaltungsserver, der auf der Hadoop-API basiert. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-0 | MapReduce Execution Engine-Bibliotheken zum Ausführen einer MapReduce Anwendung. | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-0 | YARN-Service für die Verwaltung von Containern auf einem einzelnen Knoten. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-0 | YARN-Service für Zuweisung und Verwaltung von Cluster-Ressourcen und verteilten Anwendungen. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-0 | Service für das Abrufen von aktuellen und historischen Informationen für YARN-Anwendungen. | 
| hbase-hmaster | 2.2.3 | Dienst für einen HBase Cluster, der für die Koordination von Regionen und die Ausführung von Verwaltungsbefehlen verantwortlich ist. | 
| hbase-region-server | 2.2.3 | Dienst für die Versorgung einer oder mehrerer HBase Regionen. | 
| hbase-client | 2.2.3 | HBase Befehlszeilenclient. | 
| hbase-rest-server | 2.2.3 | Dienst, der einen RESTful HTTP-Endpunkt für bereitstellt. HBase | 
| hbase-thrift-server | 2.2.3 | Dienst, der einen Thrift-Endpunkt für HBase bereitstellt. | 
| hcatalog-client | 3.1.2-amzn-0 | Der "hcat"-Befehlszeilen-Client-für das Bearbeiten des hcatalog-Servers. | 
| hcatalog-server | 3.1.2-amzn-0 | Bereitstellung von Diensten HCatalog, einer Tabelle und einer Speicherverwaltungsebene für verteilte Anwendungen. | 
| hcatalog-webhcat-server | 3.1.2-amzn-0 | HTTP-Endpunkt, der eine REST-Schnittstelle für bereitstellt HCatalog. | 
| hive-client | 3.1.2-amzn-0 | Hive-Befehlszeilen-Client. | 
| hive-hbase | 3.1.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-0 | Service für den Zugriff auf den Hive-Metastore (ein semantisches Repository für die Speicherung von Metadaten für SQL zu Hadoop-Operationen). | 
| hive-server2 | 3.1.2-amzn-0 | Service zur Annahme von Hive-Abfragen als Webanfragen. | 
| hudi | 0.5.0-incubating-amzn-1 | Inkrementelles Verarbeitungs-Framework zur Stromversorgung der Datenpipline bei geringer Latenz und hoher Effizienz. | 
| hudi-presto | 0.5.0-incubating-amzn-1 | Bundle-Bibliothek zum Ausführen von Presto mit Hudi. | 
| hue-server | 4.4.0 | Webanwendung für die Analyse von Daten mithilfe von Hadoop-Anwendungen. | 
| jupyterhub | 1.0.0 | Multi-User-Server für Jupyter-Notebooks | 
| livy-server | 0.6.0-incubating | REST-Schnittstelle für die Interaktion mit Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] ist ein HTTP- und Reverse-Proxy-Server. | 
| mxnet | 1.5.1 | Eine flexible, skalierbare und effiziente Bibliothek für Deep Learning. | 
| mariadb-server | 5.5.64\$1 | MariaDB-Datenbankserver. | 
| nvidia-cuda | 9.2.88 | Nvidia-Treiber und Cuda-Toolkit | 
| oozie-client | 5.1.0 | Oozie-Befehlszeilen-Client. | 
| oozie-server | 5.1.0 | Service für die Annahme von Oozie Workflow-Anforderungen. | 
| opencv | 3.4.0 | Open Source Computer Vision Library. | 
| phoenix-library | 5.0.0- -2.0 HBase | Die Phoenix-Bibliotheken für den Server und den Client | 
| phoenix-query-server | 5.0.0- -2,0 HBase | Ein schlanker Server für den Zugriff auf JDBC und Protokollpuffer sowie den Zugriff auf die Avatica-API über das JSON-Format.  | 
| presto-coordinator | 0.230 | Service zur Annahme von Abfragen und die Verwaltung der Abfrageausführung der Presto-Worker. | 
| presto-worker | 0.230 | Service für das Ausführen von Teilen einer Abfrage. | 
| presto-client | 0.230 | Presto-Befehlszeilenclient, der auf den Standby-Mastern eines HA-Clusters installiert ist, auf denen der Presto-Server nicht gestartet wird. | 
| r | 3.4.3 | The R Project for Statistical Computing (Software zur statistischen Datenverarbeitung) | 
| spark-client | 2.4.4 | Spark-Befehlszeilen-Clients. | 
| spark-history-server | 2.4.4 | Web-Benutzeroberfläche zum Anzeigen von protokollierten Ereignissen für die gesamte Lebensdauer einer abgeschlossenen Spark-Anwendung. | 
| spark-on-yarn | 2.4.4 | In-Memory-Ausführungs-Engine für YARN. | 
| spark-yarn-slave | 2.4.4 | Apache Spark-Bibliotheken, die von YARN-Slaves benötigt werden. | 
| tensorflow | 1.14.0 | TensorFlow Open-Source-Softwarebibliothek für leistungsstarke numerische Berechnungen. | 
| tez-on-yarn | 0.9.2 | Die Tez-YARN-Anwendung und -Bibliotheken. | 
| webserver | 2.4.41\$1 | Apache HTTP-Server. | 
| zeppelin-server | 0.9.0-SNAPSHOT | Webbasiertes Notizbuch, das interaktive Datenanalysen ermöglicht. | 
| zookeeper-server | 3.4.14 | Zentraler Service für die Verwaltung von Konfigurationsinformationen, die Benennung, die Bereitstellung verteilter Synchronisierung und die Bereitstellung von Gruppenservices. | 
| zookeeper-client | 3.4.14 | ZooKeeper Befehlszeilen-Client. | 

## 6.0.0 Konfigurationsklassifizierungen
<a name="emr-600-class"></a>

Mithilfe von Konfigurationsklassifizierungen können Sie Anwendungen anpassen. Diese entsprechen häufig einer XML-Konfigurationsdatei für die Anwendung, z. B. `hive-site.xml` Weitere Informationen finden Sie unter [Anwendungen konfigurieren](emr-configure-apps.md).


**emr-6.0.0-Klassifizierungen**  

| Klassifizierungen | Description | 
| --- | --- | 
| capacity-scheduler | Ändert die Werte in der capacity-scheduler.xml-Datei in Hadoop. | 
| container-executor | Ändern Sie die Werte in der Datei „container-executor.cfg“ Datei von Hadoop YARN. | 
| container-log4j | Ändert die Werte in der container-log4j.properties-Datei in Hadoop YARN. | 
| core-site | Ändert die Werte in der core-site.xml-Datei in Hadoop. | 
| emrfs-site | Ändert die EMRFS-Einstellungen. | 
| hadoop-env | Ändert die Werte in der Hadoop-Umgebung für alle Hadoop-Komponenten. | 
| hadoop-log4j | Ändert die Werte in der log4j.properties-Datei in Hadoop. | 
| hadoop-ssl-server | Ändert die SSL-Server-Konfiguration in Hadoop. | 
| hadoop-ssl-client | Ändert die SSL-Client-Konfiguration in Hadoop. | 
| hbase | Von Amazon EMR kuratierte Einstellungen für Apache. HBase | 
| hbase-env | Ändern Sie die Werte in der Umgebung HBase. | 
| hbase-log4j | Ändern Sie die Werte in der Datei HBase hbase-log4j.properties. | 
| hbase-metrics | Ändern Sie die Werte in der Datei hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Ändern Sie HBase die Werte in der Datei hbase-policy.xml. | 
| hbase-site | Ändern Sie die Werte in HBase der Datei hbase-site.xml. | 
| hdfs-encryption-zones | Konfiguriert die HDFS-Verschlüsselungszonen. | 
| hdfs-env | Ändert die Werte in der HDFS-Umgebung. | 
| hdfs-site | Ändert die Werte in der hdfs-site.xml-Datei in HDFS. | 
| hcatalog-env | Werte in HCatalog der Umgebung ändern. | 
| hcatalog-server-jndi | Ändern Sie die Werte in HCatalog's jndi.properties. | 
| hcatalog-server-proto-hive-site | Ändern Sie die Werte in .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Werte in der HCatalog HCat Webumgebung ändern. | 
| hcatalog-webhcat-log4j2 | Ändern Sie die Werte in den HCat log4j2.properties von HCatalog Web. | 
| hcatalog-webhcat-site | Ändern Sie die Werte in der Datei webhcat-site.xml von HCatalog WebHCat. | 
| hive | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Hive. | 
| hive-beeline-log4j2 | Ändert die Werte in der beeline-log4j2.properties-Datei in Hive. | 
| hive-parquet-logging | Ändert die Werte in der parquet-logging.properties-Datei in Hive. | 
| hive-env | Ändert die Werte in der Hive-Umgebung. | 
| hive-exec-log4j2 | Ändern Sie die Werte in der Datei hive-exec-log 4j2.properties von Hive. | 
| hive-llap-daemon-log4j2 | Ändern Sie die Werte in der Datei 4j2.properties von Hive. llap-daemon-log | 
| hive-log4j2 | Ändert die Werte in der hive-log4j2.properties-Datei in Hive. | 
| hive-site | Ändert die Werte in der hive-site.xml-Datei in Hive. | 
| hiveserver2-site | Ändert die Werte in der hiveserver2-site.xml-Datei von Server2 in Hive. | 
| hue-ini | Ändert die Werte in der INI-Datei in Hue. | 
| httpfs-env | Ändert die Werte in der HTTPFS-Umgebung. | 
| httpfs-site | Ändert die Werte in der httpfs-site.xml-Datei in Hadoop. | 
| hadoop-kms-acls | Ändert die Werte in der kms-acls.xml-Datei in Hadoop. | 
| hadoop-kms-env | Ändert die Werte in der KMS-Umgebung in Hadoop. | 
| hadoop-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei in Hadoop. | 
| hadoop-kms-site | Ändert die Werte in der kms-site.xml-Datei in Hadoop. | 
| jupyter-notebook-conf | Ändert die Werte in der jupyter\$1notebook\$1config.py-Datei in Jupyter Notebook. | 
| jupyter-hub-conf | Ändern Sie die Werte in JupyterHubs der Datei jupyterhub\$1config.py. | 
| jupyter-s3-conf | Konfigurieren Sie die S3-Persistenz für Jupyter Notebooks. | 
| jupyter-sparkmagic-conf | Ändert die Werte in der config.json-Datei in Sparkmagic. | 
| livy-conf | Ändert die Werte in der livy.conf-Datei von Livy. | 
| livy-env | Ändert die Werte in der Livy-Umgebung. | 
| livy-log4j | Ändert die log4j.properties-Einstellungen für Livy. | 
| mapred-env | Ändern Sie die Werte in der MapReduce Anwendungsumgebung. | 
| mapred-site | Ändern Sie die Werte in der Datei mapred-site.xml der MapReduce Anwendung. | 
| oozie-env | Ändert die Werte in der Oozie-Umgebung. | 
| oozie-log4j | Ändert die Werte in der oozie-log4j.properties-Datei in Oozie. | 
| oozie-site | Ändert die Werte in der oozie-site.xml-Datei in Oozie. | 
| phoenix-hbase-metrics | Ändert die Werte in der hadoop-metrics2-hbase.properties-Datei in Phoenix. | 
| phoenix-hbase-site | Ändert die Werte in der hbase-site.xml-Datei in Phoenix. | 
| phoenix-log4j | Ändert die Werte in der log4j.properties-Datei in Phoenix. | 
| phoenix-metrics | Ändert die Werte in der hadoop-metrics2-phoenix.properties-Datei in Phoenix. | 
| presto-log | Ändert die Werte in der log.properties-Datei in Presto. | 
| presto-config | Ändert die Werte in der config.properties-Datei in Presto. | 
| presto-password-authenticator | Ändern Sie Werte in der Presto-Datei password-authenticator.properties. | 
| presto-env | Ändern Sie die Werte in der presto-env.sh-Datei in Presto. | 
| presto-node | Ändern Sie die Werte in der node.properties-Datei in Presto. | 
| presto-connector-blackhole | Ändert die Werte in der blackhole.properties-Datei in Presto. | 
| presto-connector-cassandra | Ändert die Werte in der cassandra.properties-Datei in Presto. | 
| presto-connector-hive | Ändert die Werte in der hive.properties-Datei in Presto. | 
| presto-connector-jmx | Ändert die Werte in der jmx.properties-Datei in Presto. | 
| presto-connector-kafka | Ändert die Werte in der kafka.properties-Datei in Presto. | 
| presto-connector-localfile | Ändert die Werte in der localfile.properties-Datei in Presto. | 
| presto-connector-memory | Ändert die Werte in der memory.properties-Datei in Presto. | 
| presto-connector-mongodb | Ändert die Werte in der mongodb.properties-Datei in Presto. | 
| presto-connector-mysql | Ändert die Werte in der mysql.properties-Datei in Presto. | 
| presto-connector-postgresql | Ändert die Werte in der postgresql.properties-Datei in Presto. | 
| presto-connector-raptor | Ändert die Werte in der raptor.properties-Datei in Presto. | 
| presto-connector-redis | Ändert die Werte in der redis.properties-Datei in Presto. | 
| presto-connector-redshift | Ändert die Werte in der redshift.properties-Datei. | 
| presto-connector-tpch | Ändert die Werte in der tpch.properties-Datei in Presto. | 
| presto-connector-tpcds | Ändert die Werte in der tpcds.properties-Datei in Presto. | 
| ranger-kms-dbks-site | Ändert die Werte in der dbks-site.xml-Datei von Ranger KMS. | 
| ranger-kms-site | Ändern Sie die Werte in der ranger-kms-site XML-Datei von Ranger KMS. | 
| ranger-kms-env | Ändert die Werte in der Ranger KMS-Umgebung. | 
| ranger-kms-log4j | Ändert die Werte in der kms-log4j.properties-Datei von Ranger KMS. | 
| ranger-kms-db-ca | Ändert die Werte für die CA-Datei auf S3 für die MySQL SSL-Verbindung mit Ranger KMS. | 
| recordserver-env | Werte in der RecordServer EMR-Umgebung ändern. | 
| recordserver-conf | Ändern Sie die Werte in der Datei RecordServer server.properties von EMR. | 
| recordserver-log4j | Ändern Sie die Werte in der Datei RecordServer log4j.properties von EMR. | 
| spark | Hierbei handelt es sich um von Amazon EMR zusammengestellte Einstellungen für Apache Spark. | 
| spark-defaults | Ändert die Werte in der spark-defaults.conf-Datei in Spark. | 
| spark-env | Ändert die Werte in der Spark-Umgebung. | 
| spark-hive-site | Ändert die Werte in der hive-site.xml-Datei in Spark. | 
| spark-log4j | Ändert die Werte in der log4j.properties-Datei in Spark. | 
| spark-metrics | Ändert die Werte in der metrics.properties-Datei in Spark. | 
| tez-site | Ändert die Werte in der tez-site.xml-Datei in Tez. | 
| yarn-env | Ändert die Werte in der YARN-Umgebung. | 
| yarn-site | Ändert die Werte in der yarn-site.xml-Datei in YARN. | 
| zeppelin-env | Ändert die Werte in der Zeppelin-Umgebung. | 
| zookeeper-config | Ändern Sie die Werte in ZooKeeper der Datei zoo.cfg. | 
| zookeeper-log4j | Ändern Sie die Werte in ZooKeeper der Datei log4j.properties. | 