

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Versiones de lanzamiento de Amazon EMR 6.x
<a name="emr-release-6x"></a>

Esta sección contiene las versiones de las aplicaciones, las notas de la versión, las versiones de los componentes y las clasificaciones de configuración de cada versión de lanzamiento de Amazon EMR 6.x.

Al lanzar un clúster, puede elegir entre varias versiones de Amazon EMR. Esto le permite probar y utilizar versiones de la aplicación que cumplan con sus requisitos de compatibilidad. El número de versión se especifica con la *etiqueta de versión*. Las etiquetas de versión tienen el formato `emr-x.x.x` Por ejemplo, `emr-7.12.0`.

Las nuevas versiones de Amazon EMR estarán disponibles en diferentes regiones durante un periodo de varios días, comenzando por la primera región en la fecha de lanzamiento inicial. Es posible que la versión de lanzamiento más reciente no esté disponible en su región durante este periodo.

Para obtener una tabla completa de las versiones de las aplicaciones incluidas en cada versión de Amazon EMR 6.x, consulte [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md).

**Topics**
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Amazon EMR, versión 6.15.0](emr-6150-release.md)
+ [Amazon EMR, versión 6.14.0](emr-6140-release.md)
+ [Amazon EMR, versión 6.13.0](emr-6130-release.md)
+ [Amazon EMR, versión 6.12.0](emr-6120-release.md)
+ [Amazon EMR, versión 6.11.1](emr-6111-release.md)
+ [Amazon EMR, versión 6.11.0](emr-6110-release.md)
+ [Amazon EMR, versión 6.10.1](emr-6101-release.md)
+ [Amazon EMR, versión 6.10.0](emr-6100-release.md)
+ [Amazon EMR, versión 6.9.1](emr-691-release.md)
+ [Amazon EMR, versión 6.9.0](emr-690-release.md)
+ [Amazon EMR, versión 6.8.1](emr-681-release.md)
+ [Amazon EMR, versión 6.8.0](emr-680-release.md)
+ [Amazon EMR, versión 6.7.0](emr-670-release.md)
+ [Amazon EMR, versión 6.6.0](emr-660-release.md)
+ [Amazon EMR, versión 6.5.0](emr-650-release.md)
+ [Amazon EMR, versión 6.4.0](emr-640-release.md)
+ [Amazon EMR, versión 6.3.1](emr-631-release.md)
+ [Amazon EMR, versión 6.3.0](emr-630-release.md)
+ [Amazon EMR, versión 6.2.1](emr-621-release.md)
+ [Amazon EMR, versión 6.2.0](emr-620-release.md)
+ [Amazon EMR, versión 6.1.1](emr-611-release.md)
+ [Amazon EMR, versión 6.1.0](emr-610-release.md)
+ [Amazon EMR, versión 6.0.1](emr-601-release.md)
+ [Amazon EMR, versión 6.0.0](emr-600-release.md)

# Versiones de la aplicación en las versiones 6.x de Amazon EMR
<a name="emr-release-app-versions-6.x"></a>

En la siguiente tabla se enumeran las versiones de la aplicación que están disponibles en cada versión de Amazon EMR 6.x.


**Información sobre la versión de la aplicación**  

|  | emr-6.15.0 | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS SDK for Java | 2.20.160-amzn-0, 1.12.569 | 1.12.543 | 1.12,513 | 1.12.490 | 1.12.446 | 1.12.446 | 1.12.397 | 1.12.397 | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.31 | 1.12.31 | 1.11.977 | 1.11.977 | 1.11.880 | 1.11.880 | 1.11,828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Flink | 1.17.1-amzn-1 | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 1.16.0 | 1.16.0 | 1.16.0 | 1.16.0 | 1.15.2 | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 | 1.14.2 | 1.14.0 | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-3 | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.3.6-amzn-1 | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.14.0-amzn-0 | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg | 1.4.0-amzn-0 | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.283-amzn-0 | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.10.0 | 2.10.0 | 2.9.1 | 2.9.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.10.2-amzn-6 | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 426-amzn-0 | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 360 | 359 | 350 | 350 | 343 | 343 | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.7 | 3.5.7 | 3.5.7 | 3.5.7 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

# Amazon EMR, versión 6.15.0
<a name="emr-6150-release"></a>

## Versiones de las aplicaciones de la versión 6.15.0
<a name="emr-6150-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.15.0 | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 2.20.160-amzn-0, 1.12.569 | 1.12.543 | 1.12,513 | 1.12.490 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Flink | 1.17.1-amzn-1 | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-3 | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 
| HCatalog | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 
| Hadoop | 3.3.6-amzn-1 | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 
| Hive | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 
| Hudi | 0.14.0-amzn-0 | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.4.0-amzn-0 | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.283-amzn-0 | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 
| Spark | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-6 | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 
| Trino (PrestoSQL) | 426-amzn-0 | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notas de la versión 6.15.0
<a name="emr-6150-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.15.0 de Amazon EMR. Los cambios son respecto a la versión 6.14.0. Para obtener información sobre el cronograma de lanzamiento, consulte el [Registro de cambios de la versión 6.15.0](#6150-changelog).

**Nuevas características**
+ **Actualizaciones de la aplicación**: Amazon EMR 6.15.0 application upgrades include Apache Hadoop 3.3.6, Apache Hudi 0.14.0-amzn-0, Iceberg 1.4.0-amzn-0, and Trino 426.
+ **[Lanzamientos más rápidos para clústeres de EMR que se ejecutan en EC2](https://aws.amazon.com/about-aws/whats-new/2023/11/amazon-emr-ec2-clusters-5-minutes-less/)**: ahora es hasta un 35 % más rápido lanzar un clúster de Amazon EMR en EC2. Con esta mejora, la mayoría de los clientes pueden lanzar sus clústeres en 5 minutos o menos.
+ **[CodeWhisperer para EMR Studio](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-studio-codewhisperer.html)**: ahora puede utilizar Amazon con CodeWhisperer Amazon EMR Studio para obtener recomendaciones en tiempo real a medida que escribe código. JupyterLab CodeWhisperer puede completar sus comentarios, terminar líneas de código individuales, hacer line-by-line recomendaciones y generar funciones con formato completo.
+ **[Tiempos de reinicio de tareas más rápidos con Flink](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/flink-restart.html)**: con Amazon EMR 6.15.0 y versiones posteriores, Apache Flink dispone de varios mecanismos nuevos para mejorar el tiempo de reinicio de los trabajos durante las operaciones de recuperación o escalado de tareas. Esto optimiza la velocidad de los gráficos de recuperación y reinicio de la ejecución para mejorar la estabilidad del trabajo.
+ **[Control de acceso detallado y a nivel de tabla para formatos de tabla abierta:](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lf-enable.html)** con Amazon EMR 6.15.0 y versiones posteriores, cuando ejecuta trabajos de Spark en Amazon EMR en clústeres de EC2 que acceden a los datos del catálogo de datos de AWS Glue, puede AWS Lake Formation utilizar para aplicar permisos a nivel de tabla, fila, columna y celda en tablas basadas en Hudi, Iceberg o Delta Lake.
+ **Actualización de Hadoop**: Amazon EMR 6.15.0 incluye una actualización de Apache Hadoop a la versión 3.3.6. Hadoop 3.3.6 era la versión más reciente en el momento de la implementación de Amazon EMR 6.15, lanzada por Apache en junio de 2023. Las versiones anteriores de Amazon EMR (6.9.0 a 6.14.x) utilizaban Hadoop 3.3.3.

  La actualización incluye cientos de mejoras y correcciones, además de características que incluyen parámetros de nodos de datos reconfigurables, la opción `DFSAdmin` para iniciar operaciones de reconfiguración masiva en todos los nodos de datos activos y una API vectorizada que permite a los lectores más exigentes especificar varios rangos de lectura. Hadoop 3.3.6 también añade compatibilidad con HDFS APIs y semántica para su registro de escritura anticipada (WAL), de modo que HBase pueda ejecutarse en otras implementaciones de sistemas de almacenamiento. Para obtener más información, consulte los registros de cambios de las versiones [3.3.4](https://hadoop.apache.org/docs/r3.3.4/hadoop-project-dist/hadoop-common/release/3.3.4/CHANGELOG.3.3.4.html), [3.3.5](https://hadoop.apache.org/docs/r3.3.5/hadoop-project-dist/hadoop-common/release/3.3.5/CHANGELOG.3.3.5.html) y [3.3.6](https://hadoop.apache.org/docs/r3.3.6/hadoop-project-dist/hadoop-common/release/3.3.6/CHANGELOG.3.3.6.html) en la *documentación de Apache Hadoop*.
+ **Soporte para AWS SDK for Java, versión 2**: las aplicaciones de Amazon EMR 6.15.0 pueden usar las versiones [1.12.569](https://github.com/aws/aws-sdk-java/tree/1.12.569) o [2.20.160 AWS](https://github.com/aws/aws-sdk-java-v2/tree/2.20.160) del SDK para Java si la aplicación es compatible con la versión 2. El AWS SDK para Java 2.x es una importante reescritura del código base de la versión 1.x. Se basa en Java 8 y agrega varias características solicitadas con frecuencia. Entre estas se incluyen la compatibilidad con operaciones de E/S sin bloqueo y la capacidad de conectar una implementación HTTP diferente en tiempo de ejecución. Para obtener más información, incluida una **guía de migración del SDK para Java v1 a la v2**, consulte la guía [AWS SDK para Java, versión 2](https://docs.aws.amazon.com/sdk-for-java).

**Problemas conocidos**
+ Un script de estado de instancia integrado en el clúster que monitorea el estado de la instancia puede consumir demasiados recursos de CPU y memoria cuando hay un gran número de subprocesos and/or abiertos (identificadores de archivos) en el nodo.

**Cambios, mejoras y problemas resueltos**
+  A partir de Spark 3.3.1 (compatible con las versiones 6.10 y posteriores de EMR), todos los ejecutores de un host de desmantelamiento pasan a un nuevo `ExecutorState`, denominado estado de *RETIRADA*. Yarn no puede utilizar los ejecutores que se están retirando para asignar tareas y, por lo tanto, solicitará nuevos ejecutores, si es necesario, para las tareas que se están ejecutando. Por lo tanto, si deshabilita Spark DRA mientras usa EMR Managed Scaling, EMR Auto Scaling o cualquier mecanismo de escalado personalizado en los clústeres de EMR-EC2, Yarn puede solicitar el máximo de ejecutores permitidos para cada trabajo. Para evitar este problema, deje la propiedad `spark.dynamicAllocation.enabled` establecida en `TRUE` (que es la predeterminada) cuando utilice la combinación de características anterior. Además, también puede establecer restricciones de ejecutor mínimas y máximas si configura valores para las propiedades `spark.dynamicAllocation.maxExecutors` y `spark.dynamicAllocation.minExecutors` para sus trabajos de Spark, a fin de restringir el número de ejecutores asignados durante la ejecución del trabajo. 
+ Para mejorar sus clústeres de EMR de alta disponibilidad, esta versión permite la conectividad con los daemons de Amazon EMR en un host local que utiliza puntos de conexión IPv6.
+ Esta versión permite que TLS 1.2 se comunique con los nodos ZooKeeper aprovisionados en todos los nodos principales del clúster de alta disponibilidad.
+ Esta versión mejora la administración de los archivos de registro de ZooKeeper transacciones que se mantienen en los nodos principales para minimizar los escenarios en los que los archivos de registro se exceden de los límites e interrumpen las operaciones del clúster.
+ Esta versión hace que la comunicación entre nodos sea más resiliente para los clústeres de EMR de alta disponibilidad. Esta mejora reduce la posibilidad de que se produzcan errores en las acciones de arranque o en el inicio del clúster.
+ En Amazon EMR 6.15.0, Tez presenta configuraciones que puede especificar para abrir de forma asíncrona las divisiones de entrada en una división agrupada de Tez. Esto se traduce en un rendimiento más rápido de las consultas de lectura cuando hay un gran número de divisiones de entrada en una sola división agrupada de Tez. Para obtener más información, consulte [Apertura de división asíncrona de Tez](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/tez-configure.html#tez-configure-async).
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-6150-release.html)

## Versiones predeterminadas de Java para la versión 6.15.0
<a name="emr-6150-jdk"></a>

Las versiones 6.12.0 y posteriores de Amazon EMR son compatibles con todas las aplicaciones con Amazon Corretto 8 de forma predeterminada, excepto Trino. En el caso de Trino, Amazon EMR es compatible con Amazon Corretto 17 de forma predeterminada a partir de la versión 6.9.0 de Amazon EMR. Amazon EMR también admite algunas aplicaciones con Amazon Corretto 11 y 17. Esas aplicaciones se indican en la siguiente tabla. Si desea cambiar la JVM predeterminada del clúster, siga las instrucciones de [Configuración de aplicaciones para utilizar una máquina virtual de Java específica](configuring-java8.md) para cada aplicación que se ejecute en el clúster. Solo se puede usar una versión de tiempo de ejecución de Java en un clúster. Amazon EMR no admite la ejecución de distintos nodos o aplicaciones en distintas versiones de tiempo de ejecución en el mismo clúster.

Si bien Amazon EMR es compatible con Amazon Corretto 11 y 17 en Apache Spark, Apache Hadoop y Apache Hive, es posible que el rendimiento de algunas cargas de trabajo disminuya cuando utilice estas versiones de Corretto. Se recomienda que pruebe sus cargas de trabajo antes de cambiar los valores predeterminados.

En la siguiente tabla, se muestran las versiones predeterminadas de Java para las aplicaciones en Amazon EMR 6.15.0:


| Aplicación | Versión de Java o Amazon Corretto (el valor predeterminado está en negrita) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| ZooKeeper | 8 | 

## Versiones de los componentes de la versión 6.15.0
<a name="emr-6150-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | SDK de Amazon SageMaker Spark | 
| delta | 2.4.0 | Delta Lake es un formato de tabla abierto para conjuntos de datos analíticos de gran tamaño | 
| delta-standalone-connectors | 0.6.0 | Los conectores de Delta ofrecen diferentes tiempos de ejecución para integrar Delta Lake con motores como Flink, Hive y Presto. | 
| emr-ddb | 5.2.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.8.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.12.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.7.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.29.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.8.0 | Conector S3Select de EMR | 
| emr-wal-cli | 1.2.0 | CLI utilizada para eliminar o enumerar WAL de ERM. | 
| emrfs | 2.60.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.17.1-amzn-1 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.17.1-amzn-1 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.3.6-amzn-1 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.6-amzn-1 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.3.6-amzn-1 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.3.6-amzn-1 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-1 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.3.6-amzn-1 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.3.6-amzn-1 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.6-amzn-1 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-1 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-1 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-1 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.17-amzn-3 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.17-amzn-3 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.17-amzn-3 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.17-amzn-3 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.17-amzn-3 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.17-amzn-3 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.3-amzn-8 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-8 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.3-amzn-8 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.3-amzn-8 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.3-amzn-8 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-8 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.3-amzn-8 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.14.0-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.14.0-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.14.0-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.14.0-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.11.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 1.4.0-amzn-0 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.5.0 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.9.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.8.0 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.7.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.3 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 5.1.3 | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 6.0.0 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.283-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.283-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.283-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 426-amzn-0 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 426-amzn-0 | Service para ejecutar partes de una consulta. | 
| trino-client | 426-amzn-0 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.4.1-amzn-2 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.4.1-amzn-2 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.4.1-amzn-2 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.4.1-amzn-2 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 23.08.1-amzn-0 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.10.2-amzn-6 | La aplicación YARN de tez y bibliotecas. | 
| tez-on-worker | 0.10.2-amzn-6 | La aplicación YARN de tez y bibliotecas para nodos de trabajo. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.10 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.10 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.15.0
<a name="emr-6150-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.15.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Cambie la página de inicio de Java de KMS de Hadoop | Not available. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| delta-defaults | Cambie los valores del archivo delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j2 | Cambiar la configuración de log4j2.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Cambiar los valores en el archivo lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Cambie los valores del archivo delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Cambie los valores del archivo exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Cambiar los valores en el archivo hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Cambie los valores del archivo kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j2 | Cambiar los valores en el archivo log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

## Registro de cambios de la versión 6.15.0
<a name="6150-changelog"></a>


**Registro de cambios de la versión 6.15.0 y notas de la versión**  

| Date | Event | Description (Descripción) | 
| --- | --- | --- | 
| 2025-09-03 | Revisión de documentos | Las notas de la versión 6.15.0 de Amazon EMR agregaron un problema conocido | 
| 2023-11-17 | Publicación de documentos | Primera publicación de las notas de la versión 6.15.0 de Amazon EMR | 
| 2023-11-17 | Implementación completa | Amazon EMR 6.15.0 se ha implementado completamente en todas las [regiones compatibles](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-11-13 | Versión inicial | Implementación inicial de Amazon EMR 6.15.0 en regiones comerciales limitadas | 

# Amazon EMR, versión 6.14.0
<a name="emr-6140-release"></a>

## Versiones de las aplicaciones de la versión 6.14.0
<a name="emr-6140-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.543 | 1.12,513 | 1.12.490 | 1.12.446 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.2.0 | 
| Flink | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 
| HCatalog | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 
| Hadoop | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 
| Hive | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 
| Hudi | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 
| Spark | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 
| Trino (PrestoSQL) | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notas de la versión 6.14.0
<a name="emr-6140-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.14.0 de Amazon EMR. Los cambios son respecto a la versión 6.13.0. Para obtener información sobre el cronograma de lanzamiento, consulte el [Registro de cambios de la versión 6.14.0](#6140-changelog).

**Nuevas características**
+ Amazon EMR 6.14.0 supports Apache Spark 3.4.1, Apache Spark RAPIDS 23.06.0-amzn-2, Flink 1.17.1, Iceberg 1.3.1, and Trino 422.
+ El [Escalado administrado de Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) ya está disponible en la región Asia-Pacífico (Yakarta) `ap-southeast-3` para los clústeres que cree con Amazon EMR 6.14.0 y versiones posteriores.

**Problemas conocidos**
+ Un script de estado de instancia integrado en el clúster que monitorea el estado de la instancia puede consumir demasiados recursos de CPU y memoria cuando hay un gran número de subprocesos and/or abiertos (identificadores de archivos) en el nodo.

**Cambios, mejoras y problemas resueltos**
+  A partir de Spark 3.3.1 (compatible con las versiones 6.10 y posteriores de EMR), todos los ejecutores de un host de desmantelamiento pasan a un nuevo `ExecutorState`, denominado estado de *RETIRADA*. Yarn no puede utilizar los ejecutores que se están retirando para asignar tareas y, por lo tanto, solicitará nuevos ejecutores, si es necesario, para las tareas que se están ejecutando. Por lo tanto, si deshabilita Spark DRA mientras usa EMR Managed Scaling, EMR Auto Scaling o cualquier mecanismo de escalado personalizado en los clústeres de EMR-EC2, Yarn puede solicitar el máximo de ejecutores permitidos para cada trabajo. Para evitar este problema, deje la propiedad `spark.dynamicAllocation.enabled` establecida en `TRUE` (que es la predeterminada) cuando utilice la combinación de características anterior. Además, también puede establecer restricciones de ejecutor mínimas y máximas si configura valores para las propiedades `spark.dynamicAllocation.maxExecutors` y `spark.dynamicAllocation.minExecutors` para sus trabajos de Spark, a fin de restringir el número de ejecutores asignados durante la ejecución del trabajo. 
+ La versión 6.14.0 optimiza la administración de registros con Amazon EMR en ejecución en Amazon EC2. Como resultado, es posible que observe una pequeña reducción en los costos de almacenamiento de los registros de su clúster.
+ La versión 6.14.0 mejora el flujo de trabajo de escalado para tener en cuenta las diferentes instancias principales que tienen una variación sustancial de tamaño en sus volúmenes de Amazon EBS. Esta mejora se aplica únicamente a los nodos principales; las operaciones de reducción vertical de la escala de los nodos de tareas no se ven afectadas.
+ La versión 6.14.0 mejora la forma en que Amazon EMR interactúa con aplicaciones de código abierto, como Apache Hadoop YARN ResourceManager and HDFS NameNode. Esta mejora reduce el riesgo de que se produzcan retrasos operativos relacionados con el escalado de clústeres y mitiga las fallas en el arranque que se producen debido a problemas de conectividad con las aplicaciones de código abierto.
+ La versión 6.14.0 optimiza la instalación de las aplicaciones durante el lanzamiento del clúster. Esto reduce la cantidad necesaria de tiempo para que arranque el clúster para determinadas combinaciones de aplicaciones de Amazon EMR.
+ La versión 6.14.0 corrige un problema por el que las operaciones de reducción vertical de la escala del clúster se interrumpen cuando un clúster que se ejecuta en una VPC con un dominio personalizado experimenta el reinicio de un nodo de tareas o nodo principal.
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-6140-release.html)

## Versiones predeterminadas de Java para la versión 6.14.0
<a name="emr-6140-jdk"></a>

Las versiones 6.12.0 y posteriores de Amazon EMR son compatibles con todas las aplicaciones con Amazon Corretto 8 de forma predeterminada, excepto Trino. En el caso de Trino, Amazon EMR es compatible con Amazon Corretto 17 de forma predeterminada a partir de la versión 6.9.0 de Amazon EMR. Amazon EMR también admite algunas aplicaciones con Amazon Corretto 11 y 17. Esas aplicaciones se indican en la siguiente tabla. Si desea cambiar la JVM predeterminada del clúster, siga las instrucciones de [Configuración de aplicaciones para utilizar una máquina virtual de Java específica](configuring-java8.md) para cada aplicación que se ejecute en el clúster. Solo se puede usar una versión de tiempo de ejecución de Java en un clúster. Amazon EMR no admite la ejecución de distintos nodos o aplicaciones en distintas versiones de tiempo de ejecución en el mismo clúster.

Si bien Amazon EMR es compatible con Amazon Corretto 11 y 17 en Apache Spark, Apache Hadoop y Apache Hive, es posible que el rendimiento de algunas cargas de trabajo disminuya cuando utilice estas versiones de Corretto. Se recomienda que pruebe sus cargas de trabajo antes de cambiar los valores predeterminados.

En la siguiente tabla, se muestran las versiones predeterminadas de Java para las aplicaciones en Amazon EMR 6.14.0:


| Aplicación | Versión de Java o Amazon Corretto (el valor predeterminado está en negrita) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| ZooKeeper | 8 | 

## Versiones de los componentes de la versión 6.14.0
<a name="emr-6140-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | SDK de Amazon SageMaker Spark | 
| delta | 2.4.0 | Delta Lake es un formato de tabla abierto para conjuntos de datos analíticos de gran tamaño | 
| delta-standalone-connectors | 0.6.0 | Los conectores de Delta ofrecen diferentes tiempos de ejecución para integrar Delta Lake con motores como Flink, Hive y Presto. | 
| emr-ddb | 5.1.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.7.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.11.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.7.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.28.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.7.0 | Conector S3Select de EMR | 
| emr-wal-cli | 1.1.0 | CLI utilizada para eliminar o enumerar WAL de ERM. | 
| emrfs | 2.59.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.17.1-amzn-0 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.17.1-amzn-0 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.3.3-amzn-6 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-6 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.3.3-amzn-6 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-6 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-6 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.3.3-amzn-6 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-6 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-6 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-6 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-6 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-6 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.17-amzn-2 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.17-amzn-2 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.17-amzn-2 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.17-amzn-2 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.17-amzn-2 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.17-amzn-2 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.3-amzn-7 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-7 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.3-amzn-7 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.3-amzn-7 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.3-amzn-7 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-7 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.3-amzn-7 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.13.1-amzn-2 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.13.1-amzn-2 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.13.1-amzn-2 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.13.1-amzn-2 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.11.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 1.3.1-amzn-0 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.5.0 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.9.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.8.0 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.7.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.3 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 5.1.3 | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 6.0.0 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.281-amzn-2 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.281-amzn-2 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.281-amzn-2 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 422-amzn-0 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 422-amzn-0 | Service para ejecutar partes de una consulta. | 
| trino-client | 422-amzn-0 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.4.1-amzn-1 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.4.1-amzn-1 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.4.1-amzn-1 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.4.1-amzn-1 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 23.06.0-amzn-2 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.10.2-amzn-5 | La aplicación YARN de tez y bibliotecas. | 
| tez-on-worker | 0.10.2-amzn-5 | La aplicación YARN de tez y bibliotecas para nodos de trabajo. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.10 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.10 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.14.0
<a name="emr-6140-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.14.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Cambie la página de inicio de Java de KMS de Hadoop | Not available. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| delta-defaults | Cambie los valores del archivo delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j2 | Cambiar la configuración de log4j2.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Cambiar los valores en el archivo lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Cambie los valores del archivo delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Cambie los valores del archivo exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Cambiar los valores en el archivo hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Cambie los valores del archivo kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j2 | Cambiar los valores en el archivo log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

## Registro de cambios de la versión 6.14.0
<a name="6140-changelog"></a>


**Registro de cambios de la versión 6.14.0 y notas de la versión**  

| Date | Event | Description (Descripción) | 
| --- | --- | --- | 
| 2025-09-03 | Revisión de documentos | Las notas de la versión 6.14.0 de Amazon EMR agregaron un problema conocido | 
| *2023-11-02* | Implementación completa | Amazon EMR 6.14.0 se ha implementado completamente en todas las [regiones compatibles](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-10-10 | Publicación de documentos | Primera publicación de las notas de la versión 6.14.0 de Amazon EMR | 
| 2023-10-04 | Versión inicial | Implementación inicial de Amazon EMR 6.14.0 en regiones comerciales limitadas | 

# Amazon EMR, versión 6.13.0
<a name="emr-6130-release"></a>

## Versiones de las aplicaciones de la versión 6.13.0
<a name="emr-6130-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.513 | 1.12.490 | 1.12.446 | 1.12.446 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.17.0 | 1.17.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 
| HCatalog | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 
| Hadoop | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 
| Hive | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 
| Hudi | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 
| Spark | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 
| Trino (PrestoSQL) | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notas de la versión 6.13.0
<a name="emr-6130-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.13.0 de Amazon EMR. Los cambios son respecto a la versión 6.12.0. Para obtener información sobre el cronograma de lanzamiento, consulte el [Registro de cambios de la versión 6.13.0](#6130-changelog).

**Nuevas características**
+ Amazon EMR 6.13.0 supports Apache Spark 3.4.1, Apache Spark RAPIDS 23.06.0-amzn-1, CUDA Toolkit 11.8.0, and JupyterHub 1.5.0.

**Problemas conocidos**
+ Un script de estado de instancia integrado en el clúster que monitorea el estado de la instancia puede consumir demasiados recursos de CPU y memoria cuando hay un gran número de subprocesos and/or abiertos (identificadores de archivos) en el nodo.

**Cambios, mejoras y problemas resueltos**
+  A partir de Spark 3.3.1 (compatible con las versiones 6.10 y posteriores de EMR), todos los ejecutores de un host de desmantelamiento pasan a un nuevo `ExecutorState`, denominado estado de *RETIRADA*. Yarn no puede utilizar los ejecutores que se están retirando para asignar tareas y, por lo tanto, solicitará nuevos ejecutores, si es necesario, para las tareas que se están ejecutando. Por lo tanto, si deshabilita Spark DRA mientras usa EMR Managed Scaling, EMR Auto Scaling o cualquier mecanismo de escalado personalizado en los clústeres de EMR-EC2, Yarn puede solicitar el máximo de ejecutores permitidos para cada trabajo. Para evitar este problema, deje la propiedad `spark.dynamicAllocation.enabled` establecida en `TRUE` (que es la predeterminada) cuando utilice la combinación de características anterior. Además, también puede establecer restricciones de ejecutor mínimas y máximas si configura valores para las propiedades `spark.dynamicAllocation.maxExecutors` y `spark.dynamicAllocation.minExecutors` para sus trabajos de Spark, a fin de restringir el número de ejecutores asignados durante la ejecución del trabajo. 
+ La versión 6.13.0 mejora el daemon de administración de registros de Amazon EMR para garantizar que todos los registros se carguen a una cadencia normal en Amazon S3 cuando se emite un comando de terminación de clúster. Esto facilita que los clústeres se terminen de forma más rápida.
+ La versión 6.13.0 mejora las capacidades de administración de registros de Amazon EMR para garantizar la carga coherente y puntual de todos los archivos de registro a Amazon S3. Esto beneficia especialmente a los clústeres de EMR de ejecución prolongada.
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-6130-release.html)

## Versiones predeterminadas de Java para la versión 6.13.0
<a name="emr-6130-jdk"></a>

Las versiones 6.12.0 y posteriores de Amazon EMR son compatibles con todas las aplicaciones con Amazon Corretto 8 de forma predeterminada, excepto Trino. En el caso de Trino, Amazon EMR es compatible con Amazon Corretto 17 de forma predeterminada a partir de la versión 6.9.0 de Amazon EMR. Amazon EMR también admite algunas aplicaciones con Amazon Corretto 11 y 17. Esas aplicaciones se indican en la siguiente tabla. Si desea cambiar la JVM predeterminada del clúster, siga las instrucciones de [Configuración de aplicaciones para utilizar una máquina virtual de Java específica](configuring-java8.md) para cada aplicación que se ejecute en el clúster. Solo se puede usar una versión de tiempo de ejecución de Java en un clúster. Amazon EMR no admite la ejecución de distintos nodos o aplicaciones en distintas versiones de tiempo de ejecución en el mismo clúster.

Si bien Amazon EMR es compatible con Amazon Corretto 11 y 17 en Apache Spark, Apache Hadoop y Apache Hive, es posible que el rendimiento de algunas cargas de trabajo disminuya cuando utilice estas versiones de Corretto. Se recomienda que pruebe sus cargas de trabajo antes de cambiar los valores predeterminados.

En la siguiente tabla, se muestran las versiones predeterminadas de Java para las aplicaciones en Amazon EMR 6.13.0:


| Aplicación | Versión de Java o Amazon Corretto (el valor predeterminado está en negrita) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| ZooKeeper | 8 | 

## Versiones de los componentes de la versión 6.13.0
<a name="emr-6130-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | SDK de Amazon SageMaker Spark | 
| delta | 2.4.0 | Delta Lake es un formato de tabla abierto para conjuntos de datos analíticos de gran tamaño | 
| delta-standalone-connectors | 0.6.0 | Los conectores de Delta ofrecen diferentes tiempos de ejecución para integrar Delta Lake con motores como Flink, Hive y Presto. | 
| emr-ddb | 5.1.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.6.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.10.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.7.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.27.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.6.0 | Conector S3Select de EMR | 
| emr-wal-cli | 1.1.0 | CLI utilizada para eliminar o enumerar WAL de ERM. | 
| emrfs | 2.58.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.17.0 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.17.0 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.3.3-amzn-5 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-5 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.3.3-amzn-5 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-5 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-5 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.3.3-amzn-5 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-5 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-5 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-5 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-5 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-5 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.17-amzn-1 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.17-amzn-1 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.17-amzn-1 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.17-amzn-1 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.17-amzn-1 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.17-amzn-1 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.3-amzn-6 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-6 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.3-amzn-6 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.3-amzn-6 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.3-amzn-6 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-6 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.3-amzn-6 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.13.1-amzn-1 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.13.1-amzn-1 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.13.1-amzn-1 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.13.1-amzn-1 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.11.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 1.3.0-amzn-1 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.5.0 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.9.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.8.0 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.7.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.3 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 5.1.3 | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 6.0.0 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.281-amzn-1 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.281-amzn-1 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.281-amzn-1 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 414-amzn-1 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 414-amzn-1 | Service para ejecutar partes de una consulta. | 
| trino-client | 414-amzn-1 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.4.1-amzn-0 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.4.1-amzn-0 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.4.1-amzn-0 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.4.1-amzn-0 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 23.06.0-amzn-1 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.10.2-amzn-4 | La aplicación YARN de tez y bibliotecas. | 
| tez-on-worker | 0.10.2-amzn-4 | La aplicación YARN de tez y bibliotecas para nodos de trabajo. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.10 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.10 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.13.0
<a name="emr-6130-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.13.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Cambie la página de inicio de Java de KMS de Hadoop | Not available. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| delta-defaults | Cambie los valores del archivo delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j2 | Cambiar la configuración de log4j2.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Cambiar los valores en el archivo lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Cambie los valores del archivo delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Cambie los valores del archivo exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Cambiar los valores en el archivo hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Cambie los valores del archivo kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j2 | Cambiar los valores en el archivo log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

## Registro de cambios de la versión 6.13.0
<a name="6130-changelog"></a>


**Registro de cambios de la versión 6.13.0 y notas de la versión**  

| Date | Event | Description (Descripción) | 
| --- | --- | --- | 
| 2025-09-03 | Revisión de documentos | Las notas de la versión 6.13.0 de Amazon EMR agregaron un problema conocido | 
| *2023-09-23* | Implementación completa | Amazon EMR 6.13.0 se ha implementado completamente en todas las [regiones compatibles](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-09-12 | Publicación de documentos | Las notas de la versión 6.13.0 de Amazon EMR se publicaron por primera vez | 
| 2023-09-01 | Versión inicial | Implementación inicial de Amazon EMR 6.13.0 en regiones comerciales limitadas | 

# Amazon EMR, versión 6.12.0
<a name="emr-6120-release"></a>

## Versiones de las aplicaciones de la versión 6.12.0
<a name="emr-6120-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.490 | 1.12.446 | 1.12.446 | 1.12.397 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.17.0 | 1.16.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 
| Hadoop | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 
| Hive | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 
| Hudi | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.10.0 | 
| Iceberg | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.5.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 
| Spark | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 
| Trino (PrestoSQL) | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notas de la versión 6.12.0
<a name="emr-6120-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.12.0 de Amazon EMR. Los cambios son respecto a la versión 6.11.0. Para obtener información sobre el cronograma de lanzamiento, consulte el [Registro de cambios de la versión 6.12.0](#6120-changelog).

**Nuevas características**
+ Amazon EMR 6.12.0 supports Apache Spark 3.4.0, Apache Spark RAPIDS 23.06.0-amzn-0, CUDA 11.8.0, Apache Hudi 0.13.1-amzn-0, Apache Iceberg 1.3.0-amzn-0, Trino 414, and PrestoDB 0.281.
+ Las versiones 6.12.0 y posteriores de Amazon EMR admiten la integración de LDAP con Apache Livy, Apache Hive through HiveServer 2 (HS2), Trino, Presto y Hue. También puede instalar Apache Spark y Apache Hadoop en un clúster de EMR que utilice la versión 6.12.0 o posteriores y configurarlos para que utilicen LDAP. Para más información, consulte [Uso de servidores de Active Directory o LDAP para la autenticación con Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/ldap.html).

**Problemas conocidos**
+ Un script de estado de instancia integrado en el clúster que monitorea el estado de la instancia puede consumir demasiados recursos de CPU y memoria cuando hay un gran número de subprocesos abiertos (gestores de archivos en el nodo). and/or 

**Cambios, mejoras y problemas resueltos**
+  A partir de Spark 3.3.1 (compatible con las versiones 6.10 y posteriores de EMR), todos los ejecutores de un host de desmantelamiento pasan a un nuevo `ExecutorState`, denominado estado de *RETIRADA*. Yarn no puede utilizar los ejecutores que se están retirando para asignar tareas y, por lo tanto, solicitará nuevos ejecutores, si es necesario, para las tareas que se están ejecutando. Por lo tanto, si deshabilita Spark DRA mientras usa EMR Managed Scaling, EMR Auto Scaling o cualquier mecanismo de escalado personalizado en los clústeres de EMR-EC2, Yarn puede solicitar el máximo de ejecutores permitidos para cada trabajo. Para evitar este problema, deje la propiedad `spark.dynamicAllocation.enabled` establecida en `TRUE` (que es la predeterminada) cuando utilice la combinación de características anterior. Además, también puede establecer restricciones de ejecutor mínimas y máximas si configura valores para las propiedades `spark.dynamicAllocation.maxExecutors` y `spark.dynamicAllocation.minExecutors` para sus trabajos de Spark, a fin de restringir el número de ejecutores asignados durante la ejecución del trabajo. 
+ La versión 6.12.0 y posteriores de Amazon EMR proporcionan compatibilidad con el tiempo de ejecución de Java 11 para Flink. Para obtener más información, consulte [Configuración de Flink para que se ejecute con Java 11](flink-configure.md#flink-configure-java11).
+ La versión 6.12.0 agrega un nuevo mecanismo de reintento al flujo de trabajo de escalado de clústeres para clústeres de EMR que ejecutan Presto o Trino. Esta mejora reduce el riesgo de que el cambio de tamaño del clúster se detenga indefinidamente debido a una única operación de cambio de tamaño con errores. También mejora la utilización del clúster, ya que el clúster se escala y reduce verticalmente más rápido.
+ La versión 6.12.0 corrige un problema que provocaba que las operaciones de reducción vertical de los clústeres se interrumpieran cuando un nodo principal que se encontraba en proceso de retirada estable pasara a un estado incorrecto por cualquier motivo antes de retirarse por completo.
+ La versión 6.12.0 mejora la lógica de reducción vertical de los clústeres para que el clúster no intente reducir verticalmente los nodos principales por debajo de la configuración de la configuración del factor de replicación de HDFS del clúster. Esto se ajusta a sus requisitos de redundancia de datos y reduce la posibilidad de que una operación de escalado se detenga.
+ La versión 6.12.0 mejora el rendimiento y la eficiencia del servicio de supervisión de estado de Amazon EMR al aumentar la velocidad a la que registra los cambios de estado de las instancias. Esta mejora reduce la posibilidad de que se degrade el rendimiento de los nodos del clúster que ejecutan varias herramientas de cliente personalizadas o aplicaciones de terceros.
+ La versión 6.12.0 mejora el rendimiento del daemon de administración de registros en el clúster para Amazon EMR. Como resultado, hay menos probabilidades de que se degrade el rendimiento con los clústeres de EMR que ejecutan pasos con una alta simultaneidad.
+ Con la versión 6.12.0 de Amazon EMR, el daemon de administración de registros se ha actualizado para identificar todos los registros que están en uso activo con controladores de archivos abiertos en el almacenamiento de instancias local y los procesos asociados. Esta actualización garantiza que Amazon EMR elimine correctamente los archivos y recupere espacio de almacenamiento una vez archivados los registros en Amazon S3.
+ La versión 6.12.0 incluye una mejora del daemon de administración de registros que elimina los directorios escalonados vacíos y no utilizados del sistema de archivos del clúster local. Un número excesivamente elevado de directorios vacíos puede reducir el rendimiento de los daemons de Amazon EMR y provocar una sobreutilización del disco.
+ La versión 6.12.0 permite la rotación de registros para los registros del servidor YARN Timeline. Esto minimiza los escenarios de sobreutilización del disco, especialmente en el caso de clústeres de ejecución prolongada.
+ El tamaño del volumen raíz predeterminado ha aumentado a 15 GB en la versión 6.10.0 y posteriores de Amazon EMR. Las versiones anteriores tienen un tamaño de volumen raíz predeterminado de 10 GB.
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-6120-release.html)

## Versiones predeterminadas de Java para la versión 6.12.0
<a name="emr-6120-jdk"></a>

Las versiones 6.12.0 y posteriores de Amazon EMR son compatibles con todas las aplicaciones con Amazon Corretto 8 de forma predeterminada, excepto Trino. En el caso de Trino, Amazon EMR es compatible con Amazon Corretto 17 de forma predeterminada a partir de la versión 6.9.0 de Amazon EMR. Amazon EMR también admite algunas aplicaciones con Amazon Corretto 11 y 17. Esas aplicaciones se indican en la siguiente tabla. Si desea cambiar la JVM predeterminada del clúster, siga las instrucciones de [Configuración de aplicaciones para utilizar una máquina virtual de Java específica](configuring-java8.md) para cada aplicación que se ejecute en el clúster. Solo se puede usar una versión de tiempo de ejecución de Java en un clúster. Amazon EMR no admite la ejecución de distintos nodos o aplicaciones en distintas versiones de tiempo de ejecución en el mismo clúster.

Si bien Amazon EMR es compatible con Amazon Corretto 11 y 17 en Apache Spark, Apache Hadoop y Apache Hive, es posible que el rendimiento de algunas cargas de trabajo disminuya cuando utilice estas versiones de Corretto. Se recomienda que pruebe sus cargas de trabajo antes de cambiar los valores predeterminados.

En la siguiente tabla, se muestran las versiones predeterminadas de Java para las aplicaciones en Amazon EMR 6.12.0:


| Aplicación | Versión de Java o Amazon Corretto (el valor predeterminado está en negrita) | 
| --- | --- | 
| Delta | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| Phoenix | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| ZooKeeper | 8 | 

## Versiones de los componentes de la versión 6.12.0
<a name="emr-6120-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | SDK de Amazon SageMaker Spark | 
| delta | 2.4.0 | Delta Lake es un formato de tabla abierto para conjuntos de datos analíticos de gran tamaño | 
| delta-standalone-connectors | 0.6.0 | Los conectores de Delta ofrecen diferentes tiempos de ejecución para integrar Delta Lake con motores como Flink, Hive y Presto. | 
| emr-ddb | 5.1.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.5.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.9.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.7.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.26.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.5.0 | Conector S3Select de EMR | 
| emr-wal-cli | 1.1.0 | CLI utilizada para eliminar o enumerar WAL de ERM. | 
| emrfs | 2.57.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.17.0 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.17.0 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.3.3-amzn-4 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-4 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.3.3-amzn-4 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-4 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-4 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.3.3-amzn-4 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-4 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-4 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-4 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-4 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-4 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.17-amzn-0 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.17-amzn-0 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.17-amzn-0 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.17-amzn-0 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.17-amzn-0 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.17-amzn-0 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.3-amzn-5 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-5 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.3-amzn-5 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.3-amzn-5 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.3-amzn-5 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-5 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.3-amzn-5 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.13.1-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.13.1-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.13.1-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.13.1-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.11.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 1.3.0-amzn-0 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.4.1 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.9.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.8.0 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.7.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.3 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 5.1.3 | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 6.0.0 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.281-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.281-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.281-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 414-amzn-0 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 414-amzn-0 | Service para ejecutar partes de una consulta. | 
| trino-client | 414-amzn-0 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.4.0-amzn-0 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.4.0-amzn-0 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.4.0-amzn-0 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.4.0-amzn-0 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 23.06.0-amzn-0 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.10.2-amzn-3 | La aplicación YARN de tez y bibliotecas. | 
| tez-on-worker | 0.10.2-amzn-3 | La aplicación YARN de tez y bibliotecas para nodos de trabajo. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.10 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.10 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.12.0
<a name="emr-6120-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.12.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Cambie la página de inicio de Java de KMS de Hadoop | Not available. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| delta-defaults | Cambie los valores del archivo delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j2 | Cambiar la configuración de log4j2.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Cambiar los valores en el archivo lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Cambie los valores del archivo delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Cambie los valores del archivo exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Cambiar los valores en el archivo hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Cambie los valores del archivo kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j2 | Cambiar los valores en el archivo log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

## Registro de cambios de la versión 6.12.0
<a name="6120-changelog"></a>


**Registro de cambios de la versión 6.12.0 y notas de la versión**  

| Date | Event | Description (Descripción) | 
| --- | --- | --- | 
| 2025-09-03 | Revisión de documentos | Las notas de la versión 6.12.0 de Amazon EMR agregaron un problema conocido | 
| 2023-07-27 | Documentación actualizada | Actualice las opciones de Java para la versión 6.12 y agregue el tutorial de Oozie para actualizar la JVM | 
| 2023-07-21 | Implementación completa | Amazon EMR 6.12.0 se ha implementado completamente en todas las [regiones compatibles](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-07-21 | Publicación de documentos | Las notas de la versión 6.12.0 de Amazon EMR se publicaron por primera vez | 
| 2023-07-12 | Versión inicial | Implementación inicial de Amazon EMR 6.12.0 en regiones comerciales limitadas | 

# Amazon EMR, versión 6.11.1
<a name="emr-6111-release"></a>

## Versiones de las aplicaciones de la versión 6.11.1
<a name="emr-6111-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.446 | 1.12.446 | 1.12.397 | 1.12.397 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 
| HCatalog | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 
| Hadoop | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 
| Hive | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 
| Hudi | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.5.0 | 1.5.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 
| Spark | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 
| Trino (PrestoSQL) | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notas de la versión 6.11.1
<a name="emr-6111-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.11.1 de Amazon EMR. Los cambios son respecto a la versión 6.11.0. Para obtener información sobre el cronograma de lanzamiento, consulte el [Registro de cambios de la versión 6.11.1](#6111-changelog).

**Cambios, mejoras y problemas resueltos**
+  A partir de Spark 3.3.1 (compatible con las versiones 6.10 y posteriores de EMR), todos los ejecutores de un host de desmantelamiento pasan a un nuevo `ExecutorState`, denominado estado de *RETIRADA*. Yarn no puede utilizar los ejecutores que se están retirando para asignar tareas y, por lo tanto, solicitará nuevos ejecutores, si es necesario, para las tareas que se están ejecutando. Por lo tanto, si deshabilita Spark DRA mientras usa EMR Managed Scaling, EMR Auto Scaling o cualquier mecanismo de escalado personalizado en los clústeres de EMR-EC2, Yarn puede solicitar el máximo de ejecutores permitidos para cada trabajo. Para evitar este problema, deje la propiedad `spark.dynamicAllocation.enabled` establecida en `TRUE` (que es la predeterminada) cuando utilice la combinación de características anterior. Además, también puede establecer restricciones de ejecutor mínimas y máximas si configura valores para las propiedades `spark.dynamicAllocation.maxExecutors` y `spark.dynamicAllocation.minExecutors` para sus trabajos de Spark, a fin de restringir el número de ejecutores asignados durante la ejecución del trabajo. 
+ Debido a la contención de bloqueo, un nodo puede entrar en un interbloqueo si se agrega o elimina al mismo tiempo que intenta retirarse. Como resultado, el administrador de recursos de Hadoop (YARN) deja de responder y afecta a todos los contenedores entrantes y en ejecución actualmente.
+ Esta versión incluye un cambio que permite que los clústeres de alta disponibilidad se recuperen de un estado de error tras el reinicio.
+ Esta versión incluye correcciones de seguridad para Hue y HBase.
+ Esta versión corrige un problema por el que los clústeres que ejecutan cargas de trabajo en Spark con Amazon EMR podrían recibir silenciosamente resultados incorrectos con `contains`, `startsWith`, `endsWith` y `like`. Este problema se produce cuando utiliza las expresiones en campos particionados que tienen metadatos en Hive3 Metastore Server (HMS) de Amazon EMR.
+ Esta versión corrige un problema con la limitación en Glue cuando no hay funciones definidas por el usuario (UDF).
+ Esta versión corrige un problema que elimina los registros de contenedores mediante el servicio de agregación de registros de nodos antes de que el insertador de registros pudiera enviarlos a S3 en caso de retirada de YARN.
+ Esta versión corrige un problema con las métricas del FairShare programador cuando Node Label está habilitado para Hadoop.
+ Esta versión corrige un problema que afectaba al rendimiento de Spark cuando se establecía un valor `true` predeterminado para la configuración `spark.yarn.heterogeneousExecutors.enabled` en `spark-defaults.conf`.
+ Esta versión corrige un problema que provocaba que la tarea de reducción no pudiera leer los datos de mezclas aleatorias. El problema provocaba errores en las consultas de Hive debido a un error de memoria dañada.
+ Esta versión agrega un nuevo mecanismo de reintento al flujo de trabajo de escalado de clústeres para clústeres de EMR que ejecutan Presto o Trino. Esta mejora reduce el riesgo de que el cambio de tamaño del clúster se detenga indefinidamente debido a una única operación de cambio de tamaño con errores. También mejora la utilización del clúster, ya que el clúster se escala y reduce verticalmente más rápido.
+ Esta versión mejora la lógica de reducción vertical del clúster para que el clúster no intente reducir verticalmente los nodos principales por debajo de la configuración del factor de replicación de HDFS del clúster. Esto se ajusta a sus requisitos de redundancia de datos y reduce la posibilidad de que una operación de escalado se detenga.
+ El daemon de administración de registros se ha actualizado para identificar todos los registros que están en uso activo con controladores de archivos abiertos en el almacenamiento de instancias local y los procesos asociados. Esta actualización garantiza que Amazon EMR elimine correctamente los archivos y recupere espacio de almacenamiento una vez archivados los registros en Amazon S3.
+ Esta versión incluye una mejora del daemon de administración de registros que elimina los directorios escalonados vacíos y no utilizados del sistema de archivos del clúster local. Un número excesivamente elevado de directorios vacíos puede reducir el rendimiento de los daemons de Amazon EMR y provocar una sobreutilización del disco.
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-6111-release.html)

## Versiones de los componentes de la versión 6.11.1
<a name="emr-6111-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | SDK de Amazon SageMaker Spark | 
| delta | 2.2.0 | Delta Lake es un formato de tabla abierto para conjuntos de datos analíticos de gran tamaño | 
| delta-standalone-connectors | 0.6.0 | Los conectores de Delta ofrecen diferentes tiempos de ejecución para integrar Delta Lake con motores como Flink, Hive y Presto. | 
| emr-ddb | 5.1.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.4.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.8.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.7.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.25.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.4.0 | Conector S3Select de EMR | 
| emr-wal-cli | 1.1.0 | CLI utilizada para eliminar o enumerar WAL de ERM. | 
| emrfs | 2.56.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.16.0 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.3.3-amzn-3.1 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-3.1 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.3.3-amzn-3.1 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-3.1 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-3.1 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.3.3-amzn-3.1 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-3.1 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-3.1 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-3.1 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-3.1 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-3.1 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.15-amzn-1.1 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.15-amzn-1.1 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.15-amzn-1.1 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.15-amzn-1.1 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.15-amzn-1.1 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.15-amzn-1.1 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.3-amzn-4.1 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-4.1 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.3-amzn-4.1 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.3-amzn-4.1 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.3-amzn-4.1 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-4.1 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.3-amzn-4.1 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.13.0-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.13.0-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.13.0-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.13.0-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.11.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 1.2.0-amzn-0 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.4.1 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.9.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.8.0 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.2 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 5.1.2 | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 6.0.0 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.279-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.279-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.279-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 410-amzn-0 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 410-amzn-0 | Service para ejecutar partes de una consulta. | 
| trino-client | 410-amzn-0 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.3.2-amzn-0.1 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.3.2-amzn-0.1 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.3.2-amzn-0.1 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.3.2-amzn-0.1 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 23.02.0-amzn-0 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.10.2-amzn-2.1 | La aplicación YARN de tez y bibliotecas. | 
| tez-on-worker | 0.10.2-amzn-2.1 | La aplicación YARN de tez y bibliotecas para nodos de trabajo. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.10 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.10 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.11.1
<a name="emr-6111-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.11.1**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| delta-defaults | Cambie los valores del archivo delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j2 | Cambiar la configuración de log4j2.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Cambiar los valores en el archivo lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Cambie los valores del archivo delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Cambie los valores del archivo exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Cambiar los valores en el archivo hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Cambie los valores del archivo kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j2 | Cambiar los valores en el archivo log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

## Registro de cambios de la versión 6.11.1
<a name="6111-changelog"></a>


**Registro de cambios de la versión 6.11.1 y notas de la versión**  

| Date | Event | Description (Descripción) | 
| --- | --- | --- | 
| 2023-08-30 | Actualización de las notas de la versión | Se han agregado varias correcciones relacionadas con el plano de control a las notas de la versión | 
| 2023-08-21 | Publicación de documentos | Las notas de la versión 6.11.1 de Amazon EMR se publicaron por primera vez | 
| 2023-08-16 | Implementación completa | Amazon EMR 6.11.1 se ha implementado completamente en todas las [regiones compatibles](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-08-04 | Versión inicial | Amazon EMR 6.11.1 se implementó por primera vez en regiones comerciales limitadas | 

# Amazon EMR, versión 6.11.0
<a name="emr-6110-release"></a>

## Versiones de las aplicaciones de la versión 6.11.0
<a name="emr-6110-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.446 | 1.12.397 | 1.12.397 | 1.12.170 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.16.0 | 1.15.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 
| Hadoop | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 
| Hive | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 
| Hudi | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 
| Hue | 4.11.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.5.0 | 1.5.0 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 
| Spark | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.10.0 | 
| Tez | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 
| Trino (PrestoSQL) | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notas de la versión 6.11.0
<a name="emr-6110-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.11.0 de Amazon EMR. Los cambios son respecto a la versión 6.10.0. Para obtener información sobre el cronograma de lanzamiento, consulte el [registro de cambios](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-6110-release.html#6110-changelog).

**Nuevas características**
+ Amazon EMR 6.11.0 es compatible con Apache Spark 3.3.2-amzn-0, Apache Spark RAPIDS 23.02.0-amzn-0, CUDA 11.8.0, Apache Hudi 0.13.0-amzn-0, Apache Iceberg 1.2.0-amzn-0, Trino 410-amzn-0 y PrestoDB 0.279-amzn-0.

**Cambios, mejoras y problemas resueltos**
+  A partir de Spark 3.3.1 (compatible con las versiones 6.10 y posteriores de EMR), todos los ejecutores de un host de desmantelamiento pasan a un nuevo `ExecutorState`, denominado estado de *RETIRADA*. Yarn no puede utilizar los ejecutores que se están retirando para asignar tareas y, por lo tanto, solicitará nuevos ejecutores, si es necesario, para las tareas que se están ejecutando. Por lo tanto, si deshabilita Spark DRA mientras usa EMR Managed Scaling, EMR Auto Scaling o cualquier mecanismo de escalado personalizado en los clústeres de EMR-EC2, Yarn puede solicitar el máximo de ejecutores permitidos para cada trabajo. Para evitar este problema, deje la propiedad `spark.dynamicAllocation.enabled` establecida en `TRUE` (que es la predeterminada) cuando utilice la combinación de características anterior. Además, también puede establecer restricciones de ejecutor mínimas y máximas si configura valores para las propiedades `spark.dynamicAllocation.maxExecutors` y `spark.dynamicAllocation.minExecutors` para sus trabajos de Spark, a fin de restringir el número de ejecutores asignados durante la ejecución del trabajo. 
+ Con Amazon EMR 6.11.0, el conector de DynamoDB se ha actualizado a la versión 5.0.0. La versión 5.0.0 usa. AWS SDK for Java 2.x En las versiones anteriores se utilizaba la versión AWS SDK para Java 1.x. Como resultado de esta actualización, se recomienda encarecidamente que pruebe el código antes de utilizar el conector de DynamoDB con Amazon EMR 6.11.
+ Cuando el conector de DynamoDB para Amazon EMR 6.11.0 llama al servicio DynamoDB, utiliza el valor de región que usted proporciona para la propiedad `dynamodb.endpoint`. Se recomienda que también configure `dynamodb.region` cuando utilice `dynamodb.endpoint` y que ambas propiedades tengan la misma Región de AWS. Si lo usa `dynamodb.endpoint` y no lo configura`dynamodb.region`, el conector de DynamoDB para Amazon EMR 6.11.0 devolverá una excepción de región no válida e intentará conciliar la Región de AWS información del servicio de metadatos de instancias (IMDS) de Amazon EC2. Si el conector no puede recuperar la región del IMDS, el valor predeterminado será Este de EE. UU. (Norte de Virginia) (`us-east-1`). El siguiente error es un ejemplo de la excepción de región no válida que puede producirse si no configura la `dynamodb.region` propiedad correctamente: `error software.amazon.awssdk.services.dynamodb.model.DynamoDbException: Credential should be scoped to a valid region.` para obtener más información sobre las clases afectadas por la AWS SDK para Java actualización a la versión 2.x, consulte la confirmación de actualización [AWS SDK para Java de la versión 1.x a la 2.x (\$1175)](https://github.com/awslabs/emr-dynamodb-connector/commit/1dec9d1972d3673c3fae6c6ea51f19f295147ccf) en el GitHub repositorio del conector Amazon EMR - DynamoDB.
+ Esta versión corrige un problema por el que los datos de las columnas se convierten en `NULL` cuando se utiliza Delta Lake para almacenar los datos de la tabla Delta en Amazon S3 tras una operación de cambio de nombre de columna. Para más información sobre esta característica experimental de Delta Lake, consulte [Operación de cambio de nombre de columnas](https://docs.delta.io/latest/delta-batch.html#rename-columns) en la Guía del usuario de Delta Lake.
+ La versión 6.11.0 corrige un problema que podía producirse al crear un nodo de periferia mediante la replicación de uno de los nodos principales de un clúster con varios nodos principales. El nodo de periferia replicado podría provocar retrasos en las operaciones de reducción vertical o provocar un uso elevado de la memoria en los nodos principales. Para obtener más información sobre cómo crear un nodo perimetral para comunicarse con su clúster de EMR, consulte [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) en el `aws-samples` repositorio de. GitHub
+ La versión 6.11.0 mejora el proceso de automatización que Amazon EMR utiliza para volver a montar los volúmenes de Amazon EBS en una instancia tras un reinicio.
+ La versión 6.11.0 corrige un problema que provocaba brechas intermitentes en las métricas de Hadoop que Amazon EMR publica en Amazon. CloudWatch
+ La versión 6.11.0 corrige un problema con los clústeres de EMR por el que se interrumpe una actualización del archivo de configuración de YARN que contiene la lista de nodos excluidos del clúster debido a una sobreutilización del disco. La actualización incompleta dificulta las futuras operaciones de reducción vertical de los clústeres. Esta versión garantiza que el clúster se mantenga en buen estado y que las operaciones de escalado funcionen según lo previsto.
+ El tamaño del volumen raíz predeterminado ha aumentado a 15 GB en la versión 6.10.0 y posteriores de Amazon EMR. Las versiones anteriores tienen un tamaño de volumen raíz predeterminado de 10 GB.
+ Hadoop 3.3.3 ha introducido un cambio en YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) que mantiene los nodos donde se ejecutaron los contenedores en un estado de retirada hasta que se complete la aplicación. Este cambio garantiza que los datos locales, como los datos de mezclas aleatorias, no se pierdan y que no sea necesario volver a ejecutar el trabajo. Este enfoque también puede provocar una infrautilización de los recursos en los clústeres con o sin el escalado administrado habilitado.

  En las versiones 6.11.0 y posteriores de Amazon EMR, así como en las 6.8.1, 6.9.1 y 6.10.1, el valor de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` se establece como `false` en `yarn-site.xml` para resolver este problema.

  Si bien la corrección soluciona los problemas que ha introducido YARN-9608, es posible que los trabajos de Hive presenten errores debido a la pérdida de datos de mezclas aleatorias en los clústeres que tienen habilitado el escalado administrado. Se ha mitigado ese riesgo en esta versión al configurar también `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` para las cargas de trabajo de Hive. Esta configuración solo está disponible con la versión 6.11.0 y posteriores de Amazon EMR.
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**nota**  
Esta versión ya no recibe actualizaciones automáticas de la AMI, ya que ha sido sustituida por 1 versión de revisión adicional. La versión de revisión se indica con el número que sigue al segundo punto decimal (`6.8.1`). Para comprobar si está utilizando la versión de revisión más reciente, consulte las versiones disponibles en la [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide) o consulte el menú desplegable **Versión de Amazon EMR** cuando cree un clúster en la consola o use la acción de la API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) o la CLI [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html). Para recibir actualizaciones sobre las nuevas versiones, suscríbase a la fuente RSS de la página [Novedades](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-6110-release.html)

## Versiones de los componentes de la versión 6.11.0
<a name="emr-6110-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | SDK de Amazon SageMaker Spark | 
| delta | 2.2.0 | Delta Lake es un formato de tabla abierto para conjuntos de datos analíticos de gran tamaño | 
| delta-standalone-connectors | 0.6.0 | Los conectores de Delta ofrecen diferentes tiempos de ejecución para integrar Delta Lake con motores como Flink, Hive y Presto. | 
| emr-ddb | 5.1.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.4.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.8.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.7.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.25.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.4.0 | Conector S3Select de EMR | 
| emr-wal-cli | 1.1.0 | CLI utilizada para eliminar o enumerar WAL de ERM. | 
| emrfs | 2.56.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.16.0 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.3.3-amzn-3 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-3 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.3.3-amzn-3 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-3 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-3 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.3.3-amzn-3 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-3 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-3 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-3 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-3 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-3 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.15-amzn-1 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.15-amzn-1 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.15-amzn-1 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.15-amzn-1 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.15-amzn-1 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.15-amzn-1 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.3-amzn-4 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-4 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.3-amzn-4 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.3-amzn-4 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.3-amzn-4 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-4 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.3-amzn-4 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.13.0-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.13.0-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.13.0-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.13.0-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.11.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 1.2.0-amzn-0 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.4.1 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.9.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.8.0 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.2 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 5.1.2 | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 6.0.0 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.279-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.279-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.279-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 410-amzn-0 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 410-amzn-0 | Service para ejecutar partes de una consulta. | 
| trino-client | 410-amzn-0 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.3.2-amzn-0 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.3.2-amzn-0 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.3.2-amzn-0 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.3.2-amzn-0 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 23.02.0-amzn-0 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.10.2-amzn-2 | La aplicación YARN de tez y bibliotecas. | 
| tez-on-worker | 0.10.2-amzn-2 | La aplicación YARN de tez y bibliotecas para nodos de trabajo. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.10 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.10 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.11.0
<a name="emr-6110-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.11.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| delta-defaults | Cambie los valores del archivo delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j2 | Cambiar la configuración de log4j2.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Cambiar los valores en el archivo lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Cambie los valores del archivo delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Cambie los valores del archivo exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Cambiar los valores en el archivo hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Cambie los valores del archivo kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j2 | Cambiar los valores en el archivo log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

## Registro de cambios de la versión 6.11.0
<a name="6110-changelog"></a>


**Registro de cambios de la versión 6.11.0 y notas de la versión**  

| Date | Event | Description (Descripción) | 
| --- | --- | --- | 
| 2023-08-21 | Actualización | Se ha corregido un problema introducido con Hadoop 3.3.3. | 
| 2023-07-26 | Actualización | Nuevas etiquetas de lanzamiento del sistema operativo 2.0.20230612.0 y 2.0.20230628.0. | 
| 2023-06-09 | Implementación completa | Amazon EMR 6.11.0 se ha implementado completamente en todas las [regiones compatibles](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-06-09 | Publicación de documentos | Las notas de la versión 6.11.0 de Amazon EMR se publicaron por primera vez | 
| 2023-06-08 | Versión inicial | Implementación inicial de Amazon EMR 6.11.0 en regiones comerciales limitadas | 

# Amazon EMR, versión 6.10.1
<a name="emr-6101-release"></a>

## Versiones de las aplicaciones de la versión 6.10.1
<a name="emr-6101-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.397 | 1.12.397 | 1.12.170 | 1.12.170 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.1.0 | 2.1.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.15.2 | 1.15.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 
| HCatalog | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 
| Hadoop | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 
| Hive | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 
| Hudi | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 
| Spark | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.10.0 | 2.10.0 | 
| Tez | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 
| Trino (PrestoSQL) | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notas de la versión 6.10.1
<a name="emr-6101-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.10.1 de Amazon EMR. Los cambios son respecto a la versión 6.10.0. Para obtener información sobre el cronograma de lanzamiento, consulte el [Registro de cambios de la versión 6.10.1](#6101-changelog).

**Problemas conocidos**
+  A partir de Spark 3.3.1 (compatible con las versiones 6.10 y posteriores de EMR), todos los ejecutores de un host de desmantelamiento pasan a un nuevo `ExecutorState`, denominado estado de *RETIRADA*. Yarn no puede utilizar los ejecutores que se están retirando para asignar tareas y, por lo tanto, solicitará nuevos ejecutores, si es necesario, para las tareas que se están ejecutando. Por lo tanto, si deshabilita Spark DRA mientras usa EMR Managed Scaling, EMR Auto Scaling o cualquier mecanismo de escalado personalizado en los clústeres de EMR-EC2, Yarn puede solicitar el máximo de ejecutores permitidos para cada trabajo. Para evitar este problema, deje la propiedad `spark.dynamicAllocation.enabled` establecida en `TRUE` (que es la predeterminada) cuando utilice la combinación de características anterior. Además, también puede establecer restricciones de ejecutor mínimas y máximas si configura valores para las propiedades `spark.dynamicAllocation.maxExecutors` y `spark.dynamicAllocation.minExecutors` para sus trabajos de Spark, a fin de restringir el número de ejecutores asignados durante la ejecución del trabajo. 

**Cambios, mejoras y problemas resueltos**
+ Debido a la contención de bloqueo, un nodo puede entrar en un interbloqueo si se agrega o elimina al mismo tiempo que intenta retirarse. Como resultado, el administrador de recursos de Hadoop (YARN) deja de responder y afecta a todos los contenedores entrantes y en ejecución actualmente.
+ Hadoop 3.3.3 ha introducido un cambio en YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) que mantiene los nodos donde se ejecutaron los contenedores en un estado de retirada hasta que se complete la aplicación. Este cambio garantiza que los datos locales, como los datos de mezclas aleatorias, no se pierdan y que no sea necesario volver a ejecutar el trabajo. Este enfoque también puede provocar una infrautilización de los recursos en los clústeres con o sin el escalado administrado habilitado.

  En las versiones 6.11.0 y posteriores de Amazon EMR, así como en las 6.8.1, 6.9.1 y 6.10.1, el valor de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` se establece como `false` en `yarn-site.xml` para resolver este problema.

  Si bien la corrección soluciona los problemas que ha introducido YARN-9608, es posible que los trabajos de Hive presenten errores debido a la pérdida de datos de mezclas aleatorias en los clústeres que tienen habilitado el escalado administrado. Se ha mitigado ese riesgo en esta versión al configurar también `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` para las cargas de trabajo de Hive. Esta configuración solo está disponible con la versión 6.11.0 y posteriores de Amazon EMR.
+ El recopilador de métricas no enviará ninguna métrica al plano de control después de una conmutación por error del nodo principal en los clústeres con la configuración de grupos de instancias.
+ Esta versión incluye un cambio que permite que los clústeres de alta disponibilidad se recuperen de un estado de error tras el reinicio.
+ Esta versión incluye correcciones de seguridad para Hue y HBase.
+ Esta versión corrige un problema por el que los clústeres que ejecutan cargas de trabajo en Spark con Amazon EMR podrían recibir silenciosamente resultados incorrectos con `contains`, `startsWith`, `endsWith` y `like`. Este problema se produce cuando utiliza las expresiones en campos particionados que tienen metadatos en Hive3 Metastore Server (HMS) de Amazon EMR.
+ Esta versión corrige un problema con la limitación en Glue cuando no hay funciones definidas por el usuario (UDF).
+ Esta versión corrige un problema que elimina los registros de contenedores mediante el servicio de agregación de registros de nodos antes de que el insertador de registros pudiera enviarlos a S3 en caso de retirada de YARN.
+ Esta versión corrige un problema con las métricas del FairShare programador cuando Node Label está habilitado para Hadoop.
+ Esta versión corrige un problema que afectaba al rendimiento de Spark cuando se establecía un valor `true` predeterminado para la configuración `spark.yarn.heterogeneousExecutors.enabled` en `spark-defaults.conf`.
+ Esta versión corrige un problema que provocaba que la tarea de reducción no pudiera leer los datos de mezclas aleatorias. El problema provocaba errores en las consultas de Hive debido a un error de memoria dañada.
+ Esta versión agrega un nuevo mecanismo de reintento al flujo de trabajo de escalado de clústeres para clústeres de EMR que ejecutan Presto o Trino. Esta mejora reduce el riesgo de que el cambio de tamaño del clúster se detenga indefinidamente debido a una única operación de cambio de tamaño con errores. También mejora la utilización del clúster, ya que el clúster se escala y reduce verticalmente más rápido.
+ Esta versión mejora la lógica de reducción vertical del clúster para que el clúster no intente reducir verticalmente los nodos principales por debajo de la configuración del factor de replicación de HDFS del clúster. Esto se ajusta a sus requisitos de redundancia de datos y reduce la posibilidad de que una operación de escalado se detenga.
+ El daemon de administración de registros se ha actualizado para identificar todos los registros que están en uso activo con controladores de archivos abiertos en el almacenamiento de instancias local y los procesos asociados. Esta actualización garantiza que Amazon EMR elimine correctamente los archivos y recupere espacio de almacenamiento una vez archivados los registros en Amazon S3.
+ Esta versión incluye una mejora del daemon de administración de registros que elimina los directorios escalonados vacíos y no utilizados del sistema de archivos del clúster local. Un número excesivamente elevado de directorios vacíos puede reducir el rendimiento de los daemons de Amazon EMR y provocar una sobreutilización del disco.
+ Esta versión corrige un problema que podía producirse al crear un nodo de periferia cuando se replicaba uno de los nodos principales de un clúster con varios nodos principales. El nodo de periferia replicado podría provocar retrasos en las operaciones de reducción vertical o provocar un uso elevado de la memoria en los nodos principales. Para obtener más información sobre cómo crear un nodo perimetral para comunicarse con su clúster de EMR, consulte [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) en el `aws-samples` repositorio de. GitHub
+ Esta versión mejora el proceso de automatización que Amazon EMR utiliza para volver a montar los volúmenes de Amazon EBS en una instancia tras un reinicio.
+ Esta versión corrige un problema que provocaba brechas intermitentes en las métricas de Hadoop que Amazon EMR publica en Amazon. CloudWatch
+ Esta versión corrige un problema con los clústeres de EMR por el que se interrumpe una actualización del archivo de configuración de YARN que contiene la lista de nodos excluidos del clúster debido a una sobreutilización del disco. La actualización incompleta dificulta las futuras operaciones de reducción vertical de los clústeres. Esta versión garantiza que el clúster se mantenga en buen estado y que las operaciones de escalado funcionen según lo previsto.
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-6101-release.html)

## Versiones de los componentes de la versión 6.10.1
<a name="emr-6101-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | SDK de Amazon SageMaker Spark | 
| delta | 2.2.0 | Delta Lake es un formato de tabla abierto para conjuntos de datos analíticos de gran tamaño | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.3.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.7.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.7.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.24.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.3.0 | Conector S3Select de EMR | 
| emr-wal-cli | 1.0.0 | CLI utilizada para eliminar o enumerar WAL de ERM. | 
| emrfs | 2.55.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.16.0 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.3.3-amzn-2.1 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-2.1 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.3.3-amzn-2.1 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-2.1 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-2.1 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.3.3-amzn-2.1 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-2.1 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-2.1 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-2.1 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-2.1 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-2.1 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.15-amzn-0.1 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.15-amzn-0.1 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.15-amzn-0.1 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.15-amzn-0.1 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.15-amzn-0.1 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.15-amzn-0.1 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.3-amzn-3.1 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-3.1 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.3-amzn-3.1 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.3-amzn-3.1 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.3-amzn-3.1 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-3.1 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.3-amzn-3.1 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.12.2-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.12.2-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.12.2-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.12.2-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.10.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 1.1.0-amzn-0 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.5.0 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.9.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.8.0 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.2 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 6.0.0 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.278.1-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.278.1-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.278.1-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 403-amzn-0 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 403-amzn-0 | Service para ejecutar partes de una consulta. | 
| trino-client | 403-amzn-0 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.3.1-amzn-0.1 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.3.1-amzn-0.1 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.3.1-amzn-0.1 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.3.1-amzn-0.1 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 22.12.0-amzn-0 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.10.2-amzn-1.1 | La aplicación YARN de tez y bibliotecas. | 
| tez-on-worker | 0.10.2-amzn-1.1 | La aplicación YARN de tez y bibliotecas para nodos de trabajo. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.10 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.10 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.10.1
<a name="emr-6101-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.10.1**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| delta-defaults | Cambie los valores del archivo delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j2 | Cambiar la configuración de log4j2.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Cambiar los valores en el archivo lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Cambie los valores del archivo delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Cambie los valores del archivo exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Cambiar los valores en el archivo hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Cambie los valores del archivo kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j2 | Cambiar los valores en el archivo log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

## Registro de cambios de la versión 6.10.1
<a name="6101-changelog"></a>


**Registro de cambios de la versión 6.10.1 y notas de la versión**  

| Date | Event | Description (Descripción) | 
| --- | --- | --- | 
| 2023-08-30 | Actualización de las notas de la versión | Se han agregado varias correcciones relacionadas con el plano de control a las notas de la versión | 
| 2023-08-21 | Publicación de documentos | Las notas de la versión 6.10.1 de Amazon EMR se publicaron por primera vez | 
| 2023-08-16 | Implementación completa | Amazon EMR 6.10.1 se ha implementado completamente en todas las [regiones compatibles](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-08-04 | Versión inicial | Amazon EMR 6.10.1 se implementó por primera vez en regiones comerciales limitadas | 

# Amazon EMR, versión 6.10.0
<a name="emr-6100-release"></a>

## Versiones de las aplicaciones de la versión 6.10.0
<a name="emr-6100-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.397 | 1.12.170 | 1.12.170 | 1.12.170 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.1.0 | 2.1.0 |  -  | 
| Flink | 1.16.0 | 1.15.2 | 1.15.2 | 1.15.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 
| Hadoop | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 
| Hive | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 
| Hudi | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.1.0 | 
| JupyterHub | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 
| Spark | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.10.0 | 2.10.0 | 2.9.1 | 
| Tez | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 
| Trino (PrestoSQL) | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notas de la versión 6.10.0
<a name="emr-6100-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.10.0 de Amazon EMR. Los cambios son respecto a la versión 6.9.0. Para obtener información sobre el cronograma de lanzamiento, consulte el [registro de cambios](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-6100-release.html#6100-changelog).

**Nuevas características**
+ Amazon EMR 6.10.0 es compatible con Apache Spark 3.3.1, Apache Spark RAPIDS 22.12.0, CUDA 11.8.0, Apache Hudi 0.12.2-amzn-0, Apache Iceberg 1.1.0-amzn-0, Trino 403 y PrestoDB 0.278.1.
+ Amazon EMR 6.10.0 incluye un conector Trino-Hudi nativo que proporciona acceso de lectura a los datos de las tablas de Hudi. Puede activar el conector con `trino-cli --catalog hudi` y configurarlo según sus requisitos con `trino-connector-hudi`. La integración nativa con Amazon EMR significa que ya no necesitará utilizar `trino-connector-hive` para consultar tablas de Hudi. Para obtener una lista de las configuraciones compatibles con el nuevo conector, consulte la página [Hudi connector](https://trino.io/docs/current/connector/hudi.html) de la documentación de Trino.
+ Las versiones 6.10.0 y posteriores de Amazon EMR admiten la integración de Apache Zeppelin con Apache Flink. Para obtener más información, consulte [Trabajar con trabajos de Flink de Zeppelin en Amazon EMR](flink-zeppelin.md).

**Problemas conocidos**
+ Hadoop 3.3.3 ha introducido un cambio en YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) que mantiene los nodos donde se ejecutaron los contenedores en un estado de retirada hasta que se complete la aplicación. Este cambio garantiza que los datos locales, como los datos de mezclas aleatorias, no se pierdan y que no sea necesario volver a ejecutar el trabajo. Este enfoque también puede provocar una infrautilización de los recursos en los clústeres con o sin el escalado administrado habilitado.

  Para solucionar este problema en Amazon EMR 6.10.0, puede establecer el valor de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` como `false` en `yarn-site.xml`. En las versiones 6.11.0 y posteriores de Amazon EMR, así como en las 6.8.1, 6.9.1 y 6.10.1, la configuración se establece en `false` de manera predeterminada para resolver este problema.
+  A partir de Spark 3.3.1 (compatible con las versiones 6.10 y posteriores de EMR), todos los ejecutores de un host de desmantelamiento pasan a un nuevo `ExecutorState`, denominado estado de *RETIRADA*. Yarn no puede utilizar los ejecutores que se están retirando para asignar tareas y, por lo tanto, solicitará nuevos ejecutores, si es necesario, para las tareas que se están ejecutando. Por lo tanto, si deshabilita Spark DRA mientras usa EMR Managed Scaling, EMR Auto Scaling o cualquier mecanismo de escalado personalizado en los clústeres de EMR-EC2, Yarn puede solicitar el máximo de ejecutores permitidos para cada trabajo. Para evitar este problema, deje la propiedad `spark.dynamicAllocation.enabled` establecida en `TRUE` (que es la predeterminada) cuando utilice la combinación de características anterior. Además, también puede establecer restricciones de ejecutor mínimas y máximas si configura valores para las propiedades `spark.dynamicAllocation.maxExecutors` y `spark.dynamicAllocation.minExecutors` para sus trabajos de Spark, a fin de restringir el número de ejecutores asignados durante la ejecución del trabajo. 

**Cambios, mejoras y problemas resueltos**
+ Amazon EMR 6.10.0 elimina la dependencia en `minimal-json.jar` de la [integración de Amazon Redshift para Apache Spark](emr-spark-redshift-launch.md) y agrega automáticamente los archivos JAR necesarios relacionados con Spark-Redshift a la ruta de clases de los ejecutores de Spark: `spark-redshift.jar`, `spark-avro.jar` y `RedshiftJDBC.jar`.
+ La versión 6.10.0 mejora el daemon de administración de registros en el clúster para supervisar las carpetas de registro adicionales del clúster de EMR. Esta mejora minimiza los escenarios de sobreutilización del disco.
+ La versión 6.10.0 reinicia automáticamente el daemon de administración de registros en el clúster cuando se detiene. Esta mejora reduce el riesgo de que los nodos parezcan estar en mal estado debido a la sobreutilización del disco. 
+ Amazon EMR 6.10.0 admite puntos de conexión regionales para la asignación de usuarios de EMRFS.
+ El tamaño del volumen raíz predeterminado ha aumentado a 15 GB en la versión 6.10.0 y posteriores de Amazon EMR. Las versiones anteriores tienen un tamaño de volumen raíz predeterminado de 10 GB.
+ La versión 6.10.0 corrige un problema que provocaba que los trabajos de Spark se detuvieran cuando todos los ejecutores de Spark restantes se encontraban en un host de retirada con el administrador de recursos de YARN. 
+ Con las versiones 6.6.0 a 6.9.x de Amazon EMR, las consultas INSERT con partición dinámica y una cláusula ORDER BY o SORT BY siempre tendrán dos reductores. Este problema se debe al cambio [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703) de OSS, que sitúa la optimización de la clasificación dinámica de las particiones en una decisión basada en los costos. Si su carga de trabajo no requiere ordenar las particiones dinámicas, le recomendamos que establezca la propiedad `hive.optimize.sort.dynamic.partition.threshold` en `-1` para deshabilitar la nueva característica y obtener el número de reductores calculado correctamente. Este problema se ha corregido en OSS Hive como parte de [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) y se ha corregido en Amazon EMR 6.10.0.
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**nota**  
Esta versión ya no recibe actualizaciones automáticas de la AMI, ya que ha sido sustituida por 1 versión de revisión adicional. La versión de revisión se indica con el número que sigue al segundo punto decimal (`6.8.1`). Para comprobar si está utilizando la versión de revisión más reciente, consulte las versiones disponibles en la [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide) o consulte el menú desplegable **Versión de Amazon EMR** cuando cree un clúster en la consola o use la acción de la API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) o la CLI [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html). Para recibir actualizaciones sobre las nuevas versiones, suscríbase a la fuente RSS de la página [Novedades](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-6100-release.html)

## Versiones de los componentes de la versión 6.10.0
<a name="emr-6100-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | SDK de Amazon SageMaker Spark | 
| delta | 2.2.0 | Delta Lake es un formato de tabla abierto para conjuntos de datos analíticos de gran tamaño | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.3.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.7.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.7.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.24.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.3.0 | Conector S3Select de EMR | 
| emr-wal-cli | 1.0.0 | CLI utilizada para eliminar o enumerar WAL de ERM. | 
| emrfs | 2.55.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.16.0 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.16.0 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.3.3-amzn-2 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-2 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.3.3-amzn-2 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-2 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-2 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.3.3-amzn-2 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-2 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-2 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-2 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-2 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-2 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.15-amzn-0 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.15-amzn-0 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.15-amzn-0 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.15-amzn-0 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.15-amzn-0 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.15-amzn-0 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.3-amzn-3 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-3 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.3-amzn-3 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.3-amzn-3 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.3-amzn-3 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-3 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.3-amzn-3 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.12.2-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.12.2-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.12.2-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.12.2-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.10.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 1.1.0-amzn-0 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.5.0 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.9.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.8.0 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.2 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 6.0.0 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.278.1-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.278.1-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.278.1-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 403-amzn-0 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 403-amzn-0 | Service para ejecutar partes de una consulta. | 
| trino-client | 403-amzn-0 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.3.1-amzn-0 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.3.1-amzn-0 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.3.1-amzn-0 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.3.1-amzn-0 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 22.12.0-amzn-0 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.11.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.10.2-amzn-1 | La aplicación YARN de tez y bibliotecas. | 
| tez-on-worker | 0.10.2-amzn-1 | La aplicación YARN de tez y bibliotecas para nodos de trabajo. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.10 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.10 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.10.0
<a name="emr-6100-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.10.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| delta-defaults | Cambie los valores del archivo delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j2 | Cambiar la configuración de log4j2.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Cambiar los valores en el archivo lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Cambie los valores del archivo delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Cambie los valores del archivo exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Cambiar los valores en el archivo hudi.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Cambie los valores del archivo kms-logback.xml de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j2 | Cambiar los valores en el archivo log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

## Registro de cambios de la versión 6.10.0
<a name="6100-changelog"></a>


**Registro de cambios de la versión 6.10.0 y notas de la versión**  

| Date | Event | Description (Descripción) | 
| --- | --- | --- | 
| 2023-08-21 | Actualización | Se ha agregado un problema conocido introducido con Hadoop 3.3.3. | 
| 2023-07-26 | Actualización | Nuevas etiquetas de lanzamiento del sistema operativo 2.0.20230612.0 y 2.0.20230628.0. | 
| 2023-03-02 | Implementación completa | Amazon EMR 6.10 se ha implementado completamente en todas las [regiones compatibles](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-03-02 | Publicación de documentos | Las notas de la versión 6.10 de Amazon EMR se publicaron por primera vez | 
| 2023-02-27 | Versión inicial | Amazon EMR 6.10 se implementó por primera vez en regiones comerciales limitadas | 

# Amazon EMR, versión 6.9.1
<a name="emr-691-release"></a>

## Versiones de las aplicaciones de la versión 6.9.1
<a name="emr-691-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.1.0 | 2.1.0 |  -  |  -  | 
| Flink | 1.15.2 | 1.15.2 | 1.15.1 | 1.15.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 
| HCatalog | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 
| Hadoop | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 
| Hive | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 
| Hudi | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 
| Spark | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.10.0 | 2.10.0 | 2.9.1 | 2.9.1 | 
| Tez | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## Notas de la versión 6.9.1
<a name="emr-691-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.9.1 de Amazon EMR. Los cambios son respecto a la versión 6.9.0. Para obtener información sobre el cronograma de lanzamiento, consulte el [Registro de cambios de la versión 6.9.1](#691-changelog).

**Cambios, mejoras y problemas resueltos**
+ Hadoop 3.3.3 ha introducido un cambio en YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) que mantiene los nodos donde se ejecutaron los contenedores en un estado de retirada hasta que se complete la aplicación. Este cambio garantiza que los datos locales, como los datos de mezclas aleatorias, no se pierdan y que no sea necesario volver a ejecutar el trabajo. Este enfoque también puede provocar una infrautilización de los recursos en los clústeres con o sin el escalado administrado habilitado.

  En las versiones 6.11.0 y posteriores de Amazon EMR, así como en las 6.8.1, 6.9.1 y 6.10.1, el valor de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` se establece como `false` en `yarn-site.xml` para resolver este problema.

  Si bien la corrección soluciona los problemas que ha introducido YARN-9608, es posible que los trabajos de Hive presenten errores debido a la pérdida de datos de mezclas aleatorias en los clústeres que tienen habilitado el escalado administrado. Se ha mitigado ese riesgo en esta versión al configurar también `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` para las cargas de trabajo de Hive. Esta configuración solo está disponible con la versión 6.11.0 y posteriores de Amazon EMR.
+ El recopilador de métricas no enviará ninguna métrica al plano de control después de una conmutación por error del nodo principal en los clústeres con la configuración de grupos de instancias.
+ Esta versión elimina los reintentos de las solicitudes HTTP con errores a los puntos de conexión del recopilador de métricas.
+ Esta versión incluye un cambio que permite que los clústeres de alta disponibilidad se recuperen de un estado de error tras el reinicio.
+ Esta versión corrige un problema por el que las grandes excepciones creadas por los usuarios UIDs provocaban excepciones de desbordamiento.
+ Esta versión corrige los problemas de tiempo de espera con el proceso de reconfiguración de Amazon EMR.
+ Esta versión incluye correcciones de seguridad.
+ Esta versión corrige un problema por el que los clústeres que ejecutan cargas de trabajo en Spark con Amazon EMR podrían recibir silenciosamente resultados incorrectos con `contains`, `startsWith`, `endsWith` y `like`. Este problema se produce cuando utiliza las expresiones en campos particionados que tienen metadatos en Hive3 Metastore Server (HMS) de Amazon EMR.
+ Con las versiones 6.6.0 a 6.9.x de Amazon EMR, las consultas INSERT con partición dinámica y una cláusula ORDER BY o SORT BY siempre tendrán dos reductores. Este problema se debe al cambio [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703) de OSS, que sitúa la optimización de la clasificación dinámica de las particiones en una decisión basada en los costos. Si su carga de trabajo no requiere ordenar las particiones dinámicas, le recomendamos que establezca la propiedad `hive.optimize.sort.dynamic.partition.threshold` en `-1` para deshabilitar la nueva característica y obtener el número de reductores calculado correctamente. Este problema se ha corregido en OSS Hive como parte de [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) y se ha corregido en Amazon EMR 6.10.0.
+ Es posible que Hive pierda datos si utiliza HDFS como directorio temporal y ha habilitado la combinación de archivos pequeños, y la tabla contiene rutas de partición estáticas.
+ Esta versión corrige un problema de rendimiento con Hive si la combinación de archivos pequeños (deshabilitada de forma predeterminada) se habilita al final del trabajo de ETL.
+ Esta versión corrige un problema con la limitación en Glue cuando no hay funciones definidas por el usuario (UDF).
+ Esta versión corrige un problema que elimina los registros de contenedores mediante el servicio de agregación de registros de nodos antes de que el insertador de registros pudiera enviarlos a S3 en caso de retirada de YARN.
+ Esta versión corrige la gestión de archivos compactados o archivados con un seguimiento persistente de los archivos de almacenamiento. HBase
+ Esta versión corrige un problema que afectaba al rendimiento de Spark cuando se establecía un valor `true` predeterminado para la configuración `spark.yarn.heterogeneousExecutors.enabled` en `spark-defaults.conf`.
+ Esta versión corrige un problema que provocaba que la tarea de reducción no pudiera leer los datos de mezclas aleatorias. El problema provocaba errores en las consultas de Hive debido a un error de memoria dañada.
+ Esta versión corrige un problema que provocaba un error en el aprovisionador de nodos si el servicio HDFS NameNode (NN) se bloqueaba en modo seguro durante la sustitución del nodo.
+ Esta versión agrega un nuevo mecanismo de reintento al flujo de trabajo de escalado de clústeres para clústeres de EMR que ejecutan Presto o Trino. Esta mejora reduce el riesgo de que el cambio de tamaño del clúster se detenga indefinidamente debido a una única operación de cambio de tamaño con errores. También mejora la utilización del clúster, ya que el clúster se escala y reduce verticalmente más rápido.
+ Esta versión mejora la lógica de reducción vertical del clúster para que el clúster no intente reducir verticalmente los nodos principales por debajo de la configuración del factor de replicación de HDFS del clúster. Esto se ajusta a sus requisitos de redundancia de datos y reduce la posibilidad de que una operación de escalado se detenga.
+ El daemon de administración de registros se ha actualizado para identificar todos los registros que están en uso activo con controladores de archivos abiertos en el almacenamiento de instancias local y los procesos asociados. Esta actualización garantiza que Amazon EMR elimine correctamente los archivos y recupere espacio de almacenamiento una vez archivados los registros en Amazon S3.
+ Esta versión incluye una mejora del daemon de administración de registros que elimina los directorios escalonados vacíos y no utilizados del sistema de archivos del clúster local. Un número excesivamente elevado de directorios vacíos puede reducir el rendimiento de los daemons de Amazon EMR y provocar una sobreutilización del disco.
+ Esta versión corrige un problema que podía producirse al crear un nodo de periferia cuando se replicaba uno de los nodos principales de un clúster con varios nodos principales. El nodo de periferia replicado podría provocar retrasos en las operaciones de reducción vertical o provocar un uso elevado de la memoria en los nodos principales. Para obtener más información sobre cómo crear un nodo perimetral para comunicarse con su clúster de EMR, consulte [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) en el `aws-samples` repositorio de. GitHub
+ Esta versión mejora el proceso de automatización que Amazon EMR utiliza para volver a montar los volúmenes de Amazon EBS en una instancia tras un reinicio.
+ Esta versión corrige un problema que provocaba brechas intermitentes en las métricas de Hadoop que Amazon EMR publica en Amazon. CloudWatch
+ Esta versión corrige un problema con los clústeres de EMR por el que se interrumpe una actualización del archivo de configuración de YARN que contiene la lista de nodos excluidos del clúster debido a una sobreutilización del disco. La actualización incompleta dificulta las futuras operaciones de reducción vertical de los clústeres. Esta versión garantiza que el clúster se mantenga en buen estado y que las operaciones de escalado funcionen según lo previsto.
+ Esta versión mejora el daemon de administración de registros en el clúster para supervisar las carpetas de registro adicionales del clúster de EMR. Esta mejora minimiza los escenarios de sobreutilización del disco.
+ Esta versión reinicia automáticamente el daemon de administración de registros en el clúster cuando se detiene. Esta mejora reduce el riesgo de que los nodos parezcan estar en mal estado debido a la sobreutilización del disco. 
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-691-release.html)

## Versiones de los componentes de la versión 6.9.1
<a name="emr-691-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | SDK de Amazon SageMaker Spark | 
| delta | 2.1.0 | Delta Lake es un formato de tabla abierto para conjuntos de datos analíticos de gran tamaño | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.3.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.6.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.7.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.23.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.2.0 | Conector S3Select de EMR | 
| emrfs | 2.54,0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.15.2 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.15.2 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.3.3-amzn-1.1 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-1.1 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.3.3-amzn-1.1 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-1.1 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-1.1 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.3.3-amzn-1.1 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-1.1 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-1.1 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-1.1 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-1.1 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-1.1 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.13-amzn-0.1 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.13-amzn-0.1 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.13-amzn-0.1 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.13-amzn-0.1 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.13-amzn-0.1 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.13-amzn-0.1 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.3-amzn-2.1 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-2.1 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.3-amzn-2.1 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.3-amzn-2.1 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.3-amzn-2.1 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-2.1 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.3-amzn-2.1 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.12.1-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.12.1-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.12.1-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.12.1-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.10.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 0.14.1-amzn-0 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.4.1 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.9.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.7.0 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.2 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 6.0.0 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.276-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.276-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.276-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 398-amzn-0 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 398-amzn-0 | Service para ejecutar partes de una consulta. | 
| trino-client | 398-amzn-0 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.3.0-amzn-1.1 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.3.0-amzn-1.1 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.3.0-amzn-1.1 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.3.0-amzn-1.1 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 22.08.0-amzn-0 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.10.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.10.2-amzn-0.1 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.10 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.10 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.9.1
<a name="emr-691-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.9.1**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| delta-defaults | Cambie los valores del archivo delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j2 | Cambiar la configuración de log4j2.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Cambiar los valores en el archivo lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Cambie los valores del archivo delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Cambie los valores del archivo exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j2 | Cambiar los valores en el archivo log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

## Registro de cambios de la versión 6.9.1
<a name="691-changelog"></a>


**Registro de cambios de la versión 6.9.1 y notas de la versión**  

| Date | Event | Description (Descripción) | 
| --- | --- | --- | 
| 2023-08-30 | Actualización de las notas de la versión | Se han agregado varias correcciones relacionadas con el plano de control a las notas de la versión | 
| 2023-08-21 | Publicación de documentos | Las notas de la versión 6.9.1 de Amazon EMR se publicaron por primera vez | 
| 2023-08-16 | Implementación completa | Amazon EMR 6.9.1 se ha implementado completamente en todas las [regiones compatibles](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-08-04 | Versión inicial | Amazon EMR 6.9.1 se implementó por primera vez en regiones comerciales limitadas | 

# Amazon EMR, versión 6.9.0
<a name="emr-690-release"></a>

## Versiones de las aplicaciones de la versión 6.9.0
<a name="emr-690-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.1.0 |  -  |  -  |  -  | 
| Flink | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 
| HCatalog | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 
| Hadoop | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 
| Hive | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 
| Hudi | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 
| Spark | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.10.0 | 2.9.1 | 2.9.1 | 2.4.1 | 
| Tez | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.7 | 

## Notas de la versión 6.9.0
<a name="emr-690-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.9.0 de Amazon EMR. Los cambios son respecto a la versión 6.8.0 de Amazon EMR. Para obtener información sobre el cronograma de lanzamiento, consulte el [registro de cambios](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-690-release.html#690-changelog).

**Nuevas características**
+ La versión 6.9.0 de Amazon EMR es compatible con Apache Spark RAPIDS 22.08.0, Apache Hudi 0.12.1, Apache Iceberg 0.14.1, Trino 398 y Tez 0.10.2.
+ La versión 6.9.0 de Amazon EMR incluye una nueva aplicación de código abierto, [Delta Lake](emr-delta.md) 2.1.0.
+ La integración de Amazon Redshift para Apache Spark se incluye en las versiones 6.9.0 y posteriores de Amazon EMR. La integración nativa, que anteriormente era una herramienta de código abierto, es un conector de Spark que puede utilizar para crear aplicaciones de Apache Spark que leen y escriben datos en Amazon Redshift y Amazon Redshift sin servidor. Para obtener más información, consulte [Uso de la integración de Amazon Redshift para Apache Spark con Amazon EMR](emr-spark-redshift.md).
+ La versión 6.9.0 de Amazon EMR agrega compatibilidad para archivar registros en Amazon S3 durante la reducción vertical del clúster. Anteriormente, solo podía archivar archivos de registro en Amazon S3 durante la terminación del clúster. Esta nueva capacidad garantiza que los archivos de registro generados en el clúster persistan en Amazon S3 incluso después de terminar el nodo. Para más información, consulte [Configurar el registro y la depuración de un clúster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html).
+ Para admitir consultas de ejecución prolongada, Trino ahora incluye un mecanismo de ejecución tolerante a errores. La ejecución tolerante a errores mitiga los errores de las consultas al volver a intentar las consultas con errores o las tareas que las componen.
+ Puede utilizar Apache Flink en Amazon EMR para el procesamiento unificado `BATCH` y `STREAM` de tablas de Apache Hive o metadatos de cualquier origen de tabla de Flink, como Iceberg, Kinesis o Kafka. Puedes especificar el catálogo de datos de AWS Glue como el metaalmacén de Flink mediante la API Consola de administración de AWS AWS CLI, o Amazon EMR. Para obtener más información, consulte [Configuración de Flink en Amazon EMR](flink-configure.md).
+ Ahora puede especificar las funciones de tiempo de ejecución AWS Identity and Access Management (IAM) y el control de acceso AWS Lake Formation basado para las consultas de Apache Spark, Apache Hive y Presto en Amazon EMR en clústeres de EC2 con Amazon AI Studio. SageMaker Para más información, consulte [Configuración de roles en tiempo de ejecución para los pasos de Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-steps-runtime-roles.html). 

**Problemas conocidos**
+ En el caso de la versión 6.9.0 de Amazon EMR, Trino no funciona en clústeres habilitados para Apache Ranger. Si tiene que utilizar Trino con Ranger, contacte con [Soporte](https://console.aws.amazon.com/support/home#/).
+ Si utiliza la integración de Amazon Redshift para Apache Spark y tiene un valor de time, timetz, timestamp o timestamptz con una precisión de microsegundos en formato Parquet, el conector redondea los valores de tiempo al valor de milisegundos más cercano. Como solución alternativa, utilice el parámetro `unload_s3_format` de formato de descarga de texto.
+ Cuando utiliza Spark con el formato de ubicación de particiones de Hive para leer datos en Amazon S3 y ejecuta Spark en las versiones 5.30.0 a 5.36.0 y 6.2.0 a 6.9.0 de Amazon EMR, es posible que se produzca un problema que impida que el clúster lea los datos correctamente. Esto puede ocurrir si las particiones tienen todas las características siguientes:
  + Se analizan dos o más particiones de la misma tabla.
  + Al menos una ruta de directorio de particiones es un prefijo de al menos otra ruta de directorio de particiones; por ejemplo, `s3://bucket/table/p=a` es un prefijo de `s3://bucket/table/p=a b`.
  + El primer carácter que sigue al prefijo del otro directorio de particiones tiene un valor UTF-8 inferior al carácter `/` (U\$1002F). Por ejemplo, el carácter de espacio (U\$10020) que aparece entre a y b en `s3://bucket/table/p=a b` entra en esta categoría. Tenga en cuenta que hay otros 14 caracteres que no son de control: `!"#$%&‘()*+,-`. Para más información, consulte [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/).

  Como solución alternativa a este problema, defina la configuración `spark.sql.sources.fastS3PartitionDiscovery.enabled` como `false` en la clasificación `spark-defaults`.
+ Las conexiones a los clústeres de Amazon EMR desde Amazon SageMaker AI Studio pueden fallar de forma intermitente con un código de respuesta **403 Forbidden**. Este error se produce cuando la configuración del rol de IAM en el clúster tarda más de 60 segundos. Como solución alternativa, puede instalar una revisión de Amazon EMR para permitir los reintentos y aumentar el tiempo de espera a un mínimo de 300 segundos. Siga los siguientes pasos para aplicar la acción de arranque al lanzar el clúster.

  1.  Descargue el script de arranque y los archivos RPM del siguiente Amazon S3 URIs.

     ```
     s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/replace-rpms.sh
     s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/emr-secret-agent-1.18.0-SNAPSHOT20221121212949.noarch.rpm
     ```

  1. Cargue los archivos del paso anterior a un bucket de Amazon S3 de su propiedad. El depósito debe estar en el mismo Región de AWS lugar en el que planea lanzar el clúster.

  1. Incluya la siguiente acción de arranque cuando inicie el clúster de EMR. Sustituya *bootstrap\$1URI* y *RPM\$1URI* por la correspondiente URIs de Amazon S3. 

     ```
     --bootstrap-actions "Path=bootstrap_URI,Args=[RPM_URI]"
     ```
+ Con las versiones 5.36.0 y 6.6.0 a 6.9.0 de Amazon EMR, los componentes de servicio `SecretAgent` y `RecordServer` pueden sufrir una pérdida de datos de registro debido a una configuración incorrecta del patrón de nombres de archivo en las propiedades de Log4j2. Una configuración incorrecta hace que los componentes generen solo un archivo de registro por día. Cuando se aplica la estrategia de rotación, se sobrescribe el archivo existente en lugar de generar un nuevo archivo de registro como se esperaba. Como solución alternativa, utilice una acción de arranque para generar archivos de registro cada hora y agregue un entero de incremento automático en el nombre del archivo para gestionar la rotación.

  En el caso de las versiones 6.6.0 a 6.9.0 de Amazon EMR, utilice la siguiente acción de arranque al lanzar un clúster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  En el caso de Amazon EMR 5.36.0, utilice la siguiente acción de arranque al lanzar un clúster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```
+ Apache Flink proporciona FileSystem conectores S3 FileSystem y Hadoop nativos, que permiten a las aplicaciones crear FileSink y escribir los datos en Amazon S3. Esto FileSink falla con una de las dos excepciones siguientes.

  ```
  java.lang.UnsupportedOperationException: Recoverable writers on Hadoop are only supported for HDFS
  ```

  ```
  Caused by: java.lang.NoSuchMethodError: org.apache.hadoop.io.retry.RetryPolicies.retryOtherThanRemoteAndSaslException(Lorg/apache/hadoop/io/retry/RetryPolicy;Ljava/util/Map;)Lorg/apache/hadoop/io/retry/RetryPolicy;
                                          at org.apache.hadoop.yarn.client.RMProxy.createRetryPolicy(RMProxy.java:302) ~[hadoop-yarn-common-3.3.3-amzn-0.jar:?]
  ```

  Como solución alternativa, puede instalar una revisión de Amazon EMR, que soluciona el problema anterior en Flink. Siga los siguientes pasos para aplicar la acción de arranque al iniciar el clúster.

  1. Descargue el archivo flink-rpm en su bucket de Amazon S3. La ruta de su RPM es `s3://DOC-EXAMPLE-BUCKET/rpms/flink/`.

  1. Descargue el script de arranque y los archivos RPM de Amazon S3 con los siguientes URI. `regionName`Reemplácelo por el Región de AWS lugar donde planea lanzar el clúster.

     ```
     s3://emr-data-access-control-regionName/customer-bootstrap-actions/gcsc/replace-rpms.sh
     ```

  1. Hadoop 3.3.3 ha introducido un cambio en YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) que mantiene los nodos donde se ejecutaron los contenedores en un estado de retirada hasta que se complete la aplicación. Este cambio garantiza que los datos locales, como los datos de mezclas aleatorias, no se pierdan y que no sea necesario volver a ejecutar el trabajo. En Amazon EMR 6.8.0 y 6.9.0, este enfoque también podría provocar una infrautilización de los recursos en los clústeres con o sin el escalado administrado habilitado.

     Con [Amazon EMR 6.10.0](emr-6100-release.md#emr-6100-relnotes), hay una solución alternativa para este problema: puede establecer el valor de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` como `false` en `yarn-site.xml`. En las versiones 6.11.0 y posteriores de Amazon EMR, así como en las 6.8.1, 6.9.1 y 6.10.1, la configuración se establece en `false` de manera predeterminada para resolver este problema.

**Cambios, mejoras y problemas resueltos**
+ En el caso de la versión 6.9.0 y posteriores de Amazon EMR, todos los componentes instalados por Amazon EMR que utilizan bibliotecas Log4j utilizan la versión 2.17.1 o posteriores de Log4j.
+ Cuando utiliza el conector de DynamoDB con Spark en las versiones 6.6.0, 6.7.0 y 6.8.0 de Amazon EMR, todas las lecturas de la tabla devuelven un resultado vacío, aunque la división de entrada haga referencia a datos que no están vacíos. La versión 6.9.0 de Amazon EMR corrige este problema.
+ Amazon EMR 6.9.0 agrega compatibilidad limitada para el control de acceso basado en Lake Formation con Apache Hudi al leer datos con Spark SQL. La compatibilidad es para consultas SELECT que utilizan Spark SQL y se limita al control de acceso en el nivel de columnas. Para más información, consulte [Hudi y Lake Formation](https://docs.aws.amazon.com/emr/latest/ManagementGuide/hudi-with-lake-formation.html).
+ Cuando utiliza Amazon EMR 6.9.0 para crear un clúster de Hadoop con [etiquetas de nodo](https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/NodeLabel.html) habilitadas, la [API de métricas de YARN](https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/ResourceManagerRest.html#Cluster_Metrics_API) devuelve información agregada en todas las particiones, en lugar de la partición predeterminada. Para más información, consulte [YARN-11414](https://issues.apache.org/jira/browse/YARN-11414).
+ Con la versión 6.9.0 de Amazon EMR, hemos actualizado Trino a la versión 398, que utiliza Java 17. La versión anterior compatible de Trino para Amazon EMR 6.8.0 era Trino 388 y se ejecutaba en Java 11. Para más información sobre este cambio, consulte las [actualizaciones de Trino a Java 17](https://trino.io/blog/2022/07/14/trino-updates-to-java-17.html) en el blog de Trino.
+ Esta versión corrige un problema de desajuste de la secuencia de tiempo entre Apache BigTop y Amazon EMR en la secuencia de inicio del clúster EC2. Este desajuste de la secuencia de tiempo se produce cuando un sistema intenta llevar a cabo dos o más operaciones al mismo tiempo en lugar de hacerlas en la secuencia correcta. Como resultado, algunas configuraciones de clústeres experimentaron tiempos de espera de inicio de instancias y tiempos de inicio de clústeres más lentos.
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**nota**  
Esta versión ya no recibe actualizaciones automáticas de la AMI, ya que ha sido sustituida por 1 versión de revisión adicional. La versión de revisión se indica con el número que sigue al segundo punto decimal (`6.8.1`). Para comprobar si está utilizando la versión de revisión más reciente, consulte las versiones disponibles en la [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide) o consulte el menú desplegable **Versión de Amazon EMR** cuando cree un clúster en la consola o use la acción de la API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) o la CLI [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html). Para recibir actualizaciones sobre las nuevas versiones, suscríbase a la fuente RSS de la página [Novedades](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-690-release.html)

## Versiones de los componentes de la versión 6.9.0
<a name="emr-690-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | SDK de Amazon SageMaker Spark | 
| delta | 2.1.0 | Delta Lake es un formato de tabla abierto para conjuntos de datos analíticos de gran tamaño | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.3.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.6.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.7.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.23.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.2.0 | Conector S3Select de EMR | 
| emrfs | 2.54,0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.15.2 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.15.2 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.3.3-amzn-1 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.3.3-amzn-1 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.3.3-amzn-1 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.3.3-amzn-1 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-1 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.3.3-amzn-1 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.3.3-amzn-1 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.3.3-amzn-1 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-1 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-1 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-1 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.13-amzn-0 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.13-amzn-0 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.13-amzn-0 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.13-amzn-0 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.13-amzn-0 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.13-amzn-0 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.3-amzn-2 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-2 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.3-amzn-2 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.3-amzn-2 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.3-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-2 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.3-amzn-2 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.12.1-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.12.1-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.12.1-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.12.1-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.10.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 0.14.1-amzn-0 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.4.1 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.9.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.7.0 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.2 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 6.0.0 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.276-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.276-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.276-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 398-amzn-0 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 398-amzn-0 | Service para ejecutar partes de una consulta. | 
| trino-client | 398-amzn-0 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.3.0-amzn-1 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.3.0-amzn-1 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.3.0-amzn-1 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.3.0-amzn-1 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 22.08.0-amzn-0 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.10.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.10.2-amzn-0 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.10 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.10 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.9.0
<a name="emr-690-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.9.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| delta-defaults | Cambie los valores del archivo delta-defaults.conf de Delta. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j2 | Cambiar la configuración de log4j2.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-lakeformation | Cambiar los valores en el archivo lakeformation.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-delta | Cambie los valores del archivo delta.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Cambie los valores del archivo exchange-manager.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j2 | Cambiar los valores en el archivo log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

## Registro de cambios de la versión 6.9.0
<a name="690-changelog"></a>


**Registro de cambios de la versión 6.9.0 y notas de la versión**  

| Date | Event | Description (Descripción) | 
| --- | --- | --- | 
| 2023-08-30 | Actualización de las notas de la versión | Se ha agregado una corrección para el problema de desajuste de la secuencia de temporización | 
| 2023-08-21 | Actualización de las notas de la versión | Se ha agregado un problema conocido con Hadoop 3.3.3. | 
| 2023-07-26 | Actualización | Nuevas etiquetas de lanzamiento del sistema operativo 2.0.20230612.0 y 2.0.20230628.0. | 
| 2022-12-13 | Notas de la versión actualizadas | Se agregó una función y un problema conocido relacionados con el tiempo de ejecución con la IA SageMaker  | 
| 29-11-2022 | Se han actualizado las notas de la versión y la documentación | Se ha agregado la característica de integración de Amazon Redshift para Apache Spark | 
| 2022-11-23 | Notas de la versión actualizadas | Se ha eliminado la entrada de Log4j | 
| 2022-11-18 | Implementación completa | Amazon EMR 6.9 se ha implementado completamente en todas las [regiones compatibles](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2022-11-18 | Publicación de documentos | Las notas de la versión 6.9 de Amazon EMR se publicaron por primera vez | 
| 2022-11-14 | Versión inicial | Amazon EMR 6.9 se implementó por primera vez en regiones comerciales limitadas | 

# Amazon EMR, versión 6.8.1
<a name="emr-681-release"></a>

## Versiones de las aplicaciones de la versión 6.8.1
<a name="emr-681-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.15.1 | 1.15.1 | 1.14.2 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 
| HCatalog | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 
| Hadoop | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 
| Hive | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 
| Hudi | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 
| Spark | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.9.1 | 2.9.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.7 | 3.5.7 | 

## Notas de la versión 6.8.1
<a name="emr-681-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.8.1 de Amazon EMR. Los cambios son respecto a la versión 6.8.0. Para obtener información sobre el cronograma de lanzamiento, consulte el [Registro de cambios de la versión 6.8.1](#681-changelog).

**Cambios, mejoras y problemas resueltos**
+ Hadoop 3.3.3 ha introducido un cambio en YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) que mantiene los nodos donde se ejecutaron los contenedores en un estado de retirada hasta que se complete la aplicación. Este cambio garantiza que los datos locales, como los datos de mezclas aleatorias, no se pierdan y que no sea necesario volver a ejecutar el trabajo. Este enfoque también puede provocar una infrautilización de los recursos en los clústeres con o sin el escalado administrado habilitado.

  En las versiones 6.11.0 y posteriores de Amazon EMR, así como en las 6.8.1, 6.9.1 y 6.10.1, el valor de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` se establece como `false` en `yarn-site.xml` para resolver este problema.

  Si bien la corrección soluciona los problemas que ha introducido YARN-9608, es posible que los trabajos de Hive presenten errores debido a la pérdida de datos de mezclas aleatorias en los clústeres que tienen habilitado el escalado administrado. Se ha mitigado ese riesgo en esta versión al configurar también `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` para las cargas de trabajo de Hive. Esta configuración solo está disponible con la versión 6.11.0 y posteriores de Amazon EMR.
+ El recopilador de métricas no enviará ninguna métrica al plano de control después de una conmutación por error del nodo principal en los clústeres con la configuración de grupos de instancias.
+ Esta versión elimina los reintentos de las solicitudes HTTP con errores a los puntos de conexión del recopilador de métricas.
+ Esta versión incluye un cambio que permite que los clústeres de alta disponibilidad se recuperen de un estado de error tras el reinicio.
+ Esta versión corrige un problema por el que las grandes excepciones creadas por los usuarios UIDs provocaban excepciones de desbordamiento.
+ Esta versión corrige los problemas de tiempo de espera con el proceso de reconfiguración de Amazon EMR.
+ Esta versión evita un problema en el que una reconfiguración con errores podría interrumpir otros procesos no relacionados.
+ Esta versión incluye correcciones de seguridad.
+ Esta versión corrige un problema por el que los clústeres que ejecutan cargas de trabajo en Spark con Amazon EMR podrían recibir silenciosamente resultados incorrectos con `contains`, `startsWith`, `endsWith` y `like`. Este problema se produce cuando utiliza las expresiones en campos particionados que tienen metadatos en Hive3 Metastore Server (HMS) de Amazon EMR.
+ Con las versiones 6.6.0 a 6.9.x de Amazon EMR, las consultas INSERT con partición dinámica y una cláusula ORDER BY o SORT BY siempre tendrán dos reductores. Este problema se debe al cambio [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703) de OSS, que sitúa la optimización de la clasificación dinámica de las particiones en una decisión basada en los costos. Si su carga de trabajo no requiere ordenar las particiones dinámicas, le recomendamos que establezca la propiedad `hive.optimize.sort.dynamic.partition.threshold` en `-1` para deshabilitar la nueva característica y obtener el número de reductores calculado correctamente. Este problema se ha corregido en OSS Hive como parte de [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) y se ha corregido en Amazon EMR 6.10.0.
+ Es posible que Hive pierda datos si utiliza HDFS como directorio temporal y ha habilitado la combinación de archivos pequeños, y la tabla contiene rutas de partición estáticas.
+ Esta versión corrige un problema de rendimiento con Hive si la combinación de archivos pequeños (deshabilitada de forma predeterminada) se habilita al final del trabajo de ETL.
+ Esta versión corrige un problema con la limitación en Glue cuando no hay funciones definidas por el usuario (UDF).
+ Esta versión corrige un problema que elimina los registros de contenedores mediante el servicio de agregación de registros de nodos antes de que el insertador de registros pudiera enviarlos a S3 en caso de retirada de YARN.
+ Esta versión corrige la gestión de los archivos compactados o archivados con un seguimiento persistente de los archivos de almacenamiento. HBase
+ Esta versión corrige un problema que afectaba al rendimiento de Spark cuando se establecía un valor `true` predeterminado para la configuración `spark.yarn.heterogeneousExecutors.enabled` en `spark-defaults.conf`.
+ Esta versión corrige un problema que provocaba que la tarea de reducción no pudiera leer los datos de mezclas aleatorias. El problema provocaba errores en las consultas de Hive debido a un error de memoria dañada.
+ Esta versión corrige un problema que provocaba un error en el aprovisionador de nodos si el servicio HDFS NameNode (NN) se bloqueaba en modo seguro durante la sustitución del nodo.
+ Esta versión agrega un nuevo mecanismo de reintento al flujo de trabajo de escalado de clústeres para clústeres de EMR que ejecutan Presto o Trino. Esta mejora reduce el riesgo de que el cambio de tamaño del clúster se detenga indefinidamente debido a una única operación de cambio de tamaño con errores. También mejora la utilización del clúster, ya que el clúster se escala y reduce verticalmente más rápido.
+ Esta versión mejora la lógica de reducción vertical del clúster para que el clúster no intente reducir verticalmente los nodos principales por debajo de la configuración del factor de replicación de HDFS del clúster. Esto se ajusta a sus requisitos de redundancia de datos y reduce la posibilidad de que una operación de escalado se detenga.
+ El daemon de administración de registros se ha actualizado para identificar todos los registros que están en uso activo con controladores de archivos abiertos en el almacenamiento de instancias local y los procesos asociados. Esta actualización garantiza que Amazon EMR elimine correctamente los archivos y recupere espacio de almacenamiento una vez archivados los registros en Amazon S3.
+ Esta versión incluye una mejora del daemon de administración de registros que elimina los directorios escalonados vacíos y no utilizados del sistema de archivos del clúster local. Un número excesivamente elevado de directorios vacíos puede reducir el rendimiento de los daemons de Amazon EMR y provocar una sobreutilización del disco.
+ Esta versión corrige un problema que podía producirse al crear un nodo de periferia cuando se replicaba uno de los nodos principales de un clúster con varios nodos principales. El nodo de periferia replicado podría provocar retrasos en las operaciones de reducción vertical o provocar un uso elevado de la memoria en los nodos principales. Para obtener más información sobre cómo crear un nodo perimetral para comunicarse con su clúster de EMR, consulte [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator) en el `aws-samples` repositorio de. GitHub
+ Esta versión mejora el proceso de automatización que Amazon EMR utiliza para volver a montar los volúmenes de Amazon EBS en una instancia tras un reinicio.
+ Esta versión corrige un problema que provocaba brechas intermitentes en las métricas de Hadoop que Amazon EMR publica en Amazon. CloudWatch
+ Esta versión corrige un problema con los clústeres de EMR por el que se interrumpe una actualización del archivo de configuración de YARN que contiene la lista de nodos excluidos del clúster debido a una sobreutilización del disco. La actualización incompleta dificulta las futuras operaciones de reducción vertical de los clústeres. Esta versión garantiza que el clúster se mantenga en buen estado y que las operaciones de escalado funcionen según lo previsto.
+ Esta versión mejora el daemon de administración de registros en el clúster para supervisar las carpetas de registro adicionales del clúster de EMR. Esta mejora minimiza los escenarios de sobreutilización del disco.
+ Esta versión reinicia automáticamente el daemon de administración de registros en el clúster cuando se detiene. Esta mejora reduce el riesgo de que los nodos parezcan estar en mal estado debido a la sobreutilización del disco. 
+ Esta versión agrega compatibilidad con el archivado de registros en Amazon S3 durante la reducción vertical del clúster. Anteriormente, solo podía archivar archivos de registro en Amazon S3 durante la terminación del clúster. Esta nueva capacidad garantiza que los archivos de registro generados en el clúster persistan en Amazon S3 incluso después de terminar el nodo. Para más información, consulte [Configurar el registro y la depuración de un clúster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html).
+ Esta versión corrige un problema que se producía cuando el URI de Amazon S3 de una acción de arranque terminaba con un número de puerto, por ejemplo: `a.b.c.d:4345`. Amazon EMR los analizaba de forma incorrecta URIs, por lo que cualquier acción de arranque asociada fallaba.
+ Esta versión corrige un problema de desajuste de la secuencia de tiempo entre Apache BigTop y Amazon EMR en la secuencia de inicio del clúster EC2. Este desajuste de la secuencia de tiempo se produce cuando un sistema intenta llevar a cabo dos o más operaciones al mismo tiempo en lugar de hacerlas en la secuencia correcta. Como resultado, algunas configuraciones de clústeres experimentaron tiempos de espera de inicio de instancias y tiempos de inicio de clústeres más lentos.
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-681-release.html)

## Versiones de los componentes de la versión 6.8.1
<a name="emr-681-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.2.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.7.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.22.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.1.0 | Conector S3Select de EMR | 
| emrfs | 2.53,0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.15.1 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.15.1 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-8.1 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-8.1 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-8.1 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-8.1 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-8.1 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-8.1 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-8.1 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-8.1 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-8.1 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-8.1 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-8.1 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.12-amzn-0.1 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.12-amzn-0.1 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.12-amzn-0.1 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.12-amzn-0.1 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.12-amzn-0.1 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.12-amzn-0.1 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.3-amzn-1.1 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-1.1 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.3-amzn-1.1 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.3-amzn-1.1 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.3-amzn-1.1 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-1.1 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.3-amzn-1.1 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.11.1-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.11.1-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.11.1-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.11.1-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.10.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 0.14.0-amzn-0 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.4.1 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.9.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.7.0 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.2 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 5.1.2 | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 5.1.2 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.273.3-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.273.3-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.273.3-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 388-amzn-0 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 388-amzn-0 | Service para ejecutar partes de una consulta. | 
| trino-client | 388-amzn-0 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.3.0-amzn-0.1 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.3.0-amzn-0.1 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.3.0-amzn-0.1 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.3.0-amzn-0.1 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 22.06.0-amzn-0 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.9.1 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.10 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.10 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.8.1
<a name="emr-681-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.8.1**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j2 | Cambiar los valores en el archivo log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

## Registro de cambios de la versión 6.8.1
<a name="681-changelog"></a>


**Registro de cambios de la versión 6.8.1 y notas de la versión**  

| Date | Event | Description (Descripción) | 
| --- | --- | --- | 
| 2023-08-30 | Actualización de las notas de la versión | Se han agregado varias correcciones relacionadas con el plano de control a las notas de la versión | 
| 2023-08-21 | Publicación de documentos | Las notas de la versión 6.8.1 de Amazon EMR se publicaron por primera vez | 
| 2023-08-16 | Implementación completa | Amazon EMR 6.8.1 se ha implementado completamente en todas las [regiones compatibles](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-08-04 | Versión inicial | Amazon EMR 6.8.1 se implementó por primera vez en regiones comerciales limitadas | 

# Amazon EMR, versión 6.8.0
<a name="emr-680-release"></a>

## Versiones de las aplicaciones de la versión 6.8.0
<a name="emr-680-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.31 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.15.1 | 1.14.2 | 1.14.2 | 1.14.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 
| HCatalog | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 
| Hadoop | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 
| Hive | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 
| Hudi | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 
| Iceberg | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5,2,1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 
| Spark | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.9.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 360 | 
| Zeppelin | 0.10.1 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.7 | 3.5.7 | 3.5.7 | 

## Notas de la versión 6.8.0
<a name="emr-680-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.8.0 de Amazon EMR. Los cambios son respecto a la versión 6.7.0.

**Nuevas características**
+ La función de pasos de Amazon EMR ahora es compatible con los clientes y puntos de conexión de Apache Livy. JDBC/ODBC Para más información, consulte [Configuración de roles en tiempo de ejecución para los pasos de Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-steps-runtime-roles.html).
+ La versión 6.8.0 de Amazon EMR viene con la versión 2.4.12 de Apache HBase . Con esta HBase versión, puede archivar y eliminar sus tablas. HBase El proceso de archivado de Amazon S3 cambia el nombre de todos los archivos de tabla al directorio de archivado. Esto puede ser un proceso largo y costoso. Ahora puede omitir el proceso de archivado y rechazar y eliminar rápidamente tablas grandes. Para obtener más información, consulte [Uso del HBase shell](emr-hbase-connect.md).

**Problemas conocidos**
+ Hadoop 3.3.3 ha introducido un cambio en YARN ([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608)) que mantiene los nodos donde se ejecutaron los contenedores en un estado de retirada hasta que se complete la aplicación. Este cambio garantiza que los datos locales, como los datos de mezclas aleatorias, no se pierdan y que no sea necesario volver a ejecutar el trabajo. En Amazon EMR 6.8.0 y 6.9.0, este enfoque también podría provocar una infrautilización de los recursos en los clústeres con o sin el escalado administrado habilitado.

  Con [Amazon EMR 6.10.0](emr-6100-release.md#emr-6100-relnotes), hay una solución alternativa para este problema: puede establecer el valor de `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` como `false` en `yarn-site.xml`. En las versiones 6.11.0 y posteriores de Amazon EMR, así como en las 6.8.1, 6.9.1 y 6.10.1, la configuración se establece en `false` de manera predeterminada para resolver este problema.

**Cambios, mejoras y problemas resueltos**
+ Cuando las versiones 6.5.0, 6.6.0 o 6.7.0 de Amazon EMR leían las tablas de Apache Phoenix a través del intérprete de comandos de Apache Spark, Amazon EMR producía un `NoSuchMethodError`. La versión 6.8.0 de Amazon EMR corrige este problema.
+ Amazon EMR 6.8.0 viene con [Apache Hudi](https://hudi.apache.org/) 0.11.1; sin embargo, los clústeres de Amazon EMR 6.8.0 también son compatibles con el código abierto `hudi-spark3.3-bundle_2.12` de Hudi 0.12.0.
+ La versión 6.8.0 de Amazon EMR incluye la versión 3.3.0 de Apache Spark. Esta versión de Spark utiliza Apache Log4j 2 y el archivo `log4j2.properties` para configurar Log4j en los procesos de Spark. Si utiliza Spark en el clúster o crea clústeres de EMR con parámetros de configuración personalizados y desea actualizar a la versión 6.8.0 de Amazon EMR, debe migrar al nuevo formato de clave y clasificación de configuración `spark-log4j2` de Apache Log4j 2. Para obtener más información, consulte [Migración de Apache Log4j 1.x a Log4j 2.x](emr-spark-configure.md#spark-migrate-logj42).
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).
**nota**  
Esta versión ya no recibe actualizaciones automáticas de la AMI, ya que ha sido sustituida por 1 versión de revisión adicional. La versión de revisión se indica con el número que sigue al segundo punto decimal (`6.8.1`). Para comprobar si está utilizando la versión de revisión más reciente, consulte las versiones disponibles en la [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide) o consulte el menú desplegable **Versión de Amazon EMR** cuando cree un clúster en la consola o use la acción de la API [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) o la CLI [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html). Para recibir actualizaciones sobre las nuevas versiones, suscríbase a la fuente RSS de la página [Novedades](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-680-release.html)

**Problemas conocidos**
+ Cuando utiliza el conector de DynamoDB con Spark en las versiones 6.6.0, 6.7.0 y 6.8.0 de Amazon EMR, todas las lecturas de la tabla devuelven un resultado vacío, aunque la división de entrada haga referencia a datos que no están vacíos. Esto se debe a que Spark 3.2.0 establece `spark.hadoopRDD.ignoreEmptySplits` en `true` de manera predeterminada. Como solución alternativa, establezca `spark.hadoopRDD.ignoreEmptySplits` explícitamente en `false`. La versión 6.9.0 de Amazon EMR corrige este problema.
+ Cuando utiliza Spark con el formato de ubicación de particiones de Hive para leer datos en Amazon S3 y ejecuta Spark en las versiones 5.30.0 a 5.36.0 y 6.2.0 a 6.9.0 de Amazon EMR, es posible que se produzca un problema que impida que el clúster lea los datos correctamente. Esto puede ocurrir si las particiones tienen todas las características siguientes:
  + Se analizan dos o más particiones de la misma tabla.
  + Al menos una ruta de directorio de particiones es un prefijo de al menos otra ruta de directorio de particiones; por ejemplo, `s3://bucket/table/p=a` es un prefijo de `s3://bucket/table/p=a b`.
  + El primer carácter que sigue al prefijo del otro directorio de particiones tiene un valor UTF-8 inferior al carácter `/` (U\$1002F). Por ejemplo, el carácter de espacio (U\$10020) que aparece entre a y b en `s3://bucket/table/p=a b` entra en esta categoría. Tenga en cuenta que hay otros 14 caracteres que no son de control: `!"#$%&‘()*+,-`. Para más información, consulte [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/).

  Como solución alternativa a este problema, defina la configuración `spark.sql.sources.fastS3PartitionDiscovery.enabled` como `false` en la clasificación `spark-defaults`.
+ Con las versiones 5.36.0 y 6.6.0 a 6.9.0 de Amazon EMR, los componentes de servicio `SecretAgent` y `RecordServer` pueden sufrir una pérdida de datos de registro debido a una configuración incorrecta del patrón de nombres de archivo en las propiedades de Log4j2. Una configuración incorrecta hace que los componentes generen solo un archivo de registro por día. Cuando se aplica la estrategia de rotación, se sobrescribe el archivo existente en lugar de generar un nuevo archivo de registro como se esperaba. Como solución alternativa, utilice una acción de arranque para generar archivos de registro cada hora y agregue un entero de incremento automático en el nombre del archivo para gestionar la rotación.

  En el caso de las versiones 6.6.0 a 6.9.0 de Amazon EMR, utilice la siguiente acción de arranque al lanzar un clúster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  En el caso de Amazon EMR 5.36.0, utilice la siguiente acción de arranque al lanzar un clúster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

Para obtener más información sobre el cronograma de lanzamiento, consulte el [registro de cambios](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-680-release.html#680-changelog).

## Versiones de los componentes de la versión 6.8.0
<a name="emr-680-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.2.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.7.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.22.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.1.0 | Conector S3Select de EMR | 
| emrfs | 2.53,0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.15.1 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.15.1 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-8 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-8 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-8 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-8 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-8 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-8 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-8 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-8 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-8 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-8 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-8 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.12-amzn-0 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.12-amzn-0 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.12-amzn-0 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.12-amzn-0 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.12-amzn-0 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.12-amzn-0 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.3-amzn-1 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-1 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.3-amzn-1 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.3-amzn-1 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.3-amzn-1 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-1 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.3-amzn-1 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.11.1-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.11.1-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.11.1-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.11.1-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.10.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 0.14.0-amzn-0 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.4.1 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.9.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.7.0 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.2 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 5.1.2 | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 5.1.2 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.273.3-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.273.3-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.273.3-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 388-amzn-0 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 388-amzn-0 | Service para ejecutar partes de una consulta. | 
| trino-client | 388-amzn-0 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.3.0-amzn-0 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.3.0-amzn-0 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.3.0-amzn-0 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.3.0-amzn-0 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 22.06.0-amzn-0 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.9.1 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.10 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.10 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.8.0
<a name="emr-680-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.8.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie HBase los valores del archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j2 | Cambiar los valores en el archivo log4j2.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

## Registro de cambios de la versión 6.8.0
<a name="680-changelog"></a>


**Registro de cambios de la versión 6.8.0 y notas de la versión**  

| Date | Event | Description (Descripción) | 
| --- | --- | --- | 
| 2023-08-21 | Actualización | Se ha agregado un problema conocido con Hadoop 3.3.3. | 
| 2023-07-26 | Actualización | Nuevas etiquetas de lanzamiento del sistema operativo 2.0.20230612.0 y 2.0.20230628.0. | 
| 2022-09-06 | Implementación completa | Amazon EMR 6.8 se ha implementado completamente en todas las [regiones compatibles](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2022-09-06 | Publicación inicial | Las notas de la versión 6.8 de Amazon EMR se publicaron por primera vez | 
| 2022-08-31 | Versión inicial | Amazon EMR 6.8 se ha implementado por primera vez en regiones comerciales limitadas | 

# Amazon EMR, versión 6.7.0
<a name="emr-670-release"></a>

## Versiones de las aplicaciones de la versión 6.7.0
<a name="emr-670-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.170 | 1.12.170 | 1.12.31 | 1.12.31 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.0 | 1.13.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 
| HCatalog | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 
| Hadoop | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 
| Hive | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 
| Hudi | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 
| Spark | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 378-amzn-0 | 367-amzn-0 | 360 | 359 | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 
| ZooKeeper | 3.5.7 | 3.5.7 | 3.5.7 | 3.5.7 | 

## Notas de la versión 6.7.0
<a name="emr-670-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.7.0 de Amazon EMR. Los cambios son respecto a la versión 6.6.0.

Fecha de lanzamiento inicial: 15 de julio de 2022

**Nuevas características**
+ Amazon EMR ahora es compatible con Apache Spark 3.2.1, Apache Hive 3.1.3, HUDI 0.11, PrestoDB 0.272 y Trino 0.378.
+ Admite controles de acceso basados en roles de IAM y Lake Formation con pasos de EMR (Spark, Hive) para Amazon EMR en clústeres de EC2.
+ Admite las instrucciones de definición de datos de Apache Spark en clústeres habilitados para Apache Ranger. Esto ahora incluye compatibilidad para que las aplicaciones de Trino lean y escriban metadatos de Apache Hive en clústeres habilitados para Apache Ranger. Para más información, consulte [Habilitar la gobernanza federada mediante Trino y Apache Ranger en Amazon EMR](https://aws.amazon.com/blogs/big-data/enable-federated-governance-using-trino-and-apache-ranger-on-amazon-emr/).
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-670-release.html)

**Problemas conocidos**
+ Cuando las versiones 6.5.0, 6.6.0 o 6.7.0 de Amazon EMR leen las tablas de Apache Phoenix a través del intérprete de comandos de Apache Spark, se produce un error `NoSuchMethodError` porque Amazon EMR utiliza un valor de `Hbase.compat.version` incorrecto. La versión 6.8.0 de Amazon EMR corrige este problema.
+ Cuando utiliza el conector de DynamoDB con Spark en las versiones 6.6.0, 6.7.0 y 6.8.0 de Amazon EMR, todas las lecturas de la tabla devuelven un resultado vacío, aunque la división de entrada haga referencia a datos que no están vacíos. Esto se debe a que Spark 3.2.0 establece `spark.hadoopRDD.ignoreEmptySplits` en `true` de manera predeterminada. Como solución alternativa, establezca `spark.hadoopRDD.ignoreEmptySplits` explícitamente en `false`. La versión 6.9.0 de Amazon EMR corrige este problema.
+ Cuando utiliza Spark con el formato de ubicación de particiones de Hive para leer datos en Amazon S3 y ejecuta Spark en las versiones 5.30.0 a 5.36.0 y 6.2.0 a 6.9.0 de Amazon EMR, es posible que se produzca un problema que impida que el clúster lea los datos correctamente. Esto puede ocurrir si las particiones tienen todas las características siguientes:
  + Se analizan dos o más particiones de la misma tabla.
  + Al menos una ruta de directorio de particiones es un prefijo de al menos otra ruta de directorio de particiones; por ejemplo, `s3://bucket/table/p=a` es un prefijo de `s3://bucket/table/p=a b`.
  + El primer carácter que sigue al prefijo del otro directorio de particiones tiene un valor UTF-8 inferior al carácter `/` (U\$1002F). Por ejemplo, el carácter de espacio (U\$10020) que aparece entre a y b en `s3://bucket/table/p=a b` entra en esta categoría. Tenga en cuenta que hay otros 14 caracteres que no son de control: `!"#$%&‘()*+,-`. Para más información, consulte [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/).

  Como solución alternativa a este problema, defina la configuración `spark.sql.sources.fastS3PartitionDiscovery.enabled` como `false` en la clasificación `spark-defaults`.
+ Con las versiones 5.36.0 y 6.6.0 a 6.9.0 de Amazon EMR, los componentes de servicio `SecretAgent` y `RecordServer` pueden sufrir una pérdida de datos de registro debido a una configuración incorrecta del patrón de nombres de archivo en las propiedades de Log4j2. Una configuración incorrecta hace que los componentes generen solo un archivo de registro por día. Cuando se aplica la estrategia de rotación, se sobrescribe el archivo existente en lugar de generar un nuevo archivo de registro como se esperaba. Como solución alternativa, utilice una acción de arranque para generar archivos de registro cada hora y agregue un entero de incremento automático en el nombre del archivo para gestionar la rotación.

  En el caso de las versiones 6.6.0 a 6.9.0 de Amazon EMR, utilice la siguiente acción de arranque al lanzar un clúster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  En el caso de Amazon EMR 5.36.0, utilice la siguiente acción de arranque al lanzar un clúster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```
+ La API `GetClusterSessionCredentials` no es compatible con los clústeres que se ejecutan en Amazon EMR 6.7 o versiones anteriores.
+ Se adaptaron las siguientes confirmaciones de Hadoop.

  - [[HADOOP-16080]](https://issues.apache.org/jira/browse/HADOOP-16080) Se corrigió un problema que impedía a `hadoop-aws` trabajar con `hadoop-client-api`.

  - [[HADOOP-18237]](https://issues.apache.org/jira/browse/HADOOP-18237) Se actualizó Apache Xerces Java a la versión 2.12.2.

  - [[YARN-11092]](https://issues.apache.org/jira/browse/YARN-11092) Se actualizó jquery a ui a la versión 1.13.1.

  - [[YARN-10720] YARN](https://issues.apache.org/jira/browse/YARN-10720) WebAppProxyServlet debería admitir el tiempo de espera de la conexión para evitar que el servidor proxy se bloquee.

## Versiones de los componentes de la versión 6.7.0
<a name="emr-670-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.2.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.6.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.22.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.1.0 | Conector S3Select de EMR | 
| emrfs | 2.52,0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.14.2 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.14.2 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-7 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-7 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-7 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-7 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-7 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-7 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-7 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-7 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-7 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-7 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-7 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.4-amzn-3 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.4-amzn-3 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.4-amzn-3 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.4-amzn-3 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.4-amzn-3 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.4-amzn-3 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.3-amzn-0 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.3-amzn-0 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.3-amzn-0 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.3-amzn-0 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.3-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 3.1.3-amzn-0 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.3-amzn-0 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.11.0-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.11.0-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.11.0-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.11.0-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.10.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 0.13.1-amzn-0 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.4.1 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.8.0 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.0.194 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.2 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 5.1.2 | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 5.1.2 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.272-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.272-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.272-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 378-amzn-0 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 378-amzn-0 | Service para ejecutar partes de una consulta. | 
| trino-client | 378-amzn-0 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.2.1-amzn-0 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.2.1-amzn-0 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.2.1-amzn-0 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.2.1-amzn-0 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 22.02.0-amzn-1 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.0 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.7 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.7 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.7.0
<a name="emr-670-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.7.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie HBase los valores del archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR, versión 6.6.0
<a name="emr-660-release"></a>

## Versiones de las aplicaciones de la versión 6.6.0
<a name="emr-660-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.170 | 1.12.31 | 1.12.31 | 1.11.977 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.0 | 1.13.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 
| HCatalog | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 
| Hadoop | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 
| Hive | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 
| Hudi | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 
| Hue | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.13.1 | 0.12.0 |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.0.0- -2.0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 367-amzn-0 | 360 | 359 | 350 | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3.5.7 | 3.5.7 | 3.5.7 | 3.4.14 | 

## Notas de la versión 6.6.0
<a name="emr-660-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.6.0 de Amazon EMR. Los cambios son respecto a la versión 6.5.0.

Fecha de lanzamiento inicial: 9 de mayo de 2022

Última actualización de la documentación: 15 de junio de 2022

**Nuevas características**
+ Amazon EMR 6.6 ahora admite Apache Spark 3.2, Apache Spark RAPIDS 22.02, CUDA 11, Apache Hudi 0.10.1, Apache Iceberg 0.13, Trino 0.367 y PrestoDB 0.267.
+ Al lanzar un clúster con *la versión de parche más reciente* de Amazon EMR 5.36, 6.6 o 7.0 o sus respectivas versiones posteriores, Amazon EMR utiliza la versión más reciente de Amazon Linux 2023 o Amazon Linux 2 para la AMI de Amazon EMR predeterminada. Para más información, consulte [Uso de la AMI de Amazon Linux predeterminada para Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html).    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-660-release.html)
+ Con Amazon EMR 6.6 y versiones posteriores, las aplicaciones que utilizan Log4j 1.x y Log4j 2.x se actualizan para utilizar Log4j 1.2.17 (o posterior) y Log4j 2.17.1 (o posterior), respectivamente, y no requieren el uso de las [acciones de arranque](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-log4j-vulnerability.html) proporcionadas para mitigar los problemas de CVE.
+ **[Escalado administrado] Optimización del escalado administrado de datos de mezclas aleatorias de Spark**: para las versiones 5.34.0 y posteriores de Amazon EMR, y las versiones 6.4.0 y posteriores de EMR, el escalado administrado ahora es compatible con los datos de mezclas aleatorias de Spark (datos que Spark redistribuye entre las particiones para realizar operaciones específicas). Para más información sobre las operaciones de mezclas aleatorias, consulte [Uso del escalado administrado de EMR en Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) en la *Guía de administración de Amazon EMR* y [Spark Programming Guide](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ A partir de Amazon EMR 5.32.0 y 6.5.0, el tamaño dinámico del ejecutor para Apache Spark se habilita de forma predeterminada. Para activar o desactivar esta característica, puede utilizar el parámetro de configuración `spark.yarn.heterogeneousExecutors.enabled`.

**Cambios, mejoras y problemas resueltos**
+ Amazon EMR reduce el tiempo de inicio del clúster hasta 80 segundos de promedio para los clústeres que utilizan la opción de AMI predeterminada de EMR y que solo instalan aplicaciones comunes, como Apache Hadoop, Apache Spark y Apache Hive.

**Problemas conocidos**
+ Cuando las versiones 6.5.0, 6.6.0 o 6.7.0 de Amazon EMR leen las tablas de Apache Phoenix a través del intérprete de comandos de Apache Spark, se produce un error `NoSuchMethodError` porque Amazon EMR utiliza un valor de `Hbase.compat.version` incorrecto. La versión 6.8.0 de Amazon EMR corrige este problema.
+ Cuando utiliza el conector de DynamoDB con Spark en las versiones 6.6.0, 6.7.0 y 6.8.0 de Amazon EMR, todas las lecturas de la tabla devuelven un resultado vacío, aunque la división de entrada haga referencia a datos que no están vacíos. Esto se debe a que Spark 3.2.0 establece `spark.hadoopRDD.ignoreEmptySplits` en `true` de manera predeterminada. Como solución alternativa, establezca `spark.hadoopRDD.ignoreEmptySplits` explícitamente en `false`. La versión 6.9.0 de Amazon EMR corrige este problema.
+ En los clústeres de ejecución prolongada de Trino, Amazon EMR 6.6.0 habilita los parámetros de registro de recopilación de elementos no utilizados en el archivo jvm.config de Trino para obtener mejor información de los registros de recopilación de elementos no utilizados. Este cambio añade muchos registros de recolección de basura al archivo launcher.log (/var/log/trino/launcher.log). Si ejecuta clústeres de Trino en Amazon EMR 6.6.0, es posible que los nodos se queden sin espacio en disco después de que el clúster haya estado ejecutándose durante un par de días debido a los registros agregados.

  La solución alternativa para este problema consiste en ejecutar el siguiente script como una acción de arranque para deshabilitar los parámetros de registro de recopilación de elementos no utilizados en jvm.config al crear o clonar el clúster para Amazon EMR 6.6.0.

  ```
  #!/bin/bash
    set -ex
    PRESTO_PUPPET_DIR='/var/aws/emr/bigtop-deploy/puppet/modules/trino'
    sudo bash -c "sed -i '/-Xlog/d' ${PRESTO_PUPPET_DIR}/templates/jvm.config"
  ```
+ Cuando utiliza Spark con el formato de ubicación de particiones de Hive para leer datos en Amazon S3 y ejecuta Spark en las versiones 5.30.0 a 5.36.0 y 6.2.0 a 6.9.0 de Amazon EMR, es posible que se produzca un problema que impida que el clúster lea los datos correctamente. Esto puede ocurrir si las particiones tienen todas las características siguientes:
  + Se analizan dos o más particiones de la misma tabla.
  + Al menos una ruta de directorio de particiones es un prefijo de al menos otra ruta de directorio de particiones; por ejemplo, `s3://bucket/table/p=a` es un prefijo de `s3://bucket/table/p=a b`.
  + El primer carácter que sigue al prefijo del otro directorio de particiones tiene un valor UTF-8 inferior al carácter `/` (U\$1002F). Por ejemplo, el carácter de espacio (U\$10020) que aparece entre a y b en `s3://bucket/table/p=a b` entra en esta categoría. Tenga en cuenta que hay otros 14 caracteres que no son de control: `!"#$%&‘()*+,-`. Para más información, consulte [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/).

  Como solución alternativa a este problema, defina la configuración `spark.sql.sources.fastS3PartitionDiscovery.enabled` como `false` en la clasificación `spark-defaults`.
+ Con las versiones 5.36.0 y 6.6.0 a 6.9.0 de Amazon EMR, los componentes de servicio `SecretAgent` y `RecordServer` pueden sufrir una pérdida de datos de registro debido a una configuración incorrecta del patrón de nombres de archivo en las propiedades de Log4j2. Una configuración incorrecta hace que los componentes generen solo un archivo de registro por día. Cuando se aplica la estrategia de rotación, se sobrescribe el archivo existente en lugar de generar un nuevo archivo de registro como se esperaba. Como solución alternativa, utilice una acción de arranque para generar archivos de registro cada hora y agregue un entero de incremento automático en el nombre del archivo para gestionar la rotación.

  En el caso de las versiones 6.6.0 a 6.9.0 de Amazon EMR, utilice la siguiente acción de arranque al lanzar un clúster. 

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  En el caso de Amazon EMR 5.36.0, utilice la siguiente acción de arranque al lanzar un clúster.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

## Versiones de los componentes de la versión 6.6.0
<a name="emr-660-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.2.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.5.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.20.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.1.0 | Conector S3Select de EMR | 
| emrfs | 2.50,0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.14.2 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.14.2 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-6 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-6 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-6 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-6 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-6 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-6 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-6 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-6 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-6 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-6 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-6 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.4-amzn-2 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.4-amzn-2 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.4-amzn-2 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.4-amzn-2 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.4-amzn-2 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hbase-operator-tools | 2.4.4-amzn-2 | Herramienta de reparación para HBase clústeres de Apache. | 
| hcatalog-client | 3.1.2-amzn-7 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-7 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.2-amzn-7 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.2-amzn-7 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.2-amzn-7 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-7 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.2-amzn-7 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.10.1-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.10.1-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.10.1-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.10.1-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.10.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 0.13.1 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.4.1 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.8.0 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 11.0.194 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.2 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-connectors | 5.1.2 | Conectores de Apache Phoenix para Spark-3 | 
| phoenix-query-server | 5.1.2 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.267-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.267-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.267-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 367-amzn-0 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 367-amzn-0 | Service para ejecutar partes de una consulta. | 
| trino-client | 367-amzn-0 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.2.0-amzn-0 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.2.0-amzn-0 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.2.0-amzn-0 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.2.0-amzn-0 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 22.02.0-amzn-0 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.0 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.7 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.7 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.6.0
<a name="emr-660-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.6.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie HBase los valores del archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Cambiar los valores en el archivo iceberg.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR, versión 6.5.0
<a name="emr-650-release"></a>

## Versiones de las aplicaciones de la versión 6.5.0
<a name="emr-650-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.31 | 1.12.31 | 1.11.977 | 1.11.977 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.0 | 1.13.1 | 1.12.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 
| HCatalog | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 
| Hadoop | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 
| Hive | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 
| Hudi | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.12.0 |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 360 | 359 | 350 | 350 | 
| Zeppelin | 0.10.0 | 0.9.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3.5.7 | 3.5.7 | 3.4.14 | 3.4.14 | 

## Notas de la versión 6.5.0
<a name="emr-650-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.5.0 de Amazon EMR. Los cambios son respecto a la versión 6.4.0.

Fecha de lanzamiento inicial: 20 de enero de 2022

Fecha de lanzamiento: 21 de marzo de 2022

**Nuevas características**
+ **[Escalado administrado] Optimización del escalado administrado de datos de mezclas aleatorias de Spark**: para las versiones 5.34.0 y posteriores de Amazon EMR, y las versiones 6.4.0 y posteriores de EMR, el escalado administrado ahora es compatible con los datos de mezclas aleatorias de Spark (datos que Spark redistribuye entre las particiones para realizar operaciones específicas). Para más información sobre las operaciones de mezclas aleatorias, consulte [Uso del escalado administrado de EMR en Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) en la *Guía de administración de Amazon EMR* y [Spark Programming Guide](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ A partir de Amazon EMR 5.32.0 y 6.5.0, el tamaño dinámico del ejecutor para Apache Spark se habilita de forma predeterminada. Para activar o desactivar esta característica, puede utilizar el parámetro de configuración `spark.yarn.heterogeneousExecutors.enabled`.
+ Compatibilidad con el formato de tabla abierto Apache Iceberg para conjuntos de datos analíticos muy grandes.
+ Support para ranger-trino-plugin 2.0.1-amzn-1
+ Compatibilidad con toree 0.5.0

**Cambios, mejoras y problemas resueltos**
+ La versión 6.5 de Amazon EMR ahora es compatible con Apache Iceberg 0.12.0 y ofrece mejoras en el tiempo de ejecución con Tiempo de ejecución de Amazon EMR para Apache Spark, Tiempo de ejecución de Amazon EMR para Presto y Tiempo de ejecución de Amazon EMR para Apache Hive.
+ [Apache Iceberg](https://iceberg.apache.org/) es un formato de tabla abierto para grandes conjuntos de datos en Amazon S3 y proporciona un rendimiento de consultas rápido en tablas grandes, confirmaciones atómicas, escrituras simultáneas y evolución de tablas compatible con SQL. A partir de Amazon EMR 6.5, puede usar Apache Spark 3.1.2 con el formato de tabla de Iceberg.
+ Apache Hudi 0.9 agrega compatibilidad con DDL y DML de Spark SQL. Esto le permite crear y upsert tablas de Hudi utilizando únicamente instrucciones SQL. Apache Hudi 0.9 también incluye mejoras en el rendimiento de las consultas y del escritor.
+ El Tiempo de ejecución de Amazon EMR para Apache Hive mejora el rendimiento de Apache Hive en Amazon S3 al eliminar las operaciones de cambio de nombre durante las operaciones de preparación y mejora el rendimiento de los comandos de comprobación de metaalmacén (MSCK) que se utilizan para reparar tablas.

**Problemas conocidos**
+ Cuando las versiones 6.5.0, 6.6.0 o 6.7.0 de Amazon EMR leen las tablas de Apache Phoenix a través del intérprete de comandos de Apache Spark, se produce un error `NoSuchMethodError` porque Amazon EMR utiliza un valor de `Hbase.compat.version` incorrecto. La versión 6.8.0 de Amazon EMR corrige este problema.
+ Los clústeres de paquetes de HBase en alta disponibilidad (HA) no se aprovisionan con el tamaño de volumen y el tipo de instancia predeterminados. La solución alternativa para este problema consiste en aumentar el tamaño del volumen raíz.
+ Para utilizar las acciones de Spark con Apache Oozie, debe agregar la siguiente configuración al archivo `workflow.xml` de Oozie. De lo contrario, varias bibliotecas críticas, como Hadoop y EMRFS, no aparecerán en la ruta de clases de los ejecutores de Spark que lance Oozie.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Cuando utiliza Spark con el formato de ubicación de particiones de Hive para leer datos en Amazon S3 y ejecuta Spark en las versiones 5.30.0 a 5.36.0 y 6.2.0 a 6.9.0 de Amazon EMR, es posible que se produzca un problema que impida que el clúster lea los datos correctamente. Esto puede ocurrir si las particiones tienen todas las características siguientes:
  + Se analizan dos o más particiones de la misma tabla.
  + Al menos una ruta de directorio de particiones es un prefijo de al menos otra ruta de directorio de particiones; por ejemplo, `s3://bucket/table/p=a` es un prefijo de `s3://bucket/table/p=a b`.
  + El primer carácter que sigue al prefijo del otro directorio de particiones tiene un valor UTF-8 inferior al carácter `/` (U\$1002F). Por ejemplo, el carácter de espacio (U\$10020) que aparece entre a y b en `s3://bucket/table/p=a b` entra en esta categoría. Tenga en cuenta que hay otros 14 caracteres que no son de control: `!"#$%&‘()*+,-`. Para más información, consulte [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/).

  Como solución alternativa a este problema, defina la configuración `spark.sql.sources.fastS3PartitionDiscovery.enabled` como `false` en la clasificación `spark-defaults`.

## Versiones de los componentes de la versión 6.5.0
<a name="emr-650-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.2.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.4.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.19.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.1.0 | Conector S3Select de EMR | 
| emrfs | 2.48,0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.14.0 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.14.0 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-5 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-5 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-5 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-5 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-5 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-5 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-5 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-5 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-5 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-5 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-5 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.4-amzn-1 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.4-amzn-1 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.4-amzn-1 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.4-amzn-1 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.4-amzn-1 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hcatalog-client | 3.1.2-amzn-6 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-6 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.2-amzn-6 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.2-amzn-6 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.2-amzn-6 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-6 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.2-amzn-6 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.9.0-amzn-1 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.9.0-amzn-1 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.9.0-amzn-1 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.9.0-amzn-1 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.9.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| iceberg | 0.12.0 | Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes | 
| jupyterhub | 1.4.1 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.8.0 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 10.1.243 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.2 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-query-server | 5.1.2 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.261-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.261-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.261-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 360 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 360 | Service para ejecutar partes de una consulta. | 
| trino-client | 360 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.1.2-amzn-1 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.1.2-amzn-1 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.1.2-amzn-1 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.1.2-amzn-1 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 0.4.1 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.10.0 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.7 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.7 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.5.0
<a name="emr-650-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.5.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie HBase los valores del archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| iceberg-defaults | Cambie los valores del archivo iceberg-defaults.conf de Iceberg. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR, versión 6.4.0
<a name="emr-640-release"></a>

## Versiones de las aplicaciones de la versión 6.4.0
<a name="emr-640-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.12.31 | 1.11.977 | 1.11.977 | 1.11.880 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 
| HCatalog | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 
| Hadoop | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 
| Hive | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 
| Hudi | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 
| Livy | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 
| Phoenix | 5.1.2 | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 
| Spark | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 359 | 350 | 350 | 343 | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 
| ZooKeeper | 3.5.7 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notas de la versión 6.4.0
<a name="emr-640-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.4.0 de Amazon EMR. Los cambios son respecto a la versión 6.3.0.

Fecha de lanzamiento inicial: 20 de septiembre de 2021

Fecha de lanzamiento: 21 de marzo de 2022

**Aplicaciones compatibles**
+ AWS SDK para Java versión 1.12.31
+ CloudWatch Sink versión 2.2.0
+ Conector de DynamoDB, versión 4.16.0
+ EMRFS, versión 2.47.0
+ Amazon EMR Goodies, versión 3.2.0
+ Conector de Kinesis para Amazon EMR, versión 3.5.0
+ Servidor de registros de Amazon EMR, versión 2.1.0
+ Scripts de Amazon EMR, versión 2.5.0
+ Flink, versión 1.13.1
+ Versión de Ganglia 3.7.2
+ AWS Cliente Glue Hive Metastore versión 3.3.0
+ Hadoop, versión 3.2.1-amzn-4
+ HBase versión 2.4.4-amzn-0
+ HBase-operator-tools 1.1.0
+ HCatalog versión 3.1.2-amzn-5
+ Hive, versión 3.1.2-amzn-5
+ Hudi versión 0.8.0-amzn-0
+ Hue versión 4.9.0
+ Java JDK, versión Corretto-8.302.08.1 (compilación 1.8.0\$1302-b08)
+ JupyterHub versión 1.4.1
+ Livy versión 0.7.1-incubating
+ MXNet versión 1.8.0
+ Oozie versión 5.2.1
+ Phoenix versión 5.1.2
+ Pig, versión 0.17.0
+ Presto, versión 0.254.1-amzn-0
+ Trino, versión 359
+ Apache Ranger KMS (cifrado transparente multimaestro), versión 2.0.0
+ ranger-plugins 2.0.1-amzn-0
+ ranger-s3-plugin 1.2.0
+ SageMaker Spark SDK versión 1.4.1
+ Scala, versión 2.12.10 (máquina virtual de servidor OpenJDK de 64 bits, Java 1.8.0\$1282)
+ Spark, versión 3.1.2-amzn-0
+ spark-rapids 0.4.1
+ Sqoop, versión 1.4.7
+ TensorFlow versión 2.4.1
+ Tez, versión 0.9.2
+ Zeppelin versión 0.9.0
+ ZooKeeper versión 3.5.7
+ Conectores y controladores: conector de DynamoDB 4.16.0

**Nuevas características**
+ **[Escalado administrado] Optimización del escalado administrado de datos de mezclas aleatorias de Spark**: para las versiones 5.34.0 y posteriores de Amazon EMR, y las versiones 6.4.0 y posteriores de EMR, el escalado administrado ahora es compatible con los datos de mezclas aleatorias de Spark (datos que Spark redistribuye entre las particiones para realizar operaciones específicas). Para más información sobre las operaciones de mezclas aleatorias, consulte [Uso del escalado administrado de EMR en Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html) en la *Guía de administración de Amazon EMR* y [Spark Programming Guide](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations).
+ En los clústeres de Amazon EMR habilitados para Apache Ranger, puede utilizar Apache Spark SQL para insertar datos o actualizar las tablas del metaalmacén de Apache Hive mediante `INSERT INTO`, `INSERT OVERWRITE` y `ALTER TABLE`. Al utilizar ALTER TABLE con Spark SQL, la ubicación de una partición debe ser el directorio secundario de la ubicación de una tabla. Amazon EMR no admite actualmente la inserción de datos en una partición en la que la ubicación de la partición es diferente de la ubicación de la tabla.
+ PrestoSQL se ha [renombrado como Trino](https://trino.io/blog/2020/12/27/announcing-trino.html). 
+ Hive: la ejecución de consultas SELECT sencillas con la cláusula LIMIT se acelera al detener la ejecución de las consultas en cuanto se obtiene el número de registros mencionado en la cláusula LIMIT. Las consultas SELECT simples son consultas que no tienen GROUP BY u ORDER BY por cláusula o consultas que no tienen una etapa reductora. Por ejemplo, `SELECT * from <TABLE> WHERE <Condition> LIMIT <Number>`. 

**Control de simultaneidad de Hudi**
+ Hudi ahora es compatible con el control de simultaneidad optimista (OCC), que se puede utilizar con operaciones de escritura como UPSERT e INSERT para permitir cambios desde varios escritores a la misma tabla de Hudi. Se trata de un OCC de nivel de archivo, por lo que dos confirmaciones (o escritores) pueden escribir en la misma tabla, siempre que sus cambios no entren en conflicto. Para más información, consulte [Control de simultaneidad de Hudi](https://hudi.apache.org/docs/concurrency_control/). 
+ Los clústeres de Amazon EMR tienen instalado ZooKeeper, que se puede utilizar como proveedor de bloqueos para OCC. Para facilitar el uso de esta característica, los clústeres de Amazon EMR tienen las siguientes propiedades preconfiguradas:

  ```
  hoodie.write.lock.provider=org.apache.hudi.client.transaction.lock.ZookeeperBasedLockProvider
  hoodie.write.lock.zookeeper.url=<EMR Zookeeper URL>
  hoodie.write.lock.zookeeper.port=<EMR Zookeeper Port>
  hoodie.write.lock.zookeeper.base_path=/hudi
  ```

  Para habilitar el OCC, debe configurar las siguientes propiedades con sus opciones de trabajo de Hudi o en el nivel de clúster mediante la API de configuraciones de Amazon EMR:

  ```
  hoodie.write.concurrency.mode=optimistic_concurrency_control
  hoodie.cleaner.policy.failed.writes=LAZY (Performs cleaning of failed writes lazily instead of inline with every write)
  hoodie.write.lock.zookeeper.lock_key=<Key to uniquely identify the Hudi table> (Table Name is a good option)
  ```

**Hudi Monitoring: CloudWatch integración de Amazon para informar sobre las métricas de Hudi**
+ Amazon EMR admite la publicación de Hudi Metrics en Amazon. CloudWatch Se habilita mediante el establecimiento de las siguientes configuraciones obligatorias:

  ```
  hoodie.metrics.on=true
  hoodie.metrics.reporter.type=CLOUDWATCH
  ```
+ Las siguientes son configuraciones opcionales de Hudi que se pueden cambiar:    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/emr/latest/ReleaseGuide/emr-640-release.html)

**Soporte y mejoras en las configuraciones de Amazon EMR Hudi**
+ Los clientes ahora pueden aprovechar la API de configuraciones de EMR y la característica de reconfiguración para configurar los ajustes de Hudi en el nivel de clúster. Se ha introducido un nuevo soporte de configuración basado en archivos a través de/etc/hudi/conf/hudi-defaults.conf, similar al de otras aplicaciones como Spark, Hive, etc. EMR configura algunos valores predeterminados para mejorar la experiencia del usuario:

  — `hoodie.datasource.hive_sync.jdbcurl ` se ha configurado en la URL del servidor de Hive del clúster y ya no es necesario especificarlo. Esto resulta especialmente útil cuando se ejecuta un trabajo en el modo de clúster de Spark, en el que anteriormente había que especificar la IP maestra de Amazon EMR. 

  — configuraciones HBase específicas, que son útiles para usar el índice con Hudi. HBase 

  — Configuración específica para el proveedor de bloqueos de ZooKeeper, tal como se explica en la sección de control de simultaneidad, que facilita el uso del control de simultaneidad optimista (OCC).
+ Se han introducido cambios adicionales para reducir el número de configuraciones que hay que pasar y, en la medida de lo posible, deducir automáticamente:

  — La palabra clave `partitionBy ` se puede utilizar para especificar la columna de particiones. 

  — Al activar Hive Sync, ya no es obligatorio pasar `HIVE_TABLE_OPT_KEY, HIVE_PARTITION_FIELDS_OPT_KEY, HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY`. Estos valores se pueden deducir del nombre de la tabla de Hudi y del campo de partición. 

  — No es obligatorio pasar `KEYGENERATOR_CLASS_OPT_KEY` y se puede deducir de casos más simples de `SimpleKeyGenerator` y `ComplexKeyGenerator`. 

**Advertencias de Hudi**
+ Hudi no admite la ejecución vectorizada en las tablas Hive for Merge on Read (MoR) y Bootstrap. Por ejemplo, `count(*)` presenta un error con la tabla en tiempo real de Hudi cuando `hive.vectorized.execution.enabled` se establece en true. Como solución alternativa, puede deshabilitar la lectura vectorizada al establecer `hive.vectorized.execution.enabled` en `false`. 
+ La compatibilidad con varios escritores no es compatible con la característica de arranque de Hudi.
+ Flink Streamer y Flink SQL son características experimentales de esta versión. Se recomienda el uso de estas características en implementaciones de producción.

**Cambios, mejoras y problemas resueltos**

Esta es una versión para solucionar problemas con Amazon EMR Scaling cuando no logra up/scale reducir correctamente un clúster o provoca errores en las aplicaciones.
+ Anteriormente, el reinicio manual del administrador de recursos en un clúster multimaestro provocaba que los daemons en el clúster de Amazon EMR, como ZooKeeper, recargaran todos los nodos perdidos o retirados previamente en el archivo znode de ZooKeeper. Esto provocaba que se superaran los límites predeterminados en ciertas situaciones. Amazon EMR ahora elimina del archivo de ZooKeeper los registros de nodos perdidos o retirados que tengan más de una hora de antigüedad y se han incrementado los límites internos.
+ Se solucionó un problema por el que las solicitudes de escalado de un clúster grande y muy utilizado fallaban cuando los daemons en el clúster de Amazon EMR ejecutaban actividades de comprobación de estado, como recopilar el estado del nodo de YARN y el estado del nodo de HDFS. Esto se debía a que los daemons en el clúster no podían comunicar los datos del estado de un nodo a los componentes internos de Amazon EMR.
+ Se han mejorado los daemons de EMR en el clúster para realizar un seguimiento correcto de los estados de los nodos cuando se reutilizan las direcciones IP a fin de mejorar la fiabilidad durante las operaciones de escalado.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Se ha corregido un error que provocaba que se produjeran errores en los trabajos durante la reducción vertical del clúster, ya que Spark daba por sentado que todos los nodos disponibles estaban en la lista de denegados.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Se ha corregido un error que provocaba que se produjeran errores en los trabajos debido a una condición de carrera durante la retirada de YARN cuando el clúster intentaba escalarse o reducirse verticalmente.
+ Se ha solucionado el problema que provocaba errores en los pasos o trabajos durante el escalado del clúster al garantizar que los estados de los nodos sean siempre coherentes entre los daemons en el clúster de Amazon EMR y YARN o HDFS.
+ Se ha solucionado un problema por el que las operaciones de clúster, como la reducción vertical y el envío escalonado, fallaban en los clústeres de Amazon EMR habilitados con la autenticación de Kerberos. Esto se debió a que el daemon del clúster de Amazon EMR no renovó el ticket de Kerberos, que es necesario para comunicarse de forma segura con la HDFS/YARN ejecución en el nodo principal.
+ **Configuración de un clúster para corregir los problemas de rendimiento del servidor YARN Timeline de Apache en las versiones 1 y 1.5**

  Las versiones 1 y 1.5 del servidor YARN Timeline de Apache pueden provocar problemas de rendimiento con clústeres de EMR grandes y muy activos, especialmente con `yarn.resourcemanager.system-metrics-publisher.enabled=true`, que es la configuración predeterminada de Amazon EMR. Un servidor YARN Timeline v2 de código abierto resuelve el problema de rendimiento relacionado con la escalabilidad del servidor YARN Timeline.

  Otras alternativas para este problema incluyen:
  + Configuración de yarn.resourcemanager. system-metrics-publisher.enabled=false en yarn-site.xml.
  + La habilitación de la corrección para este problema al crear un clúster, tal y como se describe a continuación.

  Las siguientes versiones de Amazon EMR contienen una corrección para este problema de rendimiento del servidor YARN Timeline.

  EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x

  Para habilitar la corrección en cualquiera de las versiones de Amazon EMR especificadas anteriormente, defina estas propiedades como `true` en un archivo JSON de configuración que se pasa mediante el [parámetro de comando `aws emr create-cluster`](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html): `--configurations file://./configurations.json`. También puede habilitar la corrección mediante la [interfaz de usuario de la consola de reconfiguración](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html).

  Ejemplo del contenido del archivo configurations.json:

  ```
  [
  {
  "Classification": "yarn-site",
  "Properties": {
  "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true",
  "yarn.resourcemanager.system-metrics-publisher.enabled": "true"
  },
  "Configurations": []
  }
  ]
  ```
+ Los servidores WebHDFS y HttpFS están deshabilitados de forma predeterminada. Puede volver a habilitar WebHDFS mediante la configuración de Hadoop, `dfs.webhdfs.enabled`. El servidor HttpFS se puede iniciar mediante `sudo systemctl start hadoop-httpfs`.
+ HTTPS ahora está habilitado de forma predeterminada para los repositorios de Amazon Linux. Si utiliza una política de VPCE de Amazon S3 para restringir el acceso a buckets específicos, debe agregar el nuevo ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` del bucket de Amazon Linux a su política (sustituya `$region` por la región en la que se encuentra el punto de conexión). Para obtener más información, consulte este tema en los foros de discusión. AWS [Anuncio: Amazon Linux 2 ahora admite la posibilidad de utilizar HTTPS mientras se conecta a repositorios de paquetes](https://forums.aws.amazon.com/ann.jspa?annID=8528). 
+ Hive: se ha mejorado el rendimiento de las consultas de escritura al permitir el uso de un directorio temporal en HDFS para el último trabajo. Los datos temporales del trabajo final se escriben en HDFS en lugar de Amazon S3 y el rendimiento mejora porque los datos se mueven de HDFS a la ubicación de la tabla final (Amazon S3) en lugar de entre dispositivos Amazon S3.
+ Hive: mejora el tiempo de compilación de consultas hasta 2,5 veces con la eliminación de particiones del metaalmacén de Glue.
+ De forma predeterminada, cuando Hive UDFs transfiere los elementos integrados al servidor Hive Metastore, solo un subconjunto de los integrados UDFs se pasa a Glue Metastore, ya que Glue solo admite operadores de expresiones limitadas. Si configura `hive.glue.partition.pruning.client=true`, toda la eliminación de particiones se realiza en el cliente. Si configura `hive.glue.partition.pruning.server=true`, entonces toda la eliminación de particiones se realiza en el lado del servidor. 

**Problemas conocidos**
+ Las consultas de Hue no funcionan en Amazon EMR 6.4.0 porque el servidor HttpFS de Apache Hadoop está deshabilitado de forma predeterminada. Para usar Hue en Amazon EMR 6.4.0, inicie manualmente el servidor HttpFS en el nodo principal de Amazon EMR mediante `sudo systemctl start hadoop-httpfs` o [utilice un paso de Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html).
+ La característica Cuadernos de Amazon EMR que se utiliza con la suplantación de usuarios de Livy no funciona porque HttpFS está deshabilitado de forma predeterminada. En este caso, el cuaderno de EMR no puede conectarse al clúster que tiene habilitada la suplantación de Livy. La solución alternativa consiste en iniciar el servidor HttpFS antes de conectar el cuaderno de EMR al clúster mediante `sudo systemctl start hadoop-httpfs`.
+ En la versión 6.4.0 de Amazon EMR, Phoenix no admite el componente de conectores de Phoenix.
+ Para utilizar las acciones de Spark con Apache Oozie, debe agregar la siguiente configuración al archivo `workflow.xml` de Oozie. De lo contrario, varias bibliotecas críticas, como Hadoop y EMRFS, no aparecerán en la ruta de clases de los ejecutores de Spark que lance Oozie.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Cuando utiliza Spark con el formato de ubicación de particiones de Hive para leer datos en Amazon S3 y ejecuta Spark en las versiones 5.30.0 a 5.36.0 y 6.2.0 a 6.9.0 de Amazon EMR, es posible que se produzca un problema que impida que el clúster lea los datos correctamente. Esto puede ocurrir si las particiones tienen todas las características siguientes:
  + Se analizan dos o más particiones de la misma tabla.
  + Al menos una ruta de directorio de particiones es un prefijo de al menos otra ruta de directorio de particiones; por ejemplo, `s3://bucket/table/p=a` es un prefijo de `s3://bucket/table/p=a b`.
  + El primer carácter que sigue al prefijo del otro directorio de particiones tiene un valor UTF-8 inferior al carácter `/` (U\$1002F). Por ejemplo, el carácter de espacio (U\$10020) que aparece entre a y b en `s3://bucket/table/p=a b` entra en esta categoría. Tenga en cuenta que hay otros 14 caracteres que no son de control: `!"#$%&‘()*+,-`. Para más información, consulte [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/).

  Como solución alternativa a este problema, defina la configuración `spark.sql.sources.fastS3PartitionDiscovery.enabled` como `false` en la clasificación `spark-defaults`.

## Versiones de los componentes de la versión 6.4.0
<a name="emr-640-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.2.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.3.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.18.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.1.0 | Conector S3Select de EMR | 
| emrfs | 2.47,0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.13.1 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.13.1 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-4 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-4 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-4 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-4 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-4 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-4 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-4 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-4 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-4 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-4 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-4 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.4.4-amzn-0 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.4.4-amzn-0 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.4.4-amzn-0 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.4.4-amzn-0 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.4.4-amzn-0 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hcatalog-client | 3.1.2-amzn-5 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-5 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.2-amzn-5 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.2-amzn-5 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.2-amzn-5 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-5 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.2-amzn-5 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.8.0-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.8.0-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-trino | 0.8.0-amzn-0 | Biblioteca de paquetes para ejecutar Trino con Hudi. | 
| hudi-spark | 0.8.0-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.9.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| jupyterhub | 1.4.1 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.1-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.8.0 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 10.1.243 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.1.2 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-query-server | 5.1.2 | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.254.1-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.254.1-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.254.1-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| trino-coordinator | 359 | Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers. | 
| trino-worker | 359 | Service para ejecutar partes de una consulta. | 
| trino-client | 359 | Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.1.2-amzn-0 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.1.2-amzn-0 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.1.2-amzn-0 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.1.2-amzn-0 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 0.4.1 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.9.0 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.5.7 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.5.7 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.4.0
<a name="emr-640-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.4.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie HBase los valores del archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| hudi-defaults | Cambie los valores en el archivo hudi-defaults.conf de Hudi. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| trino-log | Cambiar los valores en el archivo log.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-config | Cambiar los valores en el archivo config.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-env | Cambie los valores del archivo trino-env.sh de Trino. | Restarts Trino-Server (for Trino) | 
| trino-node | Cambiar los valores en el archivo node.properties de Trino. | Not available. | 
| trino-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Trino. | Not available. | 
| trino-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Trino. | Not available. | 
| trino-connector-hive | Cambiar los valores en el archivo hive.properties de Trino. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Cambiar los valores en el archivo jmx.properties de Trino. | Not available. | 
| trino-connector-kafka | Cambiar los valores en el archivo kafka.properties de Trino. | Not available. | 
| trino-connector-localfile | Cambiar los valores en el archivo localfile.properties de Trino. | Not available. | 
| trino-connector-memory | Cambiar los valores en el archivo memory.properties de Trino. | Not available. | 
| trino-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Trino. | Not available. | 
| trino-connector-mysql | Cambiar los valores en el archivo mysql.properties de Trino. | Not available. | 
| trino-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Trino. | Not available. | 
| trino-connector-raptor | Cambiar los valores en el archivo raptor.properties de Trino. | Not available. | 
| trino-connector-redis | Cambiar los valores en el archivo redis.properties de Trino. | Not available. | 
| trino-connector-redshift | Cambiar los valores en el archivo redshift.properties de Trino. | Not available. | 
| trino-connector-tpch | Cambiar los valores en el archivo tpch.properties de Trino. | Not available. | 
| trino-connector-tpcds | Cambiar los valores en el archivo tpcds.properties de Trino. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR, versión 6.3.1
<a name="emr-631-release"></a>

## Versiones de las aplicaciones de la versión 6.3.1
<a name="emr-631-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.977 | 1.11.977 | 1.11.880 | 1.11.880 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 
| HCatalog | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 
| Hadoop | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 
| Hive | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 
| Hudi | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 
| Hue | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 
| Spark | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 350 | 350 | 343 | 343 | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notas de la versión 6.3.1
<a name="emr-631-relnotes"></a>

Esta es una versión para solucionar problemas con Amazon EMR Scaling cuando no logra up/scale reducir correctamente un clúster o provoca errores en las aplicaciones.

**Cambios, mejoras y problemas resueltos**
+ Se solucionó un problema por el que las solicitudes de escalado de un clúster grande y muy utilizado fallaban cuando los daemons en el clúster de Amazon EMR ejecutaban actividades de comprobación de estado, como recopilar el estado del nodo de YARN y el estado del nodo de HDFS. Esto se debía a que los daemons en el clúster no podían comunicar los datos del estado de un nodo a los componentes internos de Amazon EMR.
+ Se han mejorado los daemons de EMR en el clúster para realizar un seguimiento correcto de los estados de los nodos cuando se reutilizan las direcciones IP a fin de mejorar la fiabilidad durante las operaciones de escalado.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Se ha corregido un error que provocaba que se produjeran errores en los trabajos durante la reducción vertical del clúster, ya que Spark daba por sentado que todos los nodos disponibles estaban en la lista de denegados.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Se ha corregido un error que provocaba que se produjeran errores en los trabajos debido a una condición de carrera durante la retirada de YARN cuando el clúster intentaba escalarse o reducirse verticalmente.
+ Se ha solucionado el problema que provocaba errores en los pasos o trabajos durante el escalado del clúster al garantizar que los estados de los nodos sean siempre coherentes entre los daemons en el clúster de Amazon EMR y YARN o HDFS.
+ Se ha solucionado un problema por el que las operaciones de clúster, como la reducción vertical y el envío escalonado, fallaban en los clústeres de Amazon EMR habilitados con la autenticación de Kerberos. Esto se debió a que el daemon del clúster de Amazon EMR no renovó el ticket de Kerberos, que es necesario para comunicarse de forma segura con la HDFS/YARN ejecución en el nodo principal.
+ HTTPS ahora está habilitado de forma predeterminada para los repositorios de Amazon Linux. Si utiliza una política de VPCE de Amazon S3 para restringir el acceso a buckets específicos, debe agregar el nuevo ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` del bucket de Amazon Linux a su política (sustituya `$region` por la región en la que se encuentra el punto de conexión). Para obtener más información, consulte este tema en los foros de discusión. AWS [Anuncio: Amazon Linux 2 ahora admite la posibilidad de utilizar HTTPS mientras se conecta a repositorios de paquetes](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

**Problemas conocidos**
+ Cuando utiliza Spark con el formato de ubicación de particiones de Hive para leer datos en Amazon S3 y ejecuta Spark en las versiones 5.30.0 a 5.36.0 y 6.2.0 a 6.9.0 de Amazon EMR, es posible que se produzca un problema que impida que el clúster lea los datos correctamente. Esto puede ocurrir si las particiones tienen todas las características siguientes:
  + Se analizan dos o más particiones de la misma tabla.
  + Al menos una ruta de directorio de particiones es un prefijo de al menos otra ruta de directorio de particiones; por ejemplo, `s3://bucket/table/p=a` es un prefijo de `s3://bucket/table/p=a b`.
  + El primer carácter que sigue al prefijo del otro directorio de particiones tiene un valor UTF-8 inferior al carácter `/` (U\$1002F). Por ejemplo, el carácter de espacio (U\$10020) que aparece entre a y b en `s3://bucket/table/p=a b` entra en esta categoría. Tenga en cuenta que hay otros 14 caracteres que no son de control: `!"#$%&‘()*+,-`. Para más información, consulte [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/).

  Como solución alternativa a este problema, defina la configuración `spark.sql.sources.fastS3PartitionDiscovery.enabled` como `false` en la clasificación `spark-defaults`.

## Versiones de los componentes de la versión 6.3.1
<a name="emr-631-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.2.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.2.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.18.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.1.0 | Conector S3Select de EMR | 
| emrfs | 2.46.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.12.1 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.12.1 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-3.1 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-3.1 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-3.1 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-3.1 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-3.1 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-3.1 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-3.1 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-3.1 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-3.1 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-3.1 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-3.1 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.2.6-amzn-1 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.2.6-amzn-1 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.2.6-amzn-1 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.2.6-amzn-1 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.2.6-amzn-1 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hcatalog-client | 3.1.2-amzn-4 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-4 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.2-amzn-4 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.2-amzn-4 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.2-amzn-4 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-4 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.2-amzn-4 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.7.0-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.7.0-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-prestosql | 0.7.0-amzn-0 | Biblioteca de paquetes para ejecutar PrestoSQL con Hudi. | 
| hudi-spark | 0.7.0-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.9.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| jupyterhub | 1.2.2 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.0-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.7.0 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 10.1.243 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.0.0- -2.0 HBase | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-query-server | 5.0.0- -2.0 HBase | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.245.1-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.245.1-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.245.1-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| prestosql-coordinator | 350 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre prestosql-workers. | 
| prestosql-worker | 350 | Service para ejecutar partes de una consulta. | 
| prestosql-client | 350 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.1.1-amzn-0.1 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.1.1-amzn-0.1 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.1.1-amzn-0.1 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.1.1-amzn-0.1 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 0.4.1 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.9.0 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.4.14 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.4.14 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.3.1
<a name="emr-631-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.3.1**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie HBase los valores del archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| prestosql-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Cambiar los valores en el archivo node.properties de PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de PrestoSQL. | Not available. | 
| prestosql-connector-hive | Cambiar los valores en el archivo hive.properties de PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Cambiar los valores en el archivo jmx.properties de PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Cambiar los valores en el archivo kafka.properties de PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Cambiar los valores en el archivo localfile.properties de PrestoSQL. | Not available. | 
| prestosql-connector-memory | Cambiar los valores del archivo memory.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Cambiar los valores en el archivo mysql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Cambiar los valores en el archivo raptor.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redis | Cambiar los valores en el archivo redis.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Cambiar los valores en el archivo redshift.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Cambiar los valores en el archivo tpch.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Cambiar los valores del archivo tpcds.properties de PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR, versión 6.3.0
<a name="emr-630-release"></a>

## Versiones de las aplicaciones de la versión 6.3.0
<a name="emr-630-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.977 | 1.11.880 | 1.11.880 | 1.11,828 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 
| HCatalog | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 
| Hadoop | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 
| Hive | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 
| Hudi | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 
| Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 |  -  | 
| JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 
| Spark | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 350 | 343 | 343 | 338 | 
| Zeppelin | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notas de la versión 6.3.0
<a name="emr-630-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.3.0 de Amazon EMR. Los cambios son respecto a la versión 6.2.0.

Fecha de lanzamiento inicial: 12 de mayo de 2021

Fecha de la última actualización: 9 de agosto de 2021

**Aplicaciones compatibles**
+ AWS SDK para Java versión 1.11.977
+ CloudWatch Sink versión 2.1.0
+ Conector de DynamoDB, versión 4.16.0
+ EMRFS, versión 2.46.0
+ Amazon EMR Goodies, versión 3.2.0
+ Conector de Kinesis para Amazon EMR, versión 3.5.0
+ Servidor de registros de Amazon EMR, versión 2.0.0
+ Scripts de Amazon EMR, versión 2.5.0
+ Flink, versión 1.12.1
+ Versión de Ganglia 3.7.2
+ AWS Cliente Glue Hive Metastore versión 3.2.0
+ Hadoop, versión 3.2.1-amzn-3
+ HBase versión 2.2.6-amzn-1
+ HBase-operator-tools 1.0.0
+ HCatalog versión 3.1.2-amzn-0
+ Hive, versión 3.1.2-amzn-4
+ Hudi versión 0.7.0-amzn-0
+ Hue versión 4.9.0
+ Java JDK, versión Corretto-8.282.08.1 (compilación 1.8.0\$1282-b08)
+ JupyterHub versión 1.2.0
+ Livy versión 0.7.0-incubating
+ MXNet versión 1.7.0
+ Oozie versión 5.2.1
+ Versión de Phoenix 5.0.0
+ Pig, versión 0.17.0
+ Presto, versión 0.245.1-amzn-0
+ PrestoSQL, versión 350
+ Apache Ranger KMS (cifrado transparente multimaestro), versión 2.0.0
+ ranger-plugins 2.0.1-amzn-0
+ ranger-s3-plugin 1.1.0
+ SageMaker Spark SDK versión 1.4.1
+ Scala, versión 2.12.10 (máquina virtual de servidor OpenJDK de 64 bits, Java 1.8.0\$1282)
+ Spark, versión 3.1.1-amzn-0
+ spark-rapids 0.4.1
+ Sqoop, versión 1.4.7
+ TensorFlow versión 2.4.1
+ Tez, versión 0.9.2
+ Zeppelin versión 0.9.0
+ Versión de Zookeeper 3.4.14
+ Conectores y controladores: conector de DynamoDB 4.16.0

**Nuevas características**
+ Amazon EMR es compatible con Puntos de acceso de Amazon S3, una característica de Amazon S3 que le permite administrar fácilmente el acceso a los lagos de datos compartidos. Con su alias de Puntos de acceso de Amazon S3, puede simplificar el acceso a los datos a escala en Amazon EMR. Puede utilizar los puntos de acceso Amazon S3 con todas las versiones de Amazon EMR sin coste adicional en todas AWS las regiones en las que Amazon EMR esté disponible. Para más información acerca de los puntos de acceso de Amazon S3 y los alias de punto de acceso, consulte [Uso de un alias de estilo bucket para el punto de acceso](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-alias.html) en la *Guía del usuario de Amazon S3*.
+ Los parámetros nuevos `DescribeReleaseLabel` y `ListReleaseLabel` de la API proporcionan detalles de la etiqueta de la versión de Amazon EMR. Puede enumerar mediante programación las versiones disponibles en la región en la que se ejecuta la solicitud de API y enumerar las aplicaciones disponibles para una etiqueta de versión específica de Amazon EMR. Los parámetros de las etiquetas de versión también enumeran las versiones de Amazon EMR compatibles con una aplicación específica, como Spark. Esta información se puede utilizar para iniciar clústeres de Amazon EMR mediante programación. Por ejemplo, puede iniciar un clúster con la versión más reciente de los resultados de `ListReleaseLabel`. Para obtener más información, consulte [DescribeReleaseLabel](https://docs.aws.amazon.com/emr/latest/APIReference/API_DescribeReleaseLabel.html)y [ListReleaseLabels](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html)en la referencia de la *API de Amazon EMR.*
+ A partir de Amazon EMR 6.3.0, puede iniciar un clúster que se integre de forma nativa con Apache Ranger. Apache Ranger es un marco de código abierto para habilitar, supervisar y administrar la seguridad integral de los datos en toda la plataforma Hadoop. Para obtener más información, consulte [Apache Ranger](https://ranger.apache.org/). Con la integración nativa, puede utilizar su propio Apache Ranger para aplicar un control de acceso a los datos detallado en Amazon EMR. Consulte [Integrar Amazon EMR con Apache Ranger](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger.html) en la Guía de administración de Amazon EMR.
+ Políticas gestionadas con ámbito de aplicación: para ajustarse a las prácticas AWS recomendadas, Amazon EMR ha introducido la versión 2 de las políticas gestionadas predeterminadas con ámbito de EMR como sustitutivas de las políticas que quedarán en desuso. Consulte [Políticas administradas por Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html).
+ Estado de soporte de Instance Metadata Service (IMDS) V2: para Amazon EMR 6.2 o posterior, los componentes de Amazon EMR se IMDSv2 utilizan para todas las llamadas de IMDS. Para las llamadas de IMDS en el código de su aplicación, puede utilizar ambos IMDSv1 o configurar el IMDS para que se utilice únicamente con fines de seguridad adicionales. IMDSv2 IMDSv2 Si la deshabilita IMDSv1 en versiones anteriores de Amazon EMR 6.x, se produce un error al iniciar el clúster.

**Cambios, mejoras y problemas resueltos**
+ Esta es una versión para solucionar problemas con Amazon EMR Scaling cuando no logra up/scale reducir correctamente un clúster o provoca errores en las aplicaciones.
+ Se solucionó un problema por el que las solicitudes de escalado de un clúster grande y muy utilizado fallaban cuando los daemons en el clúster de Amazon EMR ejecutaban actividades de comprobación de estado, como recopilar el estado del nodo de YARN y el estado del nodo de HDFS. Esto se debía a que los daemons en el clúster no podían comunicar los datos del estado de un nodo a los componentes internos de Amazon EMR.
+ Se han mejorado los daemons de EMR en el clúster para realizar un seguimiento correcto de los estados de los nodos cuando se reutilizan las direcciones IP a fin de mejorar la fiabilidad durante las operaciones de escalado.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Se ha corregido un error que provocaba que se produjeran errores en los trabajos durante la reducción vertical del clúster, ya que Spark daba por sentado que todos los nodos disponibles estaban en la lista de denegados.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Se ha corregido un error que provocaba que se produjeran errores en los trabajos debido a una condición de carrera durante la retirada de YARN cuando el clúster intentaba escalarse o reducirse verticalmente.
+ Se ha solucionado el problema que provocaba errores en los pasos o trabajos durante el escalado del clúster al garantizar que los estados de los nodos sean siempre coherentes entre los daemons en el clúster de Amazon EMR y YARN o HDFS.
+ Se ha solucionado un problema por el que las operaciones de clúster, como la reducción vertical y el envío escalonado, fallaban en los clústeres de Amazon EMR habilitados con la autenticación de Kerberos. Esto se debió a que el daemon del clúster de Amazon EMR no renovó el ticket de Kerberos, que es necesario para comunicarse de forma segura con la HDFS/YARN ejecución en el nodo principal.
+ Las versiones más recientes de Amazon EMR solucionan el problema con un límite de «máximo de archivos abiertos» inferior al anterior en AL2 Amazon EMR. Las versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores de Amazon EMR ahora incluyen una corrección permanente con una configuración “Máximo de archivos abiertos” más alta.
+ El modo de explicación de la interfaz de usuario de Spark SQL ha cambiado de `extended` a `formatted` en [Spark 3.1](https://issues.apache.org/jira/browse/SPARK-31325). Amazon EMR lo revirtió a `extended` para incluir información del plan lógico en la interfaz de usuario de Spark SQL. Esto se puede revertir al establecer `spark.sql.ui.explainMode` en `formatted`.
+ Se ha agregado portabilidad con versiones anteriores para las siguientes confirmaciones desde la ramificación maestra de Spark.

  - [[SPARK-34752]](https://issues.apache.org/jira/browse/SPARK-34752) [BUILD] Actualizar Jetty a la versión 9.4.37 para abordar CVE-2020-27223.

  - [[SPARK-34534]](https://issues.apache.org/jira/browse/SPARK-34534) Corrija el orden de BlockIDs cuando se utiliza para buscar bloques. FetchShuffleBlocks 

  - [[SPARK-34681]](https://issues.apache.org/jira/browse/SPARK-34681) [SQL] Corregir un error de combinación hash desordenada externa completa al crear el lado izquierdo con condiciones desiguales.

  - [[SPARK-34497]](https://issues.apache.org/jira/browse/SPARK-34497) [SQL] Corregir los proveedores de conexión JDBC integrados para restaurar los cambios en el contexto de seguridad de JVM.
+ [Para mejorar la interoperabilidad con el RAPIDs plugin Nvidia Spark, se ha añadido una solución alternativa para solucionar un problema que impedía que se activara la reducción dinámica de particiones cuando se utilizaba Nvidia Spark RAPIDs con la ejecución de consultas adaptativas desactivada, consulte los números \$11378 y \$11386 de [RAPIDS](https://github.com/NVIDIA/spark-rapids/issues/1378).](https://github.com/NVIDIA/spark-rapids/issues/1386) Para más información sobre la nueva configuración `spark.sql.optimizer.dynamicPartitionPruning.enforceBroadcastReuse`, consulte [Problema núm. 1386 de RAPIDS](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html#emr-spark-performance-dynamic).
+ En Spark 3.1 de código abierto, se ha cambiado el algoritmo predeterminado del confirmador de salida de archivos de la versión 2 a la versión 1. Para más información, consulte [Amazon EMR optimiza el rendimiento de Spark: eliminación dinámica de particiones](https://issues.apache.org/jira/browse/SPARK-33019).
+ Amazon EMR volvió a la versión 2 del algoritmo, la predeterminada que se utilizaba en las versiones anteriores de Amazon EMR 6.x, para evitar la regresión del rendimiento. Para restaurar el comportamiento de Spark 3.1 de código abierto, establezca `spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version` en `1`. Spark, de código abierto, ha realizado este cambio porque la confirmación de tareas en la versión 2 del algoritmo de confirmación de salida de archivos no es atómica, lo que puede provocar un problema de corrección de los datos de salida en algunos casos. Sin embargo, la confirmación de tareas en la versión 1 del algoritmo tampoco es atómica. En algunos escenarios, la confirmación de tareas incluye una eliminación realizada antes del cambio de nombre. Esto puede provocar un problema silencioso de corrección de los datos.
+ Se corrigieron los problemas de escalado administrado en versiones anteriores de Amazon EMR y se realizaron mejoras para reducir significativamente las tasas de errores de las aplicaciones.
+ Se instaló el paquete de SDK de AWS Java en cada clúster nuevo. Se trata de un contenedor único que contiene todos los servicios SDKs y sus dependencias, en lugar de contenedores de componentes individuales. Para más información, consulte [Java SDK Bundled Dependency](https://aws.amazon.com/blogs/developer/java-sdk-bundle/).

**Problemas conocidos**
+ En el caso de los clústeres de subredes privadas de Amazon EMR 6.3.0 y 6.2.0, no puede acceder a la interfaz de usuario web de Ganglia. Aparecerá el error “Acceso denegado (403)”. Otras páginas web UIs, como Spark, Hue, Zeppelin JupyterHub, Livy y Tez, funcionan con normalidad. El acceso a la interfaz de usuario web de Ganglia en los clústeres de subredes públicas también funciona con normalidad. Para resolver este problema, reinicie el servicio httpd en el nodo principal con `sudo systemctl restart httpd`. Este problema se ha corregido en la versión 6.4.0 de Amazon EMR.
+ Cuando el catálogo de datos de AWS Glue está activado, es posible que no se pueda utilizar Spark para acceder a una base de datos de AWS Glue con un URI de ubicación de cadena nula. Esto ocurre con las versiones anteriores de Amazon EMR, excepto con el SPARK-31709 (https://issues.apache). org/jira/browse/SPARK-31709) hace que se aplique a más casos. Por ejemplo, al crear una tabla en la base de datos AWS Glue predeterminada cuyo URI de ubicación es una cadena nula, se produce un `spark.sql("CREATE TABLE mytest (key string) location '/table_path';")` error con el mensaje «No se puede crear una ruta a partir de una cadena vacía». Para solucionar este problema, establece manualmente el URI de ubicación de tus bases de datos de AWS Glue y, a continuación, crea tablas dentro de estas bases de datos con Spark.
+ En Amazon EMR 6.3.0, PrestoSQL se ha actualizado de la versión 343 a la versión 350. Hay dos cambios respecto a la seguridad en el código abierto que se relacionan con este cambio de versión. El control de acceso al catálogo basado en archivos cambia de `deny` a `allow` cuando las reglas de propiedades de la tabla, el esquema o la sesión no están definidas. Además, el control de acceso al sistema basado en archivos se ha modificado para admitir archivos sin reglas de catálogo definidas. En este caso, se permite todo el acceso a los catálogos.

  Para más información, consulte [Release 344 (9 Oct 2020)](https://trino.io/docs/current/release/release-344.html#security).
+ Ten en cuenta el directorio de usuarios de Hadoop (/) home/hadoop) is readable by everyone. It has Unix 755 (drwxr-xr-x) directory permissions to allow read access by frameworks like Hive. You can put files in /home/hadoop y sus subdirectorios, pero ten en cuenta los permisos de esos directorios para proteger la información confidencial.
+ **Reducir el límite máximo de archivos abiertos en las versiones anteriores AL2 [corregido en las versiones más recientes].** Versiones de Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 y emr-6.2.0 se basan en versiones anteriores de Amazon Linux 2 (), que AL2 tienen una configuración de límite inferior para el «Máximo número de archivos abiertos» cuando los clústeres de Amazon EMR se crean con la AMI predeterminada. Las versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores de Amazon EMR ahora incluyen una corrección permanente con una configuración más alta de “Máximo de archivos abiertos”. Las versiones con el límite inferior de archivos abiertos provocan el error “Demasiados archivos abiertos” al enviar el trabajo de Spark. En las versiones afectadas, la AMI predeterminada de Amazon EMR tiene una configuración de ulimit predeterminada de 4096 para “Máximo de archivos abiertos”, una cantidad inferior al límite de 65 536 archivos de la AMI de Amazon Linux 2 más reciente. La configuración de ulimit inferior para “Máximo de archivos abiertos” provoca un fallo en el trabajo de Spark cuando el controlador y el ejecutor de Spark intentan abrir más de 4096 archivos. Para solucionar el problema, Amazon EMR tiene un script de acciones de arranque (BA) que ajusta la configuración de ulimit al crear el clúster. 

  Si utiliza una versión anterior de Amazon EMR que no tiene una corrección permanente para este problema, la siguiente solución alternativa le permite establecer explícitamente el ulimit del controlador de instancias en un máximo de 65 536 archivos.

**Establecimiento explícito de un ulimit desde la línea de comandos**

  1. Edite `/etc/systemd/system/instance-controller.service` para agregar los siguientes parámetros a la sección de servicio.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Reinicie InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Establecimiento de un ulimit mediante una acción de arranque (BA)**

  También puede usar un script de acciones de arranque (BA) para configurar el ulimit del controlador de instancias en 65 536 archivos al crear el clúster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**importante**  
Los clústeres de Amazon EMR que ejecutan las imágenes de máquina de Amazon (AMI) de Amazon Linux o Amazon Linux 2 utilizan el comportamiento predeterminado de Amazon Linux y no descargan ni instalan automáticamente actualizaciones importantes y críticas del kernel que requieren un reinicio. Este comportamiento es el mismo que el de otras instancias de Amazon EC2 que ejecutan la AMI predeterminada de Amazon Linux. Si aparecen nuevas actualizaciones de software de Amazon Linux que requieren un reinicio (por ejemplo, actualizaciones del kernel, NVIDIA y CUDA) tras el lanzamiento de una versión de Amazon EMR, las instancias de clúster de Amazon EMR que ejecutan la AMI predeterminada no descargan ni instalan automáticamente esas actualizaciones. Para obtener actualizaciones del kernel, puede [personalizar la AMI de Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) para que [utilice la AMI de Amazon Linux más reciente](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ Para utilizar las acciones de Spark con Apache Oozie, debe agregar la siguiente configuración al archivo `workflow.xml` de Oozie. De lo contrario, varias bibliotecas críticas, como Hadoop y EMRFS, no aparecerán en la ruta de clases de los ejecutores de Spark que lance Oozie.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Cuando utiliza Spark con el formato de ubicación de particiones de Hive para leer datos en Amazon S3 y ejecuta Spark en las versiones 5.30.0 a 5.36.0 y 6.2.0 a 6.9.0 de Amazon EMR, es posible que se produzca un problema que impida que el clúster lea los datos correctamente. Esto puede ocurrir si las particiones tienen todas las características siguientes:
  + Se analizan dos o más particiones de la misma tabla.
  + Al menos una ruta de directorio de particiones es un prefijo de al menos otra ruta de directorio de particiones; por ejemplo, `s3://bucket/table/p=a` es un prefijo de `s3://bucket/table/p=a b`.
  + El primer carácter que sigue al prefijo del otro directorio de particiones tiene un valor UTF-8 inferior al carácter `/` (U\$1002F). Por ejemplo, el carácter de espacio (U\$10020) que aparece entre a y b en `s3://bucket/table/p=a b` entra en esta categoría. Tenga en cuenta que hay otros 14 caracteres que no son de control: `!"#$%&‘()*+,-`. Para más información, consulte [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/).

  Como solución alternativa a este problema, defina la configuración `spark.sql.sources.fastS3PartitionDiscovery.enabled` como `false` en la clasificación `spark-defaults`.

## Versiones de los componentes de la versión 6.3.0
<a name="emr-630-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.2.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.2.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.18.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.1.0 | Conector S3Select de EMR | 
| emrfs | 2.46.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.12.1 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.12.1 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-3 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-3 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-3 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-3 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-3 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-3 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-3 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-3 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-3 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-3 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-3 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.2.6-amzn-1 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.2.6-amzn-1 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.2.6-amzn-1 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.2.6-amzn-1 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.2.6-amzn-1 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hcatalog-client | 3.1.2-amzn-4 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-4 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.2-amzn-4 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.2-amzn-4 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.2-amzn-4 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-4 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.2-amzn-4 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.7.0-amzn-0 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.7.0-amzn-0 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-prestosql | 0.7.0-amzn-0 | Biblioteca de paquetes para ejecutar PrestoSQL con Hudi. | 
| hudi-spark | 0.7.0-amzn-0 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.9.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| jupyterhub | 1.2.2 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.0-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.7.0 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.68\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 10.1.243 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.1 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.1 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.5.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.0.0- -2.0 HBase | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-query-server | 5.0.0- -2.0 HBase | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.245.1-amzn-0 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.245.1-amzn-0 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.245.1-amzn-0 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| prestosql-coordinator | 350 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre prestosql-workers. | 
| prestosql-worker | 350 | Service para ejecutar partes de una consulta. | 
| prestosql-client | 350 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 4.0.2 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.1.1-amzn-0 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.1.1-amzn-0 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.1.1-amzn-0 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.1.1-amzn-0 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 0.4.1 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.4.1 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.9.0 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.4.14 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.4.14 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.3.0
<a name="emr-630-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.3.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Restarts Flink history server. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Restarts Flink history server. | 
| flink-log4j-session | Cambie la configuración de Flink log4j-session.properties para la sesión. Kubernetes/Yarn  | Restarts Flink history server. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Restarts Flink history server. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie HBase los valores del archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| prestosql-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Cambiar los valores en el archivo node.properties de PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de PrestoSQL. | Not available. | 
| prestosql-connector-hive | Cambiar los valores en el archivo hive.properties de PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Cambiar los valores en el archivo jmx.properties de PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Cambiar los valores en el archivo kafka.properties de PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Cambiar los valores en el archivo localfile.properties de PrestoSQL. | Not available. | 
| prestosql-connector-memory | Cambiar los valores del archivo memory.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Cambiar los valores en el archivo mysql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Cambiar los valores en el archivo raptor.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redis | Cambiar los valores en el archivo redis.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Cambiar los valores en el archivo redshift.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Cambiar los valores en el archivo tpch.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Cambiar los valores del archivo tpcds.properties de PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie and HiveServer2. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zeppelin-site | Cambie los ajustes de configuración de zeppelin-site.xml. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR, versión 6.2.1
<a name="emr-621-release"></a>

## Versiones de las aplicaciones de la versión 6.2.1
<a name="emr-621-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.880 | 1.11.880 | 1.11,828 | 1.11.828 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 
| HCatalog | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 
| Hadoop | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 
| Hive | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 
| Hudi | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 
| Hue | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 0.232 | 
| Spark | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 343 | 343 | 338 | 338 | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notas de la versión 6.2.1
<a name="emr-621-relnotes"></a>

Esta es una versión para solucionar problemas con Amazon EMR Scaling cuando no logra up/scale reducir correctamente un clúster o provoca errores en las aplicaciones.

**Cambios, mejoras y problemas resueltos**
+ Se solucionó un problema por el que las solicitudes de escalado de un clúster grande y muy utilizado fallaban cuando los daemons en el clúster de Amazon EMR ejecutaban actividades de comprobación de estado, como recopilar el estado del nodo de YARN y el estado del nodo de HDFS. Esto se debía a que los daemons en el clúster no podían comunicar los datos del estado de un nodo a los componentes internos de Amazon EMR.
+ Se han mejorado los daemons de EMR en el clúster para realizar un seguimiento correcto de los estados de los nodos cuando se reutilizan las direcciones IP a fin de mejorar la fiabilidad durante las operaciones de escalado.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Se ha corregido un error que provocaba que se produjeran errores en los trabajos durante la reducción vertical del clúster, ya que Spark daba por sentado que todos los nodos disponibles estaban en la lista de denegados.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Se ha corregido un error que provocaba que se produjeran errores en los trabajos debido a una condición de carrera durante la retirada de YARN cuando el clúster intentaba escalarse o reducirse verticalmente.
+ Se ha solucionado el problema que provocaba errores en los pasos o trabajos durante el escalado del clúster al garantizar que los estados de los nodos sean siempre coherentes entre los daemons en el clúster de Amazon EMR y YARN o HDFS.
+ Se ha solucionado un problema por el que las operaciones de clúster, como la reducción vertical y el envío escalonado, fallaban en los clústeres de Amazon EMR habilitados con la autenticación de Kerberos. Esto se debió a que el daemon del clúster de Amazon EMR no renovó el ticket de Kerberos, que es necesario para comunicarse de forma segura con la HDFS/YARN ejecución en el nodo principal.
+ Las versiones más recientes de Amazon EMR solucionan el problema con un límite de «máximo de archivos abiertos» inferior al anterior en AL2 Amazon EMR. Las versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores de Amazon EMR ahora incluyen una corrección permanente con una configuración “Máximo de archivos abiertos” más alta.
+ HTTPS ahora está habilitado de forma predeterminada para los repositorios de Amazon Linux. Si utiliza una política de VPCE de Amazon S3 para restringir el acceso a buckets específicos, debe agregar el nuevo ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` del bucket de Amazon Linux a su política (sustituya `$region` por la región en la que se encuentra el punto de conexión). Para obtener más información, consulte este tema en los foros de AWS debate. [Anuncio: Amazon Linux 2 ahora admite la posibilidad de utilizar HTTPS mientras se conecta a repositorios de paquetes](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

**Problemas conocidos**
+ Cuando utiliza Spark con el formato de ubicación de particiones de Hive para leer datos en Amazon S3 y ejecuta Spark en las versiones 5.30.0 a 5.36.0 y 6.2.0 a 6.9.0 de Amazon EMR, es posible que se produzca un problema que impida que el clúster lea los datos correctamente. Esto puede ocurrir si las particiones tienen todas las características siguientes:
  + Se analizan dos o más particiones de la misma tabla.
  + Al menos una ruta de directorio de particiones es un prefijo de al menos otra ruta de directorio de particiones; por ejemplo, `s3://bucket/table/p=a` es un prefijo de `s3://bucket/table/p=a b`.
  + El primer carácter que sigue al prefijo del otro directorio de particiones tiene un valor UTF-8 inferior al carácter `/` (U\$1002F). Por ejemplo, el carácter de espacio (U\$10020) que aparece entre a y b en `s3://bucket/table/p=a b` entra en esta categoría. Tenga en cuenta que hay otros 14 caracteres que no son de control: `!"#$%&‘()*+,-`. Para más información, consulte [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/).

  Como solución alternativa a este problema, defina la configuración `spark.sql.sources.fastS3PartitionDiscovery.enabled` como `false` en la clasificación `spark-defaults`.

## Versiones de los componentes de la versión 6.2.1
<a name="emr-621-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.1.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.0.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.16.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.0.0 | Conector S3Select de EMR | 
| emrfs | 2.44.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.11.2 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.11.2 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-2.1 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-2.1 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-2.1 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-2.1 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-2.1 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-2.1 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-2.1 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-2.1 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-2.1 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-2.1 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-2.1 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.2.6-amzn-0 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.2.6-amzn-0 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.2.6-amzn-0 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.2.6-amzn-0 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.2.6-amzn-0 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hcatalog-client | 3.1.2-amzn-3 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-3 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.2-amzn-3 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.2-amzn-3 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.2-amzn-3 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-3 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.2-amzn-3 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.6.0-amzn-1 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.6.0-amzn-1 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-prestosql | 0.6.0-amzn-1 | Biblioteca de paquetes para ejecutar PrestoSQL con Hudi. | 
| hudi-spark | 0.6.0-amzn-1 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.8.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| jupyterhub | 1.1.0 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.0-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.7.0 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.64\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 10.1.243 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.0 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.0 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.4.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.0.0- -2.0 HBase | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-query-server | 5.0.0- -2.0 HBase | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.238.3-amzn-1 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.238.3-amzn-1 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.238.3-amzn-1 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| prestosql-coordinator | 343 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre prestosql-workers. | 
| prestosql-worker | 343 | Service para ejecutar partes de una consulta. | 
| prestosql-client | 343 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 3.4.3 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.0.1-amzn-0.1 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.0.1-amzn-0.1 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.0.1-amzn-0.1 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.0.1-amzn-0.1 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 0.2.0 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.3.1 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.9.0-preview1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.4.14 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.4.14 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.2.1
<a name="emr-621-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.2.1**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Not available. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Not available. | 
| flink-log4j-yarn-session | Cambie la configuración de Flink log4 j-yarn-session .properties. | Not available. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Not available. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie HBase los valores del archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| prestosql-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Cambiar los valores en el archivo node.properties de PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de PrestoSQL. | Not available. | 
| prestosql-connector-hive | Cambiar los valores en el archivo hive.properties de PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Cambiar los valores en el archivo jmx.properties de PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Cambiar los valores en el archivo kafka.properties de PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Cambiar los valores en el archivo localfile.properties de PrestoSQL. | Not available. | 
| prestosql-connector-memory | Cambiar los valores del archivo memory.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Cambiar los valores en el archivo mysql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Cambiar los valores en el archivo raptor.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redis | Cambiar los valores en el archivo redis.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Cambiar los valores en el archivo redshift.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Cambiar los valores en el archivo tpch.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Cambiar los valores del archivo tpcds.properties de PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR, versión 6.2.0
<a name="emr-620-release"></a>

## Versiones de las aplicaciones de la versión 6.2.0
<a name="emr-620-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.880 | 1.11,828 | 1.11.828 | 1.11.711 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.0 | 1.11.0 |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 
| Hive | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 
| Hudi | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.8.0 | 4.7.1 | 4.7.1 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 
| MXNet | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 |  -  | 
| Presto | 0.238.3-amzn-1 | 0.232 | 0.232 | 0.230 | 
| Spark | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 |  -  | 
| TensorFlow | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 343 | 338 | 338 |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notas de la versión 6.2.0
<a name="emr-620-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.2.0 de Amazon EMR. Los cambios son respecto a la versión 6.1.0.

Fecha de lanzamiento inicial: 9 de diciembre de 2020

Fecha de la última actualización: 4 de octubre de 2021

**Aplicaciones compatibles**
+ AWS SDK para Java versión 1.11.828
+ emr-record-server versión 1.7.0
+ Flink, versión 1.11.2
+ Versión de Ganglia 3.7.2
+ Hadoop, versión 3.2.1-amzn-1
+ HBase versión 2.2.6-amzn-0
+ HBase-operator-tools 1.0.0
+ HCatalog versión 3.1.2-amzn-0
+ Hive, versión 3.1.2-amzn-3
+ Hudi versión 0.6.0-amzn-1
+ Hue versión 4.8.0
+ JupyterHub versión 1.1.0
+ Livy versión 0.7.0
+ MXNet versión 1.7.0
+ Oozie versión 5.2.0
+ Versión de Phoenix 5.0.0
+ Pig, versión 0.17.0
+ Presto, versión 0.238.3-amzn-1
+ PrestoSQL, versión 343
+ Spark, versión 3.0.1-amzn-0
+ spark-rapids 0.2.0
+ TensorFlow versión 2.3.1
+ Zeppelin, versión 0.9.0-preview1
+ Versión de Zookeeper 3.4.14
+ Conectores y controladores: conector de DynamoDB 4.16.0

**Nuevas características**
+ HBase: Se ha eliminado el cambio de nombre en la fase de confirmación y se ha añadido el seguimiento persistente HFile . Consulte el [ HFile seguimiento persistente](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html#emr-hbase-s3-hfile-tracking) en la guía de *versiones de Amazon EMR.*
+ HBase: Backported [Cree una configuración que obligue a almacenar en caché los bloques al compactarlos](https://issues.apache.org/jira/browse/HBASE-23066).
+ PrestoDB: mejoras en la eliminación dinámica de particiones. El reordenamiento de uniones basado en reglas funciona con datos no particionados.
+ Políticas gestionadas con ámbito de aplicación: para ajustarse a las prácticas AWS recomendadas, Amazon EMR ha introducido la versión 2 de las políticas gestionadas predeterminadas con ámbito de EMR como sustitutivas de las políticas que quedarán en desuso. Consulte [Políticas administradas por Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html).
+ Estado de soporte de Instance Metadata Service (IMDS) V2: para Amazon EMR 6.2 o posterior, los componentes de Amazon EMR se IMDSv2 utilizan para todas las llamadas de IMDS. Para las llamadas de IMDS en el código de su aplicación, puede utilizar ambos IMDSv1 o configurar el IMDS para que se utilice únicamente con fines de seguridad adicionales. IMDSv2 IMDSv2 Si la deshabilita IMDSv1 en versiones anteriores de Amazon EMR 6.x, se produce un error al iniciar el clúster.

**Cambios, mejoras y problemas resueltos**
+ Esta es una versión para solucionar problemas con Amazon EMR Scaling cuando no logra up/scale reducir correctamente un clúster o provoca errores en las aplicaciones.
+ Se solucionó un problema por el que las solicitudes de escalado de un clúster grande y muy utilizado fallaban cuando los daemons en el clúster de Amazon EMR ejecutaban actividades de comprobación de estado, como recopilar el estado del nodo de YARN y el estado del nodo de HDFS. Esto se debía a que los daemons en el clúster no podían comunicar los datos del estado de un nodo a los componentes internos de Amazon EMR.
+ Se han mejorado los daemons de EMR en el clúster para realizar un seguimiento correcto de los estados de los nodos cuando se reutilizan las direcciones IP a fin de mejorar la fiabilidad durante las operaciones de escalado.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Se ha corregido un error que provocaba que se produjeran errores en los trabajos durante la reducción vertical del clúster, ya que Spark daba por sentado que todos los nodos disponibles estaban en la lista de denegados.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Se ha corregido un error que provocaba que se produjeran errores en los trabajos debido a una condición de carrera durante la retirada de YARN cuando el clúster intentaba escalarse o reducirse verticalmente.
+ Se ha solucionado el problema que provocaba errores en los pasos o trabajos durante el escalado del clúster al garantizar que los estados de los nodos sean siempre coherentes entre los daemons en el clúster de Amazon EMR y YARN o HDFS.
+ Se ha solucionado un problema por el que las operaciones de clúster, como la reducción vertical y el envío escalonado, fallaban en los clústeres de Amazon EMR habilitados con la autenticación de Kerberos. Esto se debió a que el daemon del clúster de Amazon EMR no renovó el ticket de Kerberos, que es necesario para comunicarse de forma segura con la HDFS/YARN ejecución en el nodo principal.
+ Las versiones más recientes de Amazon EMR solucionan el problema con un límite de «máximo de archivos abiertos» inferior al anterior en AL2 Amazon EMR. Las versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores de Amazon EMR ahora incluyen una corrección permanente con una configuración “Máximo de archivos abiertos” más alta.
+ Spark: mejoras de rendimiento en el tiempo de ejecución de Spark.

**Problemas conocidos**
+ Amazon EMR 6.2 tiene permisos incorrectos configurados en el directorio/etc/cron.d/libinstance-controller-java file in EMR 6.2.0. Permissions on the file are 645 (-rw-r--r-x), when they should be 644 (-rw-r--r--). As a result, Amazon EMR version 6.2 does not log instance-state logs, and the /emr/instance-logs que está vacío. Este problema se ha corregido en la versión 6.3.0 de Amazon EMR y posteriores.

  Para solucionar este problema, ejecute el siguiente script como acción de arranque al iniciar el clúster. 

  ```
  #!/bin/bash
  sudo chmod 644 /etc/cron.d/libinstance-controller-java
  ```
+ En el caso de los clústeres de subredes privadas de Amazon EMR 6.2.0 y 6.3.0, no puede acceder a la interfaz de usuario web de Ganglia. Aparecerá el error “Acceso denegado (403)”. Otras páginas web UIs, como Spark, Hue, Zeppelin JupyterHub, Livy y Tez, funcionan con normalidad. El acceso a la interfaz de usuario web de Ganglia en los clústeres de subredes públicas también funciona con normalidad. Para resolver este problema, reinicie el servicio httpd en el nodo principal con `sudo systemctl restart httpd`. Este problema se ha corregido en la versión 6.4.0 de Amazon EMR.
+ Hay un problema en Amazon EMR 6.2.0 por el que httpd genera errores continuamente, lo que provoca que Ganglia no esté disponible. Aparece el error “No se puede conectar al servidor”. Para corregir un clúster que ya se está ejecutando con este problema, utilice SSH en el nodo principal del clúster y agregue la línea `Listen 80` al archivo `httpd.conf` ubicado en `/etc/httpd/conf/httpd.conf`. Este problema se ha corregido en la versión 6.3.0 de Amazon EMR.
+ HTTPD presenta errores en los clústeres de EMR 6.2.0 cuando se utiliza una configuración de seguridad. Esto hace que la interfaz de usuario de la aplicación web de Ganglia no esté disponible. Para acceder a la interfaz de usuario de la aplicación web de Ganglia, agregue `Listen 80` al archivo `/etc/httpd/conf/httpd.conf` del nodo principal del clúster. Para obtener información acerca de la conexión al clúster, consulte [Conectarse al nodo principal mediante SSH](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-connect-master-node-ssh.html).

  Cuadernos de EMR tampoco puede establecer una conexión con los clústeres de EMR 6.2.0 cuando se utiliza una configuración de seguridad. El cuaderno no podrá enumerar los kernels ni enviar trabajos a Spark. En su lugar, se recomienda que utilice Cuadernos de EMR con otra versión de Amazon EMR.
+ **Reducir el límite de «máximo de archivos abiertos» en las versiones anteriores AL2 [corregido en las versiones más recientes].** Versiones de Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 y emr-6.2.0 se basan en versiones anteriores de Amazon Linux 2 (), que AL2 tienen una configuración de límite inferior para el «Máximo número de archivos abiertos» cuando los clústeres de Amazon EMR se crean con la AMI predeterminada. Las versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores de Amazon EMR ahora incluyen una corrección permanente con una configuración más alta de “Máximo de archivos abiertos”. Las versiones con el límite inferior de archivos abiertos provocan el error “Demasiados archivos abiertos” al enviar el trabajo de Spark. En las versiones afectadas, la AMI predeterminada de Amazon EMR tiene una configuración de ulimit predeterminada de 4096 para “Máximo de archivos abiertos”, una cantidad inferior al límite de 65 536 archivos de la AMI de Amazon Linux 2 más reciente. La configuración de ulimit inferior para “Máximo de archivos abiertos” provoca un fallo en el trabajo de Spark cuando el controlador y el ejecutor de Spark intentan abrir más de 4096 archivos. Para solucionar el problema, Amazon EMR tiene un script de acciones de arranque (BA) que ajusta la configuración de ulimit al crear el clúster. 

  Si utiliza una versión anterior de Amazon EMR que no tiene una corrección permanente para este problema, la siguiente solución alternativa le permite establecer explícitamente el ulimit del controlador de instancias en un máximo de 65 536 archivos.

**Establecimiento explícito de un ulimit desde la línea de comandos**

  1. Edite `/etc/systemd/system/instance-controller.service` para agregar los siguientes parámetros a la sección de servicio.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Reinicie InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Establecimiento de un ulimit mediante una acción de arranque (BA)**

  También puede usar un script de acciones de arranque (BA) para configurar el ulimit del controlador de instancias en 65 536 archivos al crear el clúster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**importante**  
Amazon EMR 6.1.0 y 6.2.0 incluyen un problema de rendimiento que puede afectar gravemente a todas las operaciones de inserción, upsert y eliminación de Hudi. Si piensa utilizar Hudi con Amazon EMR 6.1.0 o 6.2.0, póngase en AWS contacto con el servicio de asistencia para obtener un RPM de Hudi parcheado.
+ 
**importante**  
Los clústeres de Amazon EMR que ejecutan las imágenes de máquina de Amazon (AMI) de Amazon Linux o Amazon Linux 2 utilizan el comportamiento predeterminado de Amazon Linux y no descargan ni instalan automáticamente actualizaciones importantes y críticas del kernel que requieren un reinicio. Este comportamiento es el mismo que el de otras instancias de Amazon EC2 que ejecutan la AMI predeterminada de Amazon Linux. Si aparecen nuevas actualizaciones de software de Amazon Linux que requieren un reinicio (por ejemplo, actualizaciones del kernel, NVIDIA y CUDA) tras el lanzamiento de una versión de Amazon EMR, las instancias de clúster de Amazon EMR que ejecutan la AMI predeterminada no descargan ni instalan automáticamente esas actualizaciones. Para obtener actualizaciones del kernel, puede [personalizar la AMI de Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html) para que [utilice la AMI de Amazon Linux más reciente](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html).
+ Los artefactos de Maven de Amazon EMR 6.2.0 no están publicados. Se publicarán en una versión futura de Amazon EMR.
+ El HFile seguimiento persistente mediante la tabla del sistema de HBase archivos de almacenamiento no admite la función de replicación regional. HBase Para obtener más información sobre HBase la replicación regional, consulte Lecturas de [alta disponibilidad consistentes en el cronograma](http://hbase.apache.org/book.html#arch.timelineconsistent.reads).
+ Diferencias entre las versiones de agrupación en buckets de Amazon EMR 6.x y EMR 5.x Hive

  EMR 5.x utiliza OOS Apache Hive 2, mientras que en EMR 6.x se utiliza OOS Apache Hive 3. Hive2 de código abierto usa la versión 1 de agrupación en buckets, mientras que Hive3 de código abierto usa la versión 2 de agrupación en buckets. Esta diferencia de versión de agrupación en buckets entre Hive 2 (EMR 5.x) y Hive 3 (EMR 6.x) significa que el hash de agrupación en buckets de Hive funciona de manera diferente. Vea el ejemplo siguiente.

  La siguiente tabla es un ejemplo creado en EMR 6.x y EMR 5.x, respectivamente.

  ```
  -- Using following LOCATION in EMR 6.x
  CREATE TABLE test_bucketing (id INT, desc STRING)
  PARTITIONED BY (day STRING)
  CLUSTERED BY(id) INTO 128 BUCKETS
  LOCATION 's3://your-own-s3-bucket/emr-6-bucketing/';
  
  -- Using following LOCATION in EMR 5.x 
  LOCATION 's3://your-own-s3-bucket/emr-5-bucketing/';
  ```

  Se insertan los mismos datos en EMR 6.x y EMR 5.x.

  ```
  INSERT INTO test_bucketing PARTITION (day='01') VALUES(66, 'some_data');
  INSERT INTO test_bucketing PARTITION (day='01') VALUES(200, 'some_data');
  ```

  Al comprobar la ubicación de S3, se muestra que el nombre del archivo de agrupación en buckets es diferente, ya que la función de hash es diferente entre EMR 6.x (Hive 3) y EMR 5.x (Hive 2).

  ```
  [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-6-bucketing/day=01/
  2020-10-21 20:35:16         13 000025_0
  2020-10-21 20:35:22         14 000121_0
  [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-5-bucketing/day=01/
  2020-10-21 20:32:07         13 000066_0
  2020-10-21 20:32:51         14 000072_0
  ```

  También puede ver la diferencia de versión mediante la ejecución del siguiente comando en la CLI de Hive en EMR 6.x. Tenga en cuenta que devuelve la versión 2 de la agrupación en buckets.

  ```
  hive> DESCRIBE FORMATTED test_bucketing;
  ...
  Table Parameters:
      bucketing_version       2
  ...
  ```
+ Problema conocido en clústeres con varios nodos principales y autenticación de Kerberos

  Si ejecuta clústeres con varios nodos principales y autenticación de Kerberos en las versiones 5.20.0 y posteriores de Amazon EMR, es posible que tenga problemas con las operaciones del clúster, como la reducción vertical o el envío escalonado, después de que el clúster se haya estado ejecutando durante algún tiempo. El periodo de tiempo depende del periodo de validez del ticket de Kerberos que se haya definido. El problema de la reducción vertical afecta tanto a las solicitudes de reducción vertical automática como a las solicitudes de reducción vertical explícita que haya enviado. Las operaciones adicionales del clúster también pueden verse afectadas. 

  Solución:
  + SSH como usuario de `hadoop` con el nodo principal líder del clúster de EMR con varios nodos principales.
  +  Ejecute el siguiente comando para renovar el ticket de Kerberos para el usuario de `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Normalmente, el archivo keytab se encuentra en `/etc/hadoop.keytab` y la entidad principal tiene la forma de `hadoop/<hostname>@<REALM>`.
**nota**  
Esta solución alternativa estará en vigor durante el periodo de validez del ticket de Kerberos. Esta duración es de 10 horas de forma predeterminada, pero se puede configurar con los ajustes de Kerberos. Debe volver a ejecutar el comando anterior una vez que venza el ticket de Kerberos.
+ Cuando utiliza Spark con el formato de ubicación de particiones de Hive para leer datos en Amazon S3 y ejecuta Spark en las versiones 5.30.0 a 5.36.0 y 6.2.0 a 6.9.0 de Amazon EMR, es posible que se produzca un problema que impida que el clúster lea los datos correctamente. Esto puede ocurrir si las particiones tienen todas las características siguientes:
  + Se analizan dos o más particiones de la misma tabla.
  + Al menos una ruta de directorio de particiones es un prefijo de al menos otra ruta de directorio de particiones; por ejemplo, `s3://bucket/table/p=a` es un prefijo de `s3://bucket/table/p=a b`.
  + El primer carácter que sigue al prefijo del otro directorio de particiones tiene un valor UTF-8 inferior al carácter `/` (U\$1002F). Por ejemplo, el carácter de espacio (U\$10020) que aparece entre a y b en `s3://bucket/table/p=a b` entra en esta categoría. Tenga en cuenta que hay otros 14 caracteres que no son de control: `!"#$%&‘()*+,-`. Para más información, consulte [UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/).

  Como solución alternativa a este problema, defina la configuración `spark.sql.sources.fastS3PartitionDiscovery.enabled` como `false` en la clasificación `spark-defaults`.

## Versiones de los componentes de la versión 6.2.0
<a name="emr-620-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.16.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.1.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-notebook-env | 1.0.0 | Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter | 
| emr-s3-dist-cp | 2.16.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.0.0 | Conector S3Select de EMR | 
| emrfs | 2.44.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.11.2 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| flink-jobmanager-config | 1.11.2 | Administración de recursos en nodos EMR para Apache Flink. JobManager | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-2 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-2 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-2 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-2 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-2 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-2 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-2 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-2 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-2 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-2 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-2 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.2.6-amzn-0 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.2.6-amzn-0 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.2.6-amzn-0 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.2.6-amzn-0 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.2.6-amzn-0 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hcatalog-client | 3.1.2-amzn-3 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-3 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.2-amzn-3 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.2-amzn-3 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.2-amzn-3 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-3 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.2-amzn-3 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.6.0-amzn-1 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.6.0-amzn-1 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-prestosql | 0.6.0-amzn-1 | Biblioteca de paquetes para ejecutar PrestoSQL con Hudi. | 
| hudi-spark | 0.6.0-amzn-1 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.8.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| jupyterhub | 1.1.0 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.0-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.7.0 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.64\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 10.1.243 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.0 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.0 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.4.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.0.0- -2.0 HBase | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-query-server | 5.0.0- -2.0 HBase | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.238.3-amzn-1 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.238.3-amzn-1 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.238.3-amzn-1 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| prestosql-coordinator | 343 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre prestosql-workers. | 
| prestosql-worker | 343 | Service para ejecutar partes de una consulta. | 
| prestosql-client | 343 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 3.4.3 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.0.1-amzn-0 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.0.1-amzn-0 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.0.1-amzn-0 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.0.1-amzn-0 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| spark-rapids | 0.2.0 | El complemento Nvidia Spark RAPIDS que acelera Apache Spark con... GPUs | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.3.1 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.9.0-preview1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.4.14 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.4.14 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.2.0
<a name="emr-620-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte [Reconfiguración de un grupo de instancias en un clúster en ejecución](emr-configure-apps-running-cluster.md).


**Clasificaciones de emr-6.2.0**  

| Clasificaciones | Description (Descripción) | Acciones de reconfiguración | 
| --- | --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | Restarts the ResourceManager service. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | Not available. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | Not available. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Cambie la configuración relacionada con el docker. | Not available. | 
| emrfs-site | Cambiar la configuración de EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | Not available. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | Not available. | 
| flink-log4j-yarn-session | Cambie la configuración de Flink log4 j-yarn-session .properties. | Not available. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | Not available. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | Not available. | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | Not available. | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | Cambie los valores en su entorno HBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | Cambie HBase los valores del archivo hbase-policy.xml. | Not available. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | This classification should not be reconfigured. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | Restarts Hadoop HDFS ZKFC. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | Restarts Hive WebHCat server. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | Not available. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | Not available. | 
| hive-env | Cambiar los valores en el entorno de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | Not available. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | Not available. | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | Not available. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | Not available. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | Not available. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | Not available. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | Not available. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | Not available. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | Not available. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | Not available. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | Not available. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | Restarts Livy Server. | 
| livy-env | Cambiar los valores en el entorno de Livy. | Restarts Livy Server. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | Restarts Livy Server. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | Restarts Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | Restarts Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | Restarts Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | Not available. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | Not available. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | Not available. | 
| pig-env | Cambiar los valores en el entorno de Pig. | Not available. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | Restarts Oozie. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | Not available. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Not available. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | Not available. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | Not available. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | Not available. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | Not available. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | Not available. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | Not available. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | Not available. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | Not available. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | Not available. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | Not available. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | Not available. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | Not available. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | Not available. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | Not available. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | Not available. | 
| prestosql-log | Cambiar los valores en el archivo log.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Cambiar los valores en el archivo config.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Cambiar valores en el archivo presto-env.sh de Presto. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | Cambiar los valores en el archivo node.properties de PrestoSQL. | Not available. | 
| prestosql-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de PrestoSQL. | Not available. | 
| prestosql-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de PrestoSQL. | Not available. | 
| prestosql-connector-hive | Cambiar los valores en el archivo hive.properties de PrestoSQL. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | Cambiar los valores en el archivo jmx.properties de PrestoSQL. | Not available. | 
| prestosql-connector-kafka | Cambiar los valores en el archivo kafka.properties de PrestoSQL. | Not available. | 
| prestosql-connector-localfile | Cambiar los valores en el archivo localfile.properties de PrestoSQL. | Not available. | 
| prestosql-connector-memory | Cambiar los valores del archivo memory.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de PrestoSQL. | Not available. | 
| prestosql-connector-mysql | Cambiar los valores en el archivo mysql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de PrestoSQL. | Not available. | 
| prestosql-connector-raptor | Cambiar los valores en el archivo raptor.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redis | Cambiar los valores en el archivo redis.properties de PrestoSQL. | Not available. | 
| prestosql-connector-redshift | Cambiar los valores en el archivo redshift.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpch | Cambiar los valores en el archivo tpch.properties de PrestoSQL. | Not available. | 
| prestosql-connector-tpcds | Cambiar los valores del archivo tpcds.properties de PrestoSQL. | Not available. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | Not available. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | Not available. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Cambiar los valores en el entorno de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | Not available. | 
| spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | Not available. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | Not available. | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | Not available. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | Restart Oozie. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | Restarts Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | Restarts Zookeeper server. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | Restarts Zookeeper server. | 

# Amazon EMR, versión 6.1.1
<a name="emr-611-release"></a>

## Versiones de las aplicaciones de la versión 6.1.1
<a name="emr-611-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notas de la versión 6.1.1
<a name="emr-611-relnotes"></a>

Esta es una versión para solucionar problemas con Amazon EMR Scaling cuando no logra up/scale reducir correctamente un clúster o provoca errores en las aplicaciones.

**Cambios, mejoras y problemas resueltos**
+ Se solucionó un problema por el que las solicitudes de escalado de un clúster grande y muy utilizado fallaban cuando los daemons en el clúster de Amazon EMR ejecutaban actividades de comprobación de estado, como recopilar el estado del nodo de YARN y el estado del nodo de HDFS. Esto se debía a que los daemons en el clúster no podían comunicar los datos del estado de un nodo a los componentes internos de Amazon EMR.
+ Se han mejorado los daemons de EMR en el clúster para realizar un seguimiento correcto de los estados de los nodos cuando se reutilizan las direcciones IP a fin de mejorar la fiabilidad durante las operaciones de escalado.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Se ha corregido un error que provocaba que se produjeran errores en los trabajos durante la reducción vertical del clúster, ya que Spark daba por sentado que todos los nodos disponibles estaban en la lista de denegados.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Se ha corregido un error que provocaba que se produjeran errores en los trabajos debido a una condición de carrera durante la retirada de YARN cuando el clúster intentaba escalarse o reducirse verticalmente.
+ Se ha solucionado el problema que provocaba errores en los pasos o trabajos durante el escalado del clúster al garantizar que los estados de los nodos sean siempre coherentes entre los daemons en el clúster de Amazon EMR y YARN o HDFS.
+ Se ha solucionado un problema por el que las operaciones de clúster, como la reducción vertical y el envío escalonado, fallaban en los clústeres de Amazon EMR habilitados con la autenticación de Kerberos. Esto se debió a que el daemon del clúster de Amazon EMR no renovó el ticket de Kerberos, que es necesario para comunicarse de forma segura con la HDFS/YARN ejecución en el nodo principal.
+ Las versiones más recientes de Amazon EMR solucionan el problema con un límite de «máximo de archivos abiertos» inferior al anterior en AL2 Amazon EMR. Las versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores de Amazon EMR ahora incluyen una corrección permanente con una configuración “Máximo de archivos abiertos” más alta.
+ HTTPS ahora está habilitado de forma predeterminada para los repositorios de Amazon Linux. Si utiliza una política de VPCE de Amazon S3 para restringir el acceso a buckets específicos, debe agregar el nuevo ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` del bucket de Amazon Linux a su política (sustituya `$region` por la región en la que se encuentra el punto de conexión). Para obtener más información, consulte este tema en los foros de AWS debate. [Anuncio: Amazon Linux 2 ahora admite la posibilidad de utilizar HTTPS mientras se conecta a repositorios de paquetes](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

## Versiones de los componentes de la versión 6.1.1
<a name="emr-611-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.1.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.0.0 | Conector S3Select de EMR | 
| emrfs | 2.42.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.11.0 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-1.1 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-1.1 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-1.1 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-1.1 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-1.1 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-1.1 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-1.1 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-1.1 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-1.1 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-1.1 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-1.1 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.2.5 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.2.5 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.2.5 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.2.5 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.2.5 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hcatalog-client | 3.1.2-amzn-2 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-2 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.2-amzn-2 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.2-amzn-2 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.2-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-2 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.2-amzn-2 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.5.2-incubating-amzn-2 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.5.2-incubating-amzn-2 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-prestosql | 0.5.2-incubating-amzn-2 | Biblioteca de paquetes para ejecutar PrestoSQL con Hudi. | 
| hudi-spark | 0.5.2-incubating-amzn-2 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.7.1 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| jupyterhub | 1.1.0 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.0-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.6.0 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.64\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 9.2.88 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.0 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.0 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.3.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.0.0- -2.0 HBase | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-query-server | 5.0.0- -2.0 HBase | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.232 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.232 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.232 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| prestosql-coordinator | 338 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre prestosql-workers. | 
| prestosql-worker | 338 | Service para ejecutar partes de una consulta. | 
| prestosql-client | 338 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 3.4.3 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.0.0-amzn-0.1 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.0.0-amzn-0.1 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.0.0-amzn-0.1 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.0.0-amzn-0.1 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.1.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.9.0-preview1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.4.14 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.4.14 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.1.1
<a name="emr-611-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).


**Clasificaciones de emr-6.1.1**  

| Clasificaciones | Description (Descripción) | 
| --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | 
| emrfs-site | Cambiar la configuración de EMRFS. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | 
| flink-log4j-yarn-session | Cambie la configuración de Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | 
| hbase-env | Cambie los valores en su entorno HBase. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Cambie HBase los valores del archivo hbase-policy.xml. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | 
| hive-env | Cambiar los valores en el entorno de Hive. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | 
| livy-env | Cambiar los valores en el entorno de Livy. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Cambiar los valores en el entorno de Pig. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | 
| prestosql-log | Cambiar los valores en el archivo log.properties de Presto. | 
| prestosql-config | Cambiar los valores en el archivo config.properties de Presto. | 
| prestosql-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | 
| prestosql-env | Cambiar valores en el archivo presto-env.sh de Presto. | 
| prestosql-node | Cambiar los valores en el archivo node.properties de PrestoSQL. | 
| prestosql-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de PrestoSQL. | 
| prestosql-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de PrestoSQL. | 
| prestosql-connector-hive | Cambiar los valores en el archivo hive.properties de PrestoSQL. | 
| prestosql-connector-jmx | Cambiar los valores en el archivo jmx.properties de PrestoSQL. | 
| prestosql-connector-kafka | Cambiar los valores en el archivo kafka.properties de PrestoSQL. | 
| prestosql-connector-localfile | Cambiar los valores en el archivo localfile.properties de PrestoSQL. | 
| prestosql-connector-memory | Cambiar los valores del archivo memory.properties de PrestoSQL. | 
| prestosql-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de PrestoSQL. | 
| prestosql-connector-mysql | Cambiar los valores en el archivo mysql.properties de PrestoSQL. | 
| prestosql-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de PrestoSQL. | 
| prestosql-connector-raptor | Cambiar los valores en el archivo raptor.properties de PrestoSQL. | 
| prestosql-connector-redis | Cambiar los valores en el archivo redis.properties de PrestoSQL. | 
| prestosql-connector-redshift | Cambiar los valores en el archivo redshift.properties de PrestoSQL. | 
| prestosql-connector-tpch | Cambiar los valores en el archivo tpch.properties de PrestoSQL. | 
| prestosql-connector-tpcds | Cambiar los valores del archivo tpcds.properties de PrestoSQL. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | 
| spark-env | Cambiar los valores en el entorno de Spark. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | 
| spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | 

# Amazon EMR, versión 6.1.0
<a name="emr-610-release"></a>

## Versiones de las aplicaciones de la versión 6.1.0
<a name="emr-610-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notas de la versión 6.1.0
<a name="emr-610-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.1.0 de Amazon EMR. Los cambios son respecto a la versión 6.0.0.

Fecha de lanzamiento inicial: 4 de septiembre de 2020

Fecha de la última actualización: 15 de octubre de 2020

**Aplicaciones compatibles**
+ AWS SDK para Java versión 1.11.828
+ Flink, versión 1.11.0
+ Versión de Ganglia 3.7.2
+ Hadoop, versión 3.2.1-amzn-1
+ HBase versión 2.2.5
+ HBase-operator-tools 1.0.0
+ HCatalog versión 3.1.2-amzn-0
+ Hive, versión 3.1.2-amzn-1
+ Hudi versión 0.5.2-incubating
+ Hue versión 4.7.1
+ JupyterHub versión 1.1.0
+ Livy versión 0.7.0
+ MXNet versión 1.6.0
+ Oozie versión 5.2.0
+ Versión de Phoenix 5.0.0
+ Presto, versión 0.232
+ PrestoSQL, versión 338
+ Spark, versión 3.0.0-amzn-0
+ TensorFlow versión 2.1.0
+ Zeppelin, versión 0.9.0-preview1
+ Versión de Zookeeper 3.4.14
+ Conectores y controladores: DynamoDB Connector 4.14.0

**Nuevas características**
+ Los tipos de instancias de ARM se admiten a partir de la versión 5.30.0 de Amazon EMR y la versión 6.1.0 de Amazon EMR.
+ Los tipos de instancia de uso general m6g se admiten a partir de las versiones 6.1.0 y 5.30.0 de Amazon EMR. Para más información, consulte [Tipos de instancias admitidas](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-supported-instance-types.html) en la *Guía de administración de Amazon EMR*.
+ La característica de grupos de ubicación de EC2 se admite a partir de la versión 5.23.0 de Amazon EMR como opción para varios clústeres de nodos principales. Actualmente, la característica de grupos de ubicación solo admite los tipos de nodos principales y la estrategia `SPREAD` se aplica a esos nodos. La estrategia `SPREAD` coloca un pequeño grupo de instancias en un hardware subyacente independiente para evitar la pérdida de varios nodos principales en caso de que se produzca un error de hardware. Para más información, consulte [Integración de EMR con el grupo de ubicación de EC2](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-placementgroup.html) en la *Guía de administración de Amazon EMR*.
+ Escalado administrado: con la versión 6.1.0 de Amazon EMR, puede habilitar el escalado administrado de Amazon EMR para aumentar o disminuir automáticamente el número de instancias o unidades del clúster en función de la carga de trabajo. Amazon EMR evalúa continuamente las métricas del clúster para tomar decisiones de escalado que optimicen los clústeres en cuanto al costo y la velocidad. El escalado administrado también está disponible en la versión 5.30.0 y posteriores de Amazon EMR, excepto 6.0.0. Para más información, consulte [Recursos de escalado de clúster](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scale-on-demand.html) en la *Guía de administración de Amazon EMR*.
+ La versión 338 de PrestoSQL es compatible con EMR 6.1.0. Para más información, consulte [Presto](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html).
  + PrestoSQL solo es compatible con EMR 6.1.0 y versiones posteriores, no con EMR 6.0.0 ni EMR 5.x.
  + El nombre de la aplicación, `Presto`, se sigue utilizando para instalar PrestoDB en los clústeres. Para instalar PrestoSQL en los clústeres, utilice el nombre de la aplicación `PrestoSQL`.
  + Puede instalar PrestoDB o PrestoSQL, pero no puede instalar ambos en un solo clúster. Si se especifican PrestoDB y PrestoSQL al intentar crear un clúster, se produce un error tanto en la validación como en la solicitud de creación del clúster.
  + PrestoSQL es compatible con clústeres de maestro único o multimaestro. En los clústeres multimaestro, se necesita un metaalmacén de Hive externo para ejecutar PrestoSQL o PrestoDB. Consulte [Aplicaciones admitidas en un clúster de EMR con varios nodos principales](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html#emr-plan-ha-applications-list).
+ Soporte de autenticación automática de ECR en Apache Hadoop y Apache Spark con Docker: los usuarios de Spark pueden utilizar imágenes de Docker de Docker Hub y Amazon Elastic Container Registry (Amazon ECR) para definir las dependencias del entorno y la biblioteca.

  [Configuración de Docker](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-docker.html) y [Ejecución de aplicaciones de Spark con Docker mediante Amazon EMR 6.x.](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-docker.html).
+ EMR admite transacciones ACID de Apache Hive: Amazon EMR 6.1.0 agrega compatibilidad con las transacciones ACID de Hive para que cumpla con las propiedades ACID de una base de datos. Con esta característica, puede ejecutar operaciones `INSERT, UPDATE, DELETE,` y `MERGE` en tablas administradas por Hive con datos de Amazon Simple Storage Service (Amazon S3). Se trata de una característica clave para casos de uso como la ingesta de contenido en streaming, la reformulación de datos, las actualizaciones masivas mediante MERGE y los cambios lentos de dimensiones. Para más información, incluidos ejemplos de configuración y casos de uso, consulte [Amazon EMR admite transacciones ACID de Apache Hive](https://aws.amazon.com/blogs/big-data/amazon-emr-supports-apache-hive-acid-transactions).

**Cambios, mejoras y problemas resueltos**
+ Esta es una versión para solucionar problemas con Amazon EMR Scaling cuando no logra up/scale reducir correctamente un clúster o provoca errores en las aplicaciones.
+ Se solucionó un problema por el que las solicitudes de escalado de un clúster grande y muy utilizado fallaban cuando los daemons en el clúster de Amazon EMR ejecutaban actividades de comprobación de estado, como recopilar el estado del nodo de YARN y el estado del nodo de HDFS. Esto se debía a que los daemons en el clúster no podían comunicar los datos del estado de un nodo a los componentes internos de Amazon EMR.
+ Se han mejorado los daemons de EMR en el clúster para realizar un seguimiento correcto de los estados de los nodos cuando se reutilizan las direcciones IP a fin de mejorar la fiabilidad durante las operaciones de escalado.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Se ha corregido un error que provocaba que se produjeran errores en los trabajos durante la reducción vertical del clúster, ya que Spark daba por sentado que todos los nodos disponibles estaban en la lista de denegados.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Se ha corregido un error que provocaba que se produjeran errores en los trabajos debido a una condición de carrera durante la retirada de YARN cuando el clúster intentaba escalarse o reducirse verticalmente.
+ Se ha solucionado el problema que provocaba errores en los pasos o trabajos durante el escalado del clúster al garantizar que los estados de los nodos sean siempre coherentes entre los daemons en el clúster de Amazon EMR y YARN o HDFS.
+ Se ha solucionado un problema por el que las operaciones de clúster, como la reducción vertical y el envío escalonado, fallaban en los clústeres de Amazon EMR habilitados con la autenticación de Kerberos. Esto se debió a que el daemon del clúster de Amazon EMR no renovó el ticket de Kerberos, que es necesario para comunicarse de forma segura con la HDFS/YARN ejecución en el nodo principal.
+ Las versiones más recientes de Amazon EMR solucionan el problema con un límite de «máximo de archivos abiertos» inferior al anterior en AL2 Amazon EMR. Las versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores de Amazon EMR ahora incluyen una corrección permanente con una configuración “Máximo de archivos abiertos” más alta.
+ Apache Flink no es compatible con EMR 6.0.0, pero sí con EMR 6.1.0 con Flink 1.11.0. Esta es la primera versión de Flink que es compatible oficialmente con Hadoop 3. Consulte [Apache Flink 1.11.0 Release Announcement](https://flink.apache.org/news/2020/07/06/release-1.11.0.html).
+ Se ha eliminado Ganglia de los paquetes predeterminados de EMR 6.1.0.

**Problemas conocidos**
+ **Reducir el límite máximo de archivos abiertos en las versiones anteriores AL2 [corregido en las versiones más recientes].** Versiones de Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 y emr-6.2.0 se basan en versiones anteriores de Amazon Linux 2 (), que AL2 tienen una configuración de límite inferior para el «Máximo número de archivos abiertos» cuando los clústeres de Amazon EMR se crean con la AMI predeterminada. Las versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores de Amazon EMR ahora incluyen una corrección permanente con una configuración más alta de “Máximo de archivos abiertos”. Las versiones con el límite inferior de archivos abiertos provocan el error “Demasiados archivos abiertos” al enviar el trabajo de Spark. En las versiones afectadas, la AMI predeterminada de Amazon EMR tiene una configuración de ulimit predeterminada de 4096 para “Máximo de archivos abiertos”, una cantidad inferior al límite de 65 536 archivos de la AMI de Amazon Linux 2 más reciente. La configuración de ulimit inferior para “Máximo de archivos abiertos” provoca un fallo en el trabajo de Spark cuando el controlador y el ejecutor de Spark intentan abrir más de 4096 archivos. Para solucionar el problema, Amazon EMR tiene un script de acciones de arranque (BA) que ajusta la configuración de ulimit al crear el clúster. 

  Si utiliza una versión anterior de Amazon EMR que no tiene una corrección permanente para este problema, la siguiente solución alternativa le permite establecer explícitamente el ulimit del controlador de instancias en un máximo de 65 536 archivos.

**Establecimiento explícito de un ulimit desde la línea de comandos**

  1. Edite `/etc/systemd/system/instance-controller.service` para agregar los siguientes parámetros a la sección de servicio.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Reinicie InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Establecimiento de un ulimit mediante una acción de arranque (BA)**

  También puede usar un script de acciones de arranque (BA) para configurar el ulimit del controlador de instancias en 65 536 archivos al crear el clúster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**importante**  
Amazon EMR 6.1.0 y 6.2.0 incluyen un problema de rendimiento que puede afectar gravemente a todas las operaciones de inserción, upsert y eliminación de Hudi. Si piensa utilizar Hudi con Amazon EMR 6.1.0 o 6.2.0, póngase en AWS contacto con el servicio de asistencia para obtener un RPM de Hudi parcheado.
+ Si establece una configuración de recolección de basura personalizada con `spark.driver.extraJavaOptions` y`spark.executor.extraJavaOptions`, esto provocará un error de driver/executor inicio con EMR 6.1 debido a un conflicto en la configuración de recolección de basura. En su lugar, con la versión 6.1.0 de EMR, debe especificar una configuración personalizada de recopilación de elementos no utilizados de Spark para los controladores y ejecutores con las propiedades `spark.driver.defaultJavaOptions` y `spark.executor.defaultJavaOptions`. Obtenga más información en [Apache Spark Runtime Environment](https://spark.apache.org/docs/latest/configuration.html#runtime-environment) y [Configuración de la recopilación de elementos no utilizados de Spark en Amazon EMR 6.1.0](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-configure.html#spark-gc-config).
+ Al utilizar Pig con Oozie (y dentro de Hue, ya que Hue utiliza las acciones de Oozie para ejecutar scripts de Pig), se genera un error que indica que no se puede cargar una biblioteca lzo nativa. Este mensaje de error es informativo y no impide que Pig se ejecute.
+ Soporte de simultaneidad de Hudi: actualmente, Hudi no admite escrituras simultáneas en una sola tabla de Hudi. Además, Hudi revierte los cambios que estén realizando los escritores en curso antes de permitir que comience un nuevo escritor. Las escrituras simultáneas pueden interferir con este mecanismo e introducir condiciones de carrera, lo que puede provocar la corrupción de los datos. Debe asegurarse de que, como parte de su flujo de trabajo de procesamiento de datos, solo haya un escritor de Hudi trabajando en una tabla de Hudi a la vez. Hudi admite que varios lectores simultáneos trabajen en la misma tabla de Hudi.
+ Problema conocido en clústeres con varios nodos principales y autenticación de Kerberos

  Si ejecuta clústeres con varios nodos principales y autenticación de Kerberos en las versiones 5.20.0 y posteriores de Amazon EMR, es posible que tenga problemas con las operaciones del clúster, como la reducción vertical o el envío escalonado, después de que el clúster se haya estado ejecutando durante algún tiempo. El periodo de tiempo depende del periodo de validez del ticket de Kerberos que se haya definido. El problema de la reducción vertical afecta tanto a las solicitudes de reducción vertical automática como a las solicitudes de reducción vertical explícita que haya enviado. Las operaciones adicionales del clúster también pueden verse afectadas. 

  Solución:
  + SSH como usuario de `hadoop` con el nodo principal líder del clúster de EMR con varios nodos principales.
  +  Ejecute el siguiente comando para renovar el ticket de Kerberos para el usuario de `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Normalmente, el archivo keytab se encuentra en `/etc/hadoop.keytab` y la entidad principal tiene la forma de `hadoop/<hostname>@<REALM>`.
**nota**  
Esta solución alternativa estará en vigor durante el periodo de validez del ticket de Kerberos. Esta duración es de 10 horas de forma predeterminada, pero se puede configurar con los ajustes de Kerberos. Debe volver a ejecutar el comando anterior una vez que venza el ticket de Kerberos.
+ Hay un problema en Amazon EMR 6.1.0 que afecta a los clústeres que ejecutan Presto. Tras un periodo de tiempo prolongado (días), el clúster puede generar errores como “su: no se puede ejecutar /bin/bash: recurso temporalmente no disponible” o “error de la solicitud del intérprete de comandos en el canal 0”. Este problema se debe a un proceso interno de Amazon EMR (InstanceController) que genera demasiados procesos ligeros (LWP), lo que, finalmente, hace que el usuario de Hadoop supere su límite de nproc. Esto impide que el usuario abra procesos adicionales. La solución para este problema consiste en actualizar a EMR 6.2.0.

## Versiones de los componentes de la versión 6.1.0
<a name="emr-610-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.1.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 2.0.0 | Conector S3Select de EMR | 
| emrfs | 2.42.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| flink-client | 1.11.0 | Scripts y aplicaciones de cliente de línea de comando de Apache Flink. | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-1 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-1 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-1 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-1 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-1 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-1 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-1 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-1 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-1 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-1 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-1 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.2.5 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.2.5 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.2.5 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.2.5 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.2.5 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hcatalog-client | 3.1.2-amzn-2 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-2 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.2-amzn-2 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.2-amzn-2 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.2-amzn-2 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-2 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.2-amzn-2 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.5.2-incubating-amzn-2 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.5.2-incubating-amzn-2 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hudi-prestosql | 0.5.2-incubating-amzn-2 | Biblioteca de paquetes para ejecutar PrestoSQL con Hudi. | 
| hudi-spark | 0.5.2-incubating-amzn-2 | Biblioteca de paquetes para ejecutar Spark con Hudi. | 
| hue-server | 4.7.1 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| jupyterhub | 1.1.0 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.7.0-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.6.0 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.64\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 9.2.88 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.2.0 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.2.0 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 4.3.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.0.0- -2.0 HBase | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-query-server | 5.0.0- -2.0 HBase | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.232 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.232 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.232 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| prestosql-coordinator | 338 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre prestosql-workers. | 
| prestosql-worker | 338 | Service para ejecutar partes de una consulta. | 
| prestosql-client | 338 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| pig-client | 0.17.0 | Cliente de línea de comando de Pig. | 
| r | 3.4.3 | Proyecto R para análisis estadístico | 
| ranger-kms-server | 2.0.0 | Sistema de administración de claves Apache Ranger | 
| spark-client | 3.0.0-amzn-0 | Clientes de línea de comando de Spark. | 
| spark-history-server | 3.0.0-amzn-0 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 3.0.0-amzn-0 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 3.0.0-amzn-0 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| sqoop-client | 1.4.7 | Cliente de línea de comando de Apache Sqoop. | 
| tensorflow | 2.1.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.9.0-preview1 | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.4.14 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.4.14 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.1.0
<a name="emr-610-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).


**Clasificaciones de emr-6.1.0**  

| Clasificaciones | Description (Descripción) | 
| --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | 
| emrfs-site | Cambiar la configuración de EMRFS. | 
| flink-conf | Cambiar la configuración de flink-conf.yaml. | 
| flink-log4j | Cambiar la configuración de log4j.properties de Flink. | 
| flink-log4j-yarn-session | Cambie la configuración de Flink log4 j-yarn-session .properties. | 
| flink-log4j-cli | Cambiar la configuración de log4j-cli.properties de Flink. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | 
| hbase-env | Cambie los valores en su entorno HBase. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Cambie HBase los valores del archivo hbase-policy.xml. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | 
| hive-env | Cambiar los valores en el entorno de Hive. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | 
| hudi-env | Cambiar los valores en el entorno de Hudi. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | 
| livy-env | Cambiar los valores en el entorno de Livy. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | 
| pig-env | Cambiar los valores en el entorno de Pig. | 
| pig-properties | Cambiar los valores en el archivo pig.properties de Pig. | 
| pig-log4j | Cambiar los valores en el archivo log4j.properties de Pig. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | 
| prestosql-log | Cambiar los valores en el archivo log.properties de Presto. | 
| prestosql-config | Cambiar los valores en el archivo config.properties de Presto. | 
| prestosql-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | 
| prestosql-env | Cambiar valores en el archivo presto-env.sh de Presto. | 
| prestosql-node | Cambiar los valores en el archivo node.properties de PrestoSQL. | 
| prestosql-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de PrestoSQL. | 
| prestosql-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de PrestoSQL. | 
| prestosql-connector-hive | Cambiar los valores en el archivo hive.properties de PrestoSQL. | 
| prestosql-connector-jmx | Cambiar los valores en el archivo jmx.properties de PrestoSQL. | 
| prestosql-connector-kafka | Cambiar los valores en el archivo kafka.properties de PrestoSQL. | 
| prestosql-connector-localfile | Cambiar los valores en el archivo localfile.properties de PrestoSQL. | 
| prestosql-connector-memory | Cambiar los valores del archivo memory.properties de PrestoSQL. | 
| prestosql-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de PrestoSQL. | 
| prestosql-connector-mysql | Cambiar los valores en el archivo mysql.properties de PrestoSQL. | 
| prestosql-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de PrestoSQL. | 
| prestosql-connector-raptor | Cambiar los valores en el archivo raptor.properties de PrestoSQL. | 
| prestosql-connector-redis | Cambiar los valores en el archivo redis.properties de PrestoSQL. | 
| prestosql-connector-redshift | Cambiar los valores en el archivo redshift.properties de PrestoSQL. | 
| prestosql-connector-tpch | Cambiar los valores en el archivo tpch.properties de PrestoSQL. | 
| prestosql-connector-tpcds | Cambiar los valores del archivo tpcds.properties de PrestoSQL. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | 
| spark-env | Cambiar los valores en el entorno de Spark. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | 
| spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | 
| sqoop-env | Cambiar los valores en el entorno de Sqoop. | 
| sqoop-oraoop-site | Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop | 
| sqoop-site | Cambiar los valores en el archivo sqoop-site.xml de Sqoop. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | 
| zookeeper-config | Cambie los valores en el ZooKeeper archivo zoo.cfg. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | 

# Amazon EMR, versión 6.0.1
<a name="emr-601-release"></a>

## Versiones de las aplicaciones de la versión 6.0.1
<a name="emr-601-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notas de la versión 6.0.1
<a name="emr-601-relnotes"></a>

Esta es una versión para solucionar problemas con Amazon EMR Scaling cuando no logra up/scale reducir correctamente un clúster o provoca errores en las aplicaciones.

**Cambios, mejoras y problemas resueltos**
+ Se solucionó un problema por el que las solicitudes de escalado de un clúster grande y muy utilizado fallaban cuando los daemons en el clúster de Amazon EMR ejecutaban actividades de comprobación de estado, como recopilar el estado del nodo de YARN y el estado del nodo de HDFS. Esto se debía a que los daemons en el clúster no podían comunicar los datos del estado de un nodo a los componentes internos de Amazon EMR.
+ Se han mejorado los daemons de EMR en el clúster para realizar un seguimiento correcto de los estados de los nodos cuando se reutilizan las direcciones IP a fin de mejorar la fiabilidad durante las operaciones de escalado.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Se ha corregido un error que provocaba que se produjeran errores en los trabajos durante la reducción vertical del clúster, ya que Spark daba por sentado que todos los nodos disponibles estaban en la lista de denegados.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Se ha corregido un error que provocaba que se produjeran errores en los trabajos debido a una condición de carrera durante la retirada de YARN cuando el clúster intentaba escalarse o reducirse verticalmente.
+ Se ha solucionado el problema que provocaba errores en los pasos o trabajos durante el escalado del clúster al garantizar que los estados de los nodos sean siempre coherentes entre los daemons en el clúster de Amazon EMR y YARN o HDFS.
+ Se ha solucionado un problema por el que las operaciones de clúster, como la reducción vertical y el envío escalonado, fallaban en los clústeres de Amazon EMR habilitados con la autenticación de Kerberos. Esto se debió a que el daemon del clúster de Amazon EMR no renovó el ticket de Kerberos, que es necesario para comunicarse de forma segura con la HDFS/YARN ejecución en el nodo principal.
+ Las versiones más recientes de Amazon EMR solucionan el problema con un límite de «máximo de archivos abiertos» inferior al anterior en AL2 Amazon EMR. Las versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores de Amazon EMR ahora incluyen una corrección permanente con una configuración “Máximo de archivos abiertos” más alta.
+ HTTPS ahora está habilitado de forma predeterminada para los repositorios de Amazon Linux. Si utiliza una política de VPCE de Amazon S3 para restringir el acceso a buckets específicos, debe agregar el nuevo ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` del bucket de Amazon Linux a su política (sustituya `$region` por la región en la que se encuentra el punto de conexión). Para obtener más información, consulte este tema en los foros de AWS debate. [Anuncio: Amazon Linux 2 ahora admite la posibilidad de utilizar HTTPS mientras se conecta a repositorios de paquetes](https://forums.aws.amazon.com/ann.jspa?annID=8528). 

## Versiones de los componentes de la versión 6.0.1
<a name="emr-601-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.0.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 1.5.0 | Conector S3Select de EMR | 
| emrfs | 2.39.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-0.1 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-0.1 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-0.1 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-0.1 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-0.1 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-0.1 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-0.1 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-0.1 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-0.1 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-0.1 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-0.1 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.2.3 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.2.3 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.2.3 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.2.3 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.2.3 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hcatalog-client | 3.1.2-amzn-0 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-0 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.2-amzn-0 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.2-amzn-0 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-0 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.2-amzn-0 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.5.0-incubating-amzn-1 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.5.0-incubating-amzn-1 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hue-server | 4.4.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| jupyterhub | 1.0.0 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.6.0-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.5.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.64\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 9.2.88 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.1.0 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.1.0 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 3.4.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.0.0- HBase -2.0 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-query-server | 5.0.0- -2.0 HBase | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.230 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.230 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.230 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| r | 3.4.3 | Proyecto R para análisis estadístico | 
| spark-client | 2.4.4 | Clientes de línea de comando de Spark. | 
| spark-history-server | 2.4.4 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 2.4.4 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 2.4.4 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| tensorflow | 1.14.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.9.0-SNAPSHOT | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.4.14 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.4.14 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.0.1
<a name="emr-601-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).


**Clasificaciones de emr-6.0.1**  

| Clasificaciones | Description (Descripción) | 
| --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | 
| emrfs-site | Cambiar la configuración de EMRFS. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | 
| hbase-env | Cambie los valores en su entorno HBase. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Cambie HBase los valores del archivo hbase-policy.xml. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | 
| hive-env | Cambiar los valores en el entorno de Hive. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | 
| livy-env | Cambiar los valores en el entorno de Livy. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | 
| recordserver-env | Cambie los valores en el entorno EMR. RecordServer  | 
| recordserver-conf | Cambie los valores en el archivo erver.properties RecordServer de EMR. | 
| recordserver-log4j | Cambie los valores en el archivo log4j.properties RecordServer de EMR. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | 
| spark-env | Cambiar los valores en el entorno de Spark. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | 
| spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | 
| zookeeper-config | Cambie los valores en ZooKeeper el archivo zoo.cfg. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | 

# Amazon EMR, versión 6.0.0
<a name="emr-600-release"></a>

## Versiones de las aplicaciones de la versión 6.0.0
<a name="emr-600-app-versions"></a>

Esta versión incluye las siguientes aplicaciones: [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/) y [https://zookeeper.apache.org](https://zookeeper.apache.org).

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:
+ [Versiones de las aplicaciones en las versiones 7.x de Amazon EMR](emr-release-app-versions-7.x.md)
+ [Versiones de la aplicación en las versiones 6.x de Amazon EMR](emr-release-app-versions-6.x.md)
+ [Versiones de la aplicación en las versiones 5.x de Amazon EMR](emr-release-app-versions-5.x.md)
+ [Versiones de la aplicación en las versiones 4.x de Amazon EMR](emr-release-app-versions-4.x.md)


**Información sobre la versión de la aplicación**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 5.0.0- -2.0 HBase | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## Notas de la versión 6.0.0
<a name="emr-600-relnotes"></a>

Las siguientes notas de la versión incluyen información sobre la versión 6.0.0 de Amazon EMR.

Fecha de lanzamiento inicial: 10 de marzo de 2020

**Aplicaciones compatibles**
+ AWS SDK para Java versión 1.11.711
+ Versión de Ganglia 3.7.2
+ Versión de Hadoop 3.2.1
+ HBase versión 2.2.3
+ HCatalog versión 3.1.2
+ Versión de Hive 3.1.2
+ Versión de Hudi 0.5.0-incubating
+ Versión de Hue 4.4.0
+ JupyterHub versión 1.0.0
+ Versión de Livy 0.6.0
+ MXNet versión 1.5.1
+ Versión de Oozie 5.1.0
+ Versión de Phoenix 5.0.0
+ Versión de Presto 0.230
+ Versión de Spark 2.4.4
+ TensorFlow versión 1.14.0
+ Versión de Zeppelin 0.9.0-SNAPSHOT
+ Versión de Zookeeper 3.4.14
+ Conectores y controladores: DynamoDB Connector 4.14.0

**nota**  
Flink, Sqoop, Pig y Mahout no están disponibles en la versión 6.0.0 de Amazon EMR. 

**Nuevas características**
+ Soporte de tiempo de ejecución para YARN Docker: las aplicaciones de YARN, como los trabajos de Spark, ahora pueden ejecutarse en el contexto de un contenedor de Docker. Esto le permite definir fácilmente dependencias en una imagen de Docker sin necesidad de instalar bibliotecas personalizadas en su clúster de Amazon EMR. Para más información, consulte [Configurar la integración de Docker](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-docker.html) y [Ejecutar aplicaciones de Spark con Docker mediante Amazon EMR 6.0.0](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-docker.html).
+ Soporte LLAP de Hive: Hive ahora admite el modo de ejecución LLAP para mejorar el rendimiento de las consultas. Para obtener más información, consulte [Uso de Hive LLAP](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hive-llap.html).

**Cambios, mejoras y problemas resueltos**
+ Esta es una versión para solucionar problemas con Amazon EMR Scaling cuando no logra up/scale reducir correctamente un clúster o provoca errores en las aplicaciones.
+ Se solucionó un problema por el que las solicitudes de escalado de un clúster grande y muy utilizado fallaban cuando los daemons en el clúster de Amazon EMR ejecutaban actividades de comprobación de estado, como recopilar el estado del nodo de YARN y el estado del nodo de HDFS. Esto se debía a que los daemons en el clúster no podían comunicar los datos del estado de un nodo a los componentes internos de Amazon EMR.
+ Se han mejorado los daemons de EMR en el clúster para realizar un seguimiento correcto de los estados de los nodos cuando se reutilizan las direcciones IP a fin de mejorar la fiabilidad durante las operaciones de escalado.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Se ha corregido un error que provocaba que se produjeran errores en los trabajos durante la reducción vertical del clúster, ya que Spark daba por sentado que todos los nodos disponibles estaban en la lista de denegados.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). Se ha corregido un error que provocaba que se produjeran errores en los trabajos debido a una condición de carrera durante la retirada de YARN cuando el clúster intentaba escalarse o reducirse verticalmente.
+ Se ha solucionado el problema que provocaba errores en los pasos o trabajos durante el escalado del clúster al garantizar que los estados de los nodos sean siempre coherentes entre los daemons en el clúster de Amazon EMR y YARN o HDFS.
+ Se ha solucionado un problema por el que las operaciones de clúster, como la reducción vertical y el envío escalonado, fallaban en los clústeres de Amazon EMR habilitados con la autenticación de Kerberos. Esto se debió a que el daemon del clúster de Amazon EMR no renovó el ticket de Kerberos, que es necesario para comunicarse de forma segura con la HDFS/YARN ejecución en el nodo principal.
+ Las versiones más recientes de Amazon EMR solucionan el problema con un límite de «máximo de archivos abiertos» inferior al anterior en AL2 Amazon EMR. Las versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores de Amazon EMR ahora incluyen una corrección permanente con una configuración “Máximo de archivos abiertos” más alta.
+ Amazon Linux
  + Amazon Linux 2 es el sistema operativo de la serie de versiones 6.x de EMR.
  + Para la administración de servicios se utiliza `systemd` en lugar de `upstart` que se utilizaba en Amazon Linux 1.
+ Kit de desarrollo de Java (JDK)
  + Corretto JDK 8 es el JDK predeterminado para la serie de versiones de EMR 6.x.
+ Scala
  + Scala 2.12 se utiliza con Apache Spark y Apache Livy.
+ Python 3
  + Python 3 es ahora la versión predeterminada de Python en EMR.
+ Etiquetas de nodo YARN
  + A partir de la serie de versiones 6.x de Amazon EMR, la característica de etiquetas de nodo YARN está desactivada de forma predeterminada. De forma predeterminada, los procesos maestros de la aplicación se pueden ejecutar tanto en nodos principales como en nodos de tareas. Puede habilitar la función de etiquetas de nodo YARN configurando las siguientes propiedades: `yarn.node-labels.enabled` y `yarn.node-labels.am.default-node-label-expression`. Para más información, consulte [Comprensión de los nodos principales, básicos y de tareas](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-master-core-task-nodes.html).

**Problemas conocidos**
+ **Reducir el límite máximo de archivos abiertos en las versiones anteriores AL2 [corregido en las versiones más recientes].** Versiones de Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 y emr-6.2.0 se basan en versiones anteriores de Amazon Linux 2 (), que AL2 tienen una configuración de límite inferior para el «Máximo número de archivos abiertos» cuando los clústeres de Amazon EMR se crean con la AMI predeterminada. Las versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores de Amazon EMR ahora incluyen una corrección permanente con una configuración más alta de “Máximo de archivos abiertos”. Las versiones con el límite inferior de archivos abiertos provocan el error “Demasiados archivos abiertos” al enviar el trabajo de Spark. En las versiones afectadas, la AMI predeterminada de Amazon EMR tiene una configuración de ulimit predeterminada de 4096 para “Máximo de archivos abiertos”, una cantidad inferior al límite de 65 536 archivos de la AMI de Amazon Linux 2 más reciente. La configuración de ulimit inferior para “Máximo de archivos abiertos” provoca un fallo en el trabajo de Spark cuando el controlador y el ejecutor de Spark intentan abrir más de 4096 archivos. Para solucionar el problema, Amazon EMR tiene un script de acciones de arranque (BA) que ajusta la configuración de ulimit al crear el clúster. 

  Si utiliza una versión anterior de Amazon EMR que no tiene una corrección permanente para este problema, la siguiente solución alternativa le permite establecer explícitamente el ulimit del controlador de instancias en un máximo de 65 536 archivos.

**Establecimiento explícito de un ulimit desde la línea de comandos**

  1. Edite `/etc/systemd/system/instance-controller.service` para agregar los siguientes parámetros a la sección de servicio.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. Reinicie InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **Establecimiento de un ulimit mediante una acción de arranque (BA)**

  También puede usar un script de acciones de arranque (BA) para configurar el ulimit del controlador de instancias en 65 536 archivos al crear el clúster.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ El shell interactivo de Spark, que incluye PySpark SparkR y spark-shell, no admite el uso de Docker con bibliotecas adicionales.
+ Para utilizar Python 3 con la versión 6.0.0 de Amazon EMR, debe agregar `PATH` a `yarn.nodemanager.env-whitelist`.
+ La funcionalidad Live Long and Process (LLAP) no se admite cuando se utiliza el catálogo de datos de AWS Glue como metaalmacén de Hive.
+ Al utilizar Amazon EMR 6.0.0 con la integración de Spark y Docker, debe configurar las instancias del clúster con el mismo tipo de instancia y la misma cantidad de volúmenes de EBS para evitar errores al enviar un trabajo de Spark con el tiempo de ejecución de Docker.
+ En Amazon EMR 6.0.0, el modo de almacenamiento de Amazon HBase S3 se ve afectado por el problema del [HBASE-24286](https://issues.apache.org/jira/browse/HBASE-24286). HBase el maestro no se puede inicializar cuando se crea el clúster con los datos de S3 existentes.
+ Problema conocido en clústeres con varios nodos principales y autenticación de Kerberos

  Si ejecuta clústeres con varios nodos principales y autenticación de Kerberos en las versiones 5.20.0 y posteriores de Amazon EMR, es posible que tenga problemas con las operaciones del clúster, como la reducción vertical o el envío escalonado, después de que el clúster se haya estado ejecutando durante algún tiempo. El periodo de tiempo depende del periodo de validez del ticket de Kerberos que se haya definido. El problema de la reducción vertical afecta tanto a las solicitudes de reducción vertical automática como a las solicitudes de reducción vertical explícita que haya enviado. Las operaciones adicionales del clúster también pueden verse afectadas. 

  Solución:
  + SSH como usuario de `hadoop` con el nodo principal líder del clúster de EMR con varios nodos principales.
  +  Ejecute el siguiente comando para renovar el ticket de Kerberos para el usuario de `hadoop`. 

    ```
    kinit -kt <keytab_file> <principal>
    ```

    Normalmente, el archivo keytab se encuentra en `/etc/hadoop.keytab` y la entidad principal tiene la forma de `hadoop/<hostname>@<REALM>`.
**nota**  
Esta solución alternativa estará en vigor durante el periodo de validez del ticket de Kerberos. Esta duración es de 10 horas de forma predeterminada, pero se puede configurar con los ajustes de Kerberos. Debe volver a ejecutar el comando anterior una vez que venza el ticket de Kerberos.

## Versiones de los componentes de la versión 6.0.0
<a name="emr-600-components"></a>

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de macrodatos. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con `emr` o `aws`. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato `CommunityVersion-amzn-EmrVersion`. La `EmrVersion` empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado `myapp-component` con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será `2.2-amzn-2`.


| Componente | Versión | Description (Descripción) | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | SDK de Amazon SageMaker Spark | 
| emr-ddb | 4.14.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. | 
| emr-goodies | 3.0.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. | 
| emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. | 
| emr-s3-dist-cp | 2.14.0 | Aplicación de copia distribuida optimizada para Amazon S3. | 
| emr-s3-select | 1.5.0 | Conector S3Select de EMR | 
| emrfs | 2.39.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. | 
| ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. | 
| ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. | 
| ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. | 
| hadoop-client | 3.2.1-amzn-0 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". | 
| hadoop-hdfs-datanode | 3.2.1-amzn-0 | Servicio de nivel de nodos de HDFS para el almacenamiento de bloques. | 
| hadoop-hdfs-library | 3.2.1-amzn-0 | Biblioteca y cliente de línea de comandos HDFS | 
| hadoop-hdfs-namenode | 3.2.1-amzn-0 | Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones. | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-0 | Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad. | 
| hadoop-httpfs-server | 3.2.1-amzn-0 | Punto de enlace HTTP para operaciones HDFS. | 
| hadoop-kms-server | 3.2.1-amzn-0 | Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider  | 
| hadoop-mapred | 3.2.1-amzn-0 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce  | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-0 | Servicio de YARN para la administración de contenedores en un nodo individual. | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-0 | Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas. | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-0 | Servicio para recuperar información actual e histórica para aplicaciones de YARN. | 
| hbase-hmaster | 2.2.3 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. | 
| hbase-region-server | 2.2.3 | Servicio para prestar servicio a una o más HBase regiones. | 
| hbase-client | 2.2.3 | HBase cliente de línea de comandos. | 
| hbase-rest-server | 2.2.3 | Servicio que proporciona un punto final RESTful HTTP para. HBase | 
| hbase-thrift-server | 2.2.3 | Servicio que proporciona un punto final de Thrift para HBase. | 
| hcatalog-client | 3.1.2-amzn-0 | El cliente de línea de comando "hcat" para manipular hcatalog-server. | 
| hcatalog-server | 3.1.2-amzn-0 | Prestación de servicios HCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. | 
| hcatalog-webhcat-server | 3.1.2-amzn-0 | Punto final HTTP que proporciona una interfaz REST para HCatalog. | 
| hive-client | 3.1.2-amzn-0 | Cliente de línea de comando de Hive. | 
| hive-hbase | 3.1.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 3.1.2-amzn-0 | Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop. | 
| hive-server2 | 3.1.2-amzn-0 | Servicio para aceptar consultas de Hive como solicitudes web. | 
| hudi | 0.5.0-incubating-amzn-1 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. | 
| hudi-presto | 0.5.0-incubating-amzn-1 | Biblioteca de paquetes para ejecutar Presto con Hudi. | 
| hue-server | 4.4.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop | 
| jupyterhub | 1.0.0 | Servidor multiusuario para blocs de notas Jupyter | 
| livy-server | 0.6.0-incubating | Interfaz de REST para interactuar con Apache Spark | 
| nginx | 1.12.1 | nginx [engine x] es un servidor HTTP y proxy inverso | 
| mxnet | 1.5.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. | 
| mariadb-server | 5.5.64\$1 | Servidor de base de datos de MariaDB. | 
| nvidia-cuda | 9.2.88 | Controladores Nvidia y conjunto de herramientas Cuda | 
| oozie-client | 5.1.0 | Cliente de línea de comando de Oozie. | 
| oozie-server | 5.1.0 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. | 
| opencv | 3.4.0 | Biblioteca de visión artificial de código abierto. | 
| phoenix-library | 5.0.0- HBase -2.0 | Las bibliotecas de Phoenix para servidor y cliente | 
| phoenix-query-server | 5.0.0- -2.0 HBase | Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica  | 
| presto-coordinator | 0.230 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. | 
| presto-worker | 0.230 | Service para ejecutar partes de una consulta. | 
| presto-client | 0.230 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. | 
| r | 3.4.3 | Proyecto R para análisis estadístico | 
| spark-client | 2.4.4 | Clientes de línea de comando de Spark. | 
| spark-history-server | 2.4.4 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. | 
| spark-on-yarn | 2.4.4 | Motor de ejecución en memoria para YARN. | 
| spark-yarn-slave | 2.4.4 | Bibliotecas de Apache Spark necesarias para esclavos de YARN. | 
| tensorflow | 1.14.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. | 
| tez-on-yarn | 0.9.2 | La aplicación YARN de tez y bibliotecas. | 
| webserver | 2.4.41\$1 | Servidor HTTP de Apache. | 
| zeppelin-server | 0.9.0-SNAPSHOT | Bloc de notas basado en web que permite el análisis de datos interactivo. | 
| zookeeper-server | 3.4.14 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. | 
| zookeeper-client | 3.4.14 | ZooKeeper cliente de línea de comandos. | 

## Clasificaciones de configuración de la versión 6.0.0
<a name="emr-600-class"></a>

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, `hive-site.xml`. Para obtener más información, consulte [Configuración de aplicaciones](emr-configure-apps.md).


**Clasificaciones de emr-6.0.0**  

| Clasificaciones | Description (Descripción) | 
| --- | --- | 
| capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | 
| container-executor | Cambie los valores en el archivo container-executor.cfg de Hadoop YARN. | 
| container-log4j | Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN. | 
| core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | 
| emrfs-site | Cambiar la configuración de EMRFS. | 
| hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | 
| hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | 
| hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | 
| hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | 
| hbase | Configuraciones seleccionadas por Amazon EMR para Apache. HBase | 
| hbase-env | Cambie los valores en su entorno HBase. | 
| hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | 
| hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | 
| hbase-policy | Cambie HBase los valores del archivo hbase-policy.xml. | 
| hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | 
| hdfs-encryption-zones | Configurar zonas de cifrado de HDFS. | 
| hdfs-env | Cambiar los valores en el entorno de HDFS. | 
| hdfs-site | Cambiar los valores en hdfs-site.xml de HDFS. | 
| hcatalog-env | Cambie los valores en HCatalog el entorno. | 
| hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | 
| hcatalog-server-proto-hive-site | Cambie los valores en .xml HCatalog. proto-hive-site | 
| hcatalog-webhcat-env | Cambie los valores en el entorno HCat de la HCatalog Web. | 
| hcatalog-webhcat-log4j2 | Cambie los valores en las propiedades HCatalog HCat log4j2.properties de la Web. | 
| hcatalog-webhcat-site | Cambie los valores del archivo webhcat-site.xml de la HCatalog WebHCat. | 
| hive | Configuración de Amazon EMR mantenida para Apache Hive. | 
| hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | 
| hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | 
| hive-env | Cambiar los valores en el entorno de Hive. | 
| hive-exec-log4j2 | Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive. | 
| hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | 
| hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | 
| hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | 
| hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | 
| hue-ini | Cambiar los valores en el archivo ini de Hue | 
| httpfs-env | Cambiar los valores en el entorno de HTTPFS. | 
| httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | 
| hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | 
| hadoop-kms-env | Cambiar los valores en el entorno de Hadoop KMS. | 
| hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | 
| hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | 
| jupyter-notebook-conf | Cambiar los valores en el archivo jupyter\$1notebook\$1config.py de Jupyter Notebook. | 
| jupyter-hub-conf | Cambie los valores en JupyterHubs el archivo jupyterhub\$1config.py. | 
| jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | 
| jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | 
| livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | 
| livy-env | Cambiar los valores en el entorno de Livy. | 
| livy-log4j | Cambiar la configuración de log4j.properties de Livy. | 
| mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | 
| mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | 
| oozie-env | Cambiar los valores en el entorno de Oozie. | 
| oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | 
| oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | 
| phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | 
| phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | 
| phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | 
| phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | 
| presto-log | Cambiar los valores en el archivo log.properties de Presto. | 
| presto-config | Cambiar los valores en el archivo config.properties de Presto. | 
| presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | 
| presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | 
| presto-node | Cambiar valores en el archivo node.properties de Presto. | 
| presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | 
| presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | 
| presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | 
| presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | 
| presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | 
| presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | 
| presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | 
| presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | 
| presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | 
| presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | 
| presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | 
| presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | 
| presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | 
| presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | 
| presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | 
| ranger-kms-dbks-site | Cambie los valores del archivo dbks-site.xml de Ranger KMS. | 
| ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS. | 
| ranger-kms-env | Cambie los valores del entorno Ranger KMS. | 
| ranger-kms-log4j | Cambie los valores del archivo kms-log4j.properties de Ranger KMS. | 
| ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS. | 
| recordserver-env | Cambie los valores en el entorno EMR. RecordServer  | 
| recordserver-conf | Cambie los valores en el archivo erver.properties RecordServer de EMR. | 
| recordserver-log4j | Cambie los valores en el archivo log4j.properties RecordServer de EMR. | 
| spark | Configuración de Amazon EMR mantenida para Apache Spark. | 
| spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | 
| spark-env | Cambiar los valores en el entorno de Spark. | 
| spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | 
| spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | 
| spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | 
| tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | 
| yarn-env | Cambiar los valores en el entorno de YARN. | 
| yarn-site | Cambiar los valores en el archivo yarn-site.xml de YARN. | 
| zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | 
| zookeeper-config | Cambie los valores en ZooKeeper el archivo zoo.cfg. | 
| zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. | 