

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# Amazon EMR 5.x 發行版本
<a name="emr-release-5x"></a>

本章節包含各 Amazon EMR 5.x 發行版本中提供的應用程式版本、版本備註、元件版本和組態分類。

您在啟動叢集時，可以在 Amazon EMR 的許多版本之間做選擇。如此可讓您進行測試，使用最符合您的相容性需求的應用程式版本。您可以使用*發行標籤*指定版本編號。發行標籤的格式應為 `emr-x.x.x`。例如 `emr-7.12.0`。

從初始版本日期的第一個區域開始，新的 Amazon EMR 版本將在幾天內在不同區域推出。在此期間，您所在區域可能無法使用最新版本。

如需檢視每個 Amazon EMR 5.x 版之應用程式的完整資料表，請參閱 [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)。

**Topics**
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 5.36.2 版](emr-5362-release.md)
+ [Amazon EMR 5.36.1 版](emr-5361-release.md)
+ [Amazon EMR 5.36.0 版](emr-5360-release.md)
+ [Amazon EMR 5.35.0 版](emr-5350-release.md)
+ [Amazon EMR 5.34.0 版](emr-5340-release.md)
+ [Amazon EMR 5.33.1 版](emr-5331-release.md)
+ [Amazon EMR 5.33.0 版](emr-5330-release.md)
+ [Amazon EMR 5.32.1 版](emr-5321-release.md)
+ [Amazon EMR 5.32.0 版](emr-5320-release.md)
+ [Amazon EMR 5.31.1 版](emr-5311-release.md)
+ [Amazon EMR 5.31.0 版](emr-5310-release.md)
+ [Amazon EMR 5.30.2 版](emr-5302-release.md)
+ [Amazon EMR 5.30.1 版](emr-5301-release.md)
+ [Amazon EMR 5.30.0 版](emr-5300-release.md)
+ [Amazon EMR 5.29.0 版](emr-5290-release.md)
+ [Amazon EMR 5.28.1 版](emr-5281-release.md)
+ [Amazon EMR 5.28.0 版](emr-5280-release.md)
+ [Amazon EMR 5.27.1 版](emr-5271-release.md)
+ [Amazon EMR 5.27.0 版](emr-5270-release.md)
+ [Amazon EMR 5.26.0 版](emr-5260-release.md)
+ [Amazon EMR 5.25.0 版](emr-5250-release.md)
+ [Amazon EMR 5.24.1 版](emr-5241-release.md)
+ [Amazon EMR 5.24.0 版](emr-5240-release.md)
+ [Amazon EMR 5.23.1 版](emr-5231-release.md)
+ [Amazon EMR 5.23.0 版](emr-5230-release.md)
+ [Amazon EMR 5.22.0 版](emr-5220-release.md)
+ [Amazon EMR 5.21.2 版](emr-5212-release.md)
+ [Amazon EMR 5.21.1 版](emr-5211-release.md)
+ [Amazon EMR 5.21.0 版](emr-5210-release.md)
+ [Amazon EMR 5.20.1 版](emr-5201-release.md)
+ [Amazon EMR 5.20.0 版](emr-5200-release.md)
+ [Amazon EMR 5.19.1 版](emr-5191-release.md)
+ [Amazon EMR 5.19.0 版](emr-5190-release.md)
+ [Amazon EMR 5.18.1 版](emr-5181-release.md)
+ [Amazon EMR 5.18.0 版](emr-5180-release.md)
+ [Amazon EMR 5.17.2 版](emr-5172-release.md)
+ [Amazon EMR 5.17.1 版](emr-5171-release.md)
+ [Amazon EMR 5.17.0 版](emr-5170-release.md)
+ [Amazon EMR 5.16.1 版](emr-5161-release.md)
+ [Amazon EMR 5.16.0 版](emr-5160-release.md)
+ [Amazon EMR 5.15.1 版](emr-5151-release.md)
+ [Amazon EMR 5.15.0 版](emr-5150-release.md)
+ [Amazon EMR 5.14.2 版](emr-5142-release.md)
+ [Amazon EMR 5.14.1 版](emr-5141-release.md)
+ [Amazon EMR 5.14.0 版](emr-5140-release.md)
+ [Amazon EMR 5.13.1 版](emr-5131-release.md)
+ [Amazon EMR 5.13.0 版](emr-5130-release.md)
+ [Amazon EMR 5.12.3 版](emr-5123-release.md)
+ [Amazon EMR 5.12.2 版](emr-5122-release.md)
+ [Amazon EMR 5.12.1 版](emr-5121-release.md)
+ [Amazon EMR 5.12.0 版](emr-5120-release.md)
+ [Amazon EMR 5.11.4 版](emr-5114-release.md)
+ [Amazon EMR 5.11.3 版](emr-5113-release.md)
+ [Amazon EMR 5.11.2 版](emr-5112-release.md)
+ [Amazon EMR 5.11.1 版](emr-5111-release.md)
+ [Amazon EMR 5.11.0 版](emr-5110-release.md)
+ [Amazon EMR 5.10.1 版](emr-5101-release.md)
+ [Amazon EMR 5.10.0 版](emr-5100-release.md)
+ [Amazon EMR 5.9.1 版](emr-591-release.md)
+ [Amazon EMR 5.9.0 版](emr-590-release.md)
+ [Amazon EMR 5.8.3 版](emr-583-release.md)
+ [Amazon EMR 5.8.2 版](emr-582-release.md)
+ [Amazon EMR 5.8.1 版](emr-581-release.md)
+ [Amazon EMR 5.8.0 版](emr-580-release.md)
+ [Amazon EMR 5.7.1 版](emr-571-release.md)
+ [Amazon EMR 5.7.0 版](emr-570-release.md)
+ [Amazon EMR 5.6.1 版](emr-561-release.md)
+ [Amazon EMR 5.6.0 版](emr-560-release.md)
+ [Amazon EMR 5.5.4 版](emr-554-release.md)
+ [Amazon EMR 5.5.3 版](emr-553-release.md)
+ [Amazon EMR 5.5.2 版](emr-552-release.md)
+ [Amazon EMR 5.5.1 版](emr-551-release.md)
+ [Amazon EMR 5.5.0 版](emr-550-release.md)
+ [Amazon EMR 5.4.1 版](emr-541-release.md)
+ [Amazon EMR 5.4.0 版](emr-540-release.md)
+ [Amazon EMR 5.3.2 版](emr-532-release.md)
+ [Amazon EMR 5.3.1 版](emr-531-release.md)
+ [Amazon EMR 5.3.0 版](emr-530-release.md)
+ [Amazon EMR 5.2.3 版](emr-523-release.md)
+ [Amazon EMR 5.2.2 版](emr-522-release.md)
+ [Amazon EMR 5.2.1 版](emr-521-release.md)
+ [Amazon EMR 5.2.0 版](emr-520-release.md)
+ [Amazon EMR 5.1.1 版](emr-511-release.md)
+ [Amazon EMR 5.1.0 版](emr-510-release.md)
+ [Amazon EMR 5.0.3 版](emr-503-release.md)
+ [Amazon EMR 5.0.2 版](emr-502-release.md)
+ [Amazon EMR 5.0.1 版](emr-501-release.md)
+ [Amazon EMR 5.0.0 版](emr-500-release.md)

# Amazon EMR 5.x 版之應用程式版本
<a name="emr-release-app-versions-5.x"></a>

下表列出了每個 Amazon EMR 5.x 版中可用之應用程式版本。


**應用程式版本資訊**  

|  | emr-5.36.2 | emr-5.36.1 | emr-5.36.0 | emr-5.35.0 | emr-5.34.0 | emr-5.33.1 | emr-5.33.0 | emr-5.32.1 | emr-5.32.0 | emr-5.31.1 | emr-5.31.0 | emr-5.30.2 | emr-5.30.1 | emr-5.30.0 | emr-5.29.0 | emr-5.28.1 | emr-5.28.0 | emr-5.27.1 | emr-5.27.0 | emr-5.26.0 | emr-5.25.0 | emr-5.24.1 | emr-5.24.0 | emr-5.23.1 | emr-5.23.0 | emr-5.22.0 | emr-5.21.2 | emr-5.21.1 | emr-5.21.0 | emr-5.20.1 | emr-5.20.0 | emr-5.19.1 | emr-5.19.0 | emr-5.18.1 | emr-5.18.0 | emr-5.17.2 | emr-5.17.1 | emr-5.17.0 | emr-5.16.1 | emr-5.16.0 | emr-5.15.1 | emr-5.15.0 | emr-5.14.2 | emr-5.14.1 | emr-5.14.0 | emr-5.13.1 | emr-5.13.0 | emr-5.12.3 | emr-5.12.2 | emr-5.12.1 | emr-5.12.0 | emr-5.11.4 | emr-5.11.3 | emr-5.11.2 | emr-5.11.1 | emr-5.11.0 | emr-5.10.1 | emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | emr-5.8.2 | emr-5.8.1 | emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | emr-5.6.0 | emr-5.5.4 | emr-5.5.3 | emr-5.5.2 | emr-5.5.1 | emr-5.5.0 | emr-5.4.1 | emr-5.4.0 | emr-5.3.2 | emr-5.3.1 | emr-5.3.0 | emr-5.2.3 | emr-5.2.2 | emr-5.2.1 | emr-5.2.0 | emr-5.1.1 | emr-5.1.0 | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 206 年 12 月 1 日 | 206 年 12 月 1 日 | 206 年 12 月 1 日 | 1.12.159 | 1.11.970 | 1.11.970 | 1.11.970 | 1.11.890 | 1.11.890 | 1.11.852 | 1.11.852 | 1.11.759 | 1.11.759 | 1.11.759 | 1.11.682 | 1.11.659 | 1.11.659 | 1.11.615 | 1.11.615 | 1.11.595 | 1.11.566 | 1.11.546 | 1.11.546 | 1.11.519 | 1.11.519 | 1.11.510 | 1.11.479 | 1.11.479 | 1.11.479 | 1.11.461 | 1.11.461 | 1.11.433 | 1.11.433 | 1.11.393 | 1.11.393 | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.333 | 1.11.333 | 1.11.297 | 1.11.297 | 1.11.297 | 1.11.297 | 1.11.297 | 1.11.267 | 1.11.267 | 1.11.267 | 1.11.267 | 1.11.238 | 1.11.238 | 1.11.238 | 1.11.238 | 1.11.238 | 1.11.221 | 1.11.221 | 1.11.183 | 1.11.183 | 1.11.160 | 1.11.160 | 1.11.160 | 1.11.160 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.2 | 1.14.2 | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 1.10.0 | 1.10.0 | 1.10.0 | 1.9.1 | 1.9.0 | 1.9.0 | 1.8.1 | 1.8.1 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.1 | 1.7.1 | 1.7.1 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.2 | 1.6.2 | 1.6.1 | 1.6.1 | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.2 | 1.5.2 | 1.5.0 | 1.5.0 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.1 | 1.2.1 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.4 | 1.1.4 | 1.1.4 | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 149 | 149 | 149 | 149 | 149 | 149 | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.5.2-incubating | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 4.6.0 | 4.6.0 | 4.6.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.267-amzn-1 | 0.267-amzn-1 | 0.267-amzn-1 | 0.266-amzn-0 | 0.261-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 0.232 | 0.232 | 0.232 | 0.227 | 0.227 | 0.227 | 0.224 | 0.224 | 0.220 | 0.220 | 0.219 | 0.219 | 0.215 | 0.215 | 0.215 | 0.215 | 0.215 | 0.215 | 0.214 | 0.214 | 0.212 | 0.212 | 0.210 | 0.210 | 0.206 | 0.206 | 0.206 | 0.203 | 0.203 | 0.194 | 0.194 | 0.194 | 0.194 | 0.194 | 0.194 | 0.194 | 0.188 | 0.188 | 0.188 | 0.188 | 0.187 | 0.187 | 0.187 | 0.187 | 0.187 | 0.187 | 0.187 | 0.184 | 0.184 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.166 | 0.166 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.152.3 | 0.152.3 | 0.152.3 | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.3 | 2.4.3 | 2.4.2 | 2.4.2 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.1 | 2.0.1 | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.13.1 | 1.13.1 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.11.0 | 1.11.0 | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.0 | 0.7.0 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

# Amazon EMR 5.36.2 版
<a name="emr-5362-release"></a>

## 5.36.2 應用程式版本
<a name="emr-5362-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/)、、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、、、[http://pig.apache.org/](http://pig.apache.org/)[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、[https://www.tensorflow.org/](https://www.tensorflow.org/)、、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.36.2 | emr-5.36.1 | emr-5.36.0 | emr-5.35.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 206 年 12 月 1 日 | 206 年 12 月 1 日 | 206 年 12 月 1 日 | 1.12.159 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.2 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 
| Hudi | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-1 | 0.267-amzn-1 | 0.267-amzn-1 | 0.266-amzn-0 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.36.2 版本備註
<a name="emr-5362-relnotes"></a>

下列版本備註包含 Amazon EMR 5.36.2 版的資訊。變更是相對於 5.36.1 版而言。如需有關發行時間表的資訊，請參閱 [變更日誌](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-5362-release.html#5362-changelog)。

**變更、強化功能和已解決的問題**
+ 此版本改善了叢集縮減邏輯，使得 Amazon EMR 不會將核心節點縮減至低於叢集的 HDFS 複寫因素設定。這項改善可滿足資料備援需求，並降低擴展操作可能停止的機會。
+ 此版本為叢集擴展工作流程新增一種重試機制，以用於執行 Presto 或 Trino 的 EMR 叢集。這項改善可降低叢集調整大小因單一調整大小操作失敗而無限期執行的風險。它還提高了叢集使用率，因為您的叢集可以更快地擴增與縮減規模。
+ 修正叢集縮減操作可能會在 Amazon EMR 正常停用核心節點時停止運作，並在完全停用之前變成運作狀態不佳的問題。
+ 當 Amazon EMR 重新啟動單一節點時，改善具有多個主節點之高可用性叢集中節點的穩定性。
+ 使用在 Amazon EC2 上執行的 Amazon EMR 最佳化日誌管理。因此，您可能發現叢集日誌的儲存成本略微降低。
+ 改善主節點上維護的 ZooKeeper 交易日誌檔案的管理，將日誌檔案超出界限並中斷叢集操作的情況降至最低。
+ 修正因無法與 Yarn ResourceManager 通訊而導致具有多個主節點的高可用性叢集失敗的罕見錯誤。
+ 當您啟動具有 **Amazon EMR 5.36 或更高版本、6.6 或更高版本，或 7.0 或更高版本的叢集時，Amazon EMR 會使用預設 Amazon EMR AMI 的最新 Amazon Linux 2023 或 Amazon Linux 2 版本。如需詳細資訊，請參閱[使用預設 Amazon Linux AMI for Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)。    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/emr/latest/ReleaseGuide/emr-5362-release.html)

## 5.36.2 元件版本
<a name="emr-5362-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.16.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-notebook-env | 1.5.0 | 適用於 emr 筆記本的 Conda env，前者包含 Jupyter Enterprise Gateway | 
| emr-s3-dist-cp | 2.21.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.7.0 | EMR S3Select Connector | 
| emrfs | 2.51.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.14.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| flink-jobmanager-config | 1.14.2 | 管理 Apache Flink JobManager 的 EMR 節點上的資源。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.10.1-amzn-4 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-4 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.10.1-amzn-4 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-4 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-4 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.10.1-amzn-4 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.10.1-amzn-4 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.10.1-amzn-4 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-4 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-4 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-4 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.9-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.9-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.9-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.9-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.9-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.9-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.9-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.10.1-amzn-1 | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-spark | 0.10.1-amzn-1 | 用於使用 Hudi 執行 Spark 的套件程式庫。 | 
| hudi-presto | 0.10.1-amzn-1 | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.10.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.4.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.1-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.13.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.8.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.68 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 11.0.194 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.1 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.1 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 4.5.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.267-amzn-1 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.267-amzn-1 | 執行查詢各部分的服務。 | 
| presto-client | 0.267-amzn-1 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 4.0.2 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.8-amzn-2 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.8-amzn-2 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.8-amzn-2 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.8-amzn-2 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 2.4.1 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.10.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.36.2 組態分類
<a name="emr-5362-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。

當您為執行中叢集的執行個體群組指定組態時，就會發生重新設定動作。Amazon EMR 只會為您修改的分類啟動重新設定動作。如需詳細資訊，請參閱[重新設定執行中叢集中的執行個體群組](emr-configure-apps-running-cluster.md)。


**emr-5.36.2 分類**  

| 分類 | Description | 重新設定動作 | 
| --- | --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | Restarts the ResourceManager service. | 
| container-executor | 在 Hadoop YARN 的 container-executor.cfg 檔案中變更值。 | Not available. | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | Not available. | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | 變更 Docker 相關設定。 | Not available. | 
| emrfs-site | 變更 EMRFS 設定。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | 變更 flink-conf.yaml 設定。 | Restarts Flink history server. | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | Restarts Flink history server. | 
| flink-log4j-session | 變更 Kubernetes/Yarn 工作階段的 Flink log4j-session.properties 設定。 | Not available. | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | Restarts Flink history server. | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | Not available. | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | Not available. | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | 變更 HBase 環境中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | Not available. | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | Should not be reconfigured. | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | Not available. | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | Not available. | 
| hive-env | 變更 Hive 環境中的值。 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | Not available. | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | Not available. | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | Not available. | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | Restarts Hadoop Httpfs service. | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | Not available. | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | Not available. | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | 變更 Hudi 環境中的值。 | Not available. | 
| hudi-defaults | 變更 Hudi 的 hudi-defaults.conf 檔案中的值。 | Not available. | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | Not available. | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | Not available. | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | Not available. | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | Not available. | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | Restarts Livy Server. | 
| livy-env | 變更 Livy 環境中的值。 | Restarts Livy Server. | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | Restarts Livy Server. | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | 變更 Oozie 環境中的值。 | Restarts Oozie. | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | Restarts Oozie. | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | Restarts Oozie. | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Not available. | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | Not available. | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | Not available. | 
| pig-env | 在 Pig 環境中變更值。 | Not available. | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | Restarts Oozie. | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | Not available. | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | Not available. | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | Restarts Presto-Server. | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | Not available. | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | Not available. | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | Not available. | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | Not available. | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | Not available. | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | Not available. | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | Not available. | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | Not available. | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | Not available. | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | Not available. | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | Not available. | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | Not available. | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | Not available. | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | Not available. | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | Not available. | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | Not available. | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | Not available. | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | Restarts EMR record server. | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | Restarts EMR record server. | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | Restarts EMR record server. | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | This property modifies spark-defaults. See actions there. | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-env | 變更 Spark 環境中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | Not available. | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | 變更 Sqoop 環境中的值。 | Not available. | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | Not available. | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | Not available. | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | Restarts Oozie. | 
| yarn-env | 變更 YARN 環境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | Restarts Zeppelin. | 
| zeppelin-site | 變更 zeppelin-site.xml 中的組態設定。 | Restarts Zeppelin. | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | Restarts Zookeeper server. | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | Restarts Zookeeper server. | 

## 5.36.2 變更日誌
<a name="5362-changelog"></a>


**5.36.2 版本和版本備註的變更日誌**  

| Date | 事件 | Description | 
| --- | --- | --- | 
| 2024-05-28 | 部署完成 | Amazon EMR 5.36.2 完全部署到所有[支援的區域](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2024-05-28 | 文件出版 | Amazon EMR 5.36.2 版本備註首次發佈 | 
| 2024-05-20 | 初始版本 | Amazon EMR 5.36.2 首次部署到有限的商業區域 | 

# Amazon EMR 5.36.1 版
<a name="emr-5361-release"></a>

## 5.36.1 應用程式版本
<a name="emr-5361-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/)、、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、、、[http://pig.apache.org/](http://pig.apache.org/)[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、[https://www.tensorflow.org/](https://www.tensorflow.org/)、、、[https://tez.apache.org/](https://tez.apache.org/)、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.36.1 | emr-5.36.0 | emr-5.35.0 | emr-5.34.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 206 年 12 月 1 日 | 206 年 12 月 1 日 | 1.12.159 | 1.11.970 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.2 | 1.13.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 
| Hudi | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-1 | 0.267-amzn-1 | 0.266-amzn-0 | 0.261-amzn-0 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.36.1 版本備註
<a name="emr-5361-relnotes"></a>

以下版本備註包含 Amazon EMR 5.36.1 版的資訊。變更是相對於 5.36.0 版而言。如需有關發行時間表的資訊，請參閱 [變更日誌](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-5361-release.html#5361-changelog)。

**變更、強化功能和已解決的問題**
+ Amazon EMR 5.36.1 版新增支援在叢集縮減規模期間將日誌封存到 Amazon S3。在先前的 5.x 版本中，您只能在叢集終止期間將日誌檔案封存到 Amazon S3。此項改進可確保即使在節點終止後，叢集上產生的日誌檔案仍保留在 Amazon S3 上。如需詳細資訊，請參閱[設定叢集日誌記錄和偵錯](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html)。
+ 5.36.1 版本改進了叢集上的日誌管理常駐程式，以便在 EMR 叢集上監控更多日誌資料夾。這項改進可最大限度減少磁碟過度使用問題。
+ 5.36.1 版本會在叢集上的日誌管理常駐程式停止時自動重新啟動它。這項改進可降低節點因磁碟過度使用而運作狀態不佳的風險。
+ 5.36.1 版本修正了主節點上的 Amazon EMR 常駐程式為叢集中已終止的執行個體保留過時中繼資料的問題。保留過時資料可能導致叢集上的 CPU 和記憶體用量無限增長，並最終引發叢集故障。
+ 對於使用多個主節點啟動的叢集，5.36.1 版本修正了其中一個主節點上的 Amazon EC2 硬體故障可能導致另一個主節點也發生故障，並導致叢集不穩定的問題。
+ 對於設定了傳輸中加密的叢集，受管擴展現在可以感知 *Spark 隨機顯示資料*。Spark 隨機顯示資料是 Spark 為執行特定操作而在不同分割區上重新分配的資料。在縮減規模時，受管擴展會忽略含有隨機顯示資料的執行個體。這可避免作業重新嘗試與重新運算，由此產生巨大的成本和效能代價。如需有關隨機排序操作的詳細資訊，請參閱[《Spark 程式設計指南》](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations)。
+ 當您啟動具有 **Amazon EMR 5.36 或更高版本、6.6 或更高版本或 7.0 或更高版本的叢集時，Amazon EMR 會使用預設 Amazon EMR AMI 的最新 Amazon Linux 2023 或 Amazon Linux 2 版本。如需詳細資訊，請參閱[使用預設 Amazon Linux AMI for Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)。    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/emr/latest/ReleaseGuide/emr-5361-release.html)

## 5.36.1 元件版本
<a name="emr-5361-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.16.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-notebook-env | 1.5.0 | 適用於 emr 筆記本的 Conda env，前者包含 Jupyter Enterprise Gateway | 
| emr-s3-dist-cp | 2.21.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.7.0 | EMR S3Select Connector | 
| emrfs | 2.51.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.14.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| flink-jobmanager-config | 1.14.2 | 管理 Apache Flink JobManager 的 EMR 節點上的資源。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.10.1-amzn-4 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-4 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.10.1-amzn-4 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-4 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-4 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.10.1-amzn-4 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.10.1-amzn-4 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.10.1-amzn-4 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-4 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-4 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-4 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.9-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.9-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.9-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.9-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.9-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.9-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.9-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.10.1-amzn-1 | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-spark | 0.10.1-amzn-1 | 用於使用 Hudi 執行 Spark 的套件程式庫。 | 
| hudi-presto | 0.10.1-amzn-1 | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.10.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.4.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.1-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.13.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.8.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.68 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 11.0.194 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.1 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.1 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 4.5.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.267-amzn-1 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.267-amzn-1 | 執行查詢各部分的服務。 | 
| presto-client | 0.267-amzn-1 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 4.0.2 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.8-amzn-2 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.8-amzn-2 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.8-amzn-2 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.8-amzn-2 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 2.4.1 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.10.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.36.1 組態類別
<a name="emr-5361-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。

當您為執行中叢集的執行個體群組指定組態時，就會發生重新設定動作。Amazon EMR 只會為您修改的分類啟動重新設定動作。如需詳細資訊，請參閱[重新設定執行中叢集中的執行個體群組](emr-configure-apps-running-cluster.md)。


**emr-5.36.1 分類**  

| 分類 | Description | 重新設定動作 | 
| --- | --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | Restarts the ResourceManager service. | 
| container-executor | 在 Hadoop YARN 的 container-executor.cfg 檔案中變更值。 | Not available. | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | Not available. | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | 變更 Docker 相關設定。 | Not available. | 
| emrfs-site | 變更 EMRFS 設定。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | 變更 flink-conf.yaml 設定。 | Restarts Flink history server. | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | Restarts Flink history server. | 
| flink-log4j-session | 變更 Kubernetes/Yarn 工作階段的 Flink log4j-session.properties 設定。 | Not available. | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | Restarts Flink history server. | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | Not available. | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | Not available. | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | 變更 HBase 環境中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | Not available. | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | Should not be reconfigured. | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | Not available. | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | Not available. | 
| hive-env | 變更 Hive 環境中的值。 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | Not available. | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | Not available. | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | Not available. | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | Restarts Hadoop Httpfs service. | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | Not available. | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | Not available. | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | 變更 Hudi 環境中的值。 | Not available. | 
| hudi-defaults | 變更 Hudi 的 hudi-defaults.conf 檔案中的值。 | Not available. | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | Not available. | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | Not available. | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | Not available. | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | Not available. | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | Restarts Livy Server. | 
| livy-env | 變更 Livy 環境中的值。 | Restarts Livy Server. | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | Restarts Livy Server. | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | 變更 Oozie 環境中的值。 | Restarts Oozie. | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | Restarts Oozie. | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | Restarts Oozie. | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Not available. | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | Not available. | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | Not available. | 
| pig-env | 在 Pig 環境中變更值。 | Not available. | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | Restarts Oozie. | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | Not available. | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | Not available. | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | Restarts Presto-Server. | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | Not available. | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | Not available. | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | Not available. | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | Not available. | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | Not available. | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | Not available. | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | Not available. | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | Not available. | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | Not available. | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | Not available. | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | Not available. | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | Not available. | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | Not available. | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | Not available. | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | Not available. | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | Not available. | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | Not available. | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | Restarts EMR record server. | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | Restarts EMR record server. | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | Restarts EMR record server. | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | This property modifies spark-defaults. See actions there. | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-env | 變更 Spark 環境中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | Not available. | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | 變更 Sqoop 環境中的值。 | Not available. | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | Not available. | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | Not available. | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | Restarts Oozie. | 
| yarn-env | 變更 YARN 環境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | Restarts Zeppelin. | 
| zeppelin-site | 變更 zeppelin-site.xml 中的組態設定。 | Restarts Zeppelin. | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | Restarts Zookeeper server. | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | Restarts Zookeeper server. | 

## 5.36.1 變更日誌
<a name="5361-changelog"></a>


**變更 5.36.1 版本和版本備註的日誌**  

| Date | 事件 | Description | 
| --- | --- | --- | 
| 2023-07-26 | 更新 | 新的作業系統發行標籤 2.0.20230612.0 和 2.0.20230628.0。 | 
| 2023-05-25 | 部署完成 | Amazon EMR 5.36.1 完全部署到所有[支援的區域](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) | 
| 2023-05-09 | 文件出版 | Amazon EMR 5.36.1 版本備註首次發布 | 
| 2023-05-04 | 初始版本 | Amazon EMR 5.36.1 首次部署至限定的商業區域 | 

# Amazon EMR 5.36.0 版
<a name="emr-5360-release"></a>

## 5.36.0 應用程式版本
<a name="emr-5360-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)、[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/)、、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、、、[http://pig.apache.org/](http://pig.apache.org/)[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、[https://www.tensorflow.org/](https://www.tensorflow.org/)、、、[https://tez.apache.org/](https://tez.apache.org/)、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.36.0 | emr-5.35.0 | emr-5.34.0 | emr-5.33.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 206 年 12 月 1 日 | 1.12.159 | 1.11.970 | 1.11.970 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.13.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 
| Hudi | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 
| Hue | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-1 | 0.266-amzn-0 | 0.261-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.36.0 版本備註
<a name="emr-5360-relnotes"></a>

以下版本備註包含 Amazon EMR 5.36.0 版的資訊。變更是相對於 5.35.0 版而言。

初始版本日期：2022 年 6 月 15 日

**新功能**
+ Amazon EMR 5.36.0 版新增支援資料定義語言 (DDL) 和已在 Apache Ranger 上啟用 Apache Spark 的叢集。這可讓您使用 Apache Ranger 來管理操作存取，例如建立、更改和捨棄來自 Amazon EMR 叢集的資料庫和資料表。
+ 當您啟動具有 **Amazon EMR 5.36 或更高版本、6.6 或更高版本，或 7.0 或更高版本的叢集時，Amazon EMR 會使用預設 Amazon EMR AMI 的最新 Amazon Linux 2023 或 Amazon Linux 2 版本。如需詳細資訊，請參閱[使用預設 Amazon Linux AMI for Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)。
**注意**  
由於已發佈 1 或多個後續修補程式版本，因此這個版本不會再獲得自動 AMI 更新。修補程式版本以第二個小數點後的數字表示 (`6.8.1`)。若要查看您是否使用最新修補程式版本，請參閱[《版本指南》](https://docs.aws.amazon.com/emr/latest/ReleaseGuide)**中的可用版本，在主控台中建立叢集時檢查 **Amazon EMR 版本**下拉選單，或使用 [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) API 或 [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html) CLI 動作。如需有關新版本的更新，請訂閱[新增功能](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)頁面上的 RSS 摘要。


| OsReleaseLabel (Amazon Linux 版本) | Amazon Linux 核心版本 | 可用日期 | 支援的區域 | 
| --- | --- | --- | --- | 
| 2.0.20260302.0 | 4.14.355-280.714.amzn2 | 2026 年 3 月 13 日 | 非洲 （開普敦）、 亞太區域 （香港）， 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （孟買）、 亞太區域 （海德拉巴）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 亞太區域 （墨爾本）、 加拿大 （中部）、 歐洲 （法蘭克福）、 歐洲 （蘇黎世）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （西班牙）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 以色列 （特拉維夫）、 中東 （阿拉伯聯合大公國）， 中東 （巴林）、 南美洲 （聖保羅）、 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡） | 
| 2.0.20260216.0 | 4.14.355-280.714.amzn2 | 2026 年 2 月 25 日 | 非洲 （開普敦）、 亞太區域 （香港）， 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （孟買）、 亞太區域 （海德拉巴）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 亞太區域 （墨爾本）、 加拿大 （中部）、 歐洲 （法蘭克福）、 歐洲 （蘇黎世）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （西班牙）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 以色列 （特拉維夫）、 中東 （阿拉伯聯合大公國）， 中東 （巴林）、 南美洲 （聖保羅）、 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡） | 
| 2.0.20260120.1 | 4.14.355-280.713.amzn2 | 2026 年 2 月 18 日 | 非洲 （開普敦）、 亞太區域 （香港）， 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （孟買）、 亞太區域 （海德拉巴）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 亞太區域 （墨爾本）、 加拿大 （中部）、 歐洲 （法蘭克福）、 歐洲 （蘇黎世）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （西班牙）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 以色列 （特拉維夫）、 中東 （阿拉伯聯合大公國）， 中東 （巴林）、 南美洲 （聖保羅）、 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡） | 
| 2.0.20251208.0 | 4.14.355-280.710.amzn2 | 2026 年 1 月 13 日 | 非洲 （開普敦）、 亞太區域 （香港）， 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （孟買）、 亞太區域 （海德拉巴）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 亞太區域 （墨爾本）、 加拿大 （中部）、 歐洲 （法蘭克福）、 歐洲 （蘇黎世）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （西班牙）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 以色列 （特拉維夫）、 中東 （阿拉伯聯合大公國）， 中東 （巴林）、 南美洲 （聖保羅）、 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡） | 
| 2.0.20251121.0 | 4.14.355-280.708.amzn2 | 2025 年 12 月 16 日 | 非洲 （開普敦）、 亞太區域 （香港）， 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （孟買）、 亞太區域 （海德拉巴）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 亞太區域 （墨爾本）、 加拿大 （中部）、 歐洲 （法蘭克福）、 歐洲 （蘇黎世）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （西班牙）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 以色列 （特拉維夫）、 中東 （阿拉伯聯合大公國）， 中東 （巴林）、 南美洲 （聖保羅）、 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡） | 
| 2.0.20251027.1 | 4.14.355-280.706.amzn2 | 2025 年 11 月 10 日 | 非洲 （開普敦）、 亞太區域 （香港）， 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （孟買）、 亞太區域 （海德拉巴）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 亞太區域 （墨爾本）、 加拿大 （中部）、 歐洲 （法蘭克福）、 歐洲 （蘇黎世）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （西班牙）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 以色列 （特拉維夫）、 中東 （阿拉伯聯合大公國）， 中東 （巴林）、 南美洲 （聖保羅）、 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡） | 
| 2.0.20250929.2 | 4.14.355-280.695.amzn2 | 2025 年 10 月 13 日 | 非洲 （開普敦）、 亞太區域 （香港）， 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （孟買）、 亞太區域 （海德拉巴）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 亞太區域 （墨爾本）、 加拿大 （中部）、 歐洲 （法蘭克福）、 歐洲 （蘇黎世）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （西班牙）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 以色列 （特拉維夫）、 中東 （阿拉伯聯合大公國）， 中東 （巴林）、 南美洲 （聖保羅）、 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡） | 
| 2.0.20250818.2 | 4.14.355-280.672.amzn2 | 2025 年 9 月 17 日 | 非洲 （開普敦）、 亞太區域 （香港）， 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （孟買）、 亞太區域 （海德拉巴）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 亞太區域 （墨爾本）、 加拿大 （中部）、 歐洲 （法蘭克福）、 歐洲 （蘇黎世）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （西班牙）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 以色列 （特拉維夫）、 中東 （阿拉伯聯合大公國）， 中東 （巴林）、 南美洲 （聖保羅）、 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡） | 
| 2.0.20250808.1 | 4.14.355-280.664.amzn2 | 2025 年 8 月 28 日 | 非洲 （開普敦）、 亞太區域 （香港）， 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （孟買）、 亞太區域 （海德拉巴）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 亞太區域 （墨爾本）、 加拿大 （中部）、 歐洲 （法蘭克福）、 歐洲 （蘇黎世）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （西班牙）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 以色列 （特拉維夫）、 中東 （阿拉伯聯合大公國）， 中東 （巴林）、 南美洲 （聖保羅）、 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡） | 
| 2.0.20250721.2 | 4.14.355-280.652.amzn2 | 2025 年 8 月 14 日 | 非洲 （開普敦）、 亞太區域 （香港）， 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （孟買）、 亞太區域 （海德拉巴）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 亞太區域 （墨爾本）、 加拿大 （中部）、 歐洲 （法蘭克福）、 歐洲 （蘇黎世）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （西班牙）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 以色列 （特拉維夫）、 中東 （阿拉伯聯合大公國）， 中東 （巴林）、 南美洲 （聖保羅）、 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡） | 
| 2.0.20250623.0 | 4.14.355-277.647.amzn2 | 2025 年 7 月 21 日 | 非洲 （開普敦）、 亞太區域 （香港）， 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （孟買）、 亞太區域 （海德拉巴）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 亞太區域 （墨爾本）、 加拿大 （中部）、 歐洲 （法蘭克福）、 歐洲 （蘇黎世）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （西班牙）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 以色列 （特拉維夫）、 中東 （阿拉伯聯合大公國）， 中東 （巴林）、 南美洲 （聖保羅）、 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡） | 
| 2.0.20250610.0 | 4.14.355-277.647.amzn2 | 2025 年 7 月 14 日 | 歐洲 （斯德哥爾摩）、 中東 （巴林）、 中國 （北京）、 亞太區域 （孟買）、 歐洲 （巴黎）、 亞太區域 （雅加達）、 美國東部 （俄亥俄）、 非洲 （開普敦）、 歐洲 （愛爾蘭）、 中東 （阿拉伯聯合大公國）， 歐洲 （法蘭克福）、 南美洲 （聖保羅）、 亞太區域 （香港）， 亞太區域 （海德拉巴）、 美國東部 （維吉尼亞北部）、 亞太區域 （首爾）、 亞太區域 （大阪）、 歐洲 （倫敦）、 歐洲 （米蘭）、 亞太區域 （東京）、 AWS GovCloud （美國東部）， AWS GovCloud （美國西部）、 美國西部 （奧勒岡）、 美國西部 （加利佛尼亞北部）， 亞太區域 （新加坡）、 亞太區域 （雪梨）， 以色列 （特拉維夫）、 加拿大 （中部）、 歐洲 （西班牙）、 中國 （寧夏）、 歐洲 （蘇黎世） | 
| 2.0.20250527.1 | 4.14.355-277.647.amzn2 | 2025 年 6 月 19 日 | 歐洲 （斯德哥爾摩）、 中東 （巴林）、 亞太區域 （孟買）、 歐洲 （巴黎）、 亞太區域 （雅加達）、 美國東部 （俄亥俄）、 非洲 （開普敦）、 歐洲 （愛爾蘭）、 中東 （阿拉伯聯合大公國）， 歐洲 （法蘭克福）、 南美洲 （聖保羅）、 亞太區域 （香港）， 亞太區域 （海德拉巴）、 美國東部 （維吉尼亞北部）、 亞太區域 （首爾）、 亞太區域 （大阪）、 歐洲 （倫敦）、 亞太區域 （墨爾本）、 歐洲 （米蘭）、 亞太區域 （東京）、 美國西部 （奧勒岡）、 美國西部 （加利佛尼亞北部）， 亞太區域 （新加坡）、 亞太區域 （雪梨）， 以色列 （特拉維夫）、 加拿大 （中部）、 歐洲 （西班牙）、 歐洲 （蘇黎世） | 
| 2.0.20250512.0 | 4.14.355-277.643.amzn2 | 2025 年 6 月 4 日 | 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡）、 歐洲 （法蘭克福）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （米蘭）、 歐洲 （巴黎）、 歐洲 （斯德哥爾摩）、 亞太區域 （香港）， 亞太區域 （雅加達）、 亞太區域 （孟買）、 亞太區域 （大阪）、 亞太區域 （首爾）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （東京）、 非洲 （開普敦）、 南美洲 （聖保羅）、 中東 （巴林）、 加拿大 （中部）、 AWS GovCloud （美國東部）、 AWS GovCloud （美國西部）、 中國 （北京）、 中國 （寧夏） | 
| 2.0.20250428.0 | 4.14.355-276.639.amzn2 | 2025 年 5 月 23 日 | 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡）、 歐洲 （法蘭克福）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （米蘭）、 歐洲 （巴黎）、 歐洲 （西班牙）、 歐洲 （斯德哥爾摩）、 歐洲 （蘇黎世）、 亞太區域 （香港）， 亞太區域 （海德拉巴）、 亞太區域 （雅加達）、 亞太區域 （墨爾本）、 亞太區域 （孟買）、 亞太區域 （大阪）、 亞太區域 （首爾）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （東京）、 非洲 （開普敦）、 南美洲 （聖保羅）、 中東 （巴林）、 中東 （阿拉伯聯合大公國）， 加拿大 （中部）、 以色列 （特拉維夫） | 
| 2.0.20250414.0 | 4.14.355-276.618.amzn2 | 2025 年 5 月 12 日 | 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （法蘭克福）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 亞太區域 （香港）， 亞太區域 （孟買）、 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 非洲 （開普敦）、 南美洲 （聖保羅）、 中東 （巴林）、 加拿大 （中部）、 AWS GovCloud （美國西部）、 AWS GovCloud （美國東部）、 中國 （北京）、 中國 （寧夏） | 
| 2.0.20250321.0 | 4.14.355 | 2025 年 4 月 9 日 | 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （法蘭克福）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 亞太區域 （香港）， 亞太區域 （孟買）、 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 非洲 （開普敦）、 南美洲 （聖保羅）、 中東 （巴林）、 加拿大 （中部）、 AWS GovCloud （美國西部）、 AWS GovCloud （美國東部）、 中國 （北京）、 中國 （寧夏） | 
| 2.0.20250305.0 | 4.14.355 | 2025 年 3 月 18 日 | 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （法蘭克福）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 亞太區域 （香港）， 亞太區域 （孟買）、 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 非洲 （開普敦）、 南美洲 （聖保羅）、 中東 （巴林）、 加拿大 （中部）、 AWS GovCloud （美國西部）、 AWS GovCloud （美國東部）、 中國 （北京）、 中國 （寧夏） | 
| 2.0.20250220.0 | 4.14.355 | 2025 年 3 月 8 日 | 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （法蘭克福）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 亞太區域 （香港）， 亞太區域 （孟買）、 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 非洲 （開普敦）、 南美洲 （聖保羅）、 中東 （巴林）、 加拿大 （中部）、 AWS GovCloud （美國西部）、 AWS GovCloud （美國東部）、 中國 （北京）、 中國 （寧夏） | 
| 2.0.20250201.0 | 4.14.355 | 2025 年 2 月 28 日 | 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （法蘭克福）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 亞太區域 （香港）， 亞太區域 （孟買）、 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 非洲 （開普敦）、 南美洲 （聖保羅）、 中東 （巴林）、 加拿大 （中部）、 AWS GovCloud （美國西部）、 AWS GovCloud （美國東部）、 中國 （北京）、 中國 （寧夏） | 
| 2.0.20250123.4 | 4.14.355 | 2025 年 1 月 27 日 | 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （法蘭克福）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 亞太區域 （香港）， 亞太區域 （孟買）、 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 非洲 （開普敦）、 南美洲 （聖保羅）、 中東 （巴林）、 加拿大 （中部）、 AWS GovCloud （美國西部）、 AWS GovCloud （美國東部）、 中國 （北京）、 中國 （寧夏） | 
| 2.0.20250116.0 | 4.14.355 | 2025 年 1 月 23 日 | 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （法蘭克福）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 亞太區域 （香港）， 亞太區域 （孟買）、 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 非洲 （開普敦）、 南美洲 （聖保羅）、 中東 （巴林）、 加拿大 （中部）、 AWS GovCloud （美國西部）、 AWS GovCloud （美國東部）、 中國 （北京）、 中國 （寧夏） | 
| 2.0.20241217.0 | 4.14.355 | 2025 年 1 月 8 日 | 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （法蘭克福）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 亞太區域 （香港）， 亞太區域 （孟買）、 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 非洲 （開普敦）、 南美洲 （聖保羅）、 中東 （巴林）、 加拿大 （中部）、 AWS GovCloud （美國西部）、 AWS GovCloud （美國東部）、 中國 （北京）、 中國 （寧夏）、 亞太區域 （海德拉巴）、 中東 （阿拉伯聯合大公國）， 歐洲 （西班牙）、 歐洲 （蘇黎世）、 亞太區域 （墨爾本）、 以色列 （特拉維夫）  | 
| 2.0.20240709.1 | 4.14.348 | 2024 年 7 月 23 日 | 美國東部 （維吉尼亞北部）、 美國東部 （俄亥俄）、 美國西部 （加利佛尼亞北部）， 美國西部 （奧勒岡）、 歐洲 （斯德哥爾摩）、 歐洲 （米蘭）、 歐洲 （法蘭克福）、 歐洲 （愛爾蘭）、 歐洲 （倫敦）、 歐洲 （巴黎）、 亞太區域 （香港）， 亞太區域 （孟買）、 亞太區域 （東京）、 亞太區域 （首爾）、 亞太區域 （大阪）、 亞太區域 （新加坡）、 亞太區域 （雪梨）， 亞太區域 （雅加達）、 非洲 （開普敦）、 南美洲 （聖保羅）、 中東 （巴林）、 加拿大 （中部）、 AWS GovCloud （美國西部）、 AWS GovCloud （美國東部）、 中國 （北京）、 中國 （寧夏）、 亞太區域 （海德拉巴）、 中東 （阿拉伯聯合大公國）， 歐洲 （西班牙）、 歐洲 （蘇黎世）、 亞太區域 （墨爾本）、 以色列 （特拉維夫）  | 
| 2.0.20230504.1 | 4.14.313 | 2023 年 5 月 16 日 | 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林) | 
| 2.0.20230418.0 | 4.14.311 | 2023 年 5 月 3 日 | 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林) | 
| 2.0.20230404.1 | 4.14.311 | 2023 年 4 月 18 日 | 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林) | 
| 2.0.20230404.0 | 4.14.311 | 2023 年 4 月 10 日 | 美國東部 (維吉尼亞北部)、歐洲 (巴黎) | 
| 2.0.20230320.0 | 4.14.309 | 2023 年 3 月 30 日 | 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林) | 
| 2.0.20230307.0 | 4.14.305 | 2023 年 3 月 15 日 | 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林) | 
| 2.0.20230207.0 | 4.14.304 | 2023 年 2 月 22 日 | 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林) | 
| 2.0.20230119.1 | 4.14.301 | 2023 年 2 月 3 日 | 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林) | 
| 2.0.20221210.1 | 4.14.301 | 2023 年 12 月 22 日 | 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林) | 
| 2.0.20221103.3 | 4.14.296 | 2022 年 12 月 5 日 | 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林) | 
| 2.0.20221004.0 | 4.14.294 | 2022 年 11 月 2 日 | 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林) | 
| 2.0.20220912.1 | 4.14.291 | 2022 年 10 月 7 日 | 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林) | 
| 2.0.20220719.0 | 4.14.287 | 2022 年 8 月 10 日 | 美國西部 (加利佛尼亞北部)、歐洲 (巴黎)、歐洲 (斯德哥爾摩)、歐洲 (法蘭克福)、亞太區域 (孟買)、中東 (巴林) | 
| 2.0.20220426.0 | 4.14.281 | 2022 年 6 月 14 日 | 美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (加利佛尼亞北部)、美國西部 (奧勒岡)、加拿大 (中部)、歐洲 (斯德哥爾摩)、歐洲 (愛爾蘭)、歐洲 (倫敦)、歐洲 (巴黎)、歐洲 (法蘭克福)、歐洲 (米蘭)、亞太區域 (香港)、亞太區域 (孟買)、亞太區域 (雅加達)、亞太區域 (東京)、亞太區域 (首爾)、亞太區域 (大阪)、亞太區域 (新加坡)、亞太區域 (雪梨)、非洲 (開普敦)、南美洲 (聖保羅)、中東 (巴林) | 

**變更、強化功能和已解決的問題**
+ Amazon EMR 5.36.0 升級現在支援：aws-sdk 1.12.206、Hadoop 2.10.1-amzn-4、Hive 2.3.9-amzn-2、Hudi 0.10.1-amzn-1、Spark 2.4.8-amzn-2、Presto 0.267-amzn-1、Amazon Glue 連接器 1.18.0、EMRFS 2.51.0。

**已知問題**
+ 當您使用具有 Hive 分割區位置格式設定的 Spark 讀取 Amazon S3 中的資料，而您在 Amazon EMR 版本 5.30.0 至 5.36.0、6.2.0 至 6.9.0 上執行 Spark 時，您可能遇到叢集無法正確讀取資料的問題。如果您的分割區具有以下所有特性，便會發生此種情形：
  + 兩個或更多分割區從同一資料表掃描而來。
  + 至少有一個分割區目錄路徑是其他一或多個分割區目錄路徑的字首，例如，`s3://bucket/table/p=a` 是 `s3://bucket/table/p=a b` 的字首。
  + 在另一個分割區目錄中，字首後的第一個字元有小於 `/` 字元 (U\$1002F) 的 UTF-8 值。例如，`s3://bucket/table/p=a b` 中 a 和 b 之間有空白字元 (U\$10020) 即屬於此類別。請注意還有 14 個其他非控制字元：`!"#$%&‘()*+,-`。如需詳細資訊，請參閱 [UTF-8 編碼表和 Unicode 字元](https://www.utf8-chartable.de/)。

  若要避免發生此問題，請在 `spark-defaults` 分類中將 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 組態設定為 `false`。
+ 使用 Amazon EMR 版本 5.36.0 和 6.6.0 至 6.9.0，`SecretAgent` 和 `RecordServer` 服務元件可能會因為 Log4j2 屬性中的錯誤檔案名稱模式組態而遇到日誌資料遺失的情況。該錯誤組態會導致元件一天只產生一個日誌檔案。當使用輪換策略時，它會覆寫現有的檔案，而不會如預期產生新的日誌檔案。如需避免此狀況發生，請使用引導操作來每小時產生日誌檔案，並在檔案名稱中附加自動遞增的整數以處理輪換。

  對於 Amazon EMR 6.6.0 至 6.9.0 版本，在啟動叢集時使用以下引導操作。

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  對於 Amazon EMR 5.36.0，在啟動叢集時使用以下引導操作。

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

## 5.36.0 元件版本
<a name="emr-5360-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.16.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-notebook-env | 1.5.0 | 適用於 emr 筆記本的 Conda env，前者包含 Jupyter Enterprise Gateway | 
| emr-s3-dist-cp | 2.21.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.7.0 | EMR S3Select Connector | 
| emrfs | 2.51.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.14.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| flink-jobmanager-config | 1.14.2 | 管理 Apache Flink JobManager 的 EMR 節點上的資源。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.10.1-amzn-4 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-4 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.10.1-amzn-4 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-4 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-4 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.10.1-amzn-4 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.10.1-amzn-4 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.10.1-amzn-4 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-4 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-4 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-4 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.9-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.9-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.9-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.9-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.9-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.9-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.9-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.10.1-amzn-1 | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-spark | 0.10.1-amzn-1 | 用於使用 Hudi 執行 Spark 的套件程式庫。 | 
| hudi-presto | 0.10.1-amzn-1 | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.10.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.4.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.1-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.13.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.8.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.68 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 11.0.194 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.1 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.1 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 4.5.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.267-amzn-1 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.267-amzn-1 | 執行查詢各部分的服務。 | 
| presto-client | 0.267-amzn-1 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 4.0.2 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.8-amzn-2 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.8-amzn-2 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.8-amzn-2 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.8-amzn-2 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 2.4.1 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.10.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.36.0 組態類別
<a name="emr-5360-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。

當您為執行中叢集的執行個體群組指定組態時，就會發生重新設定動作。Amazon EMR 只會為您修改的分類啟動重新設定動作。如需詳細資訊，請參閱[重新設定執行中叢集中的執行個體群組](emr-configure-apps-running-cluster.md)。


**emr-5.36.0 分類**  

| 分類 | Description | 重新設定動作 | 
| --- | --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | Restarts the ResourceManager service. | 
| container-executor | 在 Hadoop YARN 的 container-executor.cfg 檔案中變更值。 | Not available. | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | Not available. | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | 變更 Docker 相關設定。 | Not available. | 
| emrfs-site | 變更 EMRFS 設定。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | 變更 flink-conf.yaml 設定。 | Restarts Flink history server. | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | Restarts Flink history server. | 
| flink-log4j-session | 變更 Kubernetes/Yarn 工作階段的 Flink log4j-session.properties 設定。 | Not available. | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | Restarts Flink history server. | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | Not available. | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | Not available. | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | 變更 HBase 環境中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | Not available. | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | Should not be reconfigured. | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | Not available. | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | Not available. | 
| hive-env | 變更 Hive 環境中的值。 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | Not available. | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | Not available. | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | Not available. | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | Restarts Hadoop Httpfs service. | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | Not available. | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | Not available. | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | 變更 Hudi 環境中的值。 | Not available. | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | Not available. | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | Not available. | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | Not available. | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | Not available. | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | Restarts Livy Server. | 
| livy-env | 變更 Livy 環境中的值。 | Restarts Livy Server. | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | Restarts Livy Server. | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | 變更 Oozie 環境中的值。 | Restarts Oozie. | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | Restarts Oozie. | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | Restarts Oozie. | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Not available. | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | Not available. | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | Not available. | 
| pig-env | 在 Pig 環境中變更值。 | Not available. | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | Restarts Oozie. | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | Not available. | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | Not available. | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | Restarts Presto-Server. | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | Not available. | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | Not available. | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | Not available. | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | Not available. | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | Not available. | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | Not available. | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | Not available. | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | Not available. | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | Not available. | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | Not available. | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | Not available. | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | Not available. | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | Not available. | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | Not available. | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | Not available. | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | Not available. | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | Not available. | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | Restarts EMR record server. | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | Restarts EMR record server. | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | Restarts EMR record server. | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | This property modifies spark-defaults. See actions there. | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-env | 變更 Spark 環境中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | Not available. | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | 變更 Sqoop 環境中的值。 | Not available. | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | Not available. | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | Not available. | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | Restarts Oozie. | 
| yarn-env | 變更 YARN 環境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | Restarts Zeppelin. | 
| zeppelin-site | 變更 zeppelin-site.xml 中的組態設定。 | Restarts Zeppelin. | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | Restarts Zookeeper server. | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | Restarts Zookeeper server. | 

# Amazon EMR 5.35.0 版
<a name="emr-5350-release"></a>

## 5.35.0 應用程式版本
<a name="emr-5350-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/)、、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、、、[http://pig.apache.org/](http://pig.apache.org/)[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、[https://www.tensorflow.org/](https://www.tensorflow.org/)、、、[https://tez.apache.org/](https://tez.apache.org/)、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.35.0 | emr-5.34.0 | emr-5.33.1 | emr-5.33.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.12.159 | 1.11.970 | 1.11.970 | 1.11.970 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.13.1 | 1.12.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 
| Hadoop | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 
| Hive | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 
| Hudi | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 
| Hue | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.266-amzn-0 | 0.261-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.35.0 版本備註
<a name="emr-5350-relnotes"></a>

這是 Amazon EMR 5.35.0 版的版本備註。

以下版本備註包含 Amazon EMR 5.35.0 版的資訊。變更是相對於 5.34.0 版而言。

初始版本日期：2022 年 3 月 30 日

**新功能**
+ 使用 Log4j 1.x 和 Log4j 2.x 的 Amazon EMR 5.35 版應用程式會分別升級為使用 Log4j 1.2.17 (或更高版本) 和 Log4j 2.17.1 (或更高版本)，而且不需要使用引導操作來解決先前版本中的 CVE 問題。請參閱 [減輕 CVE-2021-44228 影響的方法](emr-log4j-vulnerability.md)。

**變更、強化功能和已解決的問題**


**Flink 變更**  

| 變更類型 | Description | 
| --- | --- | 
| 升級 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Hadoop 變更**  

| 變更類型 | Description | 
| --- | --- | 
| 自 EMR 5.34.0 起的 Hadoop 開放原始碼向後移植 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| Hadoop 變更與修正 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Hive 變更**  

| 變更類型 | Description | 
| --- | --- | 
| Hive 升級至開放原始碼[版本 2.3.9](https://www.mail-archive.com/user@hive.apache.org/msg22311.html)，包括這些 Jira 修正 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| 自 EMR 5.34.0 起的 Hive 開放原始碼向後移植 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| Hive 升級與修正 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| 新功能 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Oozie 變更**  

| 變更類型 | Description | 
| --- | --- | 
| 自 EMR 5.34.0 起的 Oozie 開放原始碼向後移植 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Pig 變更**  

| 變更類型 | Description | 
| --- | --- | 
| 升級 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/emr/latest/ReleaseGuide/emr-5350-release.html) | 

**已知問題**
+ 當您使用具有 Hive 分割區位置格式設定的 Spark 讀取 Amazon S3 中的資料，而您在 Amazon EMR 版本 5.30.0 至 5.36.0、6.2.0 至 6.9.0 上執行 Spark 時，您可能遇到叢集無法正確讀取資料的問題。如果您的分割區具有以下所有特性，便會發生此種情形：
  + 兩個或更多分割區從同一資料表掃描而來。
  + 至少有一個分割區目錄路徑是其他一或多個分割區目錄路徑的字首，例如，`s3://bucket/table/p=a` 是 `s3://bucket/table/p=a b` 的字首。
  + 在另一個分割區目錄中，字首後的第一個字元有小於 `/` 字元 (U\$1002F) 的 UTF-8 值。例如，`s3://bucket/table/p=a b` 中 a 和 b 之間有空白字元 (U\$10020) 即屬於此類別。請注意還有 14 個其他非控制字元：`!"#$%&‘()*+,-`。如需詳細資訊，請參閱 [UTF-8 編碼表和 Unicode 字元](https://www.utf8-chartable.de/)。

  若要避免發生此問題，請在 `spark-defaults` 分類中將 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 組態設定為 `false`。

## 5.35.0 元件版本
<a name="emr-5350-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.15.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-notebook-env | 1.5.0 | 適用於 emr 筆記本的 Conda env，前者包含 Jupyter Enterprise Gateway | 
| emr-s3-dist-cp | 2.20.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.7.0 | EMR S3Select Connector | 
| emrfs | 2.49.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.14.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| flink-jobmanager-config | 1.14.2 | 管理 Apache Flink JobManager 的 EMR 節點上的資源。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.10.1-amzn-3 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-3 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.10.1-amzn-3 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-3 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-3 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.10.1-amzn-3 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.10.1-amzn-3 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.10.1-amzn-3 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-3 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-3 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-3 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.9-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.9-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.9-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.9-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.9-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.9-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.9-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.9.0-amzn-2 | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-spark | 0.9.0-amzn-2 | 用於使用 Hudi 執行 Spark 的套件程式庫。 | 
| hudi-presto | 0.9.0-amzn-2 | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.10.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.4.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.1-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.13.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.8.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.68 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 10.1.243 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.1 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.1 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 4.5.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.266-amzn-0 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.266-amzn-0 | 執行查詢各部分的服務。 | 
| presto-client | 0.266-amzn-0 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 4.0.2 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.8-amzn-1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.8-amzn-1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.8-amzn-1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.8-amzn-1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 2.4.1 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.10.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.35.0 組態類別
<a name="emr-5350-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。

當您為執行中叢集的執行個體群組指定組態時，就會發生重新設定動作。Amazon EMR 只會為您修改的分類啟動重新設定動作。如需詳細資訊，請參閱[重新設定執行中叢集中的執行個體群組](emr-configure-apps-running-cluster.md)。


**emr-5.35.0 分類**  

| 分類 | Description | 重新設定動作 | 
| --- | --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | Restarts the ResourceManager service. | 
| container-executor | 在 Hadoop YARN 的 container-executor.cfg 檔案中變更值。 | Not available. | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | Not available. | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | 變更 Docker 相關設定。 | Not available. | 
| emrfs-site | 變更 EMRFS 設定。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | 變更 flink-conf.yaml 設定。 | Restarts Flink history server. | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | Restarts Flink history server. | 
| flink-log4j-session | 變更 Kubernetes/Yarn 工作階段的 Flink log4j-session.properties 設定。 | Not available. | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | Restarts Flink history server. | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | Not available. | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | Not available. | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | 變更 HBase 環境中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | Not available. | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | Should not be reconfigured. | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | Not available. | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | Not available. | 
| hive-env | 變更 Hive 環境中的值。 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | Not available. | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | Not available. | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | Not available. | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | Restarts Hadoop Httpfs service. | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | Not available. | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | Not available. | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | 變更 Hudi 環境中的值。 | Not available. | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | Not available. | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | Not available. | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | Not available. | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | Not available. | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | Restarts Livy Server. | 
| livy-env | 變更 Livy 環境中的值。 | Restarts Livy Server. | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | Restarts Livy Server. | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | 變更 Oozie 環境中的值。 | Restarts Oozie. | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | Restarts Oozie. | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | Restarts Oozie. | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Not available. | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | Not available. | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | Not available. | 
| pig-env | 在 Pig 環境中變更值。 | Not available. | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | Restarts Oozie. | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | Not available. | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | Not available. | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | Restarts Presto-Server. | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | Not available. | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | Not available. | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | Not available. | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | Not available. | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | Not available. | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | Not available. | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | Not available. | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | Not available. | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | Not available. | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | Not available. | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | Not available. | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | Not available. | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | Not available. | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | Not available. | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | Not available. | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | Not available. | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | Not available. | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | Restarts EMR record server. | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | Restarts EMR record server. | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | Restarts EMR record server. | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | This property modifies spark-defaults. See actions there. | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-env | 變更 Spark 環境中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | Not available. | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | 變更 Sqoop 環境中的值。 | Not available. | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | Not available. | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | Not available. | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | Restarts Oozie. | 
| yarn-env | 變更 YARN 環境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | Restarts Zeppelin. | 
| zeppelin-site | 變更 zeppelin-site.xml 中的組態設定。 | Restarts Zeppelin. | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | Restarts Zookeeper server. | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | Restarts Zookeeper server. | 

# Amazon EMR 5.34.0 版
<a name="emr-5340-release"></a>

## 5.34.0 應用程式版本
<a name="emr-5340-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/)、、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、、、[http://pig.apache.org/](http://pig.apache.org/)[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、[https://www.tensorflow.org/](https://www.tensorflow.org/)、、、 [https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.34.0 | emr-5.33.1 | emr-5.33.0 | emr-5.32.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.970 | 1.11.970 | 1.11.970 | 1.11.890 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 
| Hadoop | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 
| Hive | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 
| Hudi | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 
| Livy | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.261-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 
| Spark | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.9.0 | 0.9.0 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.34.0 版本備註
<a name="emr-5340-relnotes"></a>

以下版本備註包含 Amazon EMR 5.34.0 版的資訊。變更是相對於 5.33.1 版而言。

初始版本日期：2022 年 1 月 20 日

更新版本日期：2022 年 3 月 21 日

**新功能**
+ **[受管擴展] Spark 隨機顯示資料受管擴展優化** - 對於 Amazon EMR 版本 5.34.0 及更高版本和 EMR 版本 6.4.0 及更高版本，受管擴展現在可感知 Spark 隨機顯示資料 (Spark 為執行特定操作而重新分配到多個分割區的資料)。如需有關隨機排序操作的詳細資訊，請參閱《Amazon EMR 管理指南》**和《Spark 程式設計指南》[https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations)中的[在 Amazon EMR 中使用 EMR 受管擴展](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html)。
+ [Hudi] 改進以簡化 Hudi 組態。預設停用開放式並行控制。

**變更、強化功能和已解決的問題**
+ 此版本修正 Amazon EMR 擴展無法成功縱向擴展/縮減叢集規模或導致應用程式發生故障的問題。
+ 以前，手動重新啟動多節點叢集上的資源管理器會導致 Amazon EMR 叢集上常駐程式 (如 Zookeeper) 重新載入 Zookeeper znode 檔案中過去被停用或遺失的所有節點。這會使得在特定情形中超過預設限制。Amazon EMR 現在會從 Zookeeper 檔案中移除早於一個小時前的已停用或遺失的節點記錄，並提高內部限制。
+ 修正當 Amazon EMR 叢集上常駐程式執行運作狀態檢查活動 (例如收集 YARN 節點狀態和 HDFS 節點狀態) 時，對大型、高度使用的叢集發起的擴展請求失敗的問題。發生此問題的原因是，叢集上常駐程式無法將節點的運作狀態資料傳送至內部 Amazon EMR 元件。
+ 改進 EMR 叢集上常駐程式，以便在擴展操作期間為提高可靠性而重複使用 IP 地址時，正確地追蹤節點狀態。
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683)。修正因為 Spark 擔任的所有可用的節點被列入拒絕清單，而導致作業在叢集縮減規模期間失敗的問題。
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011)。修正當叢集嘗試縱向擴展或縮減規模時，作業因 YARN 除役中的競爭條件而失敗的問題。
+ 透過確保 Amazon EMR 叢集上常駐程式和 YARN/HDFS 之間的節點狀態始終是一致的，修正叢集擴展期間的步驟或作業失敗問題。
+ 針對使用 Kerberos 身分驗證啟用的 Amazon EMR 叢集，修正某些叢集操作 (例如縮減規模和步驟提交) 失敗的問題。這是因為 Amazon EMR 叢集上的常駐程式未更新 Kerberos 票證，而它對於與主節點上執行的 HDFS/YARN 通訊而言必不可少。
+ Zeppelin 升級至版本 0.10.0。
+ Livy 修正 - 升級到 0.7.1
+ Spark 效能改進 - 當 EMR 5.34.0 中的特定 Spark 組態值被覆寫時，會停用異質執行器。
+ WebHDFS 和 HttpFS 伺服器預設為停用。您可以使用 Hadoop 組態 `dfs.webhdfs.enabled` 重新啟用 WebHDFS。HttpFS 伺服器可透過使用 `sudo systemctl start hadoop-httpfs` 啟動。

**已知問題**
+ 與 Livy 使用者模擬搭配使用的 Amazon EMR Notebooks 無法正常運作，因為 HttpFS 預設為停用。在此情形中，EMR 筆記本無法連線到已啟用 Livy 模擬的叢集。解決辦法為，在將 EMR 筆記本連線到叢集前，使用 `sudo systemctl start hadoop-httpfs` 啟動 HttpFS 伺服器。
+ Hue 查詢在 Amazon EMR 6.4.0 中無法正常運作，因為 Apache Hadoop HttpFS 伺服器預設為停用。若要在 Amazon EMR 6.4.0 上使用 Hue，您可以使用 `sudo systemctl start hadoop-httpfs` 手動啟動 Amazon EMR 主節點上的 HttpFS 伺服器，或[採取 Amazon EMR 步驟](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html)。
+ 與 Livy 使用者模擬搭配使用的 Amazon EMR Notebooks 無法正常運作，因為 HttpFS 預設為停用。在此情形中，EMR 筆記本無法連線到已啟用 Livy 模擬的叢集。解決辦法為，在將 EMR 筆記本連線到叢集前，使用 `sudo systemctl start hadoop-httpfs` 啟動 HttpFS 伺服器。
+ 當您使用具有 Hive 分割區位置格式設定的 Spark 讀取 Amazon S3 中的資料，而您在 Amazon EMR 版本 5.30.0 至 5.36.0、6.2.0 至 6.9.0 上執行 Spark 時，您可能遇到叢集無法正確讀取資料的問題。如果您的分割區具有以下所有特性，便會發生此種情形：
  + 兩個或更多分割區從同一資料表掃描而來。
  + 至少有一個分割區目錄路徑是其他一或多個分割區目錄路徑的字首，例如，`s3://bucket/table/p=a` 是 `s3://bucket/table/p=a b` 的字首。
  + 在另一個分割區目錄中，字首後的第一個字元有小於 `/` 字元 (U\$1002F) 的 UTF-8 值。例如，`s3://bucket/table/p=a b` 中 a 和 b 之間有空白字元 (U\$10020) 即屬於此類別。請注意還有 14 個其他非控制字元：`!"#$%&‘()*+,-`。如需詳細資訊，請參閱 [UTF-8 編碼表和 Unicode 字元](https://www.utf8-chartable.de/)。

  若要避免發生此問題，請在 `spark-defaults` 分類中將 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 組態設定為 `false`。

## 5.34.0 元件版本
<a name="emr-5340-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.14.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-notebook-env | 1.4.0 | 適用於 emr 筆記本的 Conda env，前者包含 Jupyter Enterprise Gateway | 
| emr-s3-dist-cp | 2.18.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.7.0 | EMR S3Select Connector | 
| emrfs | 2.48.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.13.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| flink-jobmanager-config | 1.13.1 | 管理 Apache Flink JobManager 的 EMR 節點上的資源。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.10.1-amzn-2 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-2 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.10.1-amzn-2 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-2 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-2 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.10.1-amzn-2 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.10.1-amzn-2 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.10.1-amzn-2 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-2 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-2 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-2 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.8-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.8-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.8-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.8-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.8-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.8-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.8-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.9.0-amzn-0 | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-spark | 0.9.0-amzn-0 | 用於使用 Hudi 執行 Spark 的套件程式庫。 | 
| hudi-presto | 0.9.0-amzn-0 | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.9.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.4.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.1-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.13.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.8.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.68 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 10.1.243 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.1 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.1 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 4.5.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.261-amzn-0 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.261-amzn-0 | 執行查詢各部分的服務。 | 
| presto-client | 0.261-amzn-0 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 4.0.2 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.8-amzn-0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.8-amzn-0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.8-amzn-0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.8-amzn-0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 2.4.1 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.10.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.34.0 組態類別
<a name="emr-5340-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。

當您為執行中叢集的執行個體群組指定組態時，就會發生重新設定動作。Amazon EMR 只會為您修改的分類啟動重新設定動作。如需詳細資訊，請參閱[重新設定執行中叢集中的執行個體群組](emr-configure-apps-running-cluster.md)。


**emr-5.34.0 分類**  

| 分類 | Description | 重新設定動作 | 
| --- | --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | Restarts the ResourceManager service. | 
| container-executor | 在 Hadoop YARN 的 container-executor.cfg 檔案中變更值。 | Not available. | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | Not available. | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | 變更 Docker 相關設定。 | Not available. | 
| emrfs-site | 變更 EMRFS 設定。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | 變更 flink-conf.yaml 設定。 | Restarts Flink history server. | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | Restarts Flink history server. | 
| flink-log4j-session | 變更 Kubernetes/Yarn 工作階段的 Flink log4j-session.properties 設定。 | Not available. | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | Restarts Flink history server. | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | Not available. | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | Not available. | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | 變更 HBase 環境中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | Not available. | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | Should not be reconfigured. | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | Not available. | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | Not available. | 
| hive-env | 變更 Hive 環境中的值。 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | Not available. | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | Not available. | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | Not available. | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | Restarts Hadoop Httpfs service. | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | Not available. | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | Not available. | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | 變更 Hudi 環境中的值。 | Not available. | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | Not available. | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | Not available. | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | Not available. | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | Not available. | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | Restarts Livy Server. | 
| livy-env | 變更 Livy 環境中的值。 | Restarts Livy Server. | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | Restarts Livy Server. | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | 變更 Oozie 環境中的值。 | Restarts Oozie. | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | Restarts Oozie. | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | Restarts Oozie. | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Not available. | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | Not available. | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | Not available. | 
| pig-env | 在 Pig 環境中變更值。 | Not available. | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | Restarts Oozie. | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | Not available. | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | Not available. | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | Restarts Presto-Server. | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | Not available. | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | Not available. | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | Not available. | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | Not available. | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | Not available. | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | Not available. | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | Not available. | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | Not available. | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | Not available. | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | Not available. | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | Not available. | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | Not available. | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | Not available. | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | Not available. | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | Not available. | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | Not available. | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | Not available. | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | Restarts EMR record server. | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | Restarts EMR record server. | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | Restarts EMR record server. | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | This property modifies spark-defaults. See actions there. | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-env | 變更 Spark 環境中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | Not available. | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | 變更 Sqoop 環境中的值。 | Not available. | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | Not available. | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | Not available. | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | Restarts Oozie. | 
| yarn-env | 變更 YARN 環境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | Restarts Zeppelin. | 
| zeppelin-site | 變更 zeppelin-site.xml 中的組態設定。 | Restarts Zeppelin. | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | Restarts Zookeeper server. | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | Restarts Zookeeper server. | 

# Amazon EMR 5.33.1 版
<a name="emr-5331-release"></a>

## 5.33.1 應用程式版本
<a name="emr-5331-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)、[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/)、、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、、、[http://pig.apache.org/](http://pig.apache.org/)[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、[https://www.tensorflow.org/](https://www.tensorflow.org/)、、、[https://tez.apache.org/](https://tez.apache.org/)、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.33.1 | emr-5.33.0 | emr-5.32.1 | emr-5.32.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.970 | 1.11.970 | 1.11.890 | 1.11.890 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 
| Hadoop | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 
| Hive | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 
| Hudi | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 
| Spark | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.33.1 版本備註
<a name="emr-5331-relnotes"></a>

以下版本備註包含 Amazon EMR 5.33.0/5.33.1 版的資訊。變更是相對於 5.32.0 版而言。

初始版本日期：2021 年 4 月 19 日

上次更新日期：2021 年 8 月 9 日

**升級**
+ 升級 Amazon Glue 連接器至版本 1.15.0
+  適用於 Java 的 AWS SDK 升級至 1.11.970 版
+ 升級 EMRFS 至版本 2.46.0
+ 升級 EMR Goodies 至版本 2.14.0
+ 升級 EMR 記錄伺服器至版本 1.9.0
+ 升級 EMR S3 Dist CP 至版本 2.18.0
+ 升級 EMR 機密代理程式至版本 1.8.0
+ 升級 Flink 至版本 1.12.1
+ 升級 Hadoop 至版本 2.10.1-amzn-1
+ 升級 Hive 至版本 2.3.7-amzn-4
+ 升級 Hudi 至版本 0.7.0
+ 升級 Hue 至版本 4.9.0
+ 升級 OpenCV 至版本 4.5.0
+ 升級 Presto 至版本 0.245.1-amzn-0
+ 升級 R 至版本 4.0.2
+ 升級 Spark 至版本 2.4.7-amzn-1
+ 升級 TensorFlow 至版本 2.4.1
+ 升級 Zeppelin 至版本 0.9.0

**變更、強化功能和已解決的問題**
+ 此版本修正 Amazon EMR 擴展無法成功縱向擴展/縮減叢集規模或導致應用程式發生故障的問題。
+ 修正當 Amazon EMR 叢集上常駐程式執行運作狀態檢查活動 (例如收集 YARN 節點狀態和 HDFS 節點狀態) 時，對大型、高度使用的叢集發起的擴展請求失敗的問題。發生此問題的原因是，叢集上常駐程式無法將節點的運作狀態資料傳送至內部 Amazon EMR 元件。
+ 改進 EMR 叢集上常駐程式，以便在擴展操作期間為提高可靠性而重複使用 IP 地址時，正確地追蹤節點狀態。
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683)。修正因為 Spark 擔任的所有可用的節點被列入拒絕清單，而導致作業在叢集縮減規模期間失敗的問題。
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011)。修正當叢集嘗試縱向擴展或縮減規模時，作業因 YARN 除役中的競爭條件而失敗的問題。
+ 透過確保 Amazon EMR 叢集上常駐程式和 YARN/HDFS 之間的節點狀態始終是一致的，修正叢集擴展期間的步驟或作業失敗問題。
+ 針對使用 Kerberos 身分驗證啟用的 Amazon EMR 叢集，修正某些叢集操作 (例如縮減規模和步驟提交) 失敗的問題。這是因為 Amazon EMR 叢集上的常駐程式未更新 Kerberos 票證，而它對於與主節點上執行的 HDFS/YARN 通訊而言必不可少。
+ 較新的 Amazon EMR 版本修正較舊 Amazon EMR 版本中 AL2 上的「最大開放檔案」限制過低的問題。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本現在包含使用更高「最大開放檔案」設定的永久修正。
+ **設定叢集以修正 Apache YARN 時間軸伺服器版本 1 和 1.5 的效能問題**

  Apache YARN 時間軸伺服器版本 1 和 1.5 可能導致極活躍的大型 EMR 叢集出現效能問題，尤其是作為 Amazon EMR 中預設設定的 `yarn.resourcemanager.system-metrics-publisher.enabled=true`。開放原始碼 YARN 時間軸伺服器版本 2 可解決 YARN 時間軸伺服器可擴展性相關的效能問題。

  此問題的其他解決辦法包括：
  + 設定 yarn-site.xml 中的 yarn.resourcemanager.system-metrics-publisher.enabled=false。
  + 在建立叢集時啟用此問題的修正程式，如下所述。

  下列 Amazon EMR 版本包含對此 YARN 時間軸伺服器效能問題的修正。

  EMR 5.30.2、5.31.1、5.32.1、5.33.1、5.34.x、6.0.1、6.1.1、6.2.1、6.3.1、6.4.x

  若要在上述任何 Amazon EMR 版本上啟用修正程式，請在使用 [`aws emr create-cluster` 命令參數](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html)傳入的組態 JSON 檔案中將這些屬性設為 `true`：`--configurations file://./configurations.json`。或使用[重新設定主控台 UI](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html)啟用修正程式。

  configurations.json 檔案內容的範例：

  ```
  [
  {
  "Classification": "yarn-site",
  "Properties": {
  "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true",
  "yarn.resourcemanager.system-metrics-publisher.enabled": "true"
  },
  "Configurations": []
  }
  ]
  ```
+ 當從 Hive 中繼存放區為 Spark 插入查詢擷取分割區位置時，Spark 執行期現在變得更快。
+ 已升級元件版本。如需檢視元件版本清單，請參閱本指南中的[關於 Amazon EMR 版本](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-release-components.html)。
+ 在每個新叢集上安裝 AWS Java 開發套件套件。這是包含全部服務 SDK 及其相依項的單一 jar，而非僅包含個別元件。如需詳細資訊，請參閱 [Java SDK 套件相依項](https://aws.amazon.com/blogs/developer/java-sdk-bundle/)。
+ 修正舊版 Amazon EMR 中的受管擴展問題並做了改進，讓應用程式失敗率大幅降低。
+ Amazon Linux 儲存庫現預設啟用 HTTPS。若您使用 Amazon S3 VPCE 政策來限制對特定儲存貯體的存取，則必須新增 Amazon Linux 儲存貯體 ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` 至您的政策 (使用端點所在區域取代 `$region`)。如需詳細資訊，請參閱 AWS 討論論壇中的此主題。[公告：Amazon Linux 2 現支援在連線至套件儲存庫時使用 HTTPS](https://forums.aws.amazon.com/ann.jspa?annID=8528)。

**新功能**
+ Amazon EMR 支援 Amazon S3 Access Points，此 Amazon S3 功能允許您輕易管理對共用資料湖的存取。借助您的 Amazon S3 Access Points 別名，在 Amazon EMR 上大規模存取您的資料變得更簡單。您可以在可使用 Amazon EMR 的所有區域中，使用 Amazon S3 存取點搭配所有版本的 Amazon EMR，無需額外費用。 AWS 如需進一步了解 Amazon S3 Access Points 和 Access Point 別名，請參閱《Amazon S3 使用者指南》**中的[為您的存取點使用儲存貯體型別名](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-alias.html)。
+ Amazon EMR-5.33 支援新的 Amazon EC2 執行個體類型：c5a、c5ad、c6gn、c6gd、m6gd、d3、d3en、m5zn、r5b、r6gd。請參閱[支援的執行個體類型](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-supported-instance-types.html)。

**已知問題**
+ **較舊 AL2 上的「最大開放檔案」限制過低 [在新版本中修正]。**Amazon EMR 版本：emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 以較舊版本 Amazon Linux 2 (AL2) 為基礎；當使用預設 AMI 建立 Amazon EMR 叢集時，後者的「最大開放檔案」ulimit 設定過低。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本包含使用更高「最大開放檔案」設定的永久修正。提交 Spark 作業時，開放檔限制較低的版本會導致「開放檔案過多」錯誤。在受影響版本中，Amazon EMR 預設 AMI 對「最大開放檔案」有 4096 的預設 ulimit 設定，此設定低於最新 Amazon Linux 2 AMI 中的 65536 檔案限制。當 Spark 驅動程式和執行器嘗試開啟超過 4096 個檔案時，「最大開放檔案」的 ulimit 設定過低會導致 Spark 作業失敗。為了修正該問題，Amazon EMR 提供引導操作 (BA) 指令碼，以便在建立叢集時調整 ulimit 設定。

  若您使用未永久修正此問題的較舊 Amazon EMR 版本，以下解決辦法可讓您將執行個體-控制器 ulimit 明確設定為最大 65536 個檔案。

**從命令列明確設定 ulimit**

  1. 編輯 `/etc/systemd/system/instance-controller.service` 以新增下列參數至「服務」區段。

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. 重新啟動 InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **使用引導操作 (BA) 設定 ulimit**

  您還可以使用引導操作 (BA) 指令碼，在建立叢集時將執行個體-控制器 ulimit 設定為 65536 個檔案。

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 對於 Amazon EMR 6.3.0 和 6.2.0 私有子網路叢集，您不能存取 Ganglia Web UI。您將遇到「存取遭拒 (403)」錯誤。其他 Web UI (例如 Spark、Hue、JupyterHub、Zeppelin、Livy 和 Tez) 將正常運作。Ganglia Web UI 也將正常存取公有子網路叢集。若要解決此問題，請使用 `sudo systemctl restart httpd` 重新啟動主節點上的 httpd 服務。此問題已在 Amazon EMR 6.4.0 中修正。
+ 
**重要**  
執行 Amazon Linux 或 Amazon Linux 2 Amazon Machine Image (AMI) 的 EMR 叢集會使用預設的 Amazon Linux 行為，而且不會自動下載和安裝需要重新開機的重要和關鍵核心更新。這與執行預設 Amazon Linux AMI 的其他 Amazon EC2 執行個體的行為相同。如果需要重新開機的新 Amazon Linux 軟體更新 (例如核心、NVIDIA 和 CUDA 更新) 在 Amazon EMR 版本發行後可用，則執行預設 AMI 的 EMR 叢集執行個體不會自動下載並安裝這些更新。若要取得核心更新，您可以[自訂 Amazon EMR AMI](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html)，以[使用最新的 Amazon Linux AMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html)。
+ 主控台支援建立安全組態，指定 GovCloud 區域目前不支援 AWS Ranger 整合選項。您可以使用 CLI 建立安全組態。請參閱《Amazon EMR 管理指南》**中的[建立 EMR 安全組態](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger-security-config.html)。
+ 範圍受管政策：為符合 AWS 最佳實務，Amazon EMR 已推出 v2 EMR 範圍的預設受管政策，取代即將棄用的政策。請參閱 [Amazon EMR 受管政策](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html)。
+ 當您使用具有 Hive 分割區位置格式設定的 Spark 讀取 Amazon S3 中的資料，而您在 Amazon EMR 版本 5.30.0 至 5.36.0、6.2.0 至 6.9.0 上執行 Spark 時，您可能遇到叢集無法正確讀取資料的問題。如果您的分割區具有以下所有特性，便會發生此種情形：
  + 兩個或更多分割區從同一資料表掃描而來。
  + 至少有一個分割區目錄路徑是其他一或多個分割區目錄路徑的字首，例如，`s3://bucket/table/p=a` 是 `s3://bucket/table/p=a b` 的字首。
  + 在另一個分割區目錄中，字首後的第一個字元有小於 `/` 字元 (U\$1002F) 的 UTF-8 值。例如，`s3://bucket/table/p=a b` 中 a 和 b 之間有空白字元 (U\$10020) 即屬於此類別。請注意還有 14 個其他非控制字元：`!"#$%&‘()*+,-`。如需詳細資訊，請參閱 [UTF-8 編碼表和 Unicode 字元](https://www.utf8-chartable.de/)。

  若要避免發生此問題，請在 `spark-defaults` 分類中將 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 組態設定為 `false`。

## 5.33.1 元件版本
<a name="emr-5331-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.14.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-notebook-env | 1.2.0 | 適用於 emr 筆記本的 Conda env，前者包含 Jupyter Enterprise Gateway | 
| emr-s3-dist-cp | 2.18.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.6.0 | EMR S3Select Connector | 
| emrfs | 2.46.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.12.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| flink-jobmanager-config | 1.12.1 | 管理 Apache Flink JobManager 的 EMR 節點上的資源。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.10.1-amzn-1.1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-1.1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.10.1-amzn-1.1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-1.1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-1.1 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.10.1-amzn-1.1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.10.1-amzn-1.1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.10.1-amzn-1.1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-1.1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-1.1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-1.1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.7-amzn-4 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.7-amzn-4 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.7-amzn-4 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.7-amzn-4 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.7-amzn-4 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.7-amzn-4 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.7-amzn-4 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.7.0-amzn-1 | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-spark | 0.7.0-amzn-1 | 用於使用 Hudi 執行 Spark 的套件程式庫。 | 
| hudi-presto | 0.7.0-amzn-1 | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.9.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.2.2 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.7.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.68\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 10.1.243 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 4.5.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.245.1-amzn-0 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.245.1-amzn-0 | 執行查詢各部分的服務。 | 
| presto-client | 0.245.1-amzn-0 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 4.0.2 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.7-amzn-1.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.7-amzn-1.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.7-amzn-1.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.7-amzn-1.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 2.4.1 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.9.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.33.1 組態類別
<a name="emr-5331-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。

當您為執行中叢集的執行個體群組指定組態時，就會發生重新設定動作。Amazon EMR 只會為您修改的分類啟動重新設定動作。如需詳細資訊，請參閱[重新設定執行中叢集中的執行個體群組](emr-configure-apps-running-cluster.md)。


**emr-5.33.1 分類**  

| 分類 | Description | 重新設定動作 | 
| --- | --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | Restarts the ResourceManager service. | 
| container-executor | 在 Hadoop YARN 的 container-executor.cfg 檔案中變更值。 | Not available. | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | Not available. | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | 變更 Docker 相關設定。 | Not available. | 
| emrfs-site | 變更 EMRFS 設定。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | 變更 flink-conf.yaml 設定。 | Restarts Flink history server. | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | Restarts Flink history server. | 
| flink-log4j-session | 變更 Kubernetes/Yarn 工作階段的 Flink log4j-session.properties 設定。 | Not available. | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | Restarts Flink history server. | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | Not available. | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | Not available. | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | 變更 HBase 環境中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | Not available. | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | Should not be reconfigured. | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | Not available. | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | Not available. | 
| hive-env | 變更 Hive 環境中的值。 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | Not available. | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | Not available. | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | Not available. | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | Restarts Hadoop Httpfs service. | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | Not available. | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | Not available. | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | 變更 Hudi 環境中的值。 | Not available. | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | Not available. | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | Not available. | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | Not available. | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | Not available. | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | Restarts Livy Server. | 
| livy-env | 變更 Livy 環境中的值。 | Restarts Livy Server. | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | Restarts Livy Server. | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | 變更 Oozie 環境中的值。 | Restarts Oozie. | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | Restarts Oozie. | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | Restarts Oozie. | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Not available. | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | Not available. | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | Not available. | 
| pig-env | 在 Pig 環境中變更值。 | Not available. | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | Restarts Oozie. | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | Not available. | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | Not available. | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | Restarts Presto-Server. | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | Not available. | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | Not available. | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | Not available. | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | Not available. | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | Not available. | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | Not available. | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | Not available. | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | Not available. | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | Not available. | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | Not available. | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | Not available. | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | Not available. | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | Not available. | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | Not available. | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | Not available. | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | Not available. | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | Not available. | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | Restarts EMR record server. | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | Restarts EMR record server. | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | Restarts EMR record server. | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | This property modifies spark-defaults. See actions there. | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-env | 變更 Spark 環境中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | Not available. | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | 變更 Sqoop 環境中的值。 | Not available. | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | Not available. | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | Not available. | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | Restarts Oozie. | 
| yarn-env | 變更 YARN 環境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | Restarts Zeppelin. | 
| zeppelin-site | 變更 zeppelin-site.xml 中的組態設定。 | Restarts Zeppelin. | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | Restarts Zookeeper server. | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | Restarts Zookeeper server. | 

# Amazon EMR 5.33.0 版
<a name="emr-5330-release"></a>

## 5.33.0 應用程式版本
<a name="emr-5330-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/)、、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、、、、[http://pig.apache.org/](http://pig.apache.org/)[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、[https://www.tensorflow.org/](https://www.tensorflow.org/)、、、[https://tez.apache.org/](https://tez.apache.org/)、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.33.0 | emr-5.32.1 | emr-5.32.0 | emr-5.31.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.970 | 1.11.890 | 1.11.890 | 1.11.852 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 
| Hadoop | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 
| Hive | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 
| Hudi | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 
| Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 |  -  | 
| JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 
| Spark | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.9.0 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.33.0 版本備註
<a name="emr-5330-relnotes"></a>

## 5.33.0 元件版本
<a name="emr-5330-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.14.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-notebook-env | 1.2.0 | 適用於 emr 筆記本的 Conda env，前者包含 Jupyter Enterprise Gateway | 
| emr-s3-dist-cp | 2.18.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.6.0 | EMR S3Select Connector | 
| emrfs | 2.46.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.12.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| flink-jobmanager-config | 1.12.1 | 管理 Apache Flink JobManager 的 EMR 節點上的資源。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.10.1-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.10.1-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-1 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.10.1-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.10.1-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.10.1-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.7-amzn-4 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.7-amzn-4 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.7-amzn-4 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.7-amzn-4 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.7-amzn-4 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.7-amzn-4 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.7-amzn-4 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.7.0-amzn-1 | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-spark | 0.7.0-amzn-1 | 用於使用 Hudi 執行 Spark 的套件程式庫。 | 
| hudi-presto | 0.7.0-amzn-1 | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.9.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.2.2 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.7.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.68 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 10.1.243 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 4.5.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.245.1-amzn-0 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.245.1-amzn-0 | 執行查詢各部分的服務。 | 
| presto-client | 0.245.1-amzn-0 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 4.0.2 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.7-amzn-1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.7-amzn-1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.7-amzn-1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.7-amzn-1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 2.4.1 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.9.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.33.0 組態類別
<a name="emr-5330-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。

當您為執行中叢集的執行個體群組指定組態時，就會發生重新設定動作。Amazon EMR 只會為您修改的分類啟動重新設定動作。如需詳細資訊，請參閱[重新設定執行中叢集中的執行個體群組](emr-configure-apps-running-cluster.md)。


**emr-5.33.0 分類**  

| 分類 | Description | 重新設定動作 | 
| --- | --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | Restarts the ResourceManager service. | 
| container-executor | 在 Hadoop YARN 的 container-executor.cfg 檔案中變更值。 | Not available. | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | Not available. | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | 變更 Docker 相關設定。 | Not available. | 
| emrfs-site | 變更 EMRFS 設定。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | 變更 flink-conf.yaml 設定。 | Restarts Flink history server. | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | Restarts Flink history server. | 
| flink-log4j-session | 變更 Kubernetes/Yarn 工作階段的 Flink log4j-session.properties 設定。 | Not available. | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | Restarts Flink history server. | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | Not available. | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | Not available. | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | 變更 HBase 環境中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | Not available. | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | Should not be reconfigured. | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | Not available. | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | Not available. | 
| hive-env | 變更 Hive 環境中的值。 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | Not available. | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | Not available. | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | Not available. | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | Restarts Hadoop Httpfs service. | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | Not available. | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | Not available. | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | 變更 Hudi 環境中的值。 | Not available. | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | Not available. | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | Not available. | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | Not available. | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | Not available. | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | Restarts Livy Server. | 
| livy-env | 變更 Livy 環境中的值。 | Restarts Livy Server. | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | Restarts Livy Server. | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | 變更 Oozie 環境中的值。 | Restarts Oozie. | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | Restarts Oozie. | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | Restarts Oozie. | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Not available. | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | Not available. | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | Not available. | 
| pig-env | 在 Pig 環境中變更值。 | Not available. | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | Restarts Oozie. | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | Not available. | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | Not available. | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | Restarts Presto-Server. | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | Not available. | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | Not available. | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | Not available. | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | Not available. | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | Not available. | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | Not available. | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | Not available. | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | Not available. | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | Not available. | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | Not available. | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | Not available. | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | Not available. | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | Not available. | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | Not available. | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | Not available. | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | Not available. | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | Not available. | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | Restarts EMR record server. | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | Restarts EMR record server. | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | Restarts EMR record server. | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | This property modifies spark-defaults. See actions there. | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-env | 變更 Spark 環境中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | Not available. | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | 變更 Sqoop 環境中的值。 | Not available. | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | Not available. | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | Not available. | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | Restarts Oozie. | 
| yarn-env | 變更 YARN 環境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | Restarts Zeppelin. | 
| zeppelin-site | 變更 zeppelin-site.xml 中的組態設定。 | Restarts Zeppelin. | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | Restarts Zookeeper server. | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | Restarts Zookeeper server. | 

# Amazon EMR 5.32.1 版
<a name="emr-5321-release"></a>

## 5.32.1 應用程式版本
<a name="emr-5321-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/)、、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、、、[http://pig.apache.org/](http://pig.apache.org/)[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、[https://www.tensorflow.org/](https://www.tensorflow.org/)、、、[https://tez.apache.org/](https://tez.apache.org/)、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.32.1 | emr-5.32.0 | emr-5.31.1 | emr-5.31.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.890 | 1.11.890 | 1.11.852 | 1.11.852 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 
| Hadoop | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 
| Hive | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 
| Hudi | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 
| Hue | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 
| Spark | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.32.1 版本備註
<a name="emr-5321-relnotes"></a>

此版本修正 Amazon EMR 擴展無法成功縱向擴展/縮減叢集規模或導致應用程式發生故障的問題。

**變更、強化功能和已解決的問題**
+ 修正當 Amazon EMR 叢集上常駐程式執行運作狀態檢查活動 (例如收集 YARN 節點狀態和 HDFS 節點狀態) 時，對大型、高度使用的叢集發起的擴展請求失敗的問題。發生此問題的原因是，叢集上常駐程式無法將節點的運作狀態資料傳送至內部 Amazon EMR 元件。
+ 改進 EMR 叢集上常駐程式，以便在擴展操作期間為提高可靠性而重複使用 IP 地址時，正確地追蹤節點狀態。
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683)。修正因為 Spark 擔任的所有可用的節點被列入拒絕清單，而導致作業在叢集縮減規模期間失敗的問題。
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011)。修正當叢集嘗試縱向擴展或縮減規模時，作業因 YARN 除役中的競爭條件而失敗的問題。
+ 透過確保 Amazon EMR 叢集上常駐程式和 YARN/HDFS 之間的節點狀態始終是一致的，修正叢集擴展期間的步驟或作業失敗問題。
+ 針對使用 Kerberos 身分驗證啟用的 Amazon EMR 叢集，修正某些叢集操作 (例如縮減規模和步驟提交) 失敗的問題。這是因為 Amazon EMR 叢集上的常駐程式未更新 Kerberos 票證，而它對於與主節點上執行的 HDFS/YARN 通訊而言必不可少。
+ 較新的 Amazon EMR 版本修正較舊 Amazon EMR 版本中 AL2 上的「最大開放檔案」限制過低的問題。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本現在包含使用更高「最大開放檔案」設定的永久修正。
+ Amazon Linux 儲存庫現預設啟用 HTTPS。若您使用 Amazon S3 VPCE 政策來限制對特定儲存貯體的存取，則必須新增 Amazon Linux 儲存貯體 ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` 至您的政策 (使用端點所在區域取代 `$region`)。如需詳細資訊，請參閱 AWS 討論論壇中的此主題。[公告：Amazon Linux 2 現支援在連線至套件儲存庫時使用 HTTPS](https://forums.aws.amazon.com/ann.jspa?annID=8528)。

**已知問題**
+ 當您使用具有 Hive 分割區位置格式設定的 Spark 讀取 Amazon S3 中的資料，而您在 Amazon EMR 版本 5.30.0 至 5.36.0、6.2.0 至 6.9.0 上執行 Spark 時，您可能遇到叢集無法正確讀取資料的問題。如果您的分割區具有以下所有特性，便會發生此種情形：
  + 兩個或更多分割區從同一資料表掃描而來。
  + 至少有一個分割區目錄路徑是其他一或多個分割區目錄路徑的字首，例如，`s3://bucket/table/p=a` 是 `s3://bucket/table/p=a b` 的字首。
  + 在另一個分割區目錄中，字首後的第一個字元有小於 `/` 字元 (U\$1002F) 的 UTF-8 值。例如，`s3://bucket/table/p=a b` 中 a 和 b 之間有空白字元 (U\$10020) 即屬於此類別。請注意還有 14 個其他非控制字元：`!"#$%&‘()*+,-`。如需詳細資訊，請參閱 [UTF-8 編碼表和 Unicode 字元](https://www.utf8-chartable.de/)。

  若要避免發生此問題，請在 `spark-defaults` 分類中將 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 組態設定為 `false`。

## 5.32.1 元件版本
<a name="emr-5321-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.13.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-notebook-env | 1.1.0 | 適用於 emr 筆記本的 Conda env，前者包含 Jupyter Enterprise Gateway | 
| emr-s3-dist-cp | 2.17.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.6.0 | EMR S3Select Connector | 
| emrfs | 2.45.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.11.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| flink-jobmanager-config | 1.11.2 | 管理 Apache Flink JobManager 的 EMR 節點上的資源。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.10.1-amzn-0.1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-0.1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.10.1-amzn-0.1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-0.1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-0.1 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.10.1-amzn-0.1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.10.1-amzn-0.1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.10.1-amzn-0.1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-0.1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-0.1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-0.1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.7-amzn-3 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.7-amzn-3 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.7-amzn-3 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.7-amzn-3 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.7-amzn-3 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.7-amzn-3 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.7-amzn-3 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.6.0-amzn-0 | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-spark | 0.6.0-amzn-0 | 用於使用 Hudi 執行 Spark 的套件程式庫。 | 
| hudi-presto | 0.6.0-amzn-0 | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.8.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.1.0 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.7.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.68\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 10.1.243 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 4.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.240.1-amzn-0 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.240.1-amzn-0 | 執行查詢各部分的服務。 | 
| presto-client | 0.240.1-amzn-0 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.3 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.7-amzn-0.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.7-amzn-0.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.7-amzn-0.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.7-amzn-0.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 2.3.1 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.32.1 組態類別
<a name="emr-5321-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。

當您為執行中叢集的執行個體群組指定組態時，就會發生重新設定動作。Amazon EMR 只會為您修改的分類啟動重新設定動作。如需詳細資訊，請參閱[重新設定執行中叢集中的執行個體群組](emr-configure-apps-running-cluster.md)。


**emr-5.32.1 分類**  

| 分類 | Description | 重新設定動作 | 
| --- | --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | Restarts the ResourceManager service. | 
| container-executor | 在 Hadoop YARN 的 container-executor.cfg 檔案中變更值。 | Not available. | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | Not available. | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | 變更 Docker 相關設定。 | Not available. | 
| emrfs-site | 變更 EMRFS 設定。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | 變更 flink-conf.yaml 設定。 | Restarts Flink history server. | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | Restarts Flink history server. | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | Not available. | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | Restarts Flink history server. | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | Not available. | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | Not available. | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | 變更 HBase 環境中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | Not available. | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | Should not be reconfigured. | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | Not available. | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | Not available. | 
| hive-env | 變更 Hive 環境中的值。 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | Not available. | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | Not available. | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | Not available. | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | Restarts Hadoop Httpfs service. | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | Not available. | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | Not available. | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | 變更 Hudi 環境中的值。 | Not available. | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | Not available. | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | Not available. | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | Not available. | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | Not available. | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | Restarts Livy Server. | 
| livy-env | 變更 Livy 環境中的值。 | Restarts Livy Server. | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | Restarts Livy Server. | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | 變更 Oozie 環境中的值。 | Restarts Oozie. | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | Restarts Oozie. | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | Restarts Oozie. | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Not available. | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | Not available. | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | Not available. | 
| pig-env | 在 Pig 環境中變更值。 | Not available. | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | Restarts Oozie. | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | Not available. | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | Not available. | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | Restarts Presto-Server. | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | Not available. | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | Not available. | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | Not available. | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | Not available. | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | Not available. | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | Not available. | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | Not available. | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | Not available. | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | Not available. | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | Not available. | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | Not available. | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | Not available. | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | Not available. | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | Not available. | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | Not available. | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | Not available. | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | Not available. | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | Restarts EMR record server. | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | Restarts EMR record server. | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | Restarts EMR record server. | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | This property modifies spark-defaults. See actions there. | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-env | 變更 Spark 環境中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | Not available. | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | 變更 Sqoop 環境中的值。 | Not available. | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | Not available. | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | Not available. | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | Restarts Oozie. | 
| yarn-env | 變更 YARN 環境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | Restarts Zeppelin. | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | Restarts Zookeeper server. | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | Restarts Zookeeper server. | 

# Amazon EMR 5.32.0 版
<a name="emr-5320-release"></a>

## 5.32.0 應用程式版本
<a name="emr-5320-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)、[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/)、、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、、、[http://pig.apache.org/](http://pig.apache.org/)[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、[https://www.tensorflow.org/](https://www.tensorflow.org/)、、、[https://tez.apache.org/](https://tez.apache.org/)、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.32.0 | emr-5.31.1 | emr-5.31.0 | emr-5.30.2 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.890 | 1.11.852 | 1.11.852 | 1.11.759 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.0 | 1.11.0 | 1.10.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 
| Hadoop | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 
| Hive | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 
| Hudi | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.5.2-incubating | 
| Hue | 4.8.0 | 4.7.1 | 4.7.1 | 4.6.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 0.232 | 
| Spark | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.32.0 版本備註
<a name="emr-5320-relnotes"></a>

以下版本備註包含 Amazon EMR 5.32.0 版的資訊。變更是相對於 5.31.0 版而言。

初始版本日期：2021 年 6 月 8 日

**升級**
+ 升級 Amazon Glue 連接器至版本 1.14.0
+ 升級 Amazon SageMaker Spark 軟體開發套件至版本 1.4.1
+  適用於 Java 的 AWS SDK 升級至 1.11.890 版
+ 升級 EMR DynamoDB 連接器至版本 4.16.0
+ 升級 EMRFS 至版本 2.45.0
+ 升級 EMR 日誌分析指標至版本 1.18.0
+ 升級 EMR MetricsAndEventsApiGateway 用戶端至版本 1.5.0
+ 升級 EMR 記錄伺服器至版本 1.8.0
+ 升級 EMR S3 Dist CP 至版本 2.17.0
+ 升級 EMR 機密代理程式至版本 1.7.0
+ 升級 Flink 至版本 1.11.2
+ 升級 Hadoop 至版本 2.10.1-amzn-0
+ 升級 Hive 至版本 2.3.7-amzn-3
+ 升級 Hue 至版本 4.8.0
+ 升級 Mxnet 至版本 1.7.0
+ 升級 OpenCV 至版本 4.4.0
+ 升級 Presto 至版本 0.240.1-amzn-0
+ 升級 Spark 至版本 2.4.7-amzn-0
+ 升級 TensorFlow 至版本 2.3.1

**變更、強化功能和已解決的問題**
+ 此版本修正 Amazon EMR 擴展無法成功縱向擴展/縮減叢集規模或導致應用程式發生故障的問題。
+ 修正當 Amazon EMR 叢集上常駐程式執行運作狀態檢查活動 (例如收集 YARN 節點狀態和 HDFS 節點狀態) 時，對大型、高度使用的叢集發起的擴展請求失敗的問題。發生此問題的原因是，叢集上常駐程式無法將節點的運作狀態資料傳送至內部 Amazon EMR 元件。
+ 改進 EMR 叢集上常駐程式，以便在擴展操作期間為提高可靠性而重複使用 IP 地址時，正確地追蹤節點狀態。
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683)。修正因為 Spark 擔任的所有可用的節點被列入拒絕清單，而導致作業在叢集縮減規模期間失敗的問題。
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011)。修正當叢集嘗試縱向擴展或縮減規模時，作業因 YARN 除役中的競爭條件而失敗的問題。
+ 透過確保 Amazon EMR 叢集上常駐程式和 YARN/HDFS 之間的節點狀態始終是一致的，修正叢集擴展期間的步驟或作業失敗問題。
+ 針對使用 Kerberos 身分驗證啟用的 Amazon EMR 叢集，修正某些叢集操作 (例如縮減規模和步驟提交) 失敗的問題。這是因為 Amazon EMR 叢集上的常駐程式未更新 Kerberos 票證，而它對於與主節點上執行的 HDFS/YARN 通訊而言必不可少。
+ 較新的 Amazon EMR 版本修正較舊 Amazon EMR 版本中 AL2 上的「最大開放檔案」限制過低的問題。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本現在包含使用更高「最大開放檔案」設定的永久修正。
+ 已升級元件版本。
+ 如需檢視元件版本清單，請參閱本指南中的[關於 Amazon EMR 版本](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-release-components.html)。

**新功能**
+ 自 Amazon EMR 5.32.0 和 6.5.0 起，預設為 Apache Spark 啟用動態執行器規模調整。若要開啟或關閉此功能，您可以使用 `spark.yarn.heterogeneousExecutors.enabled` 組態參數。
+ 執行個體中繼資料服務 (IMDS) 版本 2 支援狀態：Amazon EMR 5.23.1、5.27.1 和 5.32 或更高版本元件對所有 IMDS 呼叫使用 IMDSv2。對於應用程式程式碼中的 IMDS 呼叫，您可以同時使用 IMDSv1 和 IMDSv2，或將 IMDS 設定為僅使用 IMDSv2 來增強安全性。對於其他 5.x EMR 版本，停用 IMDSv1 版本將導致叢集啟動失敗。
+ 從 Amazon EMR 5.32.0 開始，您可以啟動與 Apache Ranger 以原生方式整合的叢集。Apache Ranger 是一個開放原始碼架構，可在 Hadoop 平台上啟用、監控和管理全面的資料安全。如需詳細資訊，請參閱 [Apache Ranger](https://ranger.apache.org/)。透過原生整合，您可以使用自己的 Apache Ranger 在 Amazon EMR 上強制執行精細分級的資料存取控制。請參閱《Amazon EMR 版本指南》**中的[將 Amazon EMR 與 Apache Ranger 整合](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger.html)。
+ Amazon EMR 5.32.0 版支援 Amazon EMR on EKS。有關 EMR on EKS 入門的更多詳細資訊，請參閱[什麼是 Amazon EMR on EKS](https://docs.aws.amazon.com/emr/latest/EMR-on-EKS-DevelopmentGuide/emr-eks.html)。
+ Amazon EMR 5.32.0 版支援 Amazon EMR Studio (預覽版)。有關 EMR Studio 入門的更多詳細資訊，請參閱 [Amazon EMR Studio (預覽版)](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-studio.html)。
+ 範圍受管政策：為符合 AWS 最佳實務，Amazon EMR 已推出 v2 EMR 範圍的預設受管政策，取代即將棄用的政策。請參閱 [Amazon EMR 受管政策](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html)。

**已知問題**
+ 對於 Amazon EMR 6.3.0 和 6.2.0 私有子網路叢集，您不能存取 Ganglia Web UI。您將遇到「存取遭拒 (403)」錯誤。其他 Web UI (例如 Spark、Hue、JupyterHub、Zeppelin、Livy 和 Tez) 將正常運作。Ganglia Web UI 也將正常存取公有子網路叢集。若要解決此問題，請使用 `sudo systemctl restart httpd` 重新啟動主節點上的 httpd 服務。此問題已在 Amazon EMR 6.4.0 中修正。
+ **較舊 AL2 上的「最大開放檔案」限制過低 [在新版本中修正]。**Amazon EMR 版本：emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 以較舊版本 Amazon Linux 2 (AL2) 為基礎；當使用預設 AMI 建立 Amazon EMR 叢集時，後者的「最大開放檔案」ulimit 設定過低。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本包含使用更高「最大開放檔案」設定的永久修正。提交 Spark 作業時，開放檔限制較低的版本會導致「開放檔案過多」錯誤。在受影響版本中，Amazon EMR 預設 AMI 對「最大開放檔案」有 4096 的預設 ulimit 設定，此設定低於最新 Amazon Linux 2 AMI 中的 65536 檔案限制。當 Spark 驅動程式和執行器嘗試開啟超過 4096 個檔案時，「最大開放檔案」的 ulimit 設定過低會導致 Spark 作業失敗。為了修正該問題，Amazon EMR 提供引導操作 (BA) 指令碼，以便在建立叢集時調整 ulimit 設定。

  若您使用未永久修正此問題的較舊 Amazon EMR 版本，以下解決辦法可讓您將執行個體-控制器 ulimit 明確設定為最大 65536 個檔案。

**從命令列明確設定 ulimit**

  1. 編輯 `/etc/systemd/system/instance-controller.service` 以新增下列參數至「服務」區段。

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. 重新啟動 InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **使用引導操作 (BA) 設定 ulimit**

  您還可以使用引導操作 (BA) 指令碼，在建立叢集時將執行個體-控制器 ulimit 設定為 65536 個檔案。

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**重要**  
執行 Amazon Linux 或 Amazon Linux 2 Amazon Machine Image (AMI) 的 EMR 叢集會使用預設的 Amazon Linux 行為，而且不會自動下載和安裝需要重新開機的重要和關鍵核心更新。這與執行預設 Amazon Linux AMI 的其他 Amazon EC2 執行個體的行為相同。如果需要重新開機的新 Amazon Linux 軟體更新 (例如核心、NVIDIA 和 CUDA 更新) 在 Amazon EMR 版本發行後可用，則執行預設 AMI 的 EMR 叢集執行個體不會自動下載並安裝這些更新。若要取得核心更新，您可以[自訂 Amazon EMR AMI](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html)，以[使用最新的 Amazon Linux AMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html)。
+ 主控台支援建立安全組態，指定 GovCloud 區域目前不支援 AWS Ranger 整合選項。您可以使用 CLI 建立安全組態。請參閱《Amazon EMR 管理指南》**中的[建立 EMR 安全組態](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger-security-config.html)。
+ 在使用 Amazon EMR 5.31.0 或 5.32.0 的叢集上啟用 AtRestEncryption 或 HDFS 加密時，Hive 查詢會導致以下執行期例外狀況。

  ```
  TaskAttempt 3 failed, info=[Error: Error while running task ( failure ) : attempt_1604112648850_0001_1_01_000000_3:java.lang.RuntimeException: java.lang.RuntimeException: Hive Runtime Error while closing operators: java.io.IOException: java.util.ServiceConfigurationError: org.apache.hadoop.security.token.TokenIdentifier: Provider org.apache.hadoop.hbase.security.token.AuthenticationTokenIdentifier not found
  ```
+ 當您使用具有 Hive 分割區位置格式設定的 Spark 讀取 Amazon S3 中的資料，而您在 Amazon EMR 版本 5.30.0 至 5.36.0、6.2.0 至 6.9.0 上執行 Spark 時，您可能遇到叢集無法正確讀取資料的問題。如果您的分割區具有以下所有特性，便會發生此種情形：
  + 兩個或更多分割區從同一資料表掃描而來。
  + 至少有一個分割區目錄路徑是其他一或多個分割區目錄路徑的字首，例如，`s3://bucket/table/p=a` 是 `s3://bucket/table/p=a b` 的字首。
  + 在另一個分割區目錄中，字首後的第一個字元有小於 `/` 字元 (U\$1002F) 的 UTF-8 值。例如，`s3://bucket/table/p=a b` 中 a 和 b 之間有空白字元 (U\$10020) 即屬於此類別。請注意還有 14 個其他非控制字元：`!"#$%&‘()*+,-`。如需詳細資訊，請參閱 [UTF-8 編碼表和 Unicode 字元](https://www.utf8-chartable.de/)。

  若要避免發生此問題，請在 `spark-defaults` 分類中將 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 組態設定為 `false`。

## 5.32.0 元件版本
<a name="emr-5320-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.13.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-notebook-env | 1.1.0 | 適用於 emr 筆記本的 Conda env，前者包含 Jupyter Enterprise Gateway | 
| emr-s3-dist-cp | 2.17.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.6.0 | EMR S3Select Connector | 
| emrfs | 2.45.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.11.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| flink-jobmanager-config | 1.11.2 | 管理 Apache Flink JobManager 的 EMR 節點上的資源。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.10.1-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.10.1-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-0 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.10.1-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.10.1-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.10.1-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.7-amzn-3 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.7-amzn-3 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.7-amzn-3 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.7-amzn-3 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.7-amzn-3 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.7-amzn-3 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.7-amzn-3 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.6.0-amzn-0 | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-spark | 0.6.0-amzn-0 | 用於使用 Hudi 執行 Spark 的套件程式庫。 | 
| hudi-presto | 0.6.0-amzn-0 | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.8.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.1.0 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.7.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.68 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 10.1.243 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 4.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.240.1-amzn-0 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.240.1-amzn-0 | 執行查詢各部分的服務。 | 
| presto-client | 0.240.1-amzn-0 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.3 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.7-amzn-0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.7-amzn-0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.7-amzn-0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.7-amzn-0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 2.3.1 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.32.0 組態類別
<a name="emr-5320-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。

當您為執行中叢集的執行個體群組指定組態時，就會發生重新設定動作。Amazon EMR 只會為您修改的分類啟動重新設定動作。如需詳細資訊，請參閱[重新設定執行中叢集中的執行個體群組](emr-configure-apps-running-cluster.md)。


**emr-5.32.0 分類**  

| 分類 | Description | 重新設定動作 | 
| --- | --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | Restarts the ResourceManager service. | 
| container-executor | 在 Hadoop YARN 的 container-executor.cfg 檔案中變更值。 | Not available. | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | Not available. | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | 變更 Docker 相關設定。 | Not available. | 
| emrfs-site | 變更 EMRFS 設定。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | 變更 flink-conf.yaml 設定。 | Restarts Flink history server. | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | Restarts Flink history server. | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | Not available. | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | Restarts Flink history server. | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | Not available. | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | Not available. | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | 變更 HBase 環境中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | Not available. | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | Should not be reconfigured. | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | Not available. | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | Not available. | 
| hive-env | 變更 Hive 環境中的值。 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | Not available. | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | Not available. | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | Not available. | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | Restarts Hadoop Httpfs service. | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | Not available. | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | Not available. | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | 變更 Hudi 環境中的值。 | Not available. | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | Not available. | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | Not available. | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | Not available. | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | Not available. | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | Restarts Livy Server. | 
| livy-env | 變更 Livy 環境中的值。 | Restarts Livy Server. | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | Restarts Livy Server. | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | 變更 Oozie 環境中的值。 | Restarts Oozie. | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | Restarts Oozie. | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | Restarts Oozie. | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | Not available. | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | Not available. | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | Not available. | 
| pig-env | 在 Pig 環境中變更值。 | Not available. | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | Restarts Oozie. | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | Not available. | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | Not available. | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | Restarts Presto-Server. | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | Not available. | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | Not available. | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | Not available. | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | Restarts Presto-Server. | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | Not available. | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | Not available. | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | Not available. | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | Not available. | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | Not available. | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | Not available. | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | Not available. | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | Not available. | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | Not available. | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | Not available. | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | Not available. | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | Not available. | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | Not available. | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | Not available. | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | Restarts EMR record server. | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | Restarts EMR record server. | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | Restarts EMR record server. | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | This property modifies spark-defaults. See actions there. | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-env | 變更 Spark 環境中的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | Not available. | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | 變更 Sqoop 環境中的值。 | Not available. | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | Not available. | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | Not available. | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | Restarts Oozie. | 
| yarn-env | 變更 YARN 環境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | Restarts Zeppelin. | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | Restarts Zookeeper server. | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | Restarts Zookeeper server. | 

# Amazon EMR 5.31.1 版
<a name="emr-5311-release"></a>

## 5.31.1 應用程式版本
<a name="emr-5311-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、、[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)、[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.31.1 | emr-5.31.0 | emr-5.30.2 | emr-5.30.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.852 | 1.11.852 | 1.11.759 | 1.11.759 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 | 1.10.0 | 1.10.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hadoop | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 
| Hive | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hudi | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.5.2-incubating | 0.5.2-incubating | 
| Hue | 4.7.1 | 4.7.1 | 4.6.0 | 4.6.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 0.232 | 0.232 | 
| Spark | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.31.1 版本備註
<a name="emr-5311-relnotes"></a>

此版本修正 Amazon EMR 擴展無法成功縱向擴展/縮減叢集規模或導致應用程式發生故障的問題。

**變更、強化功能和已解決的問題**
+ 修正當 Amazon EMR 叢集上常駐程式執行運作狀態檢查活動 (例如收集 YARN 節點狀態和 HDFS 節點狀態) 時，對大型、高度使用的叢集發起的擴展請求失敗的問題。發生此問題的原因是，叢集上常駐程式無法將節點的運作狀態資料傳送至內部 Amazon EMR 元件。
+ 改進 EMR 叢集上常駐程式，以便在擴展操作期間為提高可靠性而重複使用 IP 地址時，正確地追蹤節點狀態。
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683)。修正因為 Spark 擔任的所有可用的節點被列入拒絕清單，而導致作業在叢集縮減規模期間失敗的問題。
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011)。修正當叢集嘗試縱向擴展或縮減規模時，作業因 YARN 除役中的競爭條件而失敗的問題。
+ 透過確保 Amazon EMR 叢集上常駐程式和 YARN/HDFS 之間的節點狀態始終是一致的，修正叢集擴展期間的步驟或作業失敗問題。
+ 針對使用 Kerberos 身分驗證啟用的 Amazon EMR 叢集，修正某些叢集操作 (例如縮減規模和步驟提交) 失敗的問題。這是因為 Amazon EMR 叢集上的常駐程式未更新 Kerberos 票證，而它對於與主節點上執行的 HDFS/YARN 通訊而言必不可少。
+ 較新的 Amazon EMR 版本修正較舊 Amazon EMR 版本中 AL2 上的「最大開放檔案」限制過低的問題。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本現在包含使用更高「最大開放檔案」設定的永久修正。
+ Amazon Linux 儲存庫現預設啟用 HTTPS。若您使用 Amazon S3 VPCE 政策來限制對特定儲存貯體的存取，則必須新增 Amazon Linux 儲存貯體 ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` 至您的政策 (使用端點所在區域取代 `$region`)。如需詳細資訊，請參閱 AWS 討論論壇中的此主題。[公告：Amazon Linux 2 現支援在連線至套件儲存庫時使用 HTTPS](https://forums.aws.amazon.com/ann.jspa?annID=8528)。

**已知問題**
+ 當您使用具有 Hive 分割區位置格式設定的 Spark 讀取 Amazon S3 中的資料，而您在 Amazon EMR 版本 5.30.0 至 5.36.0、6.2.0 至 6.9.0 上執行 Spark 時，您可能遇到叢集無法正確讀取資料的問題。如果您的分割區具有以下所有特性，便會發生此種情形：
  + 兩個或更多分割區從同一資料表掃描而來。
  + 至少有一個分割區目錄路徑是其他一或多個分割區目錄路徑的字首，例如，`s3://bucket/table/p=a` 是 `s3://bucket/table/p=a b` 的字首。
  + 在另一個分割區目錄中，字首後的第一個字元有小於 `/` 字元 (U\$1002F) 的 UTF-8 值。例如，`s3://bucket/table/p=a b` 中 a 和 b 之間有空白字元 (U\$10020) 即屬於此類別。請注意還有 14 個其他非控制字元：`!"#$%&‘()*+,-`。如需詳細資訊，請參閱 [UTF-8 編碼表和 Unicode 字元](https://www.utf8-chartable.de/)。

  若要避免發生此問題，請在 `spark-defaults` 分類中將 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 組態設定為 `false`。

## 5.31.1 元件版本
<a name="emr-5311-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.15.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.13.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.15.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.6.0 | EMR S3Select Connector | 
| emrfs | 2.43.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.11.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| flink-jobmanager-config | 1.11.0 | 管理 Apache Flink JobManager 的 EMR 節點上的資源。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.10.0-amzn-0.1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.10.0-amzn-0.1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.10.0-amzn-0.1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.10.0-amzn-0.1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.10.0-amzn-0.1 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.10.0-amzn-0.1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.10.0-amzn-0.1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.10.0-amzn-0.1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.10.0-amzn-0.1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.10.0-amzn-0.1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.10.0-amzn-0.1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.7-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.7-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.7-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.7-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.7-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.7-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.7-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.6.0-amzn-0 | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-spark | 0.6.0-amzn-0 | 用於使用 Hudi 執行 Spark 的套件程式庫。 | 
| hudi-presto | 0.6.0-amzn-0 | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.7.1 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.1.0 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.6.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.64\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 4.3.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.238.3-amzn-0 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.238.3-amzn-0 | 執行查詢各部分的服務。 | 
| presto-client | 0.238.3-amzn-0 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.3 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.6-amzn-0.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.6-amzn-0.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.6-amzn-0.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.6-amzn-0.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 2.1.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.31.1 組態類別
<a name="emr-5311-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.31.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| hudi-env | 變更 Hudi 環境中的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.31.0 版
<a name="emr-5310-release"></a>

## 5.31.0 應用程式版本
<a name="emr-5310-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、、[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)、[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.31.0 | emr-5.30.2 | emr-5.30.1 | emr-5.30.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.852 | 1.11.759 | 1.11.759 | 1.11.759 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.10.0 | 1.10.0 | 1.10.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hadoop | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 
| Hive | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hudi | 0.6.0-amzn-0 | 0.5.2-incubating | 0.5.2-incubating | 0.5.2-incubating | 
| Hue | 4.7.1 | 4.6.0 | 4.6.0 | 4.6.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.6.0 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-0 | 0.232 | 0.232 | 0.232 | 
| Spark | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.1.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.31.0 版本備註
<a name="emr-5310-relnotes"></a>

以下版本備註包含 Amazon EMR 5.31.0 版的資訊。變更是相對於 5.30.1 版而言。

初始版本日期：2020 年 10 月 9 日

上次更新日期：2020 年 10 月 15 日

**升級**
+ 升級 Amazon Glue 連接器至版本 1.13.0
+ 升級 Amazon SageMaker Spark 軟體開發套件至版本 1.4.0
+ 升級 Amazon Kinesis 連接器至版本 3.5.9 
+  適用於 Java 的 AWS SDK 升級至 1.11.852 版
+ 升級 Bigtop-tomcat 至版本 8.5.56
+ 升級 EMR FS 至版本 2.43.0
+ 升級 EMR MetricsAndEventsApiGateway 用戶端至版本 1.4.0
+ 升級 EMR S3 Dist CP 至版本 2.15.0
+ 升級 EMR S3 Select 至版本 1.6.0
+ 升級 Flink 至版本 1.11.0
+ 升級 Hadoop 至版本 2.10.0
+ 升級 Hive 至版本 2.3.7
+ 升級 Hudi 至版本 0.6.0
+ 升級 Hue 至版本 4.7.1
+ 升級 JupyterHub 至 1.1.0 版
+ 升級 Mxnet 至版本 1.6.0
+ 升級 OpenCV 至版本 4.3.0
+ 升級 Presto 至版本 0.238.3
+ 升級 TensorFlow 至版本 2.1.0

**變更、強化功能和已解決的問題**
+ 此版本修正 Amazon EMR 擴展無法成功縱向擴展/縮減叢集規模或導致應用程式發生故障的問題。
+ 修正當 Amazon EMR 叢集上常駐程式執行運作狀態檢查活動 (例如收集 YARN 節點狀態和 HDFS 節點狀態) 時，對大型、高度使用的叢集發起的擴展請求失敗的問題。發生此問題的原因是，叢集上常駐程式無法將節點的運作狀態資料傳送至內部 Amazon EMR 元件。
+ 改進 EMR 叢集上常駐程式，以便在擴展操作期間為提高可靠性而重複使用 IP 地址時，正確地追蹤節點狀態。
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683)。修正因為 Spark 擔任的所有可用的節點被列入拒絕清單，而導致作業在叢集縮減規模期間失敗的問題。
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011)。修正當叢集嘗試縱向擴展或縮減規模時，作業因 YARN 除役中的競爭條件而失敗的問題。
+ 透過確保 Amazon EMR 叢集上常駐程式和 YARN/HDFS 之間的節點狀態始終是一致的，修正叢集擴展期間的步驟或作業失敗問題。
+ 針對使用 Kerberos 身分驗證啟用的 Amazon EMR 叢集，修正某些叢集操作 (例如縮減規模和步驟提交) 失敗的問題。這是因為 Amazon EMR 叢集上的常駐程式未更新 Kerberos 票證，而它對於與主節點上執行的 HDFS/YARN 通訊而言必不可少。
+ 較新的 Amazon EMR 版本修正較舊 Amazon EMR 版本中 AL2 上的「最大開放檔案」限制過低的問題。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本現在包含使用更高「最大開放檔案」設定的永久修正。
+ Amazon EMR 版本 5.31.0 及更高版本支援 [Hive 資料欄統計資料](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-ColumnStatistics)。
+ 已升級元件版本。
+ Amazon EMR 5.31.0 中的 EMRFS S3EC 版本 2 支援。在 S3 Java SDK 版本 1.11.837 及更高版本中，加密用戶端版本 2 (S3EC V2) 已推出並提供各種安全增強功能。如需詳細資訊，請參閱下列內容：
  + S3 部落格文章：[《更新至 Amazon S3 加密用戶端》](https://aws.amazon.com/blogs/developer/updates-to-the-amazon-s3-encryption-client/)。
  + 適用於 Java 的 AWS SDK 開發人員指南：[將加密和解密用戶端遷移至 V2](https://docs.aws.amazon.com/sdk-for-java/v1/developer-guide/s3-encryption-migration.html#s3-cse-update-code)。
  + 《EMR 管理指南》：[Amazon S3 用戶端加密](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-emrfs-encryption-cse.html)。

  SDK 中仍提供加密用戶端版本 1 以實現回溯相容性。

**新功能**
+ **較舊 AL2 上的「最大開放檔案」限制過低 [在新版本中修正]。**Amazon EMR 版本：emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 以較舊版本 Amazon Linux 2 (AL2) 為基礎；當使用預設 AMI 建立 Amazon EMR 叢集時，後者的「最大開放檔案」ulimit 設定過低。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本包含使用更高「最大開放檔案」設定的永久修正。提交 Spark 作業時，開放檔限制較低的版本會導致「開放檔案過多」錯誤。在受影響版本中，Amazon EMR 預設 AMI 對「最大開放檔案」有 4096 的預設 ulimit 設定，此設定低於最新 Amazon Linux 2 AMI 中的 65536 檔案限制。當 Spark 驅動程式和執行器嘗試開啟超過 4096 個檔案時，「最大開放檔案」的 ulimit 設定過低會導致 Spark 作業失敗。為了修正該問題，Amazon EMR 提供引導操作 (BA) 指令碼，以便在建立叢集時調整 ulimit 設定。

  若您使用未永久修正此問題的較舊 Amazon EMR 版本，以下解決辦法可讓您將執行個體-控制器 ulimit 明確設定為最大 65536 個檔案。

**從命令列明確設定 ulimit**

  1. 編輯 `/etc/systemd/system/instance-controller.service` 以新增下列參數至「服務」區段。

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. 重新啟動 InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **使用引導操作 (BA) 設定 ulimit**

  您還可以使用引導操作 (BA) 指令碼，在建立叢集時將執行個體-控制器 ulimit 設定為 65536 個檔案。

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 使用 Amazon EMR 5.31.0，您可以啟動與 Lake Formation 整合的叢集。此整合為 Glue Data Catalog AWS 中的資料庫和資料表提供精細的資料欄層級資料篩選。它還啟用聯合單一登入，因此使用者可從企業身分系統登入 EMR Notebooks 或 Apache Zeppelin。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[將 Amazon EMR 與 AWS Lake Formation整合](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lake-formation.html)。

  Amazon EMR with Lake Formation 目前在 16 AWS 區域提供：美國東部 （俄亥俄和維吉尼亞北部）、美國西部 （加利佛尼亞北部和奧勒岡）、亞太區域 （孟買、首爾、新加坡、雪梨和東京）、加拿大 （中部）、歐洲 （法蘭克福、愛爾蘭、倫敦、巴黎和斯德哥爾摩）、南美洲 （聖保羅）。

**已知問題**
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。
+ 在使用 Amazon EMR 5.31.0 或 5.32.0 的叢集上啟用 AtRestEncryption 或 HDFS 加密時，Hive 查詢會導致以下執行期例外狀況。

  ```
  TaskAttempt 3 failed, info=[Error: Error while running task ( failure ) : attempt_1604112648850_0001_1_01_000000_3:java.lang.RuntimeException: java.lang.RuntimeException: Hive Runtime Error while closing operators: java.io.IOException: java.util.ServiceConfigurationError: org.apache.hadoop.security.token.TokenIdentifier: Provider org.apache.hadoop.hbase.security.token.AuthenticationTokenIdentifier not found
  ```
+ 當您使用具有 Hive 分割區位置格式設定的 Spark 讀取 Amazon S3 中的資料，而您在 Amazon EMR 版本 5.30.0 至 5.36.0、6.2.0 至 6.9.0 上執行 Spark 時，您可能遇到叢集無法正確讀取資料的問題。如果您的分割區具有以下所有特性，便會發生此種情形：
  + 兩個或更多分割區從同一資料表掃描而來。
  + 至少有一個分割區目錄路徑是其他一或多個分割區目錄路徑的字首，例如，`s3://bucket/table/p=a` 是 `s3://bucket/table/p=a b` 的字首。
  + 在另一個分割區目錄中，字首後的第一個字元有小於 `/` 字元 (U\$1002F) 的 UTF-8 值。例如，`s3://bucket/table/p=a b` 中 a 和 b 之間有空白字元 (U\$10020) 即屬於此類別。請注意還有 14 個其他非控制字元：`!"#$%&‘()*+,-`。如需詳細資訊，請參閱 [UTF-8 編碼表和 Unicode 字元](https://www.utf8-chartable.de/)。

  若要避免發生此問題，請在 `spark-defaults` 分類中將 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 組態設定為 `false`。

## 5.31.0 元件版本
<a name="emr-5310-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.15.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.13.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.15.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.6.0 | EMR S3Select Connector | 
| emrfs | 2.43.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.11.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| flink-jobmanager-config | 1.11.0 | 管理 Apache Flink JobManager 的 EMR 節點上的資源。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.10.0-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.10.0-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.10.0-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.10.0-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.10.0-amzn-0 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.10.0-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.10.0-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.10.0-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.10.0-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.10.0-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.10.0-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.7-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.7-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.7-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.7-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.7-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.7-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.7-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.6.0-amzn-0 | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-spark | 0.6.0-amzn-0 | 用於使用 Hudi 執行 Spark 的套件程式庫。 | 
| hudi-presto | 0.6.0-amzn-0 | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.7.1 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.1.0 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.6.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.64 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 4.3.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.238.3-amzn-0 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.238.3-amzn-0 | 執行查詢各部分的服務。 | 
| presto-client | 0.238.3-amzn-0 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.3 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.6-amzn-0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.6-amzn-0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.6-amzn-0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.6-amzn-0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 2.1.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.31.0 組態類別
<a name="emr-5310-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.31.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| hudi-env | 變更 Hudi 環境中的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.30.2 版
<a name="emr-5302-release"></a>

## 5.30.2 應用程式版本
<a name="emr-5302-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、、[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)、[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.30.2 | emr-5.30.1 | emr-5.30.0 | emr-5.29.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.759 | 1.11.759 | 1.11.759 | 1.11.682 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.10.0 | 1.10.0 | 1.10.0 | 1.9.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 
| Hadoop | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 
| Hive | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 
| Hudi | 0.5.2-incubating | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 
| Hue | 4.6.0 | 4.6.0 | 4.6.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.232 | 0.232 | 0.232 | 0.227 | 
| Spark | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.30.2 版本備註
<a name="emr-5302-relnotes"></a>

此版本修正 Amazon EMR 擴展無法成功縱向擴展/縮減叢集規模或導致應用程式發生故障的問題。

**變更、強化功能和已解決的問題**
+ 修正當 Amazon EMR 叢集上常駐程式執行運作狀態檢查活動 (例如收集 YARN 節點狀態和 HDFS 節點狀態) 時，對大型、高度使用的叢集發起的擴展請求失敗的問題。發生此問題的原因是，叢集上常駐程式無法將節點的運作狀態資料傳送至內部 Amazon EMR 元件。
+ 改進 EMR 叢集上常駐程式，以便在擴展操作期間為提高可靠性而重複使用 IP 地址時，正確地追蹤節點狀態。
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683)。修正因為 Spark 擔任的所有可用的節點被列入拒絕清單，而導致作業在叢集縮減規模期間失敗的問題。
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011)。修正當叢集嘗試縱向擴展或縮減規模時，作業因 YARN 除役中的競爭條件而失敗的問題。
+ 透過確保 Amazon EMR 叢集上常駐程式和 YARN/HDFS 之間的節點狀態始終是一致的，修正叢集擴展期間的步驟或作業失敗問題。
+ 針對使用 Kerberos 身分驗證啟用的 Amazon EMR 叢集，修正某些叢集操作 (例如縮減規模和步驟提交) 失敗的問題。這是因為 Amazon EMR 叢集上的常駐程式未更新 Kerberos 票證，而它對於與主節點上執行的 HDFS/YARN 通訊而言必不可少。
+ 較新的 Amazon EMR 版本修正較舊 Amazon EMR 版本中 AL2 上的「最大開放檔案」限制過低的問題。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本現在包含使用更高「最大開放檔案」設定的永久修正。
+ Amazon Linux 儲存庫現預設啟用 HTTPS。若您使用 Amazon S3 VPCE 政策來限制對特定儲存貯體的存取，則必須新增 Amazon Linux 儲存貯體 ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*` 至您的政策 (使用端點所在區域取代 `$region`)。如需詳細資訊，請參閱 AWS 討論論壇中的此主題。[公告：Amazon Linux 2 現支援在連線至套件儲存庫時使用 HTTPS](https://forums.aws.amazon.com/ann.jspa?annID=8528)。

**已知問題**
+ 當您使用具有 Hive 分割區位置格式設定的 Spark 讀取 Amazon S3 中的資料，而您在 Amazon EMR 版本 5.30.0 至 5.36.0、6.2.0 至 6.9.0 上執行 Spark 時，您可能遇到叢集無法正確讀取資料的問題。如果您的分割區具有以下所有特性，便會發生此種情形：
  + 兩個或更多分割區從同一資料表掃描而來。
  + 至少有一個分割區目錄路徑是其他一或多個分割區目錄路徑的字首，例如，`s3://bucket/table/p=a` 是 `s3://bucket/table/p=a b` 的字首。
  + 在另一個分割區目錄中，字首後的第一個字元有小於 `/` 字元 (U\$1002F) 的 UTF-8 值。例如，`s3://bucket/table/p=a b` 中 a 和 b 之間有空白字元 (U\$10020) 即屬於此類別。請注意還有 14 個其他非控制字元：`!"#$%&‘()*+,-`。如需詳細資訊，請參閱 [UTF-8 編碼表和 Unicode 字元](https://www.utf8-chartable.de/)。

  若要避免發生此問題，請在 `spark-defaults` 分類中將 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 組態設定為 `false`。

## 5.30.2 元件版本
<a name="emr-5302-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.14.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.13.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.14.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.5.0 | EMR S3Select Connector | 
| emrfs | 2.40.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.10.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-6.1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-6.1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-6.1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-6.1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-6.1 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-6.1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-6.1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-6.1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-6.1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-6.1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-6.1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.6-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.6-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.6-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.6-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.6-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.6-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.6-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.5.2-incubating | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-presto | 0.5.2-incubating | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.6.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.1.0 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.5.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.64\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.232 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.232 | 執行查詢各部分的服務。 | 
| presto-client | 0.232 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.3 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.5-amzn-0.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.5-amzn-0.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.5-amzn-0.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.5-amzn-0.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.14.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.30.2 組態類別
<a name="emr-5302-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.30.2 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| hudi-env | 變更 Hudi 環境中的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.30.1 版
<a name="emr-5301-release"></a>

## 5.30.1 應用程式版本
<a name="emr-5301-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、、[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)、、[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.30.1 | emr-5.30.0 | emr-5.29.0 | emr-5.28.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.759 | 1.11.759 | 1.11.682 | 1.11.659 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.10.0 | 1.10.0 | 1.9.1 | 1.9.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 
| Hadoop | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 
| Hive | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 
| Hudi | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| Hue | 4.6.0 | 4.6.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.232 | 0.232 | 0.227 | 0.227 | 
| Spark | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.30.1 版本備註
<a name="emr-5301-relnotes"></a>

以下版本備註包含 Amazon EMR 5.30.1 版的資訊。變更是相對於 5.30.0 版而言。

初始版本日期：2020 年 6 月 30 日

上次更新日期：2020 年 8 月 24 日

**變更、強化功能和已解決的問題**
+ 較新的 Amazon EMR 版本修正較舊 Amazon EMR 版本中 AL2 上的「最大開放檔案」限制過低的問題。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本現在包含使用更高「最大開放檔案」設定的永久修正。
+ 修正執行個體控制器程序產生無限個程序的問題。
+ 修正 Hue 無法執行 Hive 查詢，顯示「資料庫鎖定」訊息並阻止查詢執行的問題。
+ 修正 Spark 問題以允許在 EMR 叢集上同時執行更多任務。
+ 修正在 Jupyter 伺服器中導致「過多檔案開放錯誤」的 Jupyter 筆記本問題。
+ 修正叢集啟動時間的問題。

**新功能**
+ Tez UI 和 YARN 時間軸伺服器持續應用程式界面在 Amazon EMR 版本 6.x、EMR 版本 5.30.1 及更高版本中提供。持續應用程式歷史記錄的一鍵式存取功能可讓您快速存取作業歷史記錄，而不需要透過 SSH 連線設定 Web 代理。作用中和已終止叢集的日誌會在應用程式結束後保留 30 天。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[檢視持續應用程式使用者界面](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html)。
+ EMR 筆記本執行 API 可用於透過指令碼或命令列執行 EMR 筆記本。在沒有 AWS 主控台的情況下啟動、停止、列出和描述 EMR 筆記本執行的功能，可讓您以程式設計方式控制 EMR 筆記本。使用參數化筆記本儲存格，您可以將不同的參數值傳遞至筆記本，而不必為每組新的參數值建立筆記本複本。請參閱 [EMR API 動作](https://docs.aws.amazon.com/emr/latest/APIReference/API_Operations.html)。對於範本程式碼，請參閱[以程式設計方式執行 EMR Notebooks 的命令範例。](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-headless.html)

**已知問題**
+ **較舊 AL2 上的「最大開放檔案」限制過低 [在新版本中修正]。**Amazon EMR 版本：emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 以較舊版本 Amazon Linux 2 (AL2) 為基礎；當使用預設 AMI 建立 Amazon EMR 叢集時，後者的「最大開放檔案」ulimit 設定過低。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本包含使用更高「最大開放檔案」設定的永久修正。提交 Spark 作業時，開放檔限制較低的版本會導致「開放檔案過多」錯誤。在受影響版本中，Amazon EMR 預設 AMI 對「最大開放檔案」有 4096 的預設 ulimit 設定，此設定低於最新 Amazon Linux 2 AMI 中的 65536 檔案限制。當 Spark 驅動程式和執行器嘗試開啟超過 4096 個檔案時，「最大開放檔案」的 ulimit 設定過低會導致 Spark 作業失敗。為了修正該問題，Amazon EMR 提供引導操作 (BA) 指令碼，以便在建立叢集時調整 ulimit 設定。

  若您使用未永久修正此問題的較舊 Amazon EMR 版本，以下解決辦法可讓您將執行個體-控制器 ulimit 明確設定為最大 65536 個檔案。

**從命令列明確設定 ulimit**

  1. 編輯 `/etc/systemd/system/instance-controller.service` 以新增下列參數至「服務」區段。

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. 重新啟動 InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **使用引導操作 (BA) 設定 ulimit**

  您還可以使用引導操作 (BA) 指令碼，在建立叢集時將執行個體-控制器 ulimit 設定為 65536 個檔案。

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ **EMR Notebooks**

  EMR 版本 5.30.1 預設會停用在叢集主節點上安裝核心和額外 Python 程式庫的功能。如需有關此功能的詳細資訊，請參閱[在叢集主節點上安裝核心和 Python 程式庫](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-installing-libraries-and-kernels.html)。

  若要啟用此功能，請執行下列操作：

  1. 請確定附接至 EMR Notebooks 服務角色的許可政策允許執行下列動作：

     `elasticmapreduce:ListSteps`

     如需詳細資訊，請參閱 [EMR Notebooks 的服務角色](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-service-role.html)。

  1. 使用 AWS CLI 在設定 EMR 筆記本的叢集上執行步驟，如下列範例所示。將 *us-east-1* 取代為叢集所在的區域。如需詳細資訊，請參閱[使用 AWS CLI將步驟新增至叢集](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html)。

     ```
     aws emr add-steps  --cluster-id MyClusterID --steps Type=CUSTOM_JAR,Name=EMRNotebooksSetup,ActionOnFailure=CONTINUE,Jar=s3://us-east-1.elasticmapreduce/libs/script-runner/script-runner.jar,Args=["s3://awssupportdatasvcs.com/bootstrap-actions/EMRNotebooksSetup/emr-notebooks-setup.sh"]
     ```
+ **受管擴展**

  在未安裝 Presto 的情況下，5.30.0 和 5.30.1 叢集上的受管擴展操作可能會導致應用程式失敗，或致使統一執行個體群組或執行個體機群停留在 `ARRESTED` 狀態，尤其當縮減規模操作緊隨縱向擴展操作之後時。

  解決辦法是，在使用 Amazon EMR 版本 5.30.0 和 5.30.1 建立叢集時，選擇 Presto 作為要安裝的應用程式，即使您的作業不需要用到 Presto。
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。
+ 當您使用具有 Hive 分割區位置格式設定的 Spark 讀取 Amazon S3 中的資料，而您在 Amazon EMR 版本 5.30.0 至 5.36.0、6.2.0 至 6.9.0 上執行 Spark 時，您可能遇到叢集無法正確讀取資料的問題。如果您的分割區具有以下所有特性，便會發生此種情形：
  + 兩個或更多分割區從同一資料表掃描而來。
  + 至少有一個分割區目錄路徑是其他一或多個分割區目錄路徑的字首，例如，`s3://bucket/table/p=a` 是 `s3://bucket/table/p=a b` 的字首。
  + 在另一個分割區目錄中，字首後的第一個字元有小於 `/` 字元 (U\$1002F) 的 UTF-8 值。例如，`s3://bucket/table/p=a b` 中 a 和 b 之間有空白字元 (U\$10020) 即屬於此類別。請注意還有 14 個其他非控制字元：`!"#$%&‘()*+,-`。如需詳細資訊，請參閱 [UTF-8 編碼表和 Unicode 字元](https://www.utf8-chartable.de/)。

  若要避免發生此問題，請在 `spark-defaults` 分類中將 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 組態設定為 `false`。

## 5.30.1 元件版本
<a name="emr-5301-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.14.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.13.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.14.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.5.0 | EMR S3Select Connector | 
| emrfs | 2.40.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.10.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-6 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-6 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-6 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-6 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-6 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-6 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-6 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-6 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-6 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-6 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-6 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.6-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.6-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.6-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.6-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.6-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.6-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.6-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.5.2-incubating | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-presto | 0.5.2-incubating | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.6.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.1.0 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.5.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.64 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.232 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.232 | 執行查詢各部分的服務。 | 
| presto-client | 0.232 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.3 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.5-amzn-0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.5-amzn-0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.5-amzn-0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.5-amzn-0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.14.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.30.1 組態類別
<a name="emr-5301-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.30.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| hudi-env | 變更 Hudi 環境中的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.30.0 版
<a name="emr-5300-release"></a>

## 5.30.0 應用程式版本
<a name="emr-5300-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、、[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)、[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.30.0 | emr-5.29.0 | emr-5.28.1 | emr-5.28.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.759 | 1.11.682 | 1.11.659 | 1.11.659 | 
| Python | 2.7、3.7 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.10.0 | 1.9.1 | 1.9.0 | 1.9.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 
| Hadoop | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 
| Hive | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 
| Hudi | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| Hue | 4.6.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.232 | 0.227 | 0.227 | 0.227 | 
| Spark | 2.4.5-amzn-0 | 2.4.4 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.30.0 版本備註
<a name="emr-5300-relnotes"></a>

以下版本備註包含 Amazon EMR 5.30.0 版的資訊。變更是相對於 5.29.0 版而言。

初始版本日期：2020 年 5 月 13 日

上次更新日期：2020 年 6 月 25 日

**升級**
+  適用於 Java 的 AWS SDK 升級至 1.11.759 版
+ 升級 Amazon SageMaker Spark 軟體開發套件至 1.3.0 版
+ 升級 EMR 記錄伺服器至 1.6.0 版
+ 升級 Flink 至 1.10.0 版
+ 升級 Ganglia 至 3.7.2 版
+ 升級 HBase 至 1.4.13 版
+ 升級 Hudi 至 0.5.2-incubating 版
+ 升級 Hue 至 4.6.0 版
+ 升級 JupyterHub 至 1.1.0 版
+ 升級 Livy 至 0.7.0-incubating 版
+ 升級 Oozie 至 5.2.0 版
+ 升級 Presto 至 0.232 版
+ 升級 Spark 至 2.4.5 版
+ 升級連接器與驅動程式：Amazon Glue 連接器 1.12.0；Amazon Kinesis 連接器 3.5.0；EMR DynamoDB 連接器 4.14.0

**新功能**
+ **EMR Notebooks** – 搭配使用 5.30.0 建立的 EMR 叢集時，EMR 筆記本核心會在叢集上執行。如此可改善筆記型電腦的效能，並可讓您安裝和自訂核心。您也可以在叢集主節點上安裝 Python 程式庫。如需詳細資訊，請參閱《EMR 管理指南》**中的[安裝和使用核心和程式庫](https://docs.aws.amazon.com//emr/latest/ManagementGuide/emr-managed-notebooks-installing-libraries-and-kernels.html)。
+ **受管擴展** – 借助 Amazon EMR 版本 5.30.0 及更高版本，您可以啟用 EMR 受管擴展，根據工作負載自動增減叢集中執行個體或單位的數量。Amazon EMR 會持續評估叢集指標以制定擴展決策，針對成本與速度將叢集優化。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[擴展叢集資源](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scale-on-demand.html)。
+ **加密存放在 Amazon S3 中的日誌檔案** – 使用 Amazon EMR 5.30.0 版及更新版本，您可以使用 AWS KMS 客戶受管金鑰加密存放在 Amazon S3 中的日誌檔案。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[加密儲存於 Amazon S3 中的日誌檔案](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html#emr-log-encryption)。
+ **Amazon Linux 2 支援** – 在 EMR 版本 5.30.0 及更高版本中，EMR 使用 Amazon Linux 2 作業系統。新的自訂 AMI (Amazon Machine Image) 必須以 Amazon Linux 2 AMI 為基礎。如需詳細資訊，請參閱[使用自訂 AMI](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html)。
+ **Presto 逐漸自動擴展** – 使用 5.30.0 的 EMR 叢集能夠以自動擴展逾時期間進行設定，讓 Presto 任務有時間完成執行，再對其節點進行除役操作。如需詳細資訊，請參閱[使用 Presto 自動擴展搭配逐漸除役](presto-graceful-autoscale.md)。
+ **採用新分配策略選項建立機群執行個體** – EMR 版本 5.12.1 及更高版本中提供新的分配策略選項。它提供更快的叢集佈建、更準確的 Spot 分配，並減少 Spot 執行個體中斷。需更新非預設 EMR 服務角色。請參閱[設定執行個體機群](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-instance-fleet.html)。
+ **sudo systemctl stop 和 sudo systemctl start 命令** – 在使用 Amazon Linux 2 作業系統的 EMR 版本 5.30.0 及更高版本中，EMR 使用 `sudo systemctl stop` 和 `sudo systemctl start` 命令來重新啟動服務。如需詳細資訊，請參閱[如何重新啟動 Amazon EMR 中的服務？](https://aws.amazon.com/premiumsupport/knowledge-center/restart-service-emr/)。

**變更、強化功能和已解決的問題**
+ EMR 5.30.0 版預設不會安裝 Ganglia。建立叢集時，您可明確選擇 Ganglia 來安裝。
+ Spark 效能最佳化。
+ Presto 效能最佳化。
+ Amazon EMR 版本 5.30.0 及更高版本預設使用 Python 3。
+ 私有子網路中用來存取服務的預設受管安全群組，已經以新的規則更新。若您使用自訂安全群組來存取服務，就必須納入與預設受管安全群組相同的規則。如需詳細資訊，請參閱[用來存取服務 (私有子網路) 的 Amazon EMR 受管安全群組](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-man-sec-groups.html#emr-sg-elasticmapreduce-sa-private)。若您使用 Amazon EMR 的自訂服務角色，則必須將許可授予 `ec2:describeSecurityGroups`，讓 EMR 能夠驗證是否已正確建立安全群組。若您使用 `EMR_DefaultRole`，則預設受管政策已納入此許可。

**已知問題**
+ **較舊 AL2 上的「最大開放檔案」限制過低 [在新版本中修正]。**Amazon EMR 版本：emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 以較舊版本 Amazon Linux 2 (AL2) 為基礎；當使用預設 AMI 建立 Amazon EMR 叢集時，後者的「最大開放檔案」ulimit 設定過低。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本包含使用更高「最大開放檔案」設定的永久修正。提交 Spark 作業時，開放檔限制較低的版本會導致「開放檔案過多」錯誤。在受影響版本中，Amazon EMR 預設 AMI 對「最大開放檔案」有 4096 的預設 ulimit 設定，此設定低於最新 Amazon Linux 2 AMI 中的 65536 檔案限制。當 Spark 驅動程式和執行器嘗試開啟超過 4096 個檔案時，「最大開放檔案」的 ulimit 設定過低會導致 Spark 作業失敗。為了修正該問題，Amazon EMR 提供引導操作 (BA) 指令碼，以便在建立叢集時調整 ulimit 設定。

  若您使用未永久修正此問題的較舊 Amazon EMR 版本，以下解決辦法可讓您將執行個體-控制器 ulimit 明確設定為最大 65536 個檔案。

**從命令列明確設定 ulimit**

  1. 編輯 `/etc/systemd/system/instance-controller.service` 以新增下列參數至「服務」區段。

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. 重新啟動 InstanceController

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **使用引導操作 (BA) 設定 ulimit**

  您還可以使用引導操作 (BA) 指令碼，在建立叢集時將執行個體-控制器 ulimit 設定為 65536 個檔案。

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ **受管擴展**

  在未安裝 Presto 的情況下，5.30.0 和 5.30.1 叢集上的受管擴展操作可能會導致應用程式失敗，或致使統一執行個體群組或執行個體機群停留在 `ARRESTED` 狀態，尤其當縮減規模操作緊隨縱向擴展操作之後時。

  解決辦法是，在使用 Amazon EMR 版本 5.30.0 和 5.30.1 建立叢集時，選擇 Presto 作為要安裝的應用程式，即使您的作業不需要用到 Presto。
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。
+ Hue 4.6.0 的預設資料庫引擎是 SQLite，它會在您嘗試搭配使用 Hue 和外部資料庫時導致發生問題。若要修正此問題，請將 `hue-ini` 組態分類中的 `engine` 設定為 `mysql`。此問題已在 Amazon EMR 版本 5.30.1 中修正。
+ 當您使用具有 Hive 分割區位置格式設定的 Spark 讀取 Amazon S3 中的資料，而您在 Amazon EMR 版本 5.30.0 至 5.36.0、6.2.0 至 6.9.0 上執行 Spark 時，您可能遇到叢集無法正確讀取資料的問題。如果您的分割區具有以下所有特性，便會發生此種情形：
  + 兩個或更多分割區從同一資料表掃描而來。
  + 至少有一個分割區目錄路徑是其他一或多個分割區目錄路徑的字首，例如，`s3://bucket/table/p=a` 是 `s3://bucket/table/p=a b` 的字首。
  + 在另一個分割區目錄中，字首後的第一個字元有小於 `/` 字元 (U\$1002F) 的 UTF-8 值。例如，`s3://bucket/table/p=a b` 中 a 和 b 之間有空白字元 (U\$10020) 即屬於此類別。請注意還有 14 個其他非控制字元：`!"#$%&‘()*+,-`。如需詳細資訊，請參閱 [UTF-8 編碼表和 Unicode 字元](https://www.utf8-chartable.de/)。

  若要避免發生此問題，請在 `spark-defaults` 分類中將 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 組態設定為 `false`。

## 5.30.0 元件版本
<a name="emr-5300-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.14.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.13.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-notebook-env | 1.0.0 | 適用於 emr 筆記本的 Conda env | 
| emr-s3-dist-cp | 2.14.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.5.0 | EMR S3Select Connector | 
| emrfs | 2.40.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.10.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-6 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-6 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-6 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-6 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-6 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-6 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-6 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-6 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-6 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-6 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-6 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.13 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.13 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.13 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.13 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.13 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.6-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.6-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.6-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.6-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.6-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.6-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.6-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.5.2-incubating | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-presto | 0.5.2-incubating | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.6.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.1.0 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.7.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.5.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mariadb-server | 5.5.64 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.232 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.232 | 執行查詢各部分的服務。 | 
| presto-client | 0.232 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.3 | 統計運算 R 專案 | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.5-amzn-0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.5-amzn-0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.5-amzn-0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.5-amzn-0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.14.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.30.0 組態類別
<a name="emr-5300-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.30.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| hudi-env | 變更 Hudi 環境中的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.29.0 版
<a name="emr-5290-release"></a>

## 5.29.0 應用程式版本
<a name="emr-5290-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、、[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)、[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.29.0 | emr-5.28.1 | emr-5.28.0 | emr-5.27.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.682 | 1.11.659 | 1.11.659 | 1.11.615 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.9.1 | 1.9.0 | 1.9.0 | 1.8.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 
| Hadoop | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 
| Hive | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 
| Hudi | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.2-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.227 | 0.227 | 0.227 | 0.224 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.29.0 版本備註
<a name="emr-5290-relnotes"></a>

以下版本備註包含 Amazon EMR 5.29.0 版的資訊。變更是相對於 5.28.1 版而言。

初始版本日期：2020 年 1 月 17 日

**升級**
+  適用於 Java 的 AWS SDK 升級至 1.11.682 版
+ 升級 Hive 至 2.3.6 版
+ 升級 Flink 至版本 1.9.1
+ 升級 EmrFS 至版本 2.38.0
+ 升級 EMR DynamoDB 連接器至版本 4.13.0

**變更、強化功能和已解決的問題**
+ Spark
  + Spark 效能最佳化。
+ EMRFS
  + 《管理指南》針對一致檢視 emrfs-site.xml 預設設定的更新。

**已知問題**
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。

## 5.29.0 元件版本
<a name="emr-5290-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.13.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.12.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.13.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.4.0 | EMR S3Select Connector | 
| emrfs | 2.38.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.9.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-5 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-5 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-5 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-5 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-5 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-5 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-5 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-5 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-5 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-5 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-5 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.10 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.10 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.10 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.10 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.10 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.6-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.6-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.6-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.6-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.6-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.6-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.6-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.5.0-incubating | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-presto | 0.5.0-incubating | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.4.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.0.0 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.6.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.5.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.1.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.1.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.227 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.227 | 執行查詢各部分的服務。 | 
| presto-client | 0.227 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.4 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.4 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.4 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.4 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.14.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.29.0 組態類別
<a name="emr-5290-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.29.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.28.1 版
<a name="emr-5281-release"></a>

## 5.28.1 應用程式版本
<a name="emr-5281-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、、[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)、[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.28.1 | emr-5.28.0 | emr-5.27.1 | emr-5.27.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.659 | 1.11.659 | 1.11.615 | 1.11.615 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.9.0 | 1.9.0 | 1.8.1 | 1.8.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 
| Hadoop | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 
| Hudi | 0.5.0-incubating | 0.5.0-incubating |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.227 | 0.227 | 0.224 | 0.224 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.28.1 版本備註
<a name="emr-5281-relnotes"></a>

以下版本備註包含 Amazon EMR 5.28.1 版的資訊。變更是相對於 5.28.0 版而言。

初始版本日期：2020 年 1 月 10 日

**變更、強化功能和已解決的問題**
+ Spark
  + 修正了 Spark 相容性問題。
+ CloudWatch Metrics
  + 修正在具有多個主節點的 EMR 叢集上發布的 Amazon CloudWatch 指標。
+ 已停用日誌訊息
  + 已停用錯誤的日誌訊息，「…正使用舊版本 (<4.5.8) Apache http 用戶端。」

**已知問題**
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。

## 5.28.1 元件版本
<a name="emr-5281-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.12.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.11.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.13.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.3.0 | EMR S3Select Connector | 
| emrfs | 2.37.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.9.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-5 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-5 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-5 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-5 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-5 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-5 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-5 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-5 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-5 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-5 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-5 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.10 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.10 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.10 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.10 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.10 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.6-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.6-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.6-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.6-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.6-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.6-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.6-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.5.0-incubating | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-presto | 0.5.0-incubating | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.4.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.0.0 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.6.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.5.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.1.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.1.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.227 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.227 | 執行查詢各部分的服務。 | 
| presto-client | 0.227 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.4 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.4 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.4 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.4 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.14.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.28.1 組態類別
<a name="emr-5281-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.28.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.28.0 版
<a name="emr-5280-release"></a>

## 5.28.0 應用程式版本
<a name="emr-5280-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)[http://gethue.com/](http://gethue.com/)、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、、[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)、[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.28.0 | emr-5.27.1 | emr-5.27.0 | emr-5.26.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.659 | 1.11.615 | 1.11.615 | 1.11.595 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.9.0 | 1.8.1 | 1.8.1 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 
| Hadoop | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 
| Hudi | 0.5.0-incubating |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 1.0.0 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.227 | 0.224 | 0.224 | 0.220 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.3 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.13.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.28.0 版本備註
<a name="emr-5280-relnotes"></a>

以下版本備註包含 Amazon EMR 5.28.0 版的資訊。變更是相對於 5.27.0 版而言。

初始發行日期：2019 年 11 月 12 日

**升級**
+ 升級 Flink 至 1.9.0 版
+ 升級 Hive 至 2.3.6 版
+ 升級 MXNet 至 1.5.1 版
+ 升級 Phoenix 至 4.14.3 版
+ 升級 Presto 至 0.227 版
+ 升級 Zeppelin 至 0.8.2 版

**新功能**
+ 建立叢集時，[Apache Hudi](https://hudi.apache.org/) 現在可供 Amazon EMR 安裝之用。如需詳細資訊，請參閱[Hudi](emr-hudi.md)。
+ (2019 年 11 月 25 日) 現在您可以選擇同時執行多個步驟，以改善叢集使用率及節省成本。您也可以一併取消待定和執行中的步驟。如需詳細資訊，請參閱[使用 AWS CLI 和 主控台處理步驟](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-work-with-steps.html)。
+ (2019 年 12 月 3 日） 您現在可以在 上建立和執行 EMR 叢集 AWS Outposts。在內部部署設施中 AWS Outposts 啟用原生 AWS 服務、基礎設施和操作模型。在 AWS Outposts 環境中，您可以使用您在 AWS 雲端中使用的相同 AWS APIs、工具和基礎設施。如需詳細資訊，請參閱 [上的 EMR 叢集 AWS Outposts](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-outposts.html)。
+ (2020 年 3 月 11 日） 從 Amazon EMR 5.28.0 版開始，您可以在 AWS Local Zones 子網路上建立和執行 Amazon EMR 叢集，做為支援 Local Zones 之 AWS 區域的邏輯延伸。Local Zone 可讓 Amazon EMR 功能和運算和儲存服務等 AWS 服務子集更接近使用者，提供非常低的本機執行應用程式的延遲存取。如需可用的 Local Zones 清單，請參閱 [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/)。如需存取可用 AWS Local Zones 的資訊，請參閱[區域、可用區域和 Local Zones](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html)。

  Local Zones 目前不支援 Amazon EMR Notebooks，也不支援使用界面 VPC 端點直接連線到 Amazon EMR (AWS PrivateLink)。

**變更、強化功能和已解決的問題**
+ 擴大應用程式支援，以提供高可用性叢集
  + 如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[具有多個主節點的 EMR 叢集中支援的應用程式](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html#emr-plan-ha-applications-list)。
+ Spark
  + 效能最佳化
+ Hive
  + 效能最佳化
+ Presto
  + 效能最佳化

**已知問題**
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。

## 5.28.0 元件版本
<a name="emr-5280-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.12.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.11.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.13.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.3.0 | EMR S3Select Connector | 
| emrfs | 2.37.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.9.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-5 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-5 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-5 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-5 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-5 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-5 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-5 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-5 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-5 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-5 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-5 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.10 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.10 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.10 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.10 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.10 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.6-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.6-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.6-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.6-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.6-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.6-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.6-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hudi | 0.5.0-incubating | 增量處理架構，以低延遲和高效率強化資料管道。 | 
| hudi-presto | 0.5.0-incubating | 用於使用 Hudi 執行 Presto 的套件程式庫。 | 
| hue-server | 4.4.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.0.0 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.6.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.5.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.1.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.1.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.3-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.227 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.227 | 執行查詢各部分的服務。 | 
| presto-client | 0.227 | 安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端，該主節點上的 Presto 伺服器未啟動。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.4 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.4 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.4 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.4 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.14.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.28.0 組態類別
<a name="emr-5280-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.28.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.27.1 版
<a name="emr-5271-release"></a>

## 5.27.1 應用程式版本
<a name="emr-5271-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.27.1 | emr-5.27.0 | emr-5.26.0 | emr-5.25.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.615 | 1.11.615 | 1.11.595 | 1.11.566 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.1 | 1.8.1 | 1.8.0 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 149 | 
| HCatalog | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 0.9.6 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.1-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.224 | 0.224 | 0.220 | 0.220 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.3 | 2.4.3 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.13.1 | 1.13.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.27.1 版本備註
<a name="emr-5271-relnotes"></a>

這是一個修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

執行個體中繼資料服務 (IMDS) 版本 2 支援狀態：Amazon EMR 5.23.1、5.27.1 和 5.32 或更高版本元件對所有 IMDS 呼叫使用 IMDSv2。對於應用程式程式碼中的 IMDS 呼叫，您可以同時使用 IMDSv1 和 IMDSv2，或將 IMDS 設定為僅使用 IMDSv2 來增強安全性。對於其他 5.x EMR 版本，停用 IMDSv1 版本將導致叢集啟動失敗。

## 5.27.1 元件版本
<a name="emr-5271-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.12.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.11.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.13.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.3.0 | EMR S3Select Connector | 
| emrfs | 2.36.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.8.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-4 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-4 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-4 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.10 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.10 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.10 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.10 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.10 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.5-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.5-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.5-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.5-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.5-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.5-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.5-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.4.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.0.0 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.6.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.4.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.1.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.1.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.2-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.2-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.224 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.224 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.4 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.4 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.4 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.4 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.14.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.27.1 組態類別
<a name="emr-5271-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.27.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.27.0 版
<a name="emr-5270-release"></a>

## 5.27.0 應用程式版本
<a name="emr-5270-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、、 [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [http://sqoop.apache.org/](http://sqoop.apache.org/) [https://www.tensorflow.org/](https://www.tensorflow.org/) [https://tez.apache.org/](https://tez.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.27.0 | emr-5.26.0 | emr-5.25.0 | emr-5.24.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.615 | 1.11.595 | 1.11.566 | 1.11.546 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.1 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 149 | 149 | 
| HCatalog | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 0.9.6 | 0.9.6 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.224 | 0.220 | 0.220 | 0.219 | 
| Spark | 2.4.4 | 2.4.3 | 2.4.3 | 2.4.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.13.1 | 1.13.1 | 1.12.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.13 | 

## 5.27.0 版本備註
<a name="emr-5270-relnotes"></a>

以下版本備註包含 Amazon EMR 5.27.0 版的資訊。變更是相對於 5.26.0 版而言。

初始版本日期：2019 年 9 月 23 日

**升級**
+ 適用於 Java 的 AWS SDK 1.11.615
+ Flink 1.8.1
+ JupyterHub 1.0.0
+ Spark 2.4.4
+ Tensorflow 1.14.0
+ 連接器和驅動程式：
  + DynamoDB 連接器 4.12.0

**新功能**
+ (2019 年 10 月 24 日) 下列 EMR 筆記本中的新功能在所有 Amazon EMR 版本中提供。
  + 您現在可以建立 Git 儲存庫與 EMR 筆記本的關聯性，將筆記本儲存在版本受控的環境中。您可以透過遠端 Git 儲存庫與同儕共用程式碼，並重複使用現有的 Jupyter 筆記本。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[將 Git 儲存庫關聯至 Amazon EMR Notebooks](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-git-repo.html)。
  + EMR 筆記本中現提供 [nbdime 公用程式](https://github.com/jupyter/nbdime)，以簡化筆記本的比較與合併操作。
  + EMR 筆記本現已支援 JupyterLab。JupyterLab 是一個與 Jupyter 筆記本完全相容的 Web 型互動式開發環境。您現在可以選擇在 JupyterLab 或 Jupyter 筆記本編輯器中開啟您的筆記本。
+ (2019 年 10 月 30 日) 在 Amazon EMR 版本 5.25.0 及更高版本中，您可以從叢集**總結**頁面或主控台中的**應用程式歷史記錄**索引標籤連線到 Spark 歷史記錄伺服器 UI。您可以快速存取 Spark 歷史記錄伺服器 UI 來檢視應用程式指標，以及存取作用中和已終止叢集的相關日誌檔案，而不是透過 SSH 連線設定 Web 代理。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[叢集外存取持續應用程式使用者界面](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html)。

**變更、強化功能和已解決的問題**
+ 具有多個主節點的 Amazon EMR 叢集
  + 您可以在具有多個主節點的 Amazon EMR 叢集上安裝和執行 Flink。如需詳細資訊，請參閱[支援的功能和區域](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html)。
  + 您可以在具有多個主節點的 Amazon EMR 叢集上設定 HDFS 透明加密。如需詳細資訊，請參閱[具有多個主節點的 EMR 叢集上的 HDFS 透明加密](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-encryption-tdehdfs.html#emr-hadoop-kms-multi-master)。
  + 對於在具有多個主節點的 Amazon EMR 叢集上執行的應用程式，您現在可以修改它們的組態。如需詳細資訊，請參閱[為執行中叢集的執行個體群組提供組態](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html)。
+ Amazon EMR-DynamoDB 連接器
  + Amazon EMR-DynamoDB 連接器現在支援下列 DynamoDB 資料類型：Boolean、List、Map、Item、Null。如需詳細資訊，請參閱[設定 Hive 資料表以執行 Hive 命令](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/EMR_Interactive_Hive.html)。

**已知問題**
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。

## 5.27.0 元件版本
<a name="emr-5270-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.12.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.11.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.13.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.3.0 | EMR S3Select Connector | 
| emrfs | 2.36.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.8.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-4 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-4 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-4 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.10 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.10 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.10 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.10 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.10 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.5-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.5-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.5-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.5-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.5-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.5-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.5-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.4.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 1.0.0 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.6.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.4.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.1.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.1.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.2-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.2-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.224 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.224 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.4 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.4 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.4 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.4 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.14.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.27.0 組態類別
<a name="emr-5270-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.27.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| ranger-kms-dbks-site | 變更 Ranger KMS 之 dbks-site.xml 檔案中的值。 | 
| ranger-kms-site | 變更 Ranger KMS 之 ranger-kms-site.xml 檔案中的值。 | 
| ranger-kms-env | 變更 Ranger KMS 環境中的值。 | 
| ranger-kms-log4j | 變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。 | 
| ranger-kms-db-ca | 變更 S3 上 CA 檔案的值，以使用 Ranger KMS 進行 MySQL SSL 連線。 | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.26.0 版
<a name="emr-5260-release"></a>

## 5.26.0 應用程式版本
<a name="emr-5260-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [http://sqoop.apache.org/](http://sqoop.apache.org/) [https://www.tensorflow.org/](https://www.tensorflow.org/) [https://tez.apache.org/](https://tez.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.26.0 | emr-5.25.0 | emr-5.24.1 | emr-5.24.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.595 | 1.11.566 | 1.11.546 | 1.11.546 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 149 | 149 | 149 | 
| HCatalog | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.2-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.220 | 0.220 | 0.219 | 0.219 | 
| Spark | 2.4.3 | 2.4.3 | 2.4.2 | 2.4.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.13.1 | 1.13.1 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.13 | 3.4.13 | 

## 5.26.0 版本備註
<a name="emr-5260-relnotes"></a>

以下版本備註包含 Amazon EMR 5.26.0 版的資訊。變更是相對於 5.25.0 版而言。

初始版本日期：2019 年 8 月 8 日

上次更新日期：2019 年 8 月 19 日

**升級**
+ 適用於 Java 的 AWS SDK 1.11.595
+ HBase 1.4.10
+ Phoenix 4.14.2
+ 連接器和驅動程式：
  + DynamoDB 連接器 4.11.0
  + MariaDB 連接器 2.4.2
  + Amazon Redshift JDBC 驅動器 1.2.32.1056

**新功能**
+ (Beta 版) 使用 Amazon EMR 5.26.0，您可以啟動與 Lake Formation 整合的叢集。此整合提供精細的資料欄層級存取 Glue Data Catalog AWS 中的資料庫和資料表。它還啟用聯合單一登入，因此使用者可從企業身分系統登入 EMR Notebooks 或 Apache Zeppelin。如需詳細資訊，請參閱[整合 Amazon EMR 與 AWS Lake Formation (Beta)](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lake-formation.html)。
+ (2019 年 8 月 19 日) 所有支援安全群組的 Amazon EMR 版本現在均提供 Amazon EMR 封鎖公開存取。封鎖公開存取是套用於每個 AWS 區域的全帳戶設定。當任何安全群組與具有規則 (允許來自連接埠上 IPv4 0.0.0.0/0 or IPv6 ::/0 (公開存取) 的傳入流量) 的叢集相關聯時，封鎖公開存取會防止叢集啟動，除非連接埠已被指定為例外。連接埠 22 預設為例外。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的在[使用 Amazon EMR 封鎖公開存取](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-block-public-access.html)。

**變更、強化功能和已解決的問題**
+ EMR Notebooks
  + 在 EMR 5.26.0 及更高版本中，除預設 Python 程式庫以外，EMR Notebooks 還支援筆記本範圍的 Python 程式庫。您可以從筆記本編輯器中安裝筆記本範圍程式庫，而不必重新建立叢集或將筆記本重新附接至叢集。筆記本範圍程式庫是在 Python 虛擬環境中建立的，因此它們僅套用至目前的筆記本工作階段。這可讓您隔離筆記本的相依性。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[使用筆記本範圍程式庫](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-custom-libraries-limitations.html)。
+ EMRFS
  + 您可以透過將 `fs.s3.consistent.metadata.etag.verification.enabled` 設為 `true`，啟用 ETag 驗證功能 (Beta 版)。借助此功能，EMRFS 會使用 Amazon S3 ETags 來驗證正在讀取的物件是否為最新的可用版本。此功能適用於更新後讀取的使用案例，其中在 Amazon S3 上的檔案被覆寫，同時保有相同名稱。此 ETag 驗證功能目前不適用於 S3 Select。如需詳細資訊，請參閱[設定一致檢視](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emrfs-configure-consistent-view.html)。
+ Spark
  + 預設現啟用下列優化：動態分割區剔除、INTERSECT 前的 DISTINCT、DISTINCT 查詢前為 JOIN 改進 SQL 計畫統計資料推論、扁平化純量子查詢、優化聯結重新排序，以及 Bloom 篩選條件聯結。如需詳細資訊，請參閱[優化 Spark 效能](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html)。
  + 為「排序、合併、聯結」改進整階段程式碼產生。
  + 改進查詢片段和子查詢重複使用。
  + 對 Spark 啟動時的預先分配執行器進行改進。
  + 當聯結較小一側包含廣播提示時，不會再套用 Bloom 篩選條件聯結。
+ Tez
  + 解決一個 Tez 問題。Tez UI 現在可以在具有多個主節點的 Amazon EMR 叢集上運作。

**已知問題**
+ 改進後的「排序、合併、聯結」整階段程式碼產生功能在啟用時可能升高記憶體壓力。此優化可改善效能，但如果未調整 `spark.yarn.executor.memoryOverheadFactor` 以提供足夠的記憶體，則可能會導致作業重試或失敗。若要停用此功能，請將 `spark.sql.sortMergeJoinExec.extendedCodegen.enabled` 設為 false。
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。

## 5.26.0 元件版本
<a name="emr-5260-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.11.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.10.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.12.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.3.0 | EMR S3Select Connector | 
| emrfs | 2.35.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.8.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-4 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-4 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-4 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.10 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.10 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.10 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.10 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.10 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.5-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.5-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.5-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.5-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.5-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.5-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.5-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.4.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.6 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.6.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.4.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.1.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.1.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.2-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.2-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.220 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.220 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.3 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.3 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.3 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.3 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.13.1 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.26.0 組態類別
<a name="emr-5260-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.26.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.25.0 版
<a name="emr-5250-release"></a>

## 5.25.0 應用程式版本
<a name="emr-5250-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.25.0 | emr-5.24.1 | emr-5.24.0 | emr-5.23.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.566 | 1.11.546 | 1.11.546 | 1.11.519 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 149 | 149 | 149 | 149 | 
| HCatalog | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 
| Hive | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.4 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.5.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.220 | 0.219 | 0.219 | 0.215 | 
| Spark | 2.4.3 | 2.4.2 | 2.4.2 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.13.1 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.2 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.25.0 版本備註
<a name="emr-5250-relnotes"></a>

以下版本備註包含 Amazon EMR 5.25.0 版的資訊。變更是相對於 5.24.1 版而言。

初始版本日期：2019 年 7 月 17 日

上次更新日期：2019 年 10 月 30 日

**Amazon EMR 5.25.0**

**升級**
+ 適用於 Java 的 AWS SDK 1.11.566
+ Hive 2.3.5
+ Presto 0.220
+ Spark 2.4.3
+ TensorFlow 1.13.1
+ Tez 0.9.2
+ Zookeeper 3.4.14

**新功能**
+ (2019 年 10 月 30 日) 在 Amazon EMR 版本 5.25.0 及更高版本中，您可以從叢集**總結**頁面或主控台中的**應用程式歷史記錄**索引標籤連線到 Spark 歷史記錄伺服器 UI。您可以快速存取 Spark 歷史記錄伺服器 UI 來檢視應用程式指標，以及存取作用中和已終止叢集的相關日誌檔案，而不是透過 SSH 連線設定 Web 代理。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[叢集外存取持續應用程式使用者界面](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html)。

**變更、強化功能和已解決的問題**
+ Spark
  + 使用 Bloom 篩選條件預先篩選輸入，從而改進部分聯結的效能。優化預設被停用，但可透過將 Spark 組態參數 `spark.sql.bloomFilterJoin.enabled` 設為 `true` 啟用。
  + 改進依字串類型欄分組的效能。
  + 針對未安裝 HBase 的叢集，改進 R4 執行個體類型的預設 Spark 執行器記憶體與核心組態。
  + 解決先前的動態分割區剔除功能問題，此問題導致剔除的資料表必須位於聯結的左側。
  + 改進 INTERSECT 前的 DISTINCT 優化，以套用至更多涉及別名的案例。
  + 為 DISTINCT 查詢前的 JOIN 改進 SQL 計畫統計資料推論。此改進預設被停用，但可透過將 Spark 組態參數 `spark.sql.statsImprovements.enabled` 設為 `true` 啟用。此優化為 Intersect 前的 Distinct 所需，並且將在 `spark.sql.optimizer.distinctBeforeIntersect.enabled` 設為 `true` 時自動啟用。
  + 依據資料表大小和篩選條件優化聯結順序。此優化預設被停用，但可透過將 Spark 組態參數 `spark.sql.optimizer.sizeBasedJoinReorder.enabled` 設為 `true` 啟用。

  如需詳細資訊，請參閱[優化 Spark 效能](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html)。
+ EMRFS
  + EMRFS 設定 `fs.s3.buckets.create.enabled` 現預設被停用。經過測試，我們發現停用此設定可改進效能，並防止意外建立 S3 儲存貯體。如果您的應用程式依賴此功能，您可以透過在 `emrfs-site` 組態分類中將屬性 `fs.s3.buckets.create.enabled` 設定為 `true` 以便啟用它。如需有關資訊，請參閱[在建立叢集時提供組態](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html)。
+ 安全組態中的本機磁碟加密和 S3 加密改進 (2019 年 8 月 5 日)
  + 在安全組態設定中分開設定 Amazon S3 加密和本機磁碟加密。
  + 新增在 5.24.0 版及更高版本中啟用 EBS 加密的選項。除儲存磁碟區以外，選取此選項還將加密根裝置磁碟區。先前版本需使用自訂 AMI 加密根裝置磁碟區。
  + 如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[加密選項](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-data-encryption-options.html)。

**已知問題**
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。

## 5.25.0 元件版本
<a name="emr-5250-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.10.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.9.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.11.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.3.0 | EMR S3Select Connector | 
| emrfs | 2.34.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.8.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-4 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-4 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-4 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 149 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 149 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 149 | HBase 命令列用戶端。 | 
| hbase-rest-server | 149 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 149 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.5-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.5-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.5-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.5-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.5-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.5-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.5-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.4.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.6 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.6.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.4.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.1.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.1.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.1-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.1-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.220 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.220 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.3 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.3 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.3 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.3 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.13.1 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.2 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.14 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.14 | ZooKeeper 命令列用戶端。 | 

## 5.25.0 組態類別
<a name="emr-5250-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.25.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| recordserver-env | 變更 EMR RecordServer 環境中的值。 | 
| recordserver-conf | 變更 EMR RecordServer 的 erver.properties 檔案中的值。 | 
| recordserver-log4j | 變更 EMR RecordServer 的 log4j.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.24.1 版
<a name="emr-5241-release"></a>

## 5.24.1 應用程式版本
<a name="emr-5241-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [http://sqoop.apache.org/](http://sqoop.apache.org/) [https://www.tensorflow.org/](https://www.tensorflow.org/) [https://tez.apache.org/](https://tez.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.24.1 | emr-5.24.0 | emr-5.23.1 | emr-5.23.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.546 | 1.11.546 | 1.11.519 | 1.11.519 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.8.0 | 1.7.1 | 1.7.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 149 | 149 | 149 | 149 | 
| HCatalog | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 
| Hive | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.6 | 0.9.4 | 0.9.4 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.219 | 0.219 | 0.215 | 0.215 | 
| Spark | 2.4.2 | 2.4.2 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.24.1 版本備註
<a name="emr-5241-relnotes"></a>

以下版本備註包含 Amazon EMR 5.24.1 版的資訊。變更是相對於 5.24.0 版而言。

初始版本日期：2019 年 6 月 26 日

**變更、強化功能和已解決的問題**
+ 更新預設 Amazon Linux AMI for Amazon EMR，以加入重要的 Linux 核心安全更新，包括 TCP SACK 拒絕服務問題 ([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/))。

**已知問題**
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。

## 5.24.1 元件版本
<a name="emr-5241-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.9.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.8.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.11.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.3.0 | EMR S3Select Connector | 
| emrfs | 2.33.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.8.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-4 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-4 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-4 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 149 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 149 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 149 | HBase 命令列用戶端。 | 
| hbase-rest-server | 149 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 149 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.4-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.4-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.4-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.4-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.4-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.4-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.4-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.4.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.6 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.6.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.4.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.1.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.1.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.1-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.1-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.219 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.219 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.2 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.2 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.2 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.2 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.12.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.1 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.13 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.13 | ZooKeeper 命令列用戶端。 | 

## 5.24.1 組態類別
<a name="emr-5241-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.24.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.24.0 版
<a name="emr-5240-release"></a>

## 5.24.0 應用程式版本
<a name="emr-5240-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [http://sqoop.apache.org/](http://sqoop.apache.org/) [https://www.tensorflow.org/](https://www.tensorflow.org/) [https://tez.apache.org/](https://tez.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.24.0 | emr-5.23.1 | emr-5.23.0 | emr-5.22.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.546 | 1.11.519 | 1.11.519 | 1.11.510 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.7.1 | 1.7.1 | 1.7.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 149 | 149 | 149 | 149 | 
| HCatalog | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 
| Hive | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.6.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.219 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.2 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.24.0 版本備註
<a name="emr-5240-relnotes"></a>

以下版本備註包含 Amazon EMR 5.24.0 版的資訊。變更是相對於 5.23.0 版而言。

初始版本日期：2019 年 6 月 11 日

上次更新日期：2019 年 8 月 5 日

**升級**
+ Flink 1.8.0
+ Hue 4.4.0
+ JupyterHub 0.9.6
+ Livy 0.6.0
+ MxNet 1.4.0
+ Presto 0.219
+ Spark 2.4.2
+ 適用於 Java 的 AWS SDK 1.11.546
+ 連接器和驅動程式：
  + DynamoDB 連接器 4.9.0
  + MariaDB 連接器 2.4.1
  + Amazon Redshift JDBC 驅動器 1.2.27.1051

**變更、強化功能和已解決的問題**
+ Spark
  + 新增動態剔除分割區優化。預設會停用最佳化。若要啟用它，請將 Spark 組態參數 `spark.sql.dynamicPartitionPruning.enabled` 設為 `true`。
  + 改進 `INTERSECT` 查詢的效能。預設會停用此最佳化。若要啟用它，請將 Spark 組態參數 `spark.sql.optimizer.distinctBeforeIntersect.enabled` 設為 `true`。
  + 新增優化，以使用相同關係的彙總扁平化純量子查詢。預設會停用最佳化。若要啟用它，請將 Spark 組態參數 `spark.sql.optimizer.flattenScalarSubqueriesWithAggregates.enabled` 設為 `true`。
  + 改進整階段程式碼產生。

  如需詳細資訊，請參閱[優化 Spark 效能](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html)。
+ 安全組態中的本機磁碟加密和 S3 加密改進 (2019 年 8 月 5 日)
  + 在安全組態設定中分開設定 Amazon S3 加密和本機磁碟加密。
  + 新增啟用 EBS 加密的選項。除儲存磁碟區以外，選取此選項還將加密根裝置磁碟區。先前版本需使用自訂 AMI 加密根裝置磁碟區。
  + 如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[加密選項](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-data-encryption-options.html)。

**已知問題**
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。

## 5.24.0 元件版本
<a name="emr-5240-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.9.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.8.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.11.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.3.0 | EMR S3Select Connector | 
| emrfs | 2.33.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.8.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-4 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-4 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-4 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 149 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 149 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 149 | HBase 命令列用戶端。 | 
| hbase-rest-server | 149 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 149 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.4-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.4-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.4-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.4-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.4-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.4-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.4-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.4.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.6 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.6.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.4.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.1.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.1.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.1-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.1-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.219 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.219 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.2 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.2 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.2 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.2 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.12.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.1 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.13 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.13 | ZooKeeper 命令列用戶端。 | 

## 5.24.0 組態類別
<a name="emr-5240-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.24.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.23.1 版
<a name="emr-5231-release"></a>

## 5.23.1 應用程式版本
<a name="emr-5231-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [http://sqoop.apache.org/](http://sqoop.apache.org/) [https://www.tensorflow.org/](https://www.tensorflow.org/) [https://tez.apache.org/](https://tez.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.23.1 | emr-5.23.0 | emr-5.22.0 | emr-5.21.2 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.519 | 1.11.519 | 1.11.510 | 1.11.479 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.1 | 1.7.1 | 1.7.1 | 1.7.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 149 | 149 | 149 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.0.0 | 
| Phoenix | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.23.1 版本備註
<a name="emr-5231-relnotes"></a>

這是一個修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

執行個體中繼資料服務 (IMDS) 版本 2 支援狀態：Amazon EMR 5.23.1、5.27.1 和 5.32 或更高版本元件對所有 IMDS 呼叫使用 IMDSv2。對於應用程式程式碼中的 IMDS 呼叫，您可以同時使用 IMDSv1 和 IMDSv2，或將 IMDS 設定為僅使用 IMDSv2 來增強安全性。對於其他 5.x EMR 版本，停用 IMDSv1 版本將導致叢集啟動失敗。

## 5.23.1 元件版本
<a name="emr-5231-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.8.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.7.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.11.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.2.0 | EMR S3Select Connector | 
| emrfs | 2.32.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.7.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-3 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-3 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-3 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-3 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-3 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-3 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-3 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-3 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-3 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-3 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-3 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 149 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 149 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 149 | HBase 命令列用戶端。 | 
| hbase-rest-server | 149 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 149 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.4-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.4-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.4-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.4-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.4-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.4-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.4-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.3.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.4 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.3.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.1.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.1.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.1-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.1-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.215 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.215 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.12.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.1 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.13 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.13 | ZooKeeper 命令列用戶端。 | 

## 5.23.1 組態類別
<a name="emr-5231-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.23.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.23.0 版
<a name="emr-5230-release"></a>

## 5.23.0 應用程式版本
<a name="emr-5230-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、、 [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [http://sqoop.apache.org/](http://sqoop.apache.org/) [https://www.tensorflow.org/](https://www.tensorflow.org/) [https://tez.apache.org/](https://tez.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.23.0 | emr-5.22.0 | emr-5.21.2 | emr-5.21.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.519 | 1.11.510 | 1.11.479 | 1.11.479 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.1 | 1.7.1 | 1.7.0 | 1.7.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 149 | 149 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.23.0 版本備註
<a name="emr-5230-relnotes"></a>

以下版本備註包含 Amazon EMR 5.23.0 版的資訊。變更是相對於 5.22.0 版而言。

初始版本日期：2019 年 4 月 1 日

上次更新日期：2019 年 4 月 30 日

**升級**
+ 適用於 Java 的 AWS SDK 1.11.519

**新功能**
+ (2019 年 4 月 30 日) 在 Amazon EMR 5.23.0 版及更高版本中，您可以啟動具有三個主節點的叢集，以支援 YARN Resource Manager、HDFS NameNode、Spark、Hive 和 Ganglia 等應用程式的高可用性功能。主節點已不再是此功能潛在的單點故障。如果其中一個主節點故障，Amazon EMR 會自動容錯移轉至備用主節點，並以具有相同組態和引導操作的新主節點來更換故障主節點。如需詳細資訊，請參閱[規劃和設定主節點](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha.html)。

**已知問題**
+ Tez UI (在 Amazon EMR 版本 5.26.0 中修正)

  Tez UI 不可在具有多個主節點的 EMR 叢集上運作。
+ Hue (在 Amazon EMR 版本 5.24.0 中修正)
  + 在 Amazon EMR 上執行的 Hue 不支援 Solr。從 Amazon EMR 5.20.0 版本開始，組態錯誤問題會導致啟用 Solr，並且顯示類似如下的無害錯誤訊息：

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **若要避免出現 Solr 錯誤訊息：**

    1. 使用 SSH 連接至主節點命令列。

    1. 使用文字編輯器開啟 `hue.ini` 檔案。例如：

       `sudo vim /etc/hue/conf/hue.ini`

    1. 搜尋 `appblacklist` 一詞並如下方所示修改該列：

       ```
       appblacklist = search
       ```

    1. 儲存變更並重新啟動 Hue，如以下範例所示：

       ```
       sudo stop hue; sudo start hue
       ```
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。

## 5.23.0 元件版本
<a name="emr-5230-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.8.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.7.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.11.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.2.0 | EMR S3Select Connector | 
| emrfs | 2.32.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.7.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-3 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-3 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-3 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-3 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-3 | HDFS 檔案系統中的 Hadoop 服務，用於管理在 HA 叢集。 | 
| hadoop-httpfs-server | 2.8.5-amzn-3 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-3 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-3 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-3 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-3 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-3 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 149 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 149 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 149 | HBase 命令列用戶端。 | 
| hbase-rest-server | 149 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 149 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.4-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.4-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.4-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.4-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.4-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.4-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.4-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.3.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.4 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.3.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.1.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.1.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.1-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.1-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.215 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.215 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.12.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.1 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.13 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.13 | ZooKeeper 命令列用戶端。 | 

## 5.23.0 組態類別
<a name="emr-5230-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.23.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.22.0 版
<a name="emr-5220-release"></a>

## 5.22.0 應用程式版本
<a name="emr-5220-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、、 [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [http://sqoop.apache.org/](http://sqoop.apache.org/) [https://www.tensorflow.org/](https://www.tensorflow.org/) [https://tez.apache.org/](https://tez.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.22.0 | emr-5.21.2 | emr-5.21.1 | emr-5.21.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.510 | 1.11.479 | 1.11.479 | 1.11.479 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.1 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 149 | 1.4.8 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.1-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.22.0 版本備註
<a name="emr-5220-relnotes"></a>

以下版本備註包含 Amazon EMR 5.22.0 版的資訊。變更是相對於 5.21.0 版而言。

**重要**  
從 Amazon EMR 5.22.0 版開始，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。舊版 Amazon EMR 在某些情況下使用 AWS Signature 第 2 版，除非版本備註指出 Signature 第 4 版僅供使用。如需詳細資訊，請參閱《*Amazon Simple Storage Service 開發人員指南*》中的[驗證請求 (AWS 簽章版本 4)](https://docs.aws.amazon.com/AmazonS3/latest/API/sig-v4-authenticating-requests.html) [和驗證請求AWS （簽章版本 2)](https://docs.aws.amazon.com/AmazonS3/latest/API/auth-request-sig-v2.html)。

初始版本日期：2019 年 3 月 20 日

**升級**
+ Flink 1.7.1
+ HBase 1.4.9
+ Oozie 5.1.0
+ Phoenix 4.14.1
+ Zeppelin 0.8.1
+ 連接器和驅動程式：
  + DynamoDB 連接器 4.8.0
  + MariaDB 連接器 2.2.6
  + Amazon Redshift JDBC 驅動器 1.2.20.1043

**新功能**
+ 對於使用僅限 EBS 儲存的 EC2 執行個體類型，修改它們的預設 EBS 組態。當您使用 Amazon EMR 5.22.0 版及更高版本建立叢集時，EBS 儲存的預設數量會根據執行個體的大小增加。此外，我們會將增加的儲存分割置於多個磁碟區，藉此提升 IOPS 效能。如果您想要使用不同的 EBS 執行個體儲存體組態，您可以在建立 EMR 叢集或將節點新增至現有叢集時加以指定。如需有關每種執行個體類型預設分配的儲存大小和磁碟區數量的詳細資訊，請參閱《Amazon EMR 管理指南》**中的[執行個體的預設 EBS 儲存](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-storage.html#emr-plan-storage-ebs-storage-default)。

**變更、強化功能和已解決的問題**
+ Spark
  + 為 YARN 上的 Spark 推出一項新的組態屬性 `spark.yarn.executor.memoryOverheadFactor`。此屬性的值是一個縮放比例，可將記憶體超額使用的值設為執行器記憶體的某個百分比，最小為 384 MB。若使用 `spark.yarn.executor.memoryOverhead` 明確設定記憶體超額使用，此屬性不會發生作用。預設值為 `0.1875`，表示 18.75%。此 Amazon EMR 預設值在 YARN 容器中為執行器記憶體超額使用預留更大空間，高於 Spark 內部預設的 10%。Amazon EMR 預設值為 18.75%，依經驗可減少 TPC-DS 基準測試中與記憶體相關的故障。
  + 向後移植的 [SPARK-26316](https://issues.apache.org/jira/browse/SPARK-26316) 可改進效能。
+ 在 Amazon EMR 版本 5.19.0、5.20.0 和 5.21.0 中，YARN 節點標籤儲存於 HDFS 目錄。在某些情況下，這會導致核心節點啟動延遲，然後造成叢集逾時與啟動失敗。從 Amazon EMR 5.22.0 開始，此問題已解決。YARN 節點標籤儲存在每個叢集節點的本機磁碟上，以避免 HDFS 上的相依性。

**已知問題**
+ Hue (在 Amazon EMR 版本 5.24.0 中修正)
  + 在 Amazon EMR 上執行的 Hue 不支援 Solr。從 Amazon EMR 5.20.0 版本開始，組態錯誤問題會導致啟用 Solr，並且顯示類似如下的無害錯誤訊息：

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **若要避免出現 Solr 錯誤訊息：**

    1. 使用 SSH 連接至主節點命令列。

    1. 使用文字編輯器開啟 `hue.ini` 檔案。例如：

       `sudo vim /etc/hue/conf/hue.ini`

    1. 搜尋 `appblacklist` 一詞並如下方所示修改該列：

       ```
       appblacklist = search
       ```

    1. 儲存變更並重新啟動 Hue，如以下範例所示：

       ```
       sudo stop hue; sudo start hue
       ```
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。

## 5.22.0 元件版本
<a name="emr-5220-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.8.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.6.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.11.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.2.0 | EMR S3Select Connector | 
| emrfs | 2.31.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.7.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-2 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-2 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-2 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-2 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.5-amzn-2 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-2 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-2 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-2 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-2 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-2 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 149 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 149 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 149 | HBase 命令列用戶端。 | 
| hbase-rest-server | 149 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 149 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.4-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.4-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.4-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.4-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.4-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.4-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.4-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.3.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.4 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.3.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.1.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.1.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.1-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.1-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.215 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.215 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.12.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.1 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.13 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.13 | ZooKeeper 命令列用戶端。 | 

## 5.22.0 組態類別
<a name="emr-5220-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.22.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.21.2 版
<a name="emr-5212-release"></a>

## 5.21.2 應用程式版本
<a name="emr-5212-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [http://sqoop.apache.org/](http://sqoop.apache.org/) [https://www.tensorflow.org/](https://www.tensorflow.org/) [https://tez.apache.org/](https://tez.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.21.2 | emr-5.21.1 | emr-5.21.0 | emr-5.20.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.479 | 1.11.479 | 1.11.479 | 1.11.461 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.214 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.21.2 版本備註
<a name="emr-5212-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.21.2 元件版本
<a name="emr-5212-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.5.1 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.11.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.2.0 | EMR S3Select Connector | 
| emrfs | 2.30.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.7.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.8 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.8 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.8 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.8 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.8 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.4-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.4-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.4-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.4-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.4-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.3.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.4 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.3.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.215 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.215 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.12.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.1 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.13 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.13 | ZooKeeper 命令列用戶端。 | 

## 5.21.2 組態類別
<a name="emr-5212-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.21.2 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.21.1 版
<a name="emr-5211-release"></a>

## 5.21.1 應用程式版本
<a name="emr-5211-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [http://sqoop.apache.org/](http://sqoop.apache.org/) [https://www.tensorflow.org/](https://www.tensorflow.org/) [https://tez.apache.org/](https://tez.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.21.1 | emr-5.21.0 | emr-5.20.1 | emr-5.20.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.479 | 1.11.479 | 1.11.461 | 1.11.461 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.0 | 1.7.0 | 1.6.2 | 1.6.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.214 | 0.214 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.21.1 版本備註
<a name="emr-5211-relnotes"></a>

以下版本備註包含 Amazon EMR 5.21.1 版的資訊。變更是相對於 5.21.0 版而言。

初始版本日期：2019 年 7 月 18 日

**變更、強化功能和已解決的問題**
+ 更新預設 Amazon Linux AMI for Amazon EMR，以加入重要的 Linux 核心安全更新，包括 TCP SACK 拒絕服務問題 ([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/))。

**已知問題**
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。

## 5.21.1 元件版本
<a name="emr-5211-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.5.1 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.11.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.2.0 | EMR S3Select Connector | 
| emrfs | 2.30.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.7.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.8 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.8 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.8 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.8 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.8 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.4-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.4-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.4-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.4-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.4-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.3.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.4 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.3.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.215 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.215 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.12.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.1 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.13 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.13 | ZooKeeper 命令列用戶端。 | 

## 5.21.1 組態類別
<a name="emr-5211-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.21.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.21.0 版
<a name="emr-5210-release"></a>

## 5.21.0 應用程式版本
<a name="emr-5210-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.21.0 | emr-5.20.1 | emr-5.20.0 | emr-5.19.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.479 | 1.11.461 | 1.11.461 | 1.11.433 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.6 | 2.7、3.4 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.0 | 1.6.2 | 1.6.2 | 1.6.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.7 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.214 | 0.214 | 0.212 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.11.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.21.0 版本備註
<a name="emr-5210-relnotes"></a>

以下版本備註包含 Amazon EMR 5.21.0 版的資訊。變更是相對於 5.20.0 版而言。

初始版本日期：2019 年 2 月 18 日

上次更新日期：2019 年 4 月 3 日

**升級**
+ Flink 1.7.0
+ Presto 0.215
+ 適用於 Java 的 AWS SDK 1.11.479

**新功能**
+ (2019 年 4 月 3 日) 對於 Amazon EMR 版本 5.21.0 及更高版本，您可以覆寫叢集組態，並且為執行中叢集的每個執行個體群組，指定額外組態分類。您可以使用 Amazon EMR 主控台、 AWS Command Line Interface (AWS CLI) 或 AWS SDK 來執行此操作。如需詳細資訊，請參閱[為執行中叢集的執行個體群組提供組態](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html)。

**變更、強化功能和已解決的問題**
+ Zeppelin
  + 向後移植的 [ZEPPELIN-3878](https://issues.apache.org/jira/browse/ZEPPELIN-3878)。

**已知問題**
+ Hue (在 Amazon EMR 版本 5.24.0 中修正)
  + 在 Amazon EMR 上執行的 Hue 不支援 Solr。從 Amazon EMR 5.20.0 版本開始，組態錯誤問題會導致啟用 Solr，並且顯示類似如下的無害錯誤訊息：

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **若要避免出現 Solr 錯誤訊息：**

    1. 使用 SSH 連接至主節點命令列。

    1. 使用文字編輯器開啟 `hue.ini` 檔案。例如：

       `sudo vim /etc/hue/conf/hue.ini`

    1. 搜尋 `appblacklist` 一詞並如下方所示修改該列：

       ```
       appblacklist = search
       ```

    1. 儲存變更並重新啟動 Hue，如以下範例所示：

       ```
       sudo stop hue; sudo start hue
       ```
+ Tez
  + 此問題已在 Amazon EMR 5.22.0 中修正。

    當您透過與叢集主節點的 SSH 連線連線到 http://*MasterDNS*:8080/tez-ui 的 Tez UI 時，將顯示「轉接器操作失敗 - 時間軸伺服器 (ATS) 無法觸達。它可能發生故障，或未啟用 CORS」的錯誤訊息，或任務意外顯示 N/A。

    這是因為 Tez UI 使用主節點的 `localhost` 而非主機名稱向 YARN 時間軸伺服器傳送請求。此時可執行一段指令碼作為引導操作或步驟來解決該問題。該指令碼會更新 Tez `configs.env` 檔案中的主機名稱。如需詳細資料以及指令碼的所在位置，請參閱[引導指示](http://awssupportdatasvcs.com/bootstrap-actions/fix_tez_ui_0-9-1/)。
+ 在 Amazon EMR 版本 5.19.0、5.20.0 和 5.21.0 中，YARN 節點標籤儲存於 HDFS 目錄。在某些情況下，這會導致核心節點啟動延遲，然後造成叢集逾時與啟動失敗。從 Amazon EMR 5.22.0 開始，此問題已解決。YARN 節點標籤儲存在每個叢集節點的本機磁碟上，以避免 HDFS 上的相依性。
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。

## 5.21.0 元件版本
<a name="emr-5210-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.5.1 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.11.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.2.0 | EMR S3Select Connector | 
| emrfs | 2.30.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.7.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.8 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.8 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.8 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.8 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.8 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.4-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.4-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.4-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.4-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.4-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.3.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.4 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.3.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.215 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.215 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.12.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.1 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.13 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.13 | ZooKeeper 命令列用戶端。 | 

## 5.21.0 組態類別
<a name="emr-5210-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.21.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.20.1 版
<a name="emr-5201-release"></a>

## 5.20.1 應用程式版本
<a name="emr-5201-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.20.1 | emr-5.20.0 | emr-5.19.1 | emr-5.19.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.461 | 1.11.461 | 1.11.433 | 1.11.433 | 
| Python | 2.7、3.6 | 2.7、3.6 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.2 | 1.6.2 | 1.6.1 | 1.6.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.7 | 1.4.7 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.214 | 0.214 | 0.212 | 0.212 | 
| Spark | 2.4.0 | 2.4.0 | 2.3.2 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.11.0 | 1.11.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.20.1 版本備註
<a name="emr-5201-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.20.1 元件版本
<a name="emr-5201-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.5.1 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.2.0 | EMR S3Select Connector | 
| emrfs | 2.29.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.6.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.8 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.8 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.8 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.8 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.8 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.4-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.4-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.4-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.4-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.4-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.3.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.4 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.3.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.214 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.214 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.12.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.1 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.13 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.13 | ZooKeeper 命令列用戶端。 | 

## 5.20.1 組態類別
<a name="emr-5201-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.20.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.20.0 版
<a name="emr-5200-release"></a>

## 5.20.0 應用程式版本
<a name="emr-5200-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)[https://tez.apache.org/](https://tez.apache.org/)、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.20.0 | emr-5.19.1 | emr-5.19.0 | emr-5.18.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.461 | 1.11.433 | 1.11.433 | 1.11.393 | 
| Python | 2.7、3.6 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.12 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.2 | 1.6.1 | 1.6.1 | 1.6.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.7 | 1.4.7 | 1.4.7 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 
| Hive | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.214 | 0.212 | 0.212 | 0.210 | 
| Spark | 2.4.0 | 2.3.2 | 2.3.2 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.11.0 | 1.11.0 | 1.9.0 | 
| Tez | 0.9.1 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.12 | 

## 5.20.0 版本備註
<a name="emr-5200-relnotes"></a>

以下版本備註包含 Amazon EMR 5.20.0 版的資訊。變更是相對於 5.19.0 版而言。

初始版本日期：2018 年 12 月 18 日

上次更新日期：2019 年 1 月 22 日

**升級**
+ Flink 1.6.2
+ HBase 1.4.8
+ Hive 2.3.4
+ Hue 4.3.0
+ MXNet 1.3.1
+ Presto 0.214
+ Spark 2.4.0
+ TensorFlow 1.12.0
+ Tez 0.9.1
+ 適用於 Java 的 AWS SDK 1.11.461

**新功能**
+ (2019 年 1 月 22 日) Amazon EMR 中的 Kerberos 已改進，可支援從外部 KDC 對主體執行身分驗證。這項支援可集中主體管理，因為多個叢集可以共用單一的外部 KDC。此外，外部 KDC 與 Active Directory 網域可存在跨域信任。這可讓所有叢集為 Active Directory 的主體進行身分驗證。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[使用 Kerberos 身分驗證](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-kerberos.html)。

**變更、強化功能和已解決的問題**
+ 預設 Amazon Linux AMI for Amazon EMR
  + Python3 套件從 python 3.4 升級至 3.6。
+ EMRFS S3 優化遞交者 
  + EMRFS S3 優化遞交者現預設為啟用，可改進寫入效能。如需詳細資訊，請參閱[使用 EMRFS S3 優化遞交者](emr-spark-s3-optimized-committer.md)。
+ Hive
  + 向後移植的 [HIVE-16686](https://issues.apache.org/jira/browse/HIVE-16686)。
+ Glue 搭配 Spark 和 Hive
  + 在 EMR 5.20.0 或更新版本中，當 Glue Data Catalog AWS 用作中繼存放區時，Spark 和 Hive 會自動啟用平行分割區剔除。這項變更會平行執行多個請求來擷取分割區，從而大幅縮短查詢規劃時間。可同時執行的區段總數範圍介於 1 到 10 之間。預設值為 5，此為建議設定。您可以在 `hive-site` 組態分類中指定屬性 `aws.glue.partition.num.segments` 加以變更。如果發生限流，您可以透過將值變更為 1 以關閉該功能。如需詳細資訊，請參閱 [AWS Glue 區段結構](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-partitions.html#aws-glue-api-catalog-partitions-Segment)。

**已知問題**
+ Hue (在 Amazon EMR 版本 5.24.0 中修正)
  + 在 Amazon EMR 上執行的 Hue 不支援 Solr。從 Amazon EMR 5.20.0 版本開始，組態錯誤問題會導致啟用 Solr，並且顯示類似如下的無害錯誤訊息：

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **若要避免出現 Solr 錯誤訊息：**

    1. 使用 SSH 連接至主節點命令列。

    1. 使用文字編輯器開啟 `hue.ini` 檔案。例如：

       `sudo vim /etc/hue/conf/hue.ini`

    1. 搜尋 `appblacklist` 一詞並如下方所示修改該列：

       ```
       appblacklist = search
       ```

    1. 儲存變更並重新啟動 Hue，如以下範例所示：

       ```
       sudo stop hue; sudo start hue
       ```
+ Tez
  + 此問題已在 Amazon EMR 5.22.0 中修正。

    當您透過與叢集主節點的 SSH 連線連線到 http://*MasterDNS*:8080/tez-ui 的 Tez UI 時，將顯示「轉接器操作失敗 - 時間軸伺服器 (ATS) 無法觸達。它可能發生故障，或未啟用 CORS」的錯誤訊息，或任務意外顯示 N/A。

    這是因為 Tez UI 使用主節點的 `localhost` 而非主機名稱向 YARN 時間軸伺服器傳送請求。此時可執行一段指令碼作為引導操作或步驟來解決該問題。該指令碼會更新 Tez `configs.env` 檔案中的主機名稱。如需詳細資料以及指令碼的所在位置，請參閱[引導指示](http://awssupportdatasvcs.com/bootstrap-actions/fix_tez_ui_0-9-1/)。
+ 在 Amazon EMR 版本 5.19.0、5.20.0 和 5.21.0 中，YARN 節點標籤儲存於 HDFS 目錄。在某些情況下，這會導致核心節點啟動延遲，然後造成叢集逾時與啟動失敗。從 Amazon EMR 5.22.0 開始，此問題已解決。YARN 節點標籤儲存在每個叢集節點的本機磁碟上，以避免 HDFS 上的相依性。
+ 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

  如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集，當叢集執行一段時間後，您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

  解決方法：
  + 以 `hadoop` 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。
  +  執行以下命令，以更新 `hadoop` 使用者的 Kerberos 票證。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    一般而言，Keytab 檔案位於 `/etc/hadoop.keytab`，而主體則採用 `hadoop/<hostname>@<REALM>` 的形式。
**注意**  
此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時，但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期，您必須重新執行上述命令。

## 5.20.0 元件版本
<a name="emr-5200-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.5.1 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.2.0 | EMR S3Select Connector | 
| emrfs | 2.29.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.6.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.8 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.8 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.8 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.8 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.8 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.4-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.4-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.4-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.4-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.4-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.3.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.4 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.3.1 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.214 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.214 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.4.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.4.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.4.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.4.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.12.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.9.1 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.13 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.13 | ZooKeeper 命令列用戶端。 | 

## 5.20.0 組態類別
<a name="emr-5200-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.20.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.19.1 版
<a name="emr-5191-release"></a>

## 5.19.1 應用程式版本
<a name="emr-5191-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)[https://tez.apache.org/](https://tez.apache.org/)、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.19.1 | emr-5.19.0 | emr-5.18.1 | emr-5.18.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.433 | 1.11.433 | 1.11.393 | 1.11.393 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.1 | 1.6.1 | 1.6.0 | 1.6.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.0 | 1.3.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.212 | 0.212 | 0.210 | 0.210 | 
| Spark | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.11.0 | 1.11.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.12 | 3.4.12 | 

## 5.19.1 版本備註
<a name="emr-5191-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.19.1 元件版本
<a name="emr-5191-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.5.1 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.1.0 | EMR S3Select Connector | 
| emrfs | 2.28.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.6.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.5-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.7 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.7 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.7 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.7 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.7 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.3-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.3-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.3-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.3-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.3-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.3-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.2.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.4 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.3.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.212 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.212 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.2 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.2 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.2 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.2 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.11.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.13 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.13 | ZooKeeper 命令列用戶端。 | 

## 5.19.1 組態類別
<a name="emr-5191-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.19.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.19.0 版
<a name="emr-5190-release"></a>

## 5.19.0 應用程式版本
<a name="emr-5190-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)[https://tez.apache.org/](https://tez.apache.org/)、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.19.0 | emr-5.18.1 | emr-5.18.0 | emr-5.17.2 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.433 | 1.11.393 | 1.11.393 | 1.11.336 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.1 | 1.6.0 | 1.6.0 | 1.5.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.212 | 0.210 | 0.210 | 0.206 | 
| Spark | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.11.0 | 1.9.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.7.3 | 
| ZooKeeper | 3.4.13 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.19.0 版本備註
<a name="emr-5190-relnotes"></a>

以下版本備註包含 Amazon EMR 5.19.0 版的資訊。變更是相對於 5.18.0 版而言。

初始版本日期：2018 年 11 月 7 日

上次更新日期：2018 年 11 月 19 日

**升級**
+ Hadoop 2.8.5
+ Flink 1.6.1
+ JupyterHub 0.9.4
+ MXNet 1.3.0
+ Presto 0.212
+ TensorFlow 1.11.0
+ Zookeeper 3.4.13
+ 適用於 Java 的 AWS SDK 1.11.433

**新功能**
+ (2018 年 11 月 19 日) EMR Notebooks 是以 Jupyter 筆記本為基礎的受管環境。它支援 PySpark、Spark SQL、Spark R 和 Scala 的 Spark magic 核心。EMR Notebooks 可以與使用 Amazon EMR 5.18.0 版及更高版本建立的叢集搭配使用。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[使用 EMR Notebooks](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks.html)。
+ EMRFS S3 優化遞交者可用於使用 Spark 和 EMRFS 寫入 Parquet 檔案。此遞交者可改進寫入效能。如需詳細資訊，請參閱[使用 EMRFS S3 優化遞交者](emr-spark-s3-optimized-committer.md)。

**變更、強化功能和已解決的問題**
+ YARN
  + 修改限制應用程式主程序在核心節點上執行的邏輯。此功能現在使用 `yarn-site` 和 `capacity-scheduler` 組態分類中的 YARN 節點標籤功能及屬性。如需相關資訊，請參閱[https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-instances-guidelines.html#emr-plan-spot-YARN.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-instances-guidelines.html#emr-plan-spot-YARN.)。
+ 預設 Amazon Linux AMI for Amazon EMR
  + 預設不再安裝 `ruby18`、`php56` 和 `gcc48`。視需要，可使用 `yum` 安裝它們。
  + 預設不再安裝 aws-sdk ruby gem。視需要，可使用 `gem install aws-sdk` 進行安裝。您還可以安裝特定元件。例如 `gem install aws-sdk-s3`。

**已知問題**
+ **EMR Notebooks** - 在某些情況下，若開啟多個筆記本編輯器，筆記本編輯器可能無法連線至叢集。如果發生此情況，請清除瀏覽器 Cookie，然後重新打開筆記本編輯器。
+ **CloudWatch ContainerPending 指標和自動擴展** - (在 5.20.0 中修正) Amazon EMR 可能發出 `ContainerPending` 的負值。若在自動擴展規則中使用 `ContainerPending`，自動擴展不會如預期運作。避免搭配使用 `ContainerPending` 和自動擴展。
+ 在 Amazon EMR 版本 5.19.0、5.20.0 和 5.21.0 中，YARN 節點標籤儲存於 HDFS 目錄。在某些情況下，這會導致核心節點啟動延遲，然後造成叢集逾時與啟動失敗。從 Amazon EMR 5.22.0 開始，此問題已解決。YARN 節點標籤儲存在每個叢集節點的本機磁碟上，以避免 HDFS 上的相依性。

## 5.19.0 元件版本
<a name="emr-5190-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.5.1 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.1.0 | EMR S3Select Connector | 
| emrfs | 2.28.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.6.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.5-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.5-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.5-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.5-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.5-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.7 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.7 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.7 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.7 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.7 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.3-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.3-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.3-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.3-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.3-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.3-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.2.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.9.4 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.3.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.212 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.212 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.2 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.2 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.2 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.2 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.11.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.13 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.13 | ZooKeeper 命令列用戶端。 | 

## 5.19.0 組態類別
<a name="emr-5190-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.19.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-memory | 變更 Presto 的 memory.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| presto-connector-tpcds | 變更 Presto 的 tpcds.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.18.1 版
<a name="emr-5181-release"></a>

## 5.18.1 應用程式版本
<a name="emr-5181-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.18.1 | emr-5.18.0 | emr-5.17.2 | emr-5.17.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.393 | 1.11.393 | 1.11.336 | 1.11.336 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.210 | 0.210 | 0.206 | 0.206 | 
| Spark | 2.3.2 | 2.3.2 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.18.1 版本備註
<a name="emr-5181-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.18.1 元件版本
<a name="emr-5181-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.5.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.1.0 | EMR S3Select Connector | 
| emrfs | 2.27.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.6.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.4-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.4-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.4-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.7 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.7 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.7 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.7 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.7 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.3-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.3-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.3-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.3-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.3-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.3-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.2.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.8.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.2.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.210 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.210 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.2 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.2 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.2 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.2 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.9.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.12 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.12 | ZooKeeper 命令列用戶端。 | 

## 5.18.1 組態類別
<a name="emr-5181-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.18.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.18.0 版
<a name="emr-5180-release"></a>

## 5.18.0 應用程式版本
<a name="emr-5180-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://www.tensorflow.org/](https://www.tensorflow.org/)[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.18.0 | emr-5.17.2 | emr-5.17.1 | emr-5.17.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.393 | 1.11.336 | 1.11.336 | 1.11.336 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.0 | 1.5.2 | 1.5.2 | 1.5.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.210 | 0.206 | 0.206 | 0.206 | 
| Spark | 2.3.2 | 2.3.1 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.18.0 版本備註
<a name="emr-5180-relnotes"></a>

以下版本備註包含 Amazon EMR 5.18.0 版的資訊。變更是相對於 5.17.0 版而言。

初始版本日期：2018 年 10 月 24 日

**升級**
+ Flink 1.6.0
+ HBase 1.4.7
+ Presto 0.210
+ Spark 2.3.2
+ Zeppelin 0.8.0

**新功能**
+ 自 Amazon EMR 5.18.0 開始，您可以使用 Amazon EMR 成品儲存庫建置作業程式碼，並將其用於確切的程式庫和相依版本，以搭配特定 Amazon EMR 發行版本使用。如需詳細資訊，請參閱[使用 Amazon EMR 成品儲存庫檢查相依性](emr-artifact-repository.md)。

**變更、強化功能和已解決的問題**
+ Hive
  + 新增對 S3 Select 的支援。如需詳細資訊，請參閱[將 S3 Select 與 Hive 搭配使用以提升效能](emr-hive-s3select.md)。
+ Presto
  + 新增對 [S3 Select](https://aws.amazon.com/blogs/aws/s3-glacier-select/) Pushdown 的支援。如需詳細資訊，請參閱[使用 S3 Select Pushdown 搭配 Presto 以提升效能](emr-presto-s3select.md)。
+ Spark
  + Spark 的預設 log4j 組態已變更為每小時針對 Spark 串流作業轉返容器日誌。這有助於防止刪除長時間執行 Spark 串流作業的日誌。

## 5.18.0 元件版本
<a name="emr-5180-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.5.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.1.0 | EMR S3Select Connector | 
| emrfs | 2.27.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.6.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.4-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.4-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.4-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.7 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.7 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.7 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.7 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.7 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.3-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.3-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.3-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.3-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.3-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.3-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.2.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.8.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| nginx | 1.12.1 | nginx [engine x] 是 HTTP 和反向代理伺服器 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.2.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.210 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.210 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.2 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.2 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.2 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.2 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.9.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.8.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.12 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.12 | ZooKeeper 命令列用戶端。 | 

## 5.18.0 組態類別
<a name="emr-5180-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.18.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.17.2 版
<a name="emr-5172-release"></a>

## 5.17.2 應用程式版本
<a name="emr-5172-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、、 [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [http://sqoop.apache.org/](http://sqoop.apache.org/) [https://www.tensorflow.org/](https://www.tensorflow.org/) [https://tez.apache.org/](https://tez.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.17.2 | emr-5.17.1 | emr-5.17.0 | emr-5.16.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.336 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.2 | 1.5.2 | 1.5.2 | 1.5.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.206 | 0.206 | 0.206 | 0.203 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 | 1.9.0 |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.17.2 版本備註
<a name="emr-5172-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.17.2 元件版本
<a name="emr-5172-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.5.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.0.0 | EMR S3Select Connector | 
| emrfs | 2.26.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.5.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.4-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.4-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.4-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.6 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.6 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.6 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.6 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.6 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.3-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.3-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.3-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.3-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.3-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.2.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.8.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.2.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.206 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.206 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.9.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.12 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.12 | ZooKeeper 命令列用戶端。 | 

## 5.17.2 組態類別
<a name="emr-5172-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.17.2 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.17.1 版
<a name="emr-5171-release"></a>

## 5.17.1 應用程式版本
<a name="emr-5171-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、、 [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [http://sqoop.apache.org/](http://sqoop.apache.org/) [https://www.tensorflow.org/](https://www.tensorflow.org/) [https://tez.apache.org/](https://tez.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.17.1 | emr-5.17.0 | emr-5.16.1 | emr-5.16.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.336 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.2 | 1.5.2 | 1.5.0 | 1.5.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.6 | 1.4.6 | 1.4.4 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.206 | 0.206 | 0.203 | 0.203 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.17.1 版本備註
<a name="emr-5171-relnotes"></a>

以下版本備註包含 Amazon EMR 5.17.1 版的資訊。變更是相對於 5.17.0 版而言。

初始版本日期：2019 年 7 月 18 日

**變更、強化功能和已解決的問題**
+ 更新預設 Amazon Linux AMI for Amazon EMR，以加入重要的 Linux 核心安全更新，包括 TCP SACK 拒絕服務問題 ([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/))。

## 5.17.1 元件版本
<a name="emr-5171-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.5.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.0.0 | EMR S3Select Connector | 
| emrfs | 2.26.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.5.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.4-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.4-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.4-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.6 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.6 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.6 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.6 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.6 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.3-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.3-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.3-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.3-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.3-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.2.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.8.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.2.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.206 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.206 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.9.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.12 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.12 | ZooKeeper 命令列用戶端。 | 

## 5.17.1 組態類別
<a name="emr-5171-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.17.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.17.0 版
<a name="emr-5170-release"></a>

## 5.17.0 應用程式版本
<a name="emr-5170-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、、 [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/) [http://sqoop.apache.org/](http://sqoop.apache.org/) [https://www.tensorflow.org/](https://www.tensorflow.org/) [https://tez.apache.org/](https://tez.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.17.0 | emr-5.16.1 | emr-5.16.0 | emr-5.15.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.333 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.2 | 1.5.0 | 1.5.0 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.6 | 1.4.4 | 1.4.4 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.4.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.206 | 0.203 | 0.203 | 0.194 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.17.0 版本備註
<a name="emr-5170-relnotes"></a>

以下版本備註包含 Amazon EMR 5.17.0 版的資訊。變更是相對於 5.16.0 版而言。

初始版本日期：2018 年 8 月 30 日

**升級**
+ Flink 1.5.2
+ HBase 1.4.6
+ Presto 0.206

**新功能**
+ 新增對 Tensorflow 的支援。如需詳細資訊，請參閱[TensorFlow](emr-tensorflow.md)。

**變更、強化功能和已解決的問題**
+ JupyterHub
  + 新增對 Amazon S3 中筆記本持續性的支援。如需詳細資訊，請參閱[在 Amazon S3 中設定筆記本的持久性](emr-jupyterhub-s3.md)。
+ Spark
  + 新增對 [S3 Select](https://aws.amazon.com/blogs/aws/s3-glacier-select/) 的支援。如需詳細資訊，請參閱[使用 S3 Select 搭配 Spark 以提升查詢效能](emr-spark-s3select.md)。
+ 解決 Amazon EMR 版本 5.14.0、5.15.0 或 5.16.0 中的 Cloudwatch 指標和自動擴展功能的問題。

**已知問題**
+ 如果您在安裝 Livy 後建立 kerberos 化叢集，Livy 將因未啟用簡單身分驗證的錯誤而發生故障。重新啟動 Livy 伺服器可解決該問題。解決辦法是，建立叢集時，新增一個在主節點上執行 `sudo restart livy-server` 的步驟。
+ 如果您使用基於建立日期為 2018 年 8 月 11 日的 Amazon Linux AMI 的自訂 Amazon Linux AMI，Oozie 伺服器將無法啟動。如果您使用 Oozie，請根據具有不同建立日期的 Amazon Linux AMI ID 建立自訂 AMI。您可以使用下列 AWS CLI 命令，傳回具有 2018.03 版本的所有 HVM Amazon Linux AMIs 的影像 IDs 清單，以及發行日期，讓您可以選擇適當的 Amazon Linux AMI 做為基礎。將 MyRegion 取代為區域識別符，例如 us-west-2。

  ```
  aws ec2 --region MyRegion describe-images --owner amazon --query 'Images[?Name!=`null`]|[?starts_with(Name, `amzn-ami-hvm-2018.03`) == `true`].[CreationDate,ImageId,Name]' --output text | sort -rk1
  ```

## 5.17.0 元件版本
<a name="emr-5170-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.5.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emr-s3-select | 1.0.0 | EMR S3Select Connector | 
| emrfs | 2.26.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.5.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.4-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.4-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.4-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.6 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.6 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.6 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.6 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.6 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.3-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.3-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.3-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.3-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.3-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.2.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.8.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.2.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.206 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.206 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tensorflow | 1.9.0 | 適用於高效能數值運算的 TensorFlow 開放原始碼軟體程式庫。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.12 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.12 | ZooKeeper 命令列用戶端。 | 

## 5.17.0 組態類別
<a name="emr-5170-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.17.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-s3-conf | 設定 Jupyter 筆記本 S3 持久性。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.16.1 版
<a name="emr-5161-release"></a>

## 5.16.1 應用程式版本
<a name="emr-5161-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.16.1 | emr-5.16.0 | emr-5.15.1 | emr-5.15.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.336 | 1.11.336 | 1.11.333 | 1.11.333 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.0 | 1.5.0 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 
| Hadoop | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.203 | 0.203 | 0.194 | 0.194 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.16.1 版本備註
<a name="emr-5161-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.16.1 元件版本
<a name="emr-5161-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.25.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.5.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.4-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.4-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.4-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.4-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.4-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.4 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.4 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.4 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.4 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.4 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.3-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.3-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.3-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.3-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.3-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.2.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.8.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.2.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.203 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.203 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.12 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.12 | ZooKeeper 命令列用戶端。 | 

## 5.16.1 組態類別
<a name="emr-5161-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.16.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.16.0 版
<a name="emr-5160-release"></a>

## 5.16.0 應用程式版本
<a name="emr-5160-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.16.0 | emr-5.15.1 | emr-5.15.0 | emr-5.14.2 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.336 | 1.11.333 | 1.11.333 | 1.11.297 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.0 | 1.4.2 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.2 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.2.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 4.3.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.203 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.1 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.10 | 

## 5.16.0 版本備註
<a name="emr-5160-relnotes"></a>

以下版本備註包含 Amazon EMR 5.16.0 版的資訊。變更是相對於 5.15.0 版而言。

初始版本日期：2018 年 7 月 19 日

**升級**
+ Hadoop 2.8.4
+ Flink 1.5.0
+ Livy 0.5.0
+ MXNet 1.2.0
+ Phoenix 4.14.0
+ Presto 0.203
+ Spark 2.3.1
+ 適用於 Java 的 AWS SDK 1.11.336
+ CUDA 9.2
+ Redshift JDBC 驅動器 1.2.15.1025

**變更、強化功能和已解決的問題**
+ HBase
  + 向後移植的 [HBASE-20723](https://issues.apache.org/jira/browse/HBASE-20723)
+ Presto
  + 變更組態以支援 LDAP 身分驗證。如需詳細資訊，請參閱[使用 LDAP 身分驗證 Presto on Amazon EMR](emr-presto-ldap.md)。
+ Spark
  + 自 Amazon EMR 5.16.0 版開始提供 Apache Spark 版本 2.3.1，以因應 [CVE-2018-8024](https://nvd.nist.gov/vuln/detail/CVE-2018-8024) 和 [CVE-2018-1334](https://nvd.nist.gov/vuln/detail/CVE-2018-1334)。建議您將舊版 Spark 遷移至 Spark 版本 2.3.1 或更高版本。

**已知問題**
+ 此發行版本不支援 c1.medium 或 m1.small 執行個體類型。使用這兩種執行個體類型的叢集均無法啟動。解決辦法是，指定不同的執行個體類型或使用不同的發行版本。
+ 如果您在安裝 Livy 後建立 kerberos 化叢集，Livy 將因未啟用簡單身分驗證的錯誤而發生故障。重新啟動 Livy 伺服器可解決該問題。解決辦法是，建立叢集時，新增一個在主節點上執行 `sudo restart livy-server` 的步驟。
+ 主節點或執行個體控制器重新啟動後，Amazon EMR 版本 5.14.0、5.15.0 或 5.16.0 中將不會收集 CloudWatch 指標，也不提供自動擴展功能。此問題已在 Amazon EMR 5.17.0 中修正。

## 5.16.0 元件版本
<a name="emr-5160-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.25.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.5.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.4-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.4-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.4-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.4-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.4-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.4 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.4 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.4 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.4 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.4 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.3-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.3-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.3-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.3-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.3-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.2.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.8.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.5.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.2.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.2.88 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.14.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.203 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.203 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.12 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.12 | ZooKeeper 命令列用戶端。 | 

## 5.16.0 組態類別
<a name="emr-5160-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.16.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-password-authenticator | 變更 Presto 的 password-authenticator.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.15.1 版
<a name="emr-5151-release"></a>

## 5.15.1 應用程式版本
<a name="emr-5151-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.15.1 | emr-5.15.0 | emr-5.14.2 | emr-5.14.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.333 | 1.11.333 | 1.11.297 | 1.11.297 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.4 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.10 | 3.4.10 | 

## 5.15.1 版本備註
<a name="emr-5151-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.15.1 元件版本
<a name="emr-5151-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.24.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.4.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.3-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.3-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.3-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.4 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.4 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.4 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.4 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.4 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.3-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.3-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.3-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.3-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.3-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.3-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.3-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.2.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.8.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.1.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.1.85 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.13.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.194 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.194 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.12 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.12 | ZooKeeper 命令列用戶端。 | 

## 5.15.1 組態類別
<a name="emr-5151-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.15.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.15.0 版
<a name="emr-5150-release"></a>

## 5.15.0 應用程式版本
<a name="emr-5150-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.15.0 | emr-5.14.2 | emr-5.14.1 | emr-5.14.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.333 | 1.11.297 | 1.11.297 | 1.11.297 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.2 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.15.0 版本備註
<a name="emr-5150-relnotes"></a>

以下版本備註包含 Amazon EMR 5.15.0 版的資訊。變更是相對於 5.14.0 版而言。

初始版本日期：2018 年 6 月 21 日

**升級**
+ 升級 HBase 至 1.4.4
+ 升級 Hive 至 2.3.3
+ 升級 Hue 至 4.2.0
+ 升級 Oozie 至 5.0.0
+ 升級 Zookeeper 至 3.4.12
+ 已將 AWS SDK 升級到 1.11.333

**變更、強化功能和已解決的問題**
+ Hive
  + 向後移植的 [HIVE-18069](https://issues.apache.org/jira/browse/HIVE-18069)
+ Hue
  + 更新 Hue，在啟用 Kerberos 時正確地使用 Livy 進行身分驗證。搭配使用 Kerberos 和 Amazon EMR 現支援 Livy。
+ JupyterHub
  + 更新 JupyterHub，因此 Amazon EMR 預設會安裝 LDAP 用戶端程式庫。
  + 修正指令碼中產生自我簽署憑證的錯誤。

**已知問題**
+ 此發行版本不支援 c1.medium 或 m1.small 執行個體類型。使用這兩種執行個體類型的叢集均無法啟動。解決辦法是，指定不同的執行個體類型或使用不同的發行版本。
+ 主節點或執行個體控制器重新啟動後，Amazon EMR 版本 5.14.0、5.15.0 或 5.16.0 中將不會收集 CloudWatch 指標，也不提供自動擴展功能。此問題已在 Amazon EMR 5.17.0 中修正。

## 5.15.0 元件版本
<a name="emr-5150-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.24.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.4.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.3-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.3-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.3-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.4 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.4 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.4 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.4 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.4 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.3-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.3-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.3-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.3-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.3-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.3-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.3-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.2.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.8.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.1.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.1.85 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 5.0.0 | Oozie 命令列用戶端。 | 
| oozie-server | 5.0.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.13.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.194 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.194 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.12 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.12 | ZooKeeper 命令列用戶端。 | 

## 5.15.0 組態類別
<a name="emr-5150-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.15.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.14.2 版
<a name="emr-5142-release"></a>

## 5.14.2 應用程式版本
<a name="emr-5142-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.14.2 | emr-5.14.1 | emr-5.14.0 | emr-5.13.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.297 | 1.11.297 | 1.11.297 | 1.11.297 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.14.2 版本備註
<a name="emr-5142-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.14.2 元件版本
<a name="emr-5142-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.23.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.4.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.3-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.3-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.3-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.2 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.2 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.2 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.2 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.2 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.1.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.8.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.1.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.1.85 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.13.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.194 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.194 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.14.2 組態類別
<a name="emr-5142-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.14.2 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.14.1 版
<a name="emr-5141-release"></a>

## 5.14.1 應用程式版本
<a name="emr-5141-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.14.1 | emr-5.14.0 | emr-5.13.1 | emr-5.13.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.297 | 1.11.297 | 1.11.297 | 1.11.297 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.14.1 版本備註
<a name="emr-5141-relnotes"></a>

以下版本備註包含 Amazon EMR 5.14.1 版的資訊。變更是相對於 5.14.0 版而言。

初始版本日期：2018 年 10 月 17 日

更新預設 AMI for Amazon EMR，以修補潛在的安全漏洞。

## 5.14.1 元件版本
<a name="emr-5141-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.23.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.4.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.3-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.3-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.3-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.2 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.2 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.2 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.2 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.2 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.1.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.8.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.1.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.1.85 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.13.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.194 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.194 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.14.1 組態類別
<a name="emr-5141-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.14.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.14.0 版
<a name="emr-5140-release"></a>

## 5.14.0 應用程式版本
<a name="emr-5140-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、、、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.14.0 | emr-5.13.1 | emr-5.13.0 | emr-5.12.3 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.297 | 1.11.297 | 1.11.297 | 1.11.267 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.188 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.2.1 | 
| Sqoop | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.14.0 版本備註
<a name="emr-5140-relnotes"></a>

以下版本備註包含 Amazon EMR 5.14.0 版的資訊。變更是相對於 5.13.0 版而言。

初始版本日期：2018 年 6 月 4 日

**升級**
+ 升級 Apache Flink 至 1.4.2
+ 升級 Apache MXnet 至 1.1.0
+ 升級 Apache Sqoop 至 1.4.7

**新功能**
+ 新增 JupyterHub 支援。如需詳細資訊，請參閱[JupyterHub](emr-jupyterhub.md)。

**變更、強化功能和已解決的問題**
+ EMRFS
  + 在傳送至 Amazon S3 的請求中，userAgent 字串已更新，以包含調用主體的使用者與群組資訊。這可與 AWS CloudTrail 日誌搭配使用，以獲得更全面的請求追蹤。
+ HBase
  +  包含 [HBASE-20447](https://issues.apache.org/jira/browse/HBASE-20447)，以避免發生可能的快取問題，特別在分割區域時。
+ MXnet
  + 新增 OpenCV 程式庫。
+ Spark
  + 當 Spark 使用 EMRFS 將 Parquet 檔案寫入至 Amazon S3 位置時，FileOutputCommitter 演算法已更新為使用版本 2，而非版本 1。這可減少重新命名數量，進而提升應用程式效能。此變更不會影響：
    + Spark 以外的應用程式。
    + 寫入其他檔案系統的應用程式，例如 HDFS (仍使用 FileOutputCommitter 版本 1)。
    + 使用其他輸入格式 (例如文字格式或 csv) 的應用程式，這些格式已使用 EMRFS 直接寫入。

**已知問題**
+ JupyterHub
  + 建立叢集時，不支援使用組態分類來設定 JupyterHub 和個別 Jupyter 筆記本。手動編輯每個使用者的 jupyterhub\$1config.py 檔案和 jupyter\$1notebook\$1config.py 檔案。如需詳細資訊，請參閱[設定 JupyterHub](emr-jupyterhub-configure.md)。
  + JupyterHub 無法在私有子網路的叢集上啟動，並在失敗時顯示訊息 `Error: ENOENT: no such file or directory, open '/etc/jupyter/conf/server.crt' `。這是由指令碼中產生自我簽署憑證的錯誤所致。使用以下解決辦法來產生自我簽署的憑證。所有命令都在連線至主節點時執行。

    1. 從容器複製憑證產生指令碼到主節點。

       ```
       sudo docker cp jupyterhub:/tmp/gen_self_signed_cert.sh ./
       ```

    1. 使用文字編輯器以變更第 23 列，將公開主機名稱變更為本機主機名稱，如下所示：

       ```
       local hostname=$(curl -s $EC2_METADATA_SERVICE_URI/local-hostname)
       ```

    1. 執行指令碼以產生自我簽署憑證：

       ```
       sudo bash ./gen_self_signed_cert.sh
       ```

    1. 將指令碼產生的憑證檔案移至 `/etc/jupyter/conf/` 目錄：

       ```
       sudo mv /tmp/server.crt /tmp/server.key /etc/jupyter/conf/
       ```

    您可以對 `jupyter.log` 檔案執行 `tail`，以驗證 JupyterHub 重新啟動並傳回 200 回應代碼。例如：

    ```
    tail -f /var/log/jupyter/jupyter.log
    ```

    這應該會傳回類似如下的回應：

    ```
    # [I 2018-06-14 18:56:51.356 JupyterHub app:1581] JupyterHub is now running at https://:9443/
    # 19:01:51.359 - info: [ConfigProxy] 200 GET /api/routes
    ```
+ 主節點或執行個體控制器重新啟動後，Amazon EMR 版本 5.14.0、5.15.0 或 5.16.0 中將不會收集 CloudWatch 指標，也不提供自動擴展功能。此問題已在 Amazon EMR 5.17.0 中修正。

## 5.14.0 元件版本
<a name="emr-5140-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.23.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.4.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.3-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.3-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.3-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.2 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.2 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.2 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.2 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.2 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.1.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| jupyterhub | 0.8.1 | 適用於 Jupyter 筆記本的多使用者伺服器 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.1.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.1.85 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| opencv | 3.4.0 | 開放原始碼電腦 Vision 程式庫。 | 
| phoenix-library | 4.13.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.194 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.194 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.7 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.14.0 組態類別
<a name="emr-5140-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.14.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| container-log4j | 變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| jupyter-notebook-conf | 變更 Jupyter 筆記本中 jupyter\$1notebook\$1config.py 檔案的值。 | 
| jupyter-hub-conf | 變更 JupyterHubs 中 jupyterhub\$1config.py 檔案的值。 | 
| jupyter-sparkmagic-conf | 變更 Sparkmagic 中 config.json 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.13.1 版
<a name="emr-5131-release"></a>

## 5.13.1 應用程式版本
<a name="emr-5131-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、、[http://sqoop.apache.org/](http://sqoop.apache.org/)、、 [https://tez.apache.org/](https://tez.apache.org/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.13.1 | emr-5.13.0 | emr-5.12.3 | emr-5.12.2 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.297 | 1.11.297 | 1.11.267 | 1.11.267 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.188 | 0.188 | 
| Spark | 2.3.0 | 2.3.0 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.13.1 版本備註
<a name="emr-5131-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.13.1 元件版本
<a name="emr-5131-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.22.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.4.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.3-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.3-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.3-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.2 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.2 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.2 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.2 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.2 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.1.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.0.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.1.85 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.13.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.194 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.194 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.13.1 組態類別
<a name="emr-5131-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.13.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.13.0 版
<a name="emr-5130-release"></a>

## 5.13.0 應用程式版本
<a name="emr-5130-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、、[http://sqoop.apache.org/](http://sqoop.apache.org/)、、 [https://tez.apache.org/](https://tez.apache.org/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.13.0 | emr-5.12.3 | emr-5.12.2 | emr-5.12.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.297 | 1.11.267 | 1.11.267 | 1.11.267 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.188 | 0.188 | 0.188 | 
| Spark | 2.3.0 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.13.0 版本備註
<a name="emr-5130-relnotes"></a>

以下版本備註包含 Amazon EMR 5.13.0 版的資訊。變更是相對於 5.12.0 版而言。

**升級**
+ 升級 Spark 至 2.3.0
+ 升級 HBase 至 1.4.2
+ 升級至 Presto 至 0.194
+  適用於 Java 的 AWS SDK 升級至 1.11.297

**變更、強化功能和已解決的問題**
+ Hive
  + 向後移植的 [HIVE-15436](https://issues.apache.org/jira/browse/HIVE-15436)。增強 Hive API 僅傳回檢視畫面。

**已知問題**
+ MXNet 目前沒有 OpenCV 程式庫。

## 5.13.0 元件版本
<a name="emr-5130-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.10.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.22.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.4.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.3-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.3-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.3-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.2 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.2 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.2 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.2 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.2 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-2 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-2 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-2 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-2 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-2 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.1.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.0.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.1.85 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.13.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.194 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.194 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| r | 3.4.1 | 統計運算 R 專案 | 
| spark-client | 2.3.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.3.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.3.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.3.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.13.0 組態類別
<a name="emr-5130-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.13.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.12.3 版
<a name="emr-5123-release"></a>

## 5.12.3 應用程式版本
<a name="emr-5123-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、、、[http://sqoop.apache.org/](http://sqoop.apache.org/)、 [https://tez.apache.org/](https://tez.apache.org/)[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.12.3 | emr-5.12.2 | emr-5.12.1 | emr-5.12.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.267 | 1.11.267 | 1.11.267 | 1.11.267 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.188 | 0.188 | 0.188 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.12.3 版本備註
<a name="emr-5123-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.12.3 元件版本
<a name="emr-5123-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.9.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.21.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.4.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.3-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.3-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.3-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.0 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.0 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.0 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.0 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.0 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.1.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.0.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.1.85 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.13.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.188 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.188 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| spark-client | 2.2.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.12.3 組態類別
<a name="emr-5123-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.12.3 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.12.2 版
<a name="emr-5122-release"></a>

## 5.12.2 應用程式版本
<a name="emr-5122-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、、[http://sqoop.apache.org/](http://sqoop.apache.org/)、、 [https://tez.apache.org/](https://tez.apache.org/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.12.2 | emr-5.12.1 | emr-5.12.0 | emr-5.11.4 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.267 | 1.11.267 | 1.11.267 | 1.11.238 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.188 | 0.188 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.12.2 版本備註
<a name="emr-5122-relnotes"></a>

以下版本備註包含 Amazon EMR 5.12.2 版的資訊。變更是相對於 5.12.1 版而言。

初始版本日期：2018 年 8 月 29 日

**變更、強化功能和已解決的問題**
+ 此版本修正了潛在的安全性漏洞。

## 5.12.2 元件版本
<a name="emr-5122-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.9.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.21.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.4.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.3-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.3-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.3-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.0 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.0 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.0 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.0 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.0 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.1.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.0.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.1.85 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.13.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.188 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.188 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| spark-client | 2.2.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.12.2 組態類別
<a name="emr-5122-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.12.2 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.12.1 版
<a name="emr-5121-release"></a>

## 5.12.1 應用程式版本
<a name="emr-5121-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、、、[http://sqoop.apache.org/](http://sqoop.apache.org/)、 [https://tez.apache.org/](https://tez.apache.org/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.12.1 | emr-5.12.0 | emr-5.11.4 | emr-5.11.3 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.267 | 1.11.267 | 1.11.238 | 1.11.238 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.188 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.12.1 版本備註
<a name="emr-5121-relnotes"></a>

以下版本備註包含 Amazon EMR 5.12.1 版的資訊。變更是相對於 5.12.0 版而言。

初始版本日期：2018 年 3 月 29 日

**變更、強化功能和已解決的問題**
+ 更新預設 Amazon Linux AMI for Amazon EMR 的 Amazon Linux 核心以修正潛在的漏洞。

## 5.12.1 元件版本
<a name="emr-5121-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.9.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.21.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.4.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.3-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.3-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.3-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.0 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.0 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.0 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.0 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.0 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.1.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.0.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.1.85 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.13.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.188 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.188 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| spark-client | 2.2.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.12.1 組態類別
<a name="emr-5121-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.12.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.12.0 版
<a name="emr-5120-release"></a>

## 5.12.0 應用程式版本
<a name="emr-5120-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、、、[http://sqoop.apache.org/](http://sqoop.apache.org/)、 [https://tez.apache.org/](https://tez.apache.org/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.12.0 | emr-5.11.4 | emr-5.11.3 | emr-5.11.2 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.267 | 1.11.238 | 1.11.238 | 1.11.238 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.12.0 版本備註
<a name="emr-5120-relnotes"></a>

以下版本備註包含 Amazon EMR 5.12.0 版的資訊。變更是相對於 5.11.1 版而言。

**升級**
+ AWS 適用於 Java 的 SDK 1.11.238 ⇒ 1.11.267。如需詳細資訊，請在 GitHub 上參閱[適用於 Java 變更日誌的AWS SDK](https://github.com/aws/aws-sdk-java/blob/master/CHANGELOG.md)。
+ Hadoop 2.7.3 ⇒ 2.8.3。如需詳細資訊，請參閱 [Apache Hadoop 版本](http://hadoop.apache.org/releases.html)。
+ Flink 1.3.2 ⇒ 1.4.0。如需詳細資訊，請參閱 [Apache Flink 1.4.0 版本公告](https://flink.apache.org/news/2017/12/12/release-1.4.0.html)。
+ HBase 1.3.1 ⇒ 1.4.0。如需詳細資訊，請參閱 [HBase 版本公告](http://mail-archives.apache.org/mod_mbox/www-announce/201712.mbox/%3CCA+RK=_AU+tB=7SU1HRbeKVEd-sKA5WcJo3oa43vQ6PMB3L9pgQ@mail.gmail.com%3E)。
+ Hue 4.0.1 ⇒ 4.1.0。如需詳細資訊，請參閱[版本備註](https://docs.gethue.com/releases/release-notes-4.10.0/)。
+ MxNet 0.12.0 ⇒ 1.0.0。如需詳細資訊，請在 GitHub 上參閱 [MXNet 變更日誌](https://github.com/apache/incubator-mxnet/releases/tag/1.0.0)。
+ Presto 0.187 ⇒ 0.188。如需詳細資訊，請參閱[版本備註](https://prestodb.io/docs/current/release/release-0.188.html)。

**變更、強化功能和已解決的問題**
+ **Hadoop**
  + `yarn.resourcemanager.decommissioning.timeout` 屬性已變更為 `yarn.resourcemanager.nodemanager-graceful-decommission-timeout-secs`。您可以使用此屬性來自訂叢集縮減規模。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[叢集縮減規模](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scaledown-behavior.html)。
  + Hadoop CLI 新增 `-d` 選項至 `cp` (複製) 命令，以指定直接複製。您可以使用它避免建立媒介 `.COPYING` 檔案，從而加快 Amazon S3 之間的資料複製。如需詳細資訊，請參閱 [HADOOP-12384](https://issues.apache.org/jira/browse/HADOOP-12384)。
+ **Pig**
  + 新增 `pig-env` 組態分類，簡化 Pig 環境屬性的組態。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。
+ **Presto**
  + 新增 `presto-connector-redshift` 組態分類，讓您可用來在 Presto `redshift.properties` 組態檔案中設定值。如需詳細資訊，請參閱 Presto 文件中的 [Redshift 連接器](https://prestodb.io/docs/current/connector/redshift.html)以及 [設定應用程式](emr-configure-apps.md)。
  + Presto 已新增對 EMRFS 的支援，且它為預設組態。舊版 Amazon EMR 使用 PrestoS3FileSystem，這是唯一選項。如需詳細資訊，請參閱[EMRFS 和 PrestoS3FileSystem 組態](emr-presto-considerations.md#emr-presto-prestos3)。
**注意**  
如果您使用 Amazon EMR 版本 5.12.0 查詢 Amazon S3 中的基礎資料，則可能發生 Presto 錯誤。這是因為 Presto 無法從 `emrfs-site.xml` 中取用組態分類值。解決辦法是，在 `usr/lib/presto/plugin/hive-hadoop2/` 下方建立 `emrfs` 子目錄，並在 `usr/lib/presto/plugin/hive-hadoop2/emrfs` 中建立 symlink 以連線至現有 `/usr/share/aws/emr/emrfs/conf/emrfs-site.xml` 檔案。然後重新啟動 presto-server 程序 (`sudo presto-server stop` 在 `sudo presto-server start` 之前)。
+ **Spark**
  + 向後移植的 [SPARK-22036：BigDecimal 乘法有時傳回 null](https://issues.apache.org/jira/browse/SPARK-22036)。

**已知問題**
+ MXNet 不包含 OpenCV 程式庫。
+ SparkR 不適用於使用自訂 AMI 建立的叢集，因為依預設不會在叢集節點上安裝 R。

## 5.12.0 元件版本
<a name="emr-5120-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.9.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.21.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.4.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.8.3-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.8.3-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.8.3-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.4.0 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.4.0 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.4.0 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.4.0 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.4.0 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-1 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-1 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-1 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-1 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-1 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-1 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.1.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 1.0.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.1.85 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.13.0-HBase-1.4 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.188 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.188 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| spark-client | 2.2.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.12.0 組態類別
<a name="emr-5120-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.12.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-env | 在 Pig 環境中變更值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-redshift | 變更 Presto 的 redshift.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.11.4 版
<a name="emr-5114-release"></a>

## 5.11.4 應用程式版本
<a name="emr-5114-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、、、[http://sqoop.apache.org/](http://sqoop.apache.org/)、 [https://tez.apache.org/](https://tez.apache.org/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.11.4 | emr-5.11.3 | emr-5.11.2 | emr-5.11.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.238 | 1.11.238 | 1.11.238 | 1.11.238 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.4 版本備註
<a name="emr-5114-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.11.4 元件版本
<a name="emr-5114-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.8.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.20.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-6 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-6 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-6 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.0.1 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 0.12.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.0.176 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.187 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.187 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| spark-client | 2.2.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.11.4 組態類別
<a name="emr-5114-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.11.4 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.11.3 版
<a name="emr-5113-release"></a>

## 5.11.3 應用程式版本
<a name="emr-5113-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、、、[http://sqoop.apache.org/](http://sqoop.apache.org/)、 [https://tez.apache.org/](https://tez.apache.org/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.11.3 | emr-5.11.2 | emr-5.11.1 | emr-5.11.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.238 | 1.11.238 | 1.11.238 | 1.11.238 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.3 版本備註
<a name="emr-5113-relnotes"></a>

以下版本備註包含 Amazon EMR 5.11.3 版的資訊。變更是相對於 5.11.2 版而言。

初始版本日期：2019 年 7 月 18 日

**變更、強化功能和已解決的問題**
+ 更新預設 Amazon Linux AMI for Amazon EMR，以加入重要的 Linux 核心安全更新，包括 TCP SACK 拒絕服務問題 ([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/))。

## 5.11.3 元件版本
<a name="emr-5113-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.8.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.20.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-6 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-6 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-6 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.0.1 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 0.12.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.0.176 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.187 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.187 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| spark-client | 2.2.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.11.3 組態類別
<a name="emr-5113-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.11.3 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.11.2 版
<a name="emr-5112-release"></a>

## 5.11.2 應用程式版本
<a name="emr-5112-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、、、[http://sqoop.apache.org/](http://sqoop.apache.org/)、 [https://tez.apache.org/](https://tez.apache.org/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.11.2 | emr-5.11.1 | emr-5.11.0 | emr-5.10.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.238 | 1.11.238 | 1.11.238 | 1.11.221 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.2 版本備註
<a name="emr-5112-relnotes"></a>

以下版本備註包含 Amazon EMR 5.11.2 版的資訊。變更是相對於 5.11.1 版而言。

初始版本日期：2018 年 8 月 29 日

**變更、強化功能和已解決的問題**
+ 此版本修正了潛在的安全性漏洞。

## 5.11.2 元件版本
<a name="emr-5112-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.8.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.20.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-6 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-6 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-6 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.0.1 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 0.12.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.0.176 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.187 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.187 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| spark-client | 2.2.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.11.2 組態類別
<a name="emr-5112-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.11.2 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.11.1 版
<a name="emr-5111-release"></a>

## 5.11.1 應用程式版本
<a name="emr-5111-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、、、[http://sqoop.apache.org/](http://sqoop.apache.org/)、 [https://tez.apache.org/](https://tez.apache.org/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.11.1 | emr-5.11.0 | emr-5.10.1 | emr-5.10.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.238 | 1.11.238 | 1.11.221 | 1.11.221 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.1 版本備註
<a name="emr-5111-relnotes"></a>

以下版本備註包含 Amazon EMR 5.11.1 版的資訊。變更是相對於 Amazon EMR 5.8.0 版而言。

初始版本日期：2018 年 1 月 22 日

**變更、強化功能和已解決的問題**
+ 更新預設 Amazon Linux AMI for Amazon EMR 的 Amazon Linux 核心，以修正與推測性執行相關的漏洞 (CVE-2017-5715、CVE-2017-5753 和 CVE-2017-5754)。如需詳細資訊，請參閱[https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/)。

## 5.11.1 元件版本
<a name="emr-5111-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.8.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.20.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-6 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-6 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-6 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.0.1 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 0.12.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.0.176 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.187 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.187 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| spark-client | 2.2.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.11.1 組態類別
<a name="emr-5111-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.11.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.11.0 版
<a name="emr-5110-release"></a>

## 5.11.0 應用程式版本
<a name="emr-5110-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、、、[http://sqoop.apache.org/](http://sqoop.apache.org/)、 [https://tez.apache.org/](https://tez.apache.org/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.11.0 | emr-5.10.1 | emr-5.10.0 | emr-5.9.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.238 | 1.11.221 | 1.11.221 | 1.11.183 | 
| Python | 2.7、3.4 | 2.7、3.4 | 2.7、3.4 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 
| Hive | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.184 | 
| Spark | 2.2.1 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.0 版本備註
<a name="emr-5110-relnotes"></a>

以下版本備註包含 Amazon EMR 5.11.0 版的資訊。變更是相對於 5.10.0 版而言。

**升級**
+ Hive 2.3.2
+ Spark 2.2.1
+ 適用於 Java 1.11.238 的 SDK

**新功能**
+ Spark
  + 新增 `spark.decommissioning.timeout.threshold` 設定，改善使用 Spot 執行個體時 Spark 的汰除行為。如需詳細資訊，請參閱[設定節點除役行為](emr-spark-configure.md#spark-decommissioning)。
  + 新增 `aws-sagemaker-spark-sdk` 元件至 Spark，這會安裝 Amazon SageMaker Spark 以及讓 Spark 與 [Amazon SageMaker](https://aws.amazon.com/sagemaker/) 整合的相關依存項目。您可使用 Amazon SageMaker Spark，以 Amazon SageMaker 階段建構 Spark Machine Learning (ML) 管道。如需詳細資訊，請參閱 GitHub 上的 [SageMaker Spark 讀我檔案](https://github.com/aws/sagemaker-spark/blob/master/README.md)以及《Amazon SageMaker 開發人員指南》**中的[使用 Amazon SageMaker 搭配 Apache Spark](https://docs.aws.amazon.com/sagemaker/latest/dg/apache-spark.html)。

**已知問題**
+ MXNet 不包含 OpenCV 程式庫。
+ Hive 2.3.2 會預設設定為 `hive.compute.query.using.stats=true`。這會使查詢從現有統計資料而非直接從資料獲得資料，可能會造成混淆。例如，假設您有一個 `hive.compute.query.using.stats=true` 的資料表，並將新檔案上傳至資料表 `LOCATION`，則在資料表執行 `SELECT COUNT(*)` 查詢時會傳回統計資料的計數，而非顯示出新增的資料列。

  解決方法是使用 `ANALYZE TABLE` 命令來收集新的統計資料，或者設定 `hive.compute.query.using.stats=false`。如需詳細資訊，請參閱 Apache Hive 文件中 [Hive 的統計資料](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive)。

## 5.11.0 元件版本
<a name="emr-5110-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.8.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.20.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-6 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-6 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-6 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.2-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.2-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.2-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.2-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.2-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.0.1 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 0.12.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.0.176 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.187 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.187 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| spark-client | 2.2.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.11.0 組態類別
<a name="emr-5110-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.11.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.10.1 版
<a name="emr-5101-release"></a>

## 5.10.1 應用程式版本
<a name="emr-5101-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、、[http://sqoop.apache.org/](http://sqoop.apache.org/)、、 [https://tez.apache.org/](https://tez.apache.org/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.10.1 | emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.221 | 1.11.221 | 1.11.183 | 1.11.183 | 
| Python | 2.7、3.4 | 2.7、3.4 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 
| Hive | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.184 | 0.184 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.10.1 版本備註
<a name="emr-5101-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.10.1 元件版本
<a name="emr-5101-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.7.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.20.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-5 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-5 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-5 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-5 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-5 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-5 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-5 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-5 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-5 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-5 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.1-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.0.1 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 0.12.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.0.176 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.187 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.187 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| spark-client | 2.2.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.10.1 組態類別
<a name="emr-5101-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.10.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.10.0 版
<a name="emr-5100-release"></a>

## 5.10.0 應用程式版本
<a name="emr-5100-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、、、[http://sqoop.apache.org/](http://sqoop.apache.org/)、 [https://tez.apache.org/](https://tez.apache.org/) [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.221 | 1.11.183 | 1.11.183 | 1.11.160 | 
| Python | 2.7、3.4 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 
| Hive | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating |  -  | 
| MXNet | 0.12.0 |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.16.0-amzn-1 | 
| Presto | 0.187 | 0.184 | 0.184 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.10.0 版本備註
<a name="emr-5100-relnotes"></a>

以下版本備註包含 Amazon EMR 版本 5.10.0 的資訊。變更是相對於 Amazon EMR 5.9.0 版而言。

**升級**
+ 適用於 Java 的 AWS SDK 1.11.221
+ Hive 2.3.1
+ Presto 0.187

**新功能**
+ 新增對 Kerberos 身分驗證的支援。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[使用 Kerberos 身分驗證](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-kerberos.html)。
+ 新增對 EMRFS 之 IAM 角色的支援。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[為傳送至 Amazon S3 的 EMRFS 請求設定 IAM 角色](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-emrfs-iam-role.html)
+ 新增對以 GPU 為基礎之 P2 和 P3 執行個體類型的支援。如需詳細資訊，請參閱 [Amazon EC2 P2 執行個體](https://aws.amazon.com/ec2/instance-types/p2/)和 [Amazon EC2 P3 執行個體](https://aws.amazon.com/ec2/instance-types/p3/)。根據預設，這些執行個體類型會安裝 NVIDIA 驅動程式 384.81 和 CUDA 驅動程式 9.0.176。
+ 新增了對 [Apache MXNet](emr-mxnet.md) 的支援。

**變更、強化功能和已解決的問題**
+ Presto
  + 新增使用 AWS Glue Data Catalog 做為預設 Hive 中繼存放區的支援。如需詳細資訊，請參閱[搭配 Glue Data Catalog AWS 使用 Presto](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html#emr-presto-glue)。
  + 新增對[地理空間功能](https://prestodb.io/docs/current/functions/geospatial.html)的支援。
  + 新增對聯結[溢寫至磁碟](https://prestodb.io/docs/current/admin/spill.html)的支援。
  + 新增對 [Redshift 連接器](https://prestodb.io/docs/current/connector/redshift.html)的支援。
+ Spark
  + 向後移植的 [SPARK-20640](https://issues.apache.org/jira/browse/SPARK-20640) 讓 rpc 逾時和重試混洗的註冊值能夠以 `spark.shuffle.registration.timeout` 和 `spark.shuffle.registration.maxAttempts` 屬性來設定。
  + 向後移植的 [SPARK-21549](https://issues.apache.org/jira/browse/SPARK-21549) 可修正在寫入自訂 OutputFormat 至非 HDFS 位置時發生的錯誤。
+ 向後移植的 [Hadoop-13270](https://issues.apache.org/jira/browse/HADOOP-13270)
+ Numpy、Scipy 和 Matplotlib 程式庫已從基本 Amazon EMR AMI 移除。如果應用程式需要這些程式庫，您可以在應用程式儲存庫中找到，並以 `yum install` 使用引導操作將其安裝於所有節點。
+ Amazon EMR 基本 AMI 已不再包含應用程式 RPM 套件，因此 RPM 套件不會再出現於叢集節點。自訂 AMI 和 Amazon EMR 基本 AMI 現在以 Amazon S3 中的 RPM 套件儲存庫為參考。
+ 由於 Amazon EC2 開始採用以秒計費，預設的**縮減規模行為**現在會於**任務完成時終止**而非於**執行個體時數終止**。如需詳細資訊，請參閱[設定叢集縮減規模](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scaledown-behavior.html)。

**已知問題**
+ MXNet 不包含 OpenCV 程式庫。
+ Hive 2.3.1 會預設設定為 `hive.compute.query.using.stats=true`。這會使查詢從現有統計資料而非直接從資料獲得資料，可能會造成混淆。例如，假設您有一個 `hive.compute.query.using.stats=true` 的資料表，並將新檔案上傳至資料表 `LOCATION`，則在資料表執行 `SELECT COUNT(*)` 查詢時會傳回統計資料的計數，而非顯示出新增的資料列。

  解決方法是使用 `ANALYZE TABLE` 命令來收集新的統計資料，或者設定 `hive.compute.query.using.stats=false`。如需詳細資訊，請參閱 Apache Hive 文件中 [Hive 的統計資料](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive)。

## 5.10.0 元件版本
<a name="emr-5100-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.5.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.7.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.20.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-5 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-5 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-5 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-5 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-5 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-5 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-5 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-5 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-5 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-5 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.1-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.0.1 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mxnet | 0.12.0 | 靈活有效率的程式庫，具可擴展性，適用於深度學習。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| nvidia-cuda | 9.0.176 | Nvidia 驅動程式和 Cuda 工具組 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.187 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.187 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| spark-client | 2.2.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.3 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.10.0 組態類別
<a name="emr-5100-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.10.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.9.1 版
<a name="emr-591-release"></a>

## 5.9.1 應用程式版本
<a name="emr-591-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、[http://sqoop.apache.org/](http://sqoop.apache.org/)、、、[https://tez.apache.org/](https://tez.apache.org/)、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | emr-5.8.2 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.183 | 1.11.183 | 1.11.160 | 1.11.160 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.1 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 
| Presto | 0.184 | 0.184 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.9.1 版本備註
<a name="emr-591-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.9.1 元件版本
<a name="emr-591-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.7.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.19.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-4 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-4 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-4 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-4 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-4 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-4 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-4 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-4 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-4 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-4 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.0.1 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.184 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.184 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| spark-client | 2.2.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.9.1 組態類別
<a name="emr-591-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.9.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.9.0 版
<a name="emr-590-release"></a>

## 5.9.0 應用程式版本
<a name="emr-590-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)[http://pig.apache.org/](http://pig.apache.org/)、、[https://prestodb.io/](https://prestodb.io/)[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、[http://sqoop.apache.org/](http://sqoop.apache.org/)、、、[https://tez.apache.org/](https://tez.apache.org/)、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.9.0 | emr-5.8.3 | emr-5.8.2 | emr-5.8.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.183 | 1.11.160 | 1.11.160 | 1.11.160 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 
| Presto | 0.184 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.9.0 版本備註
<a name="emr-590-relnotes"></a>

以下版本備註包含 Amazon EMR 5.9.0 版的資訊。變更是相對於 Amazon EMR 5.8.0 版而言。

版本日期：2017 年 10 月 5 日

最新功能更新：2017 年 10 月 12 日

**升級**
+ 適用於 Java 的 AWS SDK 1.11.183 版
+ Flink 1.3.2
+ Hue 4.0.1
+ Pig 0.17.0
+ Presto 0.184

**新功能**
+ 新增 Livy 支援 (0.4.0-incubating 版本)。如需詳細資訊，請參閱[Apache Livy](emr-livy.md)。
+ 新增對 Spark 的 Hue Notebook 支援
+ 新增對 i3 系列 Amazon EC2 執行個體的支援 (2017 年 10 月 12 日)。

**變更、強化功能和已解決的問題**
+ Spark
  + 新增一組新功能，協助確保 Spark 能夠更從容處理因為手動調整大小或自動調整規模政策請求而造成的節點終止。如需詳細資訊，請參閱[設定節點除役行為](emr-spark-configure.md#spark-decommissioning)。
  + 區塊傳輸服務的傳輸中加密使用 SSL 而非 3DES，因此可在使用 Amazon EC2 執行個體類型搭配 AES-NI 時增強效能。
  + 向後移植的 [SPARK-21494](https://issues.apache.org/jira/browse/SPARK-21494)。
+ Zeppelin
  + 向後移植的 [ZEPPELIN-2377](https://issues.apache.org/jira/browse/ZEPPELIN-2377)。
+ HBase
  + 新增修補程式 [HBASE-18533](https://issues.apache.org/jira/browse/HBASE-18533)，使用 `hbase-site` 組態分類讓 HBase BucketCache 組態能夠有額外的值。
+ Hue
  + 新增對 Hue AWS 中 Hive 查詢編輯器的 Glue Data Catalog 支援。
  + 依預設，Hue 的超級使用者可存取 Amazon EMR IAM 角色允許存取的所有檔案。新建立的使用者不會自動擁有存取 Amazon S3 檔案瀏覽器的許可，而且必須針對其群組啟用 `filebrowser.s3_access` 許可。
+ 已解決導致使用 Glue Data Catalog AWS 建立的基礎 JSON 資料無法存取的問題。

**已知問題**
+ 當所有應用程式已安裝，而預設的 Amazon EBS 根磁碟區大小未改變，叢集啟動就會失敗。作為解決方法，請使用 中的 `aws emr create-cluster`命令， AWS CLI 並指定較大的`--ebs-root-volume-size`參數。
+ Hive 2.3.0 會預設設定為 `hive.compute.query.using.stats=true`。這會使查詢從現有統計資料而非直接從資料獲得資料，可能會造成混淆。例如，假設您有一個 `hive.compute.query.using.stats=true` 的資料表，並將新檔案上傳至資料表 `LOCATION`，則在資料表執行 `SELECT COUNT(*)` 查詢時會傳回統計資料的計數，而非顯示出新增的資料列。

  解決方法是使用 `ANALYZE TABLE` 命令來收集新的統計資料，或者設定 `hive.compute.query.using.stats=false`。如需詳細資訊，請參閱 Apache Hive 文件中 [Hive 的統計資料](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive)。

## 5.9.0 元件版本
<a name="emr-590-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.7.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.19.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.2 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-4 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-4 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-4 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-4 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-4 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-4 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-4 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-4 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-4 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-4 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 4.0.1 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| livy-server | 0.4.0-incubating | 與 Apache Spark 互動的 REST 介面 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.184 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.184 | 執行查詢各部分的服務。 | 
| pig-client | 0.17.0 | Pig 命令列用戶端。 | 
| spark-client | 2.2.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.9.0 組態類別
<a name="emr-590-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.9.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| livy-conf | 變更 Livy 的 livy.conf 檔案中的值。 | 
| livy-env | 變更 Livy 環境中的值。 | 
| livy-log4j | 變更 Livy log4j.properties 設定。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.8.3 版
<a name="emr-583-release"></a>

## 5.8.3 應用程式版本
<a name="emr-583-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.8.3 | emr-5.8.2 | emr-5.8.1 | emr-5.8.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.160 | 1.11.160 | 1.11.160 | 1.11.160 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.8.3 版本備註
<a name="emr-583-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.8.3 元件版本
<a name="emr-583-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.6.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.18.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-3 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-3 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-3 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.12.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.170 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.170 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-1 | Pig 命令列用戶端。 | 
| spark-client | 2.2.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.8.3 組態類別
<a name="emr-583-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.8.3 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.8.2 版
<a name="emr-582-release"></a>

## 5.8.2 應用程式版本
<a name="emr-582-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.8.2 | emr-5.8.1 | emr-5.8.0 | emr-5.7.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.160 | 1.11.160 | 1.11.160 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.8.2 版本備註
<a name="emr-582-relnotes"></a>

以下版本備註包含 Amazon EMR 5.8.2 版的資訊。變更是相對於 5.8.1 版而言。

初始版本日期：2018 年 3 月 29 日

**變更、強化功能和已解決的問題**
+ 更新預設 Amazon Linux AMI for Amazon EMR 的 Amazon Linux 核心以修正潛在的漏洞。

## 5.8.2 元件版本
<a name="emr-582-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.6.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.18.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-3 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-3 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-3 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.12.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.170 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.170 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-1 | Pig 命令列用戶端。 | 
| spark-client | 2.2.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.8.2 組態類別
<a name="emr-582-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.8.2 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.8.1 版
<a name="emr-581-release"></a>

## 5.8.1 應用程式版本
<a name="emr-581-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.8.1 | emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.160 | 1.11.160 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.1.1 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.8.1 版本備註
<a name="emr-581-relnotes"></a>

以下版本備註包含 Amazon EMR 5.8.1 版的資訊。變更是相對於 Amazon EMR 5.8.0 版而言。

初始版本日期：2018 年 1 月 22 日

**變更、強化功能和已解決的問題**
+ 更新預設 Amazon Linux AMI for Amazon EMR 的 Amazon Linux 核心，以修正與推測性執行相關的漏洞 (CVE-2017-5715、CVE-2017-5753 和 CVE-2017-5754)。如需詳細資訊，請參閱[https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/)。

## 5.8.1 元件版本
<a name="emr-581-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.6.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.18.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-3 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-3 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-3 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.12.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.170 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.170 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-1 | Pig 命令列用戶端。 | 
| spark-client | 2.2.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.8.1 組態類別
<a name="emr-581-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.8.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.8.0 版
<a name="emr-580-release"></a>

## 5.8.0 應用程式版本
<a name="emr-580-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.11.160 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 
| HCatalog | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.1.1 | 2.1.1 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.8.0 版本備註
<a name="emr-580-relnotes"></a>

以下版本備註包含 Amazon EMR 5.8.0 版的資訊。變更是相對於 Amazon EMR 5.7.0 版而言。

初始版本日期：2017 年 8 月 10 日

最新功能更新：2017 年 9 月 25 日

**升級**
+ AWS SDK 1.11.160
+ Flink 1.3.1
+ Hive 2.3.0。如需詳細資訊，請參閱 Apache Hive 網站上的[版本備註](https://issues.apache.org/jira/secure/ConfigureReleaseNote.jspa?projectId=12310843&version=12340269)。
+ Spark 2.2.0。如需詳細資訊，請參閱 Apache Spark 網站上的[版本備註](https://spark.apache.org/releases/spark-release-2-2-0.html)。

**新功能**
+ 新增檢視應用程式歷史記錄的支援 (2017 年 9 月 25 日)。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[檢視應用程式歷史記錄](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-cluster-application-history.html)。

**變更、強化功能和已解決的問題**
+ **與 AWS Glue Data Catalog 整合**
  + 新增 Hive 和 Spark SQL 使用 AWS Glue Data Catalog 作為 Hive 中繼資料存放區的功能。如需詳細資訊，請參閱[使用 AWS Glue Data Catalog 做為 Hive 的中繼存放區](emr-hive-metastore-glue.md)及[在 AWS Amazon EMR 上使用 Glue Data Catalog Catalog 搭配 Spark](emr-spark-glue.md)。
+ 新增**應用程式歷程記錄**至叢集詳細資訊，讓您能夠檢視 YARN 應用程式的歷史資料和 Spark 應用程式的額外詳細資訊。如需詳細資訊，請參閱《Amazon EMR 管理指南》**中的[檢視應用程式歷史記錄](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-cluster-application-history.html)。
+ **Oozie**
  + 向後移植的 [OOZIE-2748](https://issues.apache.org/jira/browse/OOZIE-2748)。
+ **Hue**
  + 向後移植的 [HUE-5859](https://issues.cloudera.org/browse/HUE-5859)
+ **HBase**
  + 新增修補程式，使用 `getMasterInitializedTime` 透過 Java 管理延伸 (JMX) 公開 HBase 主伺服器開始時間。
  + 新增修補程式以改善叢集開始時間。

**已知問題**
+ 當所有應用程式已安裝，而預設的 Amazon EBS 根磁碟區大小未改變，叢集啟動就會失敗。作為解決方法，請使用 中的 `aws emr create-cluster`命令， AWS CLI 並指定較大的`--ebs-root-volume-size`參數。
+ Hive 2.3.0 會預設設定為 `hive.compute.query.using.stats=true`。這會使查詢從現有統計資料而非直接從資料獲得資料，可能會造成混淆。例如，假設您有一個 `hive.compute.query.using.stats=true` 的資料表，並將新檔案上傳至資料表 `LOCATION`，則在資料表執行 `SELECT COUNT(*)` 查詢時會傳回統計資料的計數，而非顯示出新增的資料列。

  解決方法是使用 `ANALYZE TABLE` 命令來收集新的統計資料，或者設定 `hive.compute.query.using.stats=false`。如需詳細資訊，請參閱 Apache Hive 文件中 [Hive 的統計資料](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive)。
+ **Spark** - 使用 Spark 時，apppusher 常駐程式會有檔案處理常式遺漏問題，這可能在長期執行之 Spark 作業的數小時或數天後出現。若要解決此問題，請連線至主節點並輸入 `sudo /etc/init.d/apppusher stop`。這會停止 apppusher 常駐程式，而 Amazon EMR 會自動將其重新啟動。
+ **應用程式歷程記錄**
  + 無法提供無效 Spark 執行器的歷史資料。
  + 使用安全組態以啟用傳送中加密的叢集，無法取得應用程式歷史記錄。

## 5.8.0 元件版本
<a name="emr-580-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.4.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.4.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.6.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.18.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-3 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-3 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-3 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.3.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.3.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.3.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.3.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.3.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.12.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.170 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.170 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-1 | Pig 命令列用戶端。 | 
| spark-client | 2.2.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.2.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.2.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.2.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.8.0 組態類別
<a name="emr-580-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.8.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.7.1 版
<a name="emr-571-release"></a>

## 5.7.1 應用程式版本
<a name="emr-571-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | emr-5.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.0 | 1.3.0 | 1.2.1 | 1.2.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.7.1 版本備註
<a name="emr-571-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.7.1 元件版本
<a name="emr-571-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.3.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.5.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.18.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-2 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.12.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.170 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.170 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.7.1 組態類別
<a name="emr-571-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.7.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.7.0 版
<a name="emr-570-release"></a>

## 5.7.0 應用程式版本
<a name="emr-570-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.7.0 | emr-5.6.1 | emr-5.6.0 | emr-5.5.4 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.0 | 1.2.1 | 1.2.1 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.7.0 版本備註
<a name="emr-570-relnotes"></a>

以下版本備註包含 Amazon EMR 5.7.0 版的資訊。變更是相對於 Amazon EMR 5.6.0 版而言。

版本日期：2017 年 7 月 13 日

**升級**
+ Flink 1.3.0
+ Phoenix 4.11.0
+ Zeppelin 0.7.2

**新功能**
+ 新增建立叢集時可指定自訂 Amazon Linux AMI 的功能。如需詳細資訊，請參閱[使用自訂 AMI](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html)。

**變更、強化功能和已解決的問題**
+ **HBase**
  + 新增設定 HBase 僅供讀取複本叢集的功能。請參閱[使用僅供讀取複本叢集。](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html#emr-hbase-s3-read-replica)
  + 多種錯誤修正與強化功能
+ **Presto** - 新增設定 `node.properties` 的功能。
+ **YARN** - 新增設定 `container-log4j.properties` 的功能
+ **Sqoop** - 向後移植的 [SQOOP-2880](https://issues.apache.org/jira/browse/SQOOP-2880) 推出一項可讓您設定 Sqoop 暫時目錄的引數。

## 5.7.0 元件版本
<a name="emr-570-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.3.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.5.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.18.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.3.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-2 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.12.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.11.0-HBase-1.3 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.170 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.170 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.7.0 組態類別
<a name="emr-570-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.7.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.6.1 版
<a name="emr-561-release"></a>

## 5.6.1 應用程式版本
<a name="emr-561-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、、[https://tez.apache.org/](https://tez.apache.org/)、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、 和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.6.1 | emr-5.6.0 | emr-5.5.4 | emr-5.5.3 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.1 | 1.2.1 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.1 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.6.1 版本備註
<a name="emr-561-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.6.1 元件版本
<a name="emr-561-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.3.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.5.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.17.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.2.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-2 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.12.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.9.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.170 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.170 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.6.1 組態類別
<a name="emr-561-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.6.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.6.0 版
<a name="emr-560-release"></a>

## 5.6.0 應用程式版本
<a name="emr-560-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.6.0 | emr-5.5.4 | emr-5.5.3 | emr-5.5.2 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.1 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.6.0 版本備註
<a name="emr-560-relnotes"></a>

以下版本備註包含 Amazon EMR 5.6.0 版的資訊。變更是相對於 Amazon EMR 5.5.0 版而言。

版本日期：2017 年 6 月 5 日

**升級**
+ Flink 1.2.1
+ HBase 1.3.1
+ Mahout 0.13.0。這是 Amazon EMR 版本 5.0 及更高版本中支援 Spark 2.x 的第一個 Mahout 版本。
+ Spark 2.1.1

**變更、強化功能和已解決的問題**
+ **Presto**
  + 藉由使用安全組態達到傳輸中加密，新增在 Presto 節點間啟用 SSL/TLS 安全通訊的功能。如需詳細資訊，請參閱[傳輸中資料加密](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-data-encryption-options.html#emr-encryption-intransit)。
  + 向後移植的 [Presto 7661](https://github.com/prestodb/presto/pull/7661/commits) 新增 `VERBOSE` 選項至 `EXPLAIN ANALYZE` 陳述式，以回報更多關於查詢計畫的詳細低層級統計資訊。

## 5.6.0 元件版本
<a name="emr-560-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.3.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.5.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.17.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.2.1 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-2 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.1 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.1 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.1 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.1 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.1 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.12.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.13.0 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.9.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.170 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.170 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.6.0 組態類別
<a name="emr-560-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.6.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-env | 變更 Presto 的 presto-env.sh 檔案中的值。 | 
| presto-node | 變更 Presto 的 node.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.5.4 版
<a name="emr-554-release"></a>

## 5.5.4 應用程式版本
<a name="emr-554-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.5.4 | emr-5.5.3 | emr-5.5.2 | emr-5.5.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.5.4 版本備註
<a name="emr-554-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.5.4 元件版本
<a name="emr-554-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.3.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.5.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.2.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-2 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.0 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.0 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.0 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.0 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.0 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.12.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.9.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.170 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.170 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.5.4 組態類別
<a name="emr-554-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.5.4 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.5.3 版
<a name="emr-553-release"></a>

## 5.5.3 應用程式版本
<a name="emr-553-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.5.3 | emr-5.5.2 | emr-5.5.1 | emr-5.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.5.3 版本備註
<a name="emr-553-relnotes"></a>

以下版本備註包含 Amazon EMR 5.5.3 版的資訊。變更是相對於 5.5.2 版而言。

初始版本日期：2018 年 8 月 29 日

**變更、強化功能和已解決的問題**
+ 此版本修正了潛在的安全性漏洞。

## 5.5.3 元件版本
<a name="emr-553-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.3.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.5.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.2.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-2 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.0 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.0 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.0 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.0 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.0 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.12.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.9.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.170 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.170 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.5.3 組態類別
<a name="emr-553-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.5.3 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.5.2 版
<a name="emr-552-release"></a>

## 5.5.2 應用程式版本
<a name="emr-552-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.5.2 | emr-5.5.1 | emr-5.5.0 | emr-5.4.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.166 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.0 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.9 | 

## 5.5.2 版本備註
<a name="emr-552-relnotes"></a>

以下版本備註包含 Amazon EMR 5.5.2 版的資訊。變更是相對於 5.5.1 版而言。

初始版本日期：2018 年 3 月 29 日

**變更、強化功能和已解決的問題**
+ 更新預設 Amazon Linux AMI for Amazon EMR 的 Amazon Linux 核心以修正潛在的漏洞。

## 5.5.2 元件版本
<a name="emr-552-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.3.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.5.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.2.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-2 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.0 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.0 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.0 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.0 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.0 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.12.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.9.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.170 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.170 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.5.2 組態類別
<a name="emr-552-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.5.2 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.5.1 版
<a name="emr-551-release"></a>

## 5.5.1 應用程式版本
<a name="emr-551-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.5.1 | emr-5.5.0 | emr-5.4.1 | emr-5.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.166 | 0.166 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.0 | 0.7.0 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.9 | 3.4.9 | 

## 5.5.1 版本備註
<a name="emr-551-relnotes"></a>

以下版本備註包含 Amazon EMR 5.5.1 版的資訊。變更是相對於 Amazon EMR 5.5.0 版而言。

初始版本日期：2018 年 1 月 22 日

**變更、強化功能和已解決的問題**
+ 更新預設 Amazon Linux AMI for Amazon EMR 的 Amazon Linux 核心，以修正與推測性執行相關的漏洞 (CVE-2017-5715、CVE-2017-5753 和 CVE-2017-5754)。如需詳細資訊，請參閱[https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/)。

## 5.5.1 元件版本
<a name="emr-551-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.3.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.5.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.2.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-2 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.0 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.0 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.0 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.0 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.0 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.12.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.9.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.170 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.170 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.5.1 組態類別
<a name="emr-551-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.5.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.5.0 版
<a name="emr-550-release"></a>

## 5.5.0 應用程式版本
<a name="emr-550-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.5.0 | emr-5.4.1 | emr-5.4.0 | emr-5.3.2 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.4 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.11.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.166 | 0.166 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.0 | 0.7.0 | 0.6.2 | 
| ZooKeeper | 3.4.10 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.5.0 版本備註
<a name="emr-550-relnotes"></a>

以下版本備註包含 Amazon EMR 5.5.0 版的資訊。變更是相對於 Amazon EMR 5.4.0 版而言。

版本日期：2017 年 4 月 26 日

**升級**
+ Hue 3.12
+ Presto 0.170
+ Zeppelin 0.7.1
+ ZooKeeper 3.4.10

**變更、強化功能和已解決的問題**
+ **Spark**
  + 針對此版本包含的 Spark 2.1.0 版，向後移植的 Spark 修補程式 [(SPARK-20115) 可在外部混洗服務無法使用時修復 DAGScheduler 以重新運算所有遺失的混洗區塊](https://issues.apache.org/jira/browse/SPARK-20115)。
+ **Flink**
  + Flink 現在已內建 Scala 2.11。如果您使用 Scala API 與程式庫，建議您可在專案中使用 Scala 2.11。
  + 解決 `HADOOP_CONF_DIR` 和 `YARN_CONF_DIR` 預設值未正確設定而使 `start-scala-shell.sh` 無法運作的問題。另外新增以 `env.hadoop.conf.dir` 或 `env.yarn.conf.dir` 組態分類之 `/etc/flink/conf/flink-conf.yaml` 和 `flink-conf` 設定這些值的功能。
  + 推出一項新的 EMR 專屬命令 `flink-scala-shell`，以做為 `start-scala-shell.sh` 的包裝函式。建議您使用此指令而非 `start-scala-shell`。新的命令可簡化執行。例如，`flink-scala-shell -n 2` 會啟動一個 Flink Scala shell 以及 2 個工作平行處理原則。
  + 推出一項新的 EMR 專屬命令 `flink-yarn-session`，以做為 `yarn-session.sh` 的包裝函式。建議您使用此指令而非 `yarn-session`。新的命令可簡化執行。例如，`flink-yarn-session -d -n 2` 會啟動處於分離狀態的長期執行 Flink 工作階段以及兩個工作管理員。
  + 解決 [(FLINK-6125) Commons httpclient 於 Flink 1.2 中不再被遮蔭 (shaded)](https://issues.apache.org/jira/browse/FLINK-6125) 的問題。
+ **Presto**
  + 新增對 LDAP 身分驗證的支援。要搭配使用 LDAP 和 Presto on Amazon EMR，您必須為 Presto 協調器啟用 HTTPS 存取 (`config.properties` 中的 `http-server.https.enabled=true`)。如需組態詳細資訊，請參閱 Presto 文件中的 [LDAP 身分驗證](https://prestodb.io/docs/current/security/ldap.html)。
  + 新增了對 `SHOW GRANTS` 的支援。
+ **Amazon EMR 基本 Linux AMI**
  + Amazon EMR 版本現在以 Amazon Linux 2017.03 為基礎。如需詳細資訊，請參閱 [Amazon Linux AMI 2017.03 版本備註](https://aws.amazon.com/amazon-linux-ami/2017.03-release-notes/)。
  + 從 Amazon EMR 基礎 Linux 映像移除 Python 2.6。根據預設會安裝 Python 2.7 和 3.4。如果需要，您可以手動安裝 Python 2.6。

## 5.5.0 元件版本
<a name="emr-550-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.3.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.3.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.5.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.16.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.2.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-2 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-2 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.0 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.0 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.0 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.0 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.0 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.12.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.9.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.170 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.170 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.10 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.10 | ZooKeeper 命令列用戶端。 | 

## 5.5.0 組態類別
<a name="emr-550-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.5.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.4.1 版
<a name="emr-541-release"></a>

## 5.4.1 應用程式版本
<a name="emr-541-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.4.1 | emr-5.4.0 | emr-5.3.2 | emr-5.3.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.1.4 | 1.1.4 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.166 | 0.166 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.0 | 0.7.0 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.4.1 版本備註
<a name="emr-541-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.4.1 元件版本
<a name="emr-541-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.3.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.15.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.2.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.0 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.0 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.0 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.0 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.0 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.11.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.9.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.166 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.166 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.9 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.9 | ZooKeeper 命令列用戶端。 | 

## 5.4.1 組態類別
<a name="emr-541-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.4.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.4.0 版
<a name="emr-540-release"></a>

## 5.4.0 應用程式版本
<a name="emr-540-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.4.0 | emr-5.3.2 | emr-5.3.1 | emr-5.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.1.4 | 1.1.4 | 1.1.4 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.166 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.0 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.4.0 版本備註
<a name="emr-540-relnotes"></a>

以下版本備註包含 Amazon EMR 5.4.0 版的資訊。變更是相對於 Amazon EMR 5.3.0 版而言。

版本日期：2017 年 3 月 8 日

**升級**
+ 升級至 Flink 1.2.0
+ 升級至 HBase 1.3.0
+ 升級至 Phoenix 4.9.0
**注意**  
如果您是從較早版本的 Amazon EMR 升級至 Amazon EMR 版本 5.4.0 或更高版本並使用次要索引，請依 [Apache Phoenix 文件](https://phoenix.apache.org/secondary_indexing.html#Upgrading_Local_Indexes_created_before_4.8.0)所述升級本機索引。Amazon EMR 會從 `hbase-site` 分類中移除必要的組態，但索引需要重新填入。支援線上與離線升級索引。線上升級為預設，這表示從 4.8.0 版或更新版本的 Phoenix 用戶端執行初始化時，索引會重新填入。若要指定離線升級，請將 `phoenix.client.localIndexUpgrade` 分類中的 `phoenix-site` 組態設定為 false，接著透過 SSH 連線至主節點以執行 `psql [zookeeper] -1`。
+ 升級至 Presto 0.166
+ 升級至 Zeppelin 0.7.0

**變更與強化功能**
+ 新增對 r4 執行個體的支援。請參閱 [Amazon EC2 執行個體類型](https://aws.amazon.com/ec2/instance-types/)。

## 5.4.0 元件版本
<a name="emr-540-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.3.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.15.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.2.0 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.3.0 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.3.0 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.3.0 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.3.0 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.3.0 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server2 | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.11.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.9.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.166 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.166 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.7.0 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.9 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.9 | ZooKeeper 命令列用戶端。 | 

## 5.4.0 組態類別
<a name="emr-540-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.4.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.3.2 版
<a name="emr-532-release"></a>

## 5.3.2 應用程式版本
<a name="emr-532-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.3.2 | emr-5.3.1 | emr-5.3.0 | emr-5.2.3 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.4 | 1.1.4 | 1.1.4 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.11.0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.3.2 版本備註
<a name="emr-532-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.3.2 元件版本
<a name="emr-532-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.2.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.14.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.1.4 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.2.3 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.2.3 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.2.3 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.2.3 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.2.3 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.11.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.7.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.157.1 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.157.1 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.6.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.9 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.9 | ZooKeeper 命令列用戶端。 | 

## 5.3.2 組態類別
<a name="emr-532-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.3.2 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.3.1 版
<a name="emr-531-release"></a>

## 5.3.1 應用程式版本
<a name="emr-531-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.3.1 | emr-5.3.0 | emr-5.2.3 | emr-5.2.2 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.4 | 1.1.4 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.0.2 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.3.1 版本備註
<a name="emr-531-relnotes"></a>

以下版本備註包含 Amazon EMR 5.3.1 版的資訊。變更是相對於 Amazon EMR 5.3.0 版而言。

發佈日期：2017 年 2 月 7 日

對向後移植 Zeppelin 的次要變更將修補並更新 Amazon EMR 的預設 AMI。

## 5.3.1 元件版本
<a name="emr-531-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.2.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.14.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.1.4 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.2.3 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.2.3 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.2.3 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.2.3 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.2.3 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.11.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.54\$1 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.7.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.157.1 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.157.1 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.6.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.9 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.9 | ZooKeeper 命令列用戶端。 | 

## 5.3.1 組態類別
<a name="emr-531-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.3.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.3.0 版
<a name="emr-530-release"></a>

## 5.3.0 應用程式版本
<a name="emr-530-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.3.0 | emr-5.2.3 | emr-5.2.2 | emr-5.2.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.4 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.0.2 | 2.0.2 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.3.0 版本備註
<a name="emr-530-relnotes"></a>

以下版本備註包含 Amazon EMR 5.3.0 版的資訊。變更是相對於 Amazon EMR 5.2.1 版而言。

版本日期：2017 年 1 月 26 日

**升級**
+ 升級至 Hive 2.1.1
+ 升級至 Hue 3.11.0
+ 升級至 Spark 2.1.0
+ 升級至 Oozie 4.3.0
+ 升級至 Flink 1.1.4

**變更與強化功能**
+ 新增 Hue 的修補程式，允許您以 `interpreters_shown_on_wheel` 設定來設置筆記本選擇輪上首先出現的直譯器，無論其在 `hue.ini` 檔案中的排序為何。
+ 新增 `hive-parquet-logging` 組態分類，讓您可用來在 Hive `parquet-logging.properties` 檔案中設定值。

## 5.3.0 元件版本
<a name="emr-530-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.2.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.14.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.1.4 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.2.3 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.2.3 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.2.3 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.2.3 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.2.3 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.1-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.1-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.1-amzn-0 | Hive 命令列用戶端。 | 
| hive-metastore-server | 2.1.1-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server | 2.1.1-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.11.0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.52 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.3.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.3.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.7.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.157.1 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.157.1 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.1.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.1.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.1.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.1.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.25\$1 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.6.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.9 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.9 | ZooKeeper 命令列用戶端。 | 

## 5.3.0 組態類別
<a name="emr-530-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.3.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-parquet-logging | 變更 Hive 的 parquet-logging.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.2.3 版
<a name="emr-523-release"></a>

## 5.2.3 應用程式版本
<a name="emr-523-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.2.3 | emr-5.2.2 | emr-5.2.1 | emr-5.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.8 | 

## 5.2.3 版本備註
<a name="emr-523-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.2.3 元件版本
<a name="emr-523-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.2.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.13.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.1.3 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.2.3 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.2.3 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.2.3 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.2.3 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.2.3 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-metastore-server | 2.1.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server | 2.1.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.10.0-amzn-0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.52 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.7.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.157.1 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.157.1 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.0.2 | Spark 命令列用戶端。 | 
| spark-history-server | 2.0.2 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.0.2 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.0.2 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.23 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.6.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.9 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.9 | ZooKeeper 命令列用戶端。 | 

## 5.2.3 組態類別
<a name="emr-523-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.2.3 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.2.2 版
<a name="emr-522-release"></a>

## 5.2.2 應用程式版本
<a name="emr-522-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.2.2 | emr-5.2.1 | emr-5.2.0 | emr-5.1.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.152.3 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.8 | 3.4.8 | 

## 5.2.2 版本備註
<a name="emr-522-relnotes"></a>

以下版本備註包含 Amazon EMR 5.2.2 版的資訊。變更是相對於 Amazon EMR 5.2.1 版而言。

版本日期：2017 年 5 月 2 日

**解決先前版本的已知問題**
+ 向後移植的 [SPARK-194459](https://issues.apache.org/jira/browse/SPARK-19459) 可解決無法讀取具有 char/varchar 欄之 ORC 資料表的問題。

## 5.2.2 元件版本
<a name="emr-522-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.2.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.13.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.1.3 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.2.3 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.2.3 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.2.3 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.2.3 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.2.3 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-metastore-server | 2.1.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server | 2.1.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.10.0-amzn-0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.52 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.7.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.157.1 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.157.1 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.0.2 | Spark 命令列用戶端。 | 
| spark-history-server | 2.0.2 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.0.2 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.0.2 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.23 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.6.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.9 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.9 | ZooKeeper 命令列用戶端。 | 

## 5.2.2 組態類別
<a name="emr-522-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.2.2 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.2.1 版
<a name="emr-521-release"></a>

## 5.2.1 應用程式版本
<a name="emr-521-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.2.1 | emr-5.2.0 | emr-5.1.1 | emr-5.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.152.3 | 0.152.3 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.2 | 2.0.1 | 2.0.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.2.1 版本備註
<a name="emr-521-relnotes"></a>

以下版本備註包含 Amazon EMR 5.2.1 版的資訊。變更是相對於 Amazon EMR 5.2.0 版而言。

版本日期：2016 年 12 月 29 日

**升級**
+ 升級至 Presto 0.157.1。如需詳細資訊，請參閱 Presto 文件中的 [Presto 版本備註](https://prestodb.io/docs/current/release/release-0.157.1.html)。
+ 升級至 Zookeeper 3.4.9 版。如需詳細資訊，請參閱 Apache ZooKeeper 文件中的 [ZooKeeper 版本備註](https://zookeeper.apache.org/doc/r3.4.9/releasenotes.html)。

**變更與強化功能**
+ 新增對 Amazon EMR 版本 4.8.3 及更高版本 (不含 5.0.0、5.0.3、5.2.0) 之 Amazon EC2 m4.16xlarge 執行個體類型的支援。
+ Amazon EMR 版本現在以 Amazon Linux 2016.09 為基礎。如需詳細資訊，請參閱[https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/)。
+ Flink 和 YARN 組態路徑的位置現在已根據預設設定於 `/etc/default/flink`，因此您在執行 `FLINK_CONF_DIR` 或 `HADOOP_CONF_DIR` 驅動程式指令碼以啟動 Flink 作業時，就不必設定環境變數 `flink` 和 `yarn-session.sh`。
+ 新增對 FlinkKinesisConsumer 類別的支援。

**解決先前版本的已知問題**
+ 修正 Hadoop 中的問題：ReplicationMonitor 執行緒可能會因為大型叢集中同一個檔案的複製與刪除之間發生競速而停滯許久。
+ 解決工作狀態未成功更新時 ControlledJob\$1toString 因空指針異常 (NPE) 而失敗的問題。

## 5.2.1 元件版本
<a name="emr-521-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.2.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.13.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.1.3 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-1 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-1 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.2.3 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.2.3 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.2.3 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.2.3 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.2.3 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-metastore-server | 2.1.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server | 2.1.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.10.0-amzn-0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.52 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.7.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.157.1 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.157.1 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.0.2 | Spark 命令列用戶端。 | 
| spark-history-server | 2.0.2 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.0.2 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.0.2 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.23 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.6.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.9 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.9 | ZooKeeper 命令列用戶端。 | 

## 5.2.1 組態類別
<a name="emr-521-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.2.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.2.0 版
<a name="emr-520-release"></a>

## 5.2.0 應用程式版本
<a name="emr-520-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.2.0 | emr-5.1.1 | emr-5.1.0 | emr-5.0.3 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.152.3 | 0.152.3 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.1 | 2.0.1 | 2.0.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.1 | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.2.0 版本備註
<a name="emr-520-relnotes"></a>

以下版本備註包含 Amazon EMR 5.2.0 版的資訊。變更是相對於 Amazon EMR 5.1.0 版而言。

版本日期：2016 年 11 月 21 日

**變更與強化功能**
+ 新增適用於 HBase 的 Amazon S3 儲存模式。
+  讓您能夠為 HBase rootdir 指定 Amazon S3 位置。如需詳細資訊，請參閱 [HBase on Amazon S3](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html)。

**升級**
+ 升級至 Spark 2.0.2

**解決先前版本的已知問題**
+ 修正 /mnt 在僅 EBS 之執行個體類型上被限制為 2 TB 的問題。
+ 修正 instance-controller 和 logpusher 日誌被輸出至其對應之 .out 檔案而非一般由 log4j 設定之 .log 檔案 (每小時輪換) 的問題。由於 .out 檔案不會輪換，因此 /emr 分割區最後會被填滿。此問題只會影響硬體虛擬機器 (HVM) 執行個體類型。

## 5.2.0 元件版本
<a name="emr-520-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.1.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.12.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.1.3 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.2.3 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.2.3 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.2.3 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.2.3 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.2.3 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-metastore-server | 2.1.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server | 2.1.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.10.0-amzn-0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.52 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.7.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.152.3 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.152.3 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.0.2 | Spark 命令列用戶端。 | 
| spark-history-server | 2.0.2 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.0.2 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.0.2 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.23 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.6.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.8 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.8 | ZooKeeper 命令列用戶端。 | 

## 5.2.0 組態類別
<a name="emr-520-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.2.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase | Apache HBase 的 Amazon EMR 彙整設定。 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.1.1 版
<a name="emr-511-release"></a>

## 5.1.1 應用程式版本
<a name="emr-511-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.1.1 | emr-5.1.0 | emr-5.0.3 | emr-5.0.2 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.152.3 | 0.152.3 | 0.150 | 
| Spark | 2.0.1 | 2.0.1 | 2.0.1 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.1 | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.1.1 版本備註
<a name="emr-511-relnotes"></a>

這是針對 Amazon S3 請求新增 AWS Signature 第 4 版身分驗證的修補程式版本。所有應用程式和元件都與先前的 Amazon EMR 發行版本相同。

**重要**  
在此發行版本中，Amazon EMR 僅使用 AWS Signature 第 4 版來驗證對 Amazon S3 的請求。如需詳細資訊，請參閱[最新消息](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)。

## 5.1.1 元件版本
<a name="emr-511-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.1.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.11.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.1.3 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.2.3 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.2.3 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.2.3 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.2.3 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.2.3 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-metastore-server | 2.1.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server | 2.1.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.10.0-amzn-0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.52 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.7.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.152.3 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.152.3 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.0.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.0.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.0.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.0.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.23 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.6.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.8 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.8 | ZooKeeper 命令列用戶端。 | 

## 5.1.1 組態類別
<a name="emr-511-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.1.1 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.1.0 版
<a name="emr-510-release"></a>

## 5.1.0 應用程式版本
<a name="emr-510-app-versions"></a>

此版本包含下列應用程式：[https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)[http://mahout.apache.org/](http://mahout.apache.org/)、、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)[http://sqoop.apache.org/](http://sqoop.apache.org/)、、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.1.0 | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.152.3 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.1 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.1.0 版本備註
<a name="emr-510-relnotes"></a>

以下版本備註包含 Amazon EMR 5.1.0 版的資訊。變更是相對於 Amazon EMR 5.0.3 版而言。

版本日期：2016 年 11 月 3 日

**變更與強化功能**
+ 新增對 Flink 1.1.3 的支援。
+ Presto 已新增為 Hue 筆記本區段中的選項。

**升級**
+ 升級至 HBase 1.2.3
+ 升級至 Zeppelin 0.6.2

**解決先前版本的已知問題**
+ 修正在 Amazon S3 上以 ORC 檔案執行 Tez 查詢之效果不如先前 Amazon EMR 4.x 版本的問題。

## 5.1.0 元件版本
<a name="emr-510-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.1.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.11.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| flink-client | 1.1.3 | Apache Flink 命令列用戶端指令碼和應用程式。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.2.3 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.2.3 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.2.3 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.2.3 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.2.3 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-metastore-server | 2.1.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server | 2.1.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.10.0-amzn-0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.52 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.7.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.152.3 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.152.3 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.0.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.0.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.0.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.0.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.23 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.6.2 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.8 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.8 | ZooKeeper 命令列用戶端。 | 

## 5.1.0 組態類別
<a name="emr-510-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.1.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| flink-conf | 變更 flink-conf.yaml 設定。 | 
| flink-log4j | 變更 Flink log4j.properties 設定。 | 
| flink-log4j-yarn-session | 變更 Flink log4j-yarn-session.properties 設定。 | 
| flink-log4j-cli | 變更 Flink log4j-cli.properties 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.0.3 版
<a name="emr-503-release"></a>

## 5.0.3 應用程式版本
<a name="emr-503-app-versions"></a>

此版本包含下列應用程式：[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)、[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)、[http://mahout.apache.org/](http://mahout.apache.org/)[http://oozie.apache.org/](http://oozie.apache.org/)、、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、[http://sqoop.apache.org/](http://sqoop.apache.org/)、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.0.3 版本備註
<a name="emr-503-relnotes"></a>

以下版本備註包含 Amazon EMR 5.0.3 版的資訊。變更是相對於 Amazon EMR 5.0.0 版而言。

版本日期：2016 年 10 月 24 日

**升級**
+ 升級至 Hadoop 2.7.3
+ 升級至 Presto 0.152.3，其中包含對 Presto Web 介面的支援。您可以使用連接埠 8889 在 Presto 協調器上存取 Presto Web 介面。如需 Presto Web 界面的詳細資訊，請參閱 Presto 文件中的 [Web 界面](https://prestodb.io/docs/current/admin/web-interface.html)。
+ 升級至 Spark 2.0.1
+ Amazon EMR 版本現在以 Amazon Linux 2016.09 為基礎。如需詳細資訊，請參閱[https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/)。

## 5.0.3 元件版本
<a name="emr-503-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.1.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.10.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.3-amzn-0 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.3-amzn-0 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.3-amzn-0 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.2.2 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.2.2 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.2.2 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.2.2 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.2.2 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-metastore-server | 2.1.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server | 2.1.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.10.0-amzn-0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.52 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.7.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.152.3 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.152.3 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.0.1 | Spark 命令列用戶端。 | 
| spark-history-server | 2.0.1 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.0.1 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.0.1 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.23 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.6.1 | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.8 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.8 | ZooKeeper 命令列用戶端。 | 

## 5.0.3 組態類別
<a name="emr-503-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.0.3 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.0.2 版
<a name="emr-502-release"></a>

## 5.0.2 應用程式版本
<a name="emr-502-app-versions"></a>

此版本包含下列應用程式：[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)、[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)、[http://mahout.apache.org/](http://mahout.apache.org/)[http://oozie.apache.org/](http://oozie.apache.org/)、、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、[http://sqoop.apache.org/](http://sqoop.apache.org/)、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.0.2 版本備註
<a name="emr-502-relnotes"></a>

## 5.0.2 元件版本
<a name="emr-502-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.0.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.1.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.9.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.2-amzn-3 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.2-amzn-3 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.2-amzn-3 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.2.2 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.2.2 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.2.2 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.2.2 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.2.2 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-metastore-server | 2.1.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server | 2.1.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.10.0-amzn-0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.46 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.7.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.150 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.150 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.0.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.0.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.0.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.0.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.23 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.6.1-SNAPSHOT | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.8 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.8 | ZooKeeper 命令列用戶端。 | 

## 5.0.2 組態類別
<a name="emr-502-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.0.2 類別**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.0.1 版
<a name="emr-501-release"></a>

## 5.0.1 應用程式版本
<a name="emr-501-app-versions"></a>

此版本包含下列應用程式：[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)、[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)、[http://mahout.apache.org/](http://mahout.apache.org/)[http://oozie.apache.org/](http://oozie.apache.org/)、、[https://phoenix.apache.org/](https://phoenix.apache.org/)、、[http://pig.apache.org/](http://pig.apache.org/)[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、[http://sqoop.apache.org/](http://sqoop.apache.org/)[https://tez.apache.org/](https://tez.apache.org/)、、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.0.1 版本備註
<a name="emr-501-relnotes"></a>

## 5.0.1 元件版本
<a name="emr-501-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.0.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.1.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.9.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.2-amzn-3 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.2-amzn-3 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.2-amzn-3 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.2.2 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.2.2 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.2.2 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.2.2 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.2.2 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-metastore-server | 2.1.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server | 2.1.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.10.0-amzn-0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.46 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.7.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.150 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.150 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.0.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.0.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.0.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.0.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.23 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.6.1-SNAPSHOT | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.8 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.8 | ZooKeeper 命令列用戶端。 | 

## 5.0.1 組態類別
<a name="emr-501-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.0.1 類別**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 

# Amazon EMR 5.0.0 版
<a name="emr-500-release"></a>

## 5.0.0 應用程式版本
<a name="emr-500-app-versions"></a>

此版本包含下列應用程式：[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)、[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)[http://hive.apache.org/](http://hive.apache.org/)、[http://gethue.com/](http://gethue.com/)、[http://mahout.apache.org/](http://mahout.apache.org/)[http://oozie.apache.org/](http://oozie.apache.org/)、、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、[http://sqoop.apache.org/](http://sqoop.apache.org/)、[https://tez.apache.org/](https://tez.apache.org/)、、 [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)和 [https://zookeeper.apache.org](https://zookeeper.apache.org)。

下表列出此 Amazon EMR 版本中提供的應用程式版本，以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄，請參閱以下主題：
+ [Amazon EMR 7.x 版中的應用程式版本](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 版之應用程式版本](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 版之應用程式版本](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 版之應用程式版本](emr-release-app-versions-4.x.md)


**應用程式版本資訊**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS 適用於 Java 的 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 未追蹤 | 未追蹤 | 未追蹤 | 未追蹤 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.0.0 版本備註
<a name="emr-500-relnotes"></a>

 版本日期：2016 年 7 月 27 日

**升級**
+ 升級至 Hive 2.1
+ 升級至 Presto 0.150
+ 升級至 Spark 2.0
+ 升級至 Hue 3.10.0
+ 升級至 Pig 0.16.0
+ 升級至 Tez 0.8.4
+ 升級至 Zeppelin 0.6.1

**變更與強化功能**
+ Amazon EMR 支援 Hive (版本 2.1) 和 Pig (版本 0.16.0) 最新的開放原始碼版本。如果您過去曾在 Amazon EMR 上使用 Hive 或 Pig，這可能會影響一些使用案例。如需詳細資訊，請參閱 [Hive](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hive.html) 和 [Pig](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-pig.html)。
+ Hive 和 Pig 的預設執行引擎現在為 Tez。若要變更，您可以分別編輯 `hive-site` 和 `pig-properties` 組態分類中的適當值。
+ 強化步驟除錯功能已新增，如果服務能夠判斷原因，您就可以看出步驟失敗的根源。如需詳細資訊，請參閱《Amazon EMR 管理指南》中的[增強型步驟偵錯](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-enhanced-step-debugging.html)。
+ 先前以「-Sandbox」結尾的應用程式已不再具有該尾碼。這可能會打斷您的自動化，例如在您使用指令碼以這些應用程式啟動叢集時。下表顯示 Amazon EMR 4.7.2 和 Amazon EMR 5.0.0 中的應用程式名稱。  
**應用程式名稱變更**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_tw/emr/latest/ReleaseGuide/emr-500-release.html)
+ Spark 現在已為 Scala 2.11 編譯。
+ Java 8 現在為預設 JVM。所有應用程式的執行均使用 Java 8 執行時間。應用程式的位元組碼目標均無變更。大部分應用程式繼續以 Java 7 為目標。
+ Zeppelin 現在包括了驗證功能。如需詳細資訊，請參閱 [Zeppelin](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-zeppelin.html)。
+ 新增對安全組態的支援，讓您能夠更輕易建立與套用加密選項。如需詳細資訊，請參閱[資料加密](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-data-encryption.html)。

## 5.0.0 元件版本
<a name="emr-500-components"></a>

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有，並安裝為系統程序和功能。這些通常會以 `emr` 或 `aws` 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件，通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤，格式為 `CommunityVersion-amzn-EmrVersion`。`EmrVersion` 從 0 開始。例如，假設有一個名為 `myapp-component` 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次，則其發行版本會列為 `2.2-amzn-2`。


| 元件 | 版本 | Description | 
| --- | --- | --- | 
| emr-ddb | 4.0.0 | 適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。 | 
| emr-goodies | 2.1.0 | 適用 Hadoop 生態系統的超便利程式庫。 | 
| emr-kinesis | 3.2.0 | 適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。 | 
| emr-s3-dist-cp | 2.4.0 | 針對 Amazon S3 最佳化的分散式複製應用程式。 | 
| emrfs | 2.9.0 | 適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。 | 
| ganglia-monitor | 3.7.2 | Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。 | 
| ganglia-web | 3.7.1 | 由 Ganglia 中繼資料收集器收集，以檢視指標的 Web 應用程式。 | 
| hadoop-client | 2.7.2-amzn-3 | Hadoop 命令列用戶端，例如「hdfs」、「Hadoop」或「yarn」。 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | 用於存放區塊的 HDFS 節點層級服務。 | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | HDFS 命令列用戶端和程式庫 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | 用於追蹤檔案名稱和區塊位置的 HDFS 服務。 | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | HDFS 操作的 HTTP 端點。 | 
| hadoop-kms-server | 2.7.2-amzn-3 | 以 Hadoop 金鑰供應商 API 為基礎的加密金鑰管理伺服器。 | 
| hadoop-mapred | 2.7.2-amzn-3 | 執行 MapReduce 應用程式的 MapReduce 執行引擎程式庫。 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | 在個別節點用於管理容器的 YARN 服務。 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | 用於分配和管理叢集資源，以及分散式應用程式的 YARN 服務。 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | 為 YARN 應用程式擷取目前和歷史資訊的服務。 | 
| hbase-hmaster | 1.2.2 | 負責區域協調和執行管理命令的 HBase 叢集服務。 | 
| hbase-region-server | 1.2.2 | 提供一或多個 HBase 區域的服務。 | 
| hbase-client | 1.2.2 | HBase 命令列用戶端。 | 
| hbase-rest-server | 1.2.2 | 為 HBase 提供 RESTful HTTP 端點的服務。 | 
| hbase-thrift-server | 1.2.2 | 提供 Thrift 端點到 HBase 的服務。 | 
| hcatalog-client | 2.1.0-amzn-0 | 操作 hcatalog-server 的「hcat」命令列用戶端。 | 
| hcatalog-server | 2.1.0-amzn-0 | 服務為分散式應用程式提供 HCatalog、表格和儲存管理層。 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HTTP 端點提供了 REST 介面至 HCatalog。 | 
| hive-client | 2.1.0-amzn-0 | Hive 命令列用戶端。 | 
| hive-metastore-server | 2.1.0-amzn-0 | 為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。 | 
| hive-server | 2.1.0-amzn-0 | 依 Web 請求接受 Hive 查詢的服務。 | 
| hue-server | 3.10.0-amzn-0 | 使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式 | 
| mahout-client | 0.12.2 | 機器學習程式庫。 | 
| mysql-server | 5.5.46 | MySQL 資料庫伺服器。 | 
| oozie-client | 4.2.0 | Oozie 命令列用戶端。 | 
| oozie-server | 4.2.0 | 接受 Oozie 工作流程要求的服務。 | 
| phoenix-library | 4.7.0-HBase-1.2 | 適用於伺服器和用戶端的 phoenix 程式庫 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | 此為一輕量伺服器，可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取  | 
| presto-coordinator | 0.150 | 在 presto-workers 之間接受查詢和執行管理查詢的服務。 | 
| presto-worker | 0.150 | 執行查詢各部分的服務。 | 
| pig-client | 0.16.0-amzn-0 | Pig 命令列用戶端。 | 
| spark-client | 2.0.0 | Spark 命令列用戶端。 | 
| spark-history-server | 2.0.0 | 用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。 | 
| spark-on-yarn | 2.0.0 | 適用於 YARN 的記憶體內執行引擎。 | 
| spark-yarn-slave | 2.0.0 | YARN 從屬所需的 Apache Spark 程式庫。 | 
| sqoop-client | 1.4.6 | Apache Sqoop 命令列用戶端。 | 
| tez-on-yarn | 0.8.4 | tez YARN 應用程式和程式庫。 | 
| webserver | 2.4.23 | Apache HTTP 伺服器。 | 
| zeppelin-server | 0.6.1-SNAPSHOT | 能進行互動式資料分析，以 Web 為基礎的筆記型電腦。 | 
| zookeeper-server | 3.4.8 | 用於維護組態資訊、命名、提供分散式同步，並提供群組服務的集中化服務。 | 
| zookeeper-client | 3.4.8 | ZooKeeper 命令列用戶端。 | 

## 5.0.0 組態類別
<a name="emr-500-class"></a>

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案，例如 `hive-site.xml`。如需詳細資訊，請參閱[設定應用程式](emr-configure-apps.md)。


**emr-5.0.0 分類**  

| 分類 | Description | 
| --- | --- | 
| capacity-scheduler | 變更 Hadoop 中 capacity-scheduler.xml 檔案的值。 | 
| core-site | 變更 Hadoop 中 core-site.xml 檔案的值。 | 
| emrfs-site | 變更 EMRFS 設定。 | 
| hadoop-env | 在 Hadoop 環境中變更所有 Hadoop 元件的值。 | 
| hadoop-log4j | 變更 Hadoop 中 log4j.properties 檔案的值。 | 
| hadoop-ssl-server | 變更 hadoop ssl 伺服器組態 | 
| hadoop-ssl-client | 變更 hadoop ssl 用戶端組態 | 
| hbase-env | 變更 HBase 環境中的值。 | 
| hbase-log4j | 變更 HBase 的 hbase-log4j.properties 檔案中的值。 | 
| hbase-metrics | 變更 HBase 的 hadoop-metrics2-hbaase.properties 檔案中的值。 | 
| hbase-policy | 變更 HBase 的 hbase-policy.xml 檔案中的值。 | 
| hbase-site | 變更 HBase 的 hbase-site.xml 檔案中的值。 | 
| hdfs-encryption-zones | 設定 HDFS 加密區域。 | 
| hdfs-site | 變更 HDFS 的 hdfs-site.xml 中的值。 | 
| hcatalog-env | 變更 HCatalog 環境中的值。 | 
| hcatalog-server-jndi | 變更 HCatalog 的 jndi.properties 中的值。 | 
| hcatalog-server-proto-hive-site | 變更 HCatalog 的 proto-hive-site.xml 中的值。 | 
| hcatalog-webhcat-env | 變更 HCatalog WebHCat 環境中的值。 | 
| hcatalog-webhcat-log4j2 | 變更 HCatalog WebHCat 的 log4j2.properties 中的值。 | 
| hcatalog-webhcat-site | 變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。 | 
| hive-beeline-log4j2 | 變更 Hive 的 beeline-log4j2.properties 檔案中的值。 | 
| hive-env | 變更 Hive 環境中的值。 | 
| hive-exec-log4j2 | 變更 Hive 的 hive-exec-log4j2.properties 檔案中的值。 | 
| hive-llap-daemon-log4j2 | 變更 Hive 的 llap-daemon-log4j2.properties 檔案中的值。 | 
| hive-log4j2 | 變更 Hive 的 hive-log4j2.properties 檔案中的值。 | 
| hive-site | 變更 Hive 的 hive-site.xml 檔案中的值 | 
| hiveserver2-site | 變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值 | 
| hue-ini | 變更 Hue 的 ini 檔案中的值 | 
| httpfs-env | 變更 HTTPFS 環境中的值。 | 
| httpfs-site | 變更 Hadoop 中 httpfs-site.xml 檔案的值。 | 
| hadoop-kms-acls | 變更 Hadoop 中 kms-acls.xml 檔案的值。 | 
| hadoop-kms-env | 變更 Hadoop KMS 環境中的值。 | 
| hadoop-kms-log4j | 變更 Hadoop 的 kms-log4j.properties 檔案中的值。 | 
| hadoop-kms-site | 變更 Hadoop 中 kms-site.xml 檔案的值。 | 
| mapred-env | 變更 MapReduce 應用程式環境中的值。 | 
| mapred-site | 變更 MapReduce 應用程式 mapred-site.xml 檔案中的值。 | 
| oozie-env | 變更 Oozie 環境中的值。 | 
| oozie-log4j | 變更 Oozie 的 oozie-log4j.properties 檔案中的值。 | 
| oozie-site | 變更 Oozie 的 oozie-site.xml 檔案中的值。 | 
| phoenix-hbase-metrics | 變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。 | 
| phoenix-hbase-site | 變更 Phoenix 的 hbase-site.xml 檔案中的值。 | 
| phoenix-log4j | 變更 Phoenix 中 log4j.properties 檔案的值。 | 
| phoenix-metrics | 變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。 | 
| pig-properties | 變更 Pig 的 pig.properties 檔案中的值。 | 
| pig-log4j | 變更 Pig 的 log4j.properties 檔案中的值。 | 
| presto-log | 變更 Presto 的 log.properties 檔案中的值。 | 
| presto-config | 變更 Presto 的 config.properties 檔案中的值。 | 
| presto-connector-blackhole | 變更 Presto 的 blackhole.properties 檔案中的值。 | 
| presto-connector-cassandra | 變更 Presto 的 cassandra.properties 檔案中的值。 | 
| presto-connector-hive | 變更 Presto 的 hive.properties 檔案中的值。 | 
| presto-connector-jmx | 變更 Presto 的 jmx.properties 檔案中的值。 | 
| presto-connector-kafka | 變更 Presto 的 kafka.properties 檔案中的值。 | 
| presto-connector-localfile | 變更 Presto 的 localfile.properties 檔案中的值。 | 
| presto-connector-mongodb | 變更 Presto 的 mongodb.properties 檔案中的值。 | 
| presto-connector-mysql | 變更 Presto 的 mysql.properties 檔案中的值。 | 
| presto-connector-postgresql | 變更 Presto 的 postgresql.properties 檔案中的值。 | 
| presto-connector-raptor | 變更 Presto 的 raptor.properties 檔案中的值。 | 
| presto-connector-redis | 變更 Presto 的 redis.properties 檔案中的值。 | 
| presto-connector-tpch | 變更 Presto 的 tpch.properties 檔案中的值。 | 
| spark | Apache Spark 的 Amazon EMR 彙整設定。 | 
| spark-defaults | 變更 Spark 的 spark-defaults.conf 檔案中的值。 | 
| spark-env | 變更 Spark 環境中的值。 | 
| spark-hive-site | 變更 Spark 的 hive-site.xml 檔案中的值 | 
| spark-log4j | 變更 Spark 中 log4j.properties 檔案的值。 | 
| spark-metrics | 變更 Spark 中 metrics.properties 檔案的值。 | 
| sqoop-env | 變更 Sqoop 環境中的值。 | 
| sqoop-oraoop-site | 變更 Sqoop OraOop 的 oraoop-site.xml 檔案中的值。 | 
| sqoop-site | 變更 Sqoop 的 sqoop-site.xml 檔案中的值。 | 
| tez-site | 變更 Tez 的 tez-site.xml 檔案中的值。 | 
| yarn-env | 變更 YARN 環境中的值。 | 
| yarn-site | 變更 YARN 的 yarn-site.xml 檔案中的值。 | 
| zeppelin-env | 變更 Zeppelin 環境中的值。 | 
| zookeeper-config | 變更 ZooKeeper 的 zoo.cfg 檔案中的值。 | 
| zookeeper-log4j | 變更 ZooKeeper 中 log4j.properties 檔案的值。 | 