

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Amazon EMR リリース 5.30.1
<a name="emr-5301-release"></a>

## 5.30.1 アプリケーションバージョン
<a name="emr-5301-app-versions"></a>

このリリースには次のアプリケーションが含まれます: [https://flink.apache.org/](https://flink.apache.org/)、[http://ganglia.info](http://ganglia.info)、[http://hbase.apache.org/](http://hbase.apache.org/)、[https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog)、[http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/)、[http://hive.apache.org/](http://hive.apache.org/)、[https://hudi.apache.org](https://hudi.apache.org)、[http://gethue.com/](http://gethue.com/)、[https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#)、[https://livy.incubator.apache.org/](https://livy.incubator.apache.org/)、[https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/)、[http://mahout.apache.org/](http://mahout.apache.org/)、[http://oozie.apache.org/](http://oozie.apache.org/)、[https://phoenix.apache.org/](https://phoenix.apache.org/)、[http://pig.apache.org/](http://pig.apache.org/)、[https://prestodb.io/](https://prestodb.io/)、[https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)、[http://sqoop.apache.org/](http://sqoop.apache.org/)、[https://www.tensorflow.org/](https://www.tensorflow.org/)、[https://tez.apache.org/](https://tez.apache.org/)、[https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)、[https://zookeeper.apache.org](https://zookeeper.apache.org)。

以下の表は、Amazon EMR のこのリリースで利用可能なアプリケーションバージョンと、前の 3 つの Amazon EMR リリース (該当する場合) で利用可能なアプリケーションバージョンを示しています。

Amazon EMR の各リリースのアプリケーションバージョンの包括的な履歴については、以下のトピックを参照してください。
+ [Amazon EMR 7.x リリースのアプリケーションバージョン](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x リリースのアプリケーションバージョン](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x リリースのアプリケーションバージョン](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x リリースのアプリケーションバージョン](emr-release-app-versions-4.x.md)


**アプリケーションバージョン情報**  

|  | emr-5.30.1 | emr-5.30.0 | emr-5.29.0 | emr-5.28.1 | 
| --- | --- | --- | --- | --- | 
| AWS SDK for Java | 1.11.759 | 1.11.759 | 1.11.682 | 1.11.659 | 
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.6 | 2.7、3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.10.0 | 1.10.0 | 1.9.1 | 1.9.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 
| Hadoop | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 
| Hive | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 
| Hudi | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| Hue | 4.6.0 | 4.6.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.232 | 0.232 | 0.227 | 0.227 | 
| Spark | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.30.1 リリースノート
<a name="emr-5301-relnotes"></a>

次のリリースノートには、Amazon EMR リリース 5.30.1 に関する情報が含まれています。5.30.0 からの変更が含まれています。

初回リリース日: 2020 年 6 月 30 日

最終更新日: 2020 年 8 月 24 日

**変更点、機能強化、解決した問題**
+ Amazon EMR の新しいリリースでは、Amazon EMR の古い AL2 で「最大オープンファイル」の上限が低い問題が修正されています。Amazon EMR リリース 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 以降には、「最大オープンファイル」設定が高くなった永続的な修正が含まれるようになりました。
+ インスタンスコントローラープロセスが無限数のプロセスをスポーンする問題を修正しました。
+ Hue が Hive クエリを実行できず、「データベースがロックされています」というメッセージが表示され、クエリの実行が妨げられる問題を修正しました。
+ EMR クラスターでより多くのタスクを同時に実行できるようにするための Spark の問題を修正しました。
+ Jupyter サーバーで「too many files open error」(開いているファイルの数が多すぎるエラー) が発生する、Jupyter Notebook の問題を修正しました。
+ クラスターの開始時間の問題を修正しました。

**新機能**
+ Tez UI および YARN タイムラインサーバーの永続アプリケーションインターフェイスは、Amazon EMR バージョン 6.x および EMR バージョン 5.30.1 以降で利用可能です。永続アプリケーション履歴へのワンクリックリンクアクセスにより、SSH 接続でウェブプロキシを設定せずに、ジョブ履歴にすばやくアクセスできます。アクティブなクラスターと終了したクラスターのログは、アプリケーションの終了後 30 日間利用できます。詳細については、「*Amazon EMR 管理ガイド*」の「[永続アプリケーションユーザーインターフェイスの表示](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html)」を参照してください。
+ EMR Notebooks 実行 API を使用して、スクリプトまたはコマンドラインで EMR Notebooks を実行できます。 AWS コンソールなしで EMR ノートブックの実行を開始、停止、一覧表示、および記述する機能により、EMR ノートブックをプログラムで制御できます。パラメータ化されたノートブックセルを使用すると、新しいパラメータ値セットごとにノートブックのコピーを作成しなくても、複数の異なるパラメータ値をノートブックに渡すことができます。「[EMR API のアクション](https://docs.aws.amazon.com/emr/latest/APIReference/API_Operations.html)」を参照してください。サンプルコードについては、「[EMR Notebooks をプログラムで実行するサンプルコマンド](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-headless.html)」を参照してください。

**既知の問題**
+ **古い AL2 で「最大オープンファイル」の上限が低い [新しいリリースで修正済み]。**Amazon EMR リリース emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0、および emr-6.2.0 は、古いバージョンの Amazon Linux 2 (AL2) に基づいており、デフォルトの AMI を使用して Amazon EMR クラスターを作成する場合に「最大オープンファイル」の ulimit 設定が低くなります。Amazon EMR リリース 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 以降には、「最大オープンファイル」設定が高くなった永続的な修正が含まれています。オープンファイルの上限が低いリリースでは、Spark ジョブを送信するときに「Too many open files」というエラーが発生します。影響を受けるリリースでは、Amazon EMR のデフォルト AMI の「最大オープンファイル」はデフォルトの ulimit 設定 4096 になっており、最新の Amazon Linux 2 AMI の上限 65536 ファイルよりも低くなっています。「最大オープンファイル」の ulimit 設定が低い場合、Spark ドライバーとエグゼキュータが 4096 を超えるファイルを開こうとすると、Spark ジョブが失敗します。この問題を解決するために、Amazon EMR には、クラスターの作成時に ulimit 設定を調整するブートストラップアクション (BA) スクリプトが用意されています。

  この問題の永続的な修正がない古い Amazon EMR バージョンを使用している場合は、以下の回避策を使用すると、instance-controller ulimit を最大の 65536 ファイルに明示的に設定できます。

**コマンドラインから ulimit を明示的に設定する**

  1. `/etc/systemd/system/instance-controller.service` を編集して、Service セクションに次のパラメータを追加します。

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. InstanceController を再起動します。

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **ブートストラップアクション (BA) を使用して ulimit を設定する**

  ブートストラップアクション (BA) スクリプトを使用して、クラスター作成時にインスタンスコントローラーの ulimit を 65536 ファイルに設定することもできます。

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ **EMR Notebooks**

  クラスターのプライマリノードにカーネルと追加の Python ライブラリをインストールする機能は、EMR バージョン 5.30.1 ではデフォルトで無効になっています。この機能の詳細については、「[クラスターのプライマリノードへのカーネルと Python ライブラリのインストール](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-installing-libraries-and-kernels.html)」を参照してください。

  この機能を有効にするには、以下の操作を行います。

  1. EMR Notebooks のサービスロールにアタッチされているアクセス許可ポリシーで、次のアクションが許可されていることを確認します。

     `elasticmapreduce:ListSteps`

     詳細については、「[EMR Notebooks のサービスロール](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-service-role.html)」を参照してください。

  1.  AWS CLI を使用して、次の例に示すように EMR Notebooks をセットアップするクラスターでステップを実行します。*us-east-1* を、クラスターが存在するリージョンに置き換えます。詳細については、「[AWS CLIを使用したクラスターへのステップの追加](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html)」を参照してください。

     ```
     aws emr add-steps  --cluster-id MyClusterID --steps Type=CUSTOM_JAR,Name=EMRNotebooksSetup,ActionOnFailure=CONTINUE,Jar=s3://us-east-1.elasticmapreduce/libs/script-runner/script-runner.jar,Args=["s3://awssupportdatasvcs.com/bootstrap-actions/EMRNotebooksSetup/emr-notebooks-setup.sh"]
     ```
+ **マネージドスケーリング**

  Presto がインストールされていない 5.30.0 クラスターおよび 5.30.1 クラスターでマネージドスケーリング操作を実行すると、特にスケールダウン操作の後にすぐ、スケールアップ操作が実行されたときに、アプリケーション障害が発生するか、ユニフォームインスタンスグループまたはインスタンスフリートが `ARRESTED` 状態のままになる場合があります。

  回避策として、ジョブに Presto が必要ない場合でも、Amazon EMR リリース 5.30.0 および 5.30.1 を使用してクラスターを作成するときに、インストールするアプリケーションとして Presto を選択します。
+ 複数のプライマリノードと Kerberos 認証を使用するクラスターの既知の問題

  Amazon EMR リリース 5.20.0 以降で複数のプライマリノードと Kerberos 認証を使用してクラスターを実行すると、クラスターをしばらく実行した後で、スケールダウンやステップの送信などのクラスターオペレーションに問題が発生する可能性があります。期間は、定義した Kerberos チケットの有効期間によって異なります。スケールダウンの問題は、自動スケールダウンリクエストと送信した明示的なスケールダウンリクエストの両方に影響します。その他のクラスターオペレーションも影響を受ける可能性があります。

  回避方法:
  + 複数のプライマリノードを持つ EMR クラスターのリードプライマリノードに `hadoop` ユーザーとして SSH 接続します。
  +  次のコマンドを実行して `hadoop` ユーザーの Kerberos チケットを更新します。

    ```
    kinit -kt <keytab_file> <principal>
    ```

    通常、キータブファイルは `/etc/hadoop.keytab` にあります。プリンシパルの形式は `hadoop/<hostname>@<REALM>` です。
**注記**  
この回避策は、Kerberos チケットが有効になっている期間、効果があります。この期間はデフォルトで 10 時間ですが、Kerberos の設定で構成できます。Kerberos チケットの有効期限が切れたら、上記のコマンドを再実行する必要があります。
+ Hive パーティション場所の形式設定で Spark を使用して Amazon S3 のデータを読み取り、Amazon EMR リリース 5.30.0 から 5.36.0、および 6.2.0 から 6.9.0 で Spark を実行すると、クラスターがデータを正しく読み取れなくなる問題が発生する可能性があります。これは、パーティションに以下の特徴がすべて当てはまる場合に発生する可能性があります。
  + 同じテーブルから 2 つ以上のパーティションがスキャンされます。
  + 少なくとも 1 つのパーティションディレクトリパスが、少なくとも 1 つの他のパーティションディレクトリパスのプレフィックスです。例えば、`s3://bucket/table/p=a` は `s3://bucket/table/p=a b` のプレフィックスです。
  + 他のパーティションディレクトリのプレフィックスに続く最初の文字が、`/` 文字 (U\$1002F) より小さい UTF-8 値を持ちます。例えば、`s3://bucket/table/p=a b` の a と b の間にあるスペース文字 (U\$10020) はこのカテゴリに該当します。非制御文字は他にも 14 個あることに注意してください: `!"#$%&‘()*+,-`。詳細については、「[UTF-8 encoding table and Unicode characters](https://www.utf8-chartable.de/)」を参照してください。

  この問題の回避策として、`spark-defaults` 分類の `spark.sql.sources.fastS3PartitionDiscovery.enabled` 設定を `false` にセットします。

## 5.30.1 コンポーネントバージョン
<a name="emr-5301-components"></a>

このリリースで Amazon EMR がインストールするコンポーネントを以下に示します。そのうちいくつかは、ビッグデータアプリケーションパッケージの一部としてインストールされます。その他は Amazon EMR に固有であり、システムプロセスと機能に対してインストールされます。これらは通常、`emr` または `aws` で開始されます。通常、最新の Amazon EMR リリースのビッグデータアプリケーションパッケージは、コミュニティにある最新バージョンです。コミュニティリリースは、できるだけ早く Amazon EMR で入手可能になるようにしています。

Amazon EMR の一部のコンポーネントは、コミュニティバージョンとは異なります。これらのコンポーネントには、`CommunityVersion-amzn-EmrVersion` の形式のバージョンラベルがあります。`EmrVersion` は 0 から始まります。例えば、バージョン 2.2 の `myapp-component` というオープンソースコミュニティコンポーネントが、異なる Amazon EMR リリースに組み込むために 3 回変更された場合、そのリリースバージョンは `2.2-amzn-2` として表示されます。


| コンポーネント | バージョン | 説明 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.14.0 | Hadoop エコシステムアプリケーション用の Amazon DynamoDB コネクター。 | 
| emr-goodies | 2.13.0 | Hadoop エコシステムに役立つ追加のライブラリ。 | 
| emr-kinesis | 3.5.0 | Hadoop エコシステムアプリケーション用の Amazon Kinesis コネクター。 | 
| emr-s3-dist-cp | 2.14.0 | Amazon S3 に最適化された分散コピーアプリケーション。 | 
| emr-s3-select | 1.5.0 | EMR S3Select コネクター | 
| emrfs | 2.40.0 | Hadoop エコシステムアプリケーション用の Amazon S3 コネクタ。 | 
| flink-client | 1.10.0 | Apache Flink のコマンドラインクライアント スクリプトとアプリケーション。 | 
| ganglia-monitor | 3.7.2 | Ganglia モニタリングエージェントとともに埋め込まれた、Hadoop エコシステムアプリケーション用 Ganglia エージェント。 | 
| ganglia-metadata-collector | 3.7.2 | Ganglia モニタリングエージェントからメトリクスを集計する Ganglia メタデータコレクター。 | 
| ganglia-web | 3.7.1 | Ganglia メタデータコレクターによって収集されたメトリクスを表示するウェブアプリケーション。 | 
| hadoop-client | 2.8.5-amzn-6 | 'hdfs'、'hadoop'、'yarn' などの Hadoop コマンドラインクライアント。 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-6 | ブロックを保存する HDFS ノードレベルのサービス。 | 
| hadoop-hdfs-library | 2.8.5-amzn-6 | HDFS コマンドラインクライアントとライブラリ | 
| hadoop-hdfs-namenode | 2.8.5-amzn-6 | ファイル名を追跡し、場所をブロックする HDFS サービス。 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-6 | HA クラスター上の Hadoop ファイルシステムジャーナルを管理するための HDFS サービス。 | 
| hadoop-httpfs-server | 2.8.5-amzn-6 | HDFS オペレーションの HTTP エンドポイント。 | 
| hadoop-kms-server | 2.8.5-amzn-6 | Hadoop の KeyProvider API に基づく暗号キー管理サーバー。 | 
| hadoop-mapred | 2.8.5-amzn-6 | MapReduce アプリケーションを実行する MapReduce 実行エンジンライブラリ。 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-6 | 個別のノードでコンテナを管理する YARN サービス。 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-6 | クラスターリソースおよび分散アプリケーションを割り当て、管理する YARN サービス。 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-6 | YARN アプリケーションの現在の情報と履歴情報を取得するためのサービス。 | 
| hbase-hmaster | 1.4.13 | リージョンの調整および管理コマンドの実行を行う HBase クラスター用のサービス。 | 
| hbase-region-server | 1.4.13 | 1 つ以上の HBase リージョンに対応するサービス。 | 
| hbase-client | 1.4.13 | HBase コマンドラインクライアント。 | 
| hbase-rest-server | 1.4.13 | HBase の RESTful HTTP エンドポイントを提供するサービス。 | 
| hbase-thrift-server | 1.4.13 | HBase に Thrift エンドポイントを提供するサービス。 | 
| hcatalog-client | 2.3.6-amzn-2 | hcatalog-server を操作するための 'hcat' コマンドラインクライアント。 | 
| hcatalog-server | 2.3.6-amzn-2 | 分散アプリケーション用のテーブルおよびストレージ管理レイヤーである HCatalog を提供するサービス。 | 
| hcatalog-webhcat-server | 2.3.6-amzn-2 | HCatalog に REST インターフェイスを提供する HTTP エンドポイント。 | 
| hive-client | 2.3.6-amzn-2 | Hive コマンドラインクライアント。 | 
| hive-hbase | 2.3.6-amzn-2 | Hive-hbase クライアント。 | 
| hive-metastore-server | 2.3.6-amzn-2 | Hadoop オペレーションの SQL 用のメタデータを保存するセマンティックレポジトリである Hive メタストアにアクセスするためのサービス。 | 
| hive-server2 | 2.3.6-amzn-2 | Hive クエリをウェブリクエストとして受け入れるサービス。 | 
| hudi | 0.5.2-incubating | データパイプラインを強化する低レイテンシーかつ高効率な増分処理フレームワーク。 | 
| hudi-presto | 0.5.2-incubating | Presto を Hudi で実行するためのバンドルライブラリ。 | 
| hue-server | 4.6.0 | Hadoop エコシステムアプリケーションを使用してデータを分析するウェブアプリケーション | 
| jupyterhub | 1.1.0 | Jupyter Notebook のマルチユーザーサーバー | 
| livy-server | 0.7.0-incubating | Apache Spark を操作するための REST インターフェイス | 
| nginx | 1.12.1 | nginx [engine x] は HTTP およびリバースプロキシサーバー | 
| mahout-client | 0.13.0 | 機械学習用のライブラリ。 | 
| mxnet | 1.5.1 | フレキシブルかつスケーラブルで、ディープラーニングにおいて効率的なライブラリです。 | 
| mariadb-server | 5.5.64 | MySQL データベースサーバー。 | 
| nvidia-cuda | 9.2.88 | Nvidia ドライバーと Cuda ツールキット | 
| oozie-client | 5.2.0 | Oozie コマンドラインクライアント。 | 
| oozie-server | 5.2.0 | Oozie ワークフローリクエストを受け入れるサービス。 | 
| opencv | 3.4.0 | オープンソースのコンピュータビジョンライブラリ。 | 
| phoenix-library | 4.14.3-HBase-1.4 | サーバーとクライアントの Phoenix ライブラリ | 
| phoenix-query-server | 4.14.3-HBase-1.4 | JDBC のアクセス、プロトコルのバッファ、および Avatica API への JSON 形式のアクセスを提供するし軽量サーバー  | 
| presto-coordinator | 0.232 | presto-worker 間でクエリを受け入れ、クエリの実行を管理するサービス。 | 
| presto-worker | 0.232 | いくつかのクエリを実行するサービス。 | 
| presto-client | 0.232 | Presto サーバーが起動されていない HA クラスターのスタンバイマスターにインストールされる Presto コマンドラインクライアント。 | 
| pig-client | 0.17.0 | Pig コマンドラインクライアント。 | 
| r | 3.4.3 | 統計的コンピューティング用 R プロジェクト | 
| ranger-kms-server | 1.2.0 | Apache Ranger Key Management System | 
| spark-client | 2.4.5-amzn-0 | Spark コマンドラインクライアント。 | 
| spark-history-server | 2.4.5-amzn-0 | 完了した Spark アプリケーションの有効期間にログに記録されたイベントを表示するウェブ UI。 | 
| spark-on-yarn | 2.4.5-amzn-0 | YARN のメモリ内実行エンジン。 | 
| spark-yarn-slave | 2.4.5-amzn-0 | YARN スレーブで必要な Apache Spark ライブラリ。 | 
| sqoop-client | 1.4.7 | Apache Sqoop コマンドラインクライアント。 | 
| tensorflow | 1.14.0 | TensorFlow は、高性能数値計算用のオープンソースのソフトウェアライブラリです。 | 
| tez-on-yarn | 0.9.2 | tez YARN アプリケーションおよびライブラリ。 | 
| webserver | 2.4.25\$1 | Apache HTTP サーバー。 | 
| zeppelin-server | 0.8.2 | インタラクティブなデータ分析を可能にするウェブベースのノートブック。 | 
| zookeeper-server | 3.4.14 | 設定情報を維持し、名前を付け、分散化された同期を提供し、グループサービスを提供する一元化されたサービス。 | 
| zookeeper-client | 3.4.14 | ZooKeeper コマンドラインクライアント。 | 

## 5.30.1 設定分類
<a name="emr-5301-class"></a>

設定分類を使用すると、アプリケーションをカスタマイズできます。これらは多くの場合、`hive-site.xml` などのアプリケーションの構成 XML ファイルに対応します。詳細については、「[アプリケーションの設定](emr-configure-apps.md)」を参照してください。


**emr-5.30.1 の分類**  

| 分類 | 説明 | 
| --- | --- | 
| capacity-scheduler | Hadoop の capacity-scheduler.xml ファイルの値を変更します。 | 
| container-log4j | Hadoop YARN の container-log4j.properties ファイルの値を変更します。 | 
| core-site | Hadoop の core-site.xml ファイルの値を変更します。 | 
| emrfs-site | EMRFS の設定を変更します。 | 
| flink-conf | flink-conf.yaml の設定を変更します。 | 
| flink-log4j | Flink log4j.properties の設定を変更します。 | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties の設定を変更します。 | 
| flink-log4j-cli | Flink log4j-cli.properties の設定を変更します。 | 
| hadoop-env | Hadoop のすべてのコンポーネントに対する Hadoop 環境の値を変更します。 | 
| hadoop-log4j | Hadoop の log4j.properties ファイルの値を変更します。 | 
| hadoop-ssl-server | Hadoop ssl のサーバー設定を変更します。 | 
| hadoop-ssl-client | Hadoop ssl のクライアント設定を変更します。 | 
| hbase | Apache HBase 用の Amazon EMR-curated 設定。 | 
| hbase-env | HBase の環境の値を変更します。 | 
| hbase-log4j | HBase の hbase-log4j.properties ファイルの値を変更します。 | 
| hbase-metrics | HBase の hadoop-metrics2-hbase.properties ファイルの値を変更します。 | 
| hbase-policy | HBase の hbase-policy.xml ファイルの値を変更します。 | 
| hbase-site | HBase の hbase-site.xml ファイルの値を変更します。 | 
| hdfs-encryption-zones | HDFS 暗号化ゾーンを設定します。 | 
| hdfs-site | HDFS の hdfs-site.xml の値を変更します。 | 
| hcatalog-env | HCatalog 環境の値を変更します。 | 
| hcatalog-server-jndi | HCatalog の jndi.properties の値を変更します。 | 
| hcatalog-server-proto-hive-site | HCatalog の proto-hive-site.xml の値を変更します。 | 
| hcatalog-webhcat-env | HCatalog WebHCat 環境の値を変更します。 | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat の log4j2.properties の値を変更します。 | 
| hcatalog-webhcat-site | HCatalog WebHCat の webhcat-site.xml ファイルの値を変更します。 | 
| hive-beeline-log4j2 | Hive の beeline-log4j2.properties ファイルの値を変更します。 | 
| hive-parquet-logging | Hive の parquet-logging.properties ファイルの値を変更します。 | 
| hive-env | Hive 環境の値を変更します。 | 
| hive-exec-log4j2 | Hive の hive-exec-log4j2.properties ファイルの値を変更します。 | 
| hive-llap-daemon-log4j2 | Hive の llap-daemon-log4j2.properties ファイルの値を変更します。 | 
| hive-log4j2 | Hive の hive-log4j2.properties ファイルの値を変更します。 | 
| hive-site | Hive の hive-site.xml ファイルの値を変更します | 
| hiveserver2-site | Hive Server2 の hiveserver2-site.xml ファイルの値を変更します | 
| hue-ini | Hue の ini ファイルの値を変更します | 
| httpfs-env | HTTPFS 環境の値を変更します。 | 
| httpfs-site | Hadoop の httpfs-site.xml ファイルの値を変更します。 | 
| hadoop-kms-acls | Hadoop の kms-acls.xml ファイルの値を変更します。 | 
| hadoop-kms-env | Hadoop KMS 環境の値を変更します。 | 
| hadoop-kms-log4j | Hadoop の kms-log4j.properties ファイルの値を変更します。 | 
| hadoop-kms-site | Hadoop の kms-site.xml ファイルの値を変更します。 | 
| hudi-env | Hudi 環境の値を変更します。 | 
| jupyter-notebook-conf | Jupyter Notebook の jupyter\$1notebook\$1config.py ファイルの値を変更します。 | 
| jupyter-hub-conf | JupyterHubs の jupyterhub\$1config.py ファイルの値を変更します。 | 
| jupyter-s3-conf | Jupyter Notebook の S3 の永続性を設定します。 | 
| jupyter-sparkmagic-conf | Sparkmagic の config.json ファイルの値を変更します。 | 
| livy-conf | Livy の livy.conf ファイルの値を変更します。 | 
| livy-env | Livy 環境の値を変更します。 | 
| livy-log4j | Livy の log4j.properties の設定を変更します。 | 
| mapred-env | MapReduce アプリケーションの環境の値を変更します。 | 
| mapred-site | MapReduce アプリケーションの mapred-site.xml ファイルの値を変更します。 | 
| oozie-env | Oozie の環境の値を変更します。 | 
| oozie-log4j | Oozie の oozie-log4j.properties ファイルの値を変更します。 | 
| oozie-site | Oozie の oozie-site.xml ファイルの値を変更します。 | 
| phoenix-hbase-metrics | Phoenix の hadoop-metrics2-hbase.properties ファイルの値を変更します。 | 
| phoenix-hbase-site | Phoenix の hbase-site.xml ファイルの値を変更します。 | 
| phoenix-log4j | Phoenix の log4j.properties ファイルの値を変更します。 | 
| phoenix-metrics | Phoenix の hadoop-metrics2-phoenix.properties ファイルの値を変更します。 | 
| pig-env | Pig 環境の値を変更します。 | 
| pig-properties | Pig の pig.properties ファイルの値を変更します。 | 
| pig-log4j | Pig の log4j.properties ファイルの値を変更します。 | 
| presto-log | Presto の log.properties ファイルの値を変更します。 | 
| presto-config | Presto の config.properties ファイルの値を変更します。 | 
| presto-password-authenticator | Presto の password-authenticator.properties ファイルの値を変更します。 | 
| presto-env | Presto の presto-env.sh ファイルの値を変更します。 | 
| presto-node | Presto の node.properties ファイルの値を変更します。 | 
| presto-connector-blackhole | Presto の blackhole.properties ファイルの値を変更します。 | 
| presto-connector-cassandra | Presto の cassandra.properties ファイルの値を変更します。 | 
| presto-connector-hive | Presto の hive.properties ファイルの値を変更します。 | 
| presto-connector-jmx | Presto の jmx.properties ファイルの値を変更します。 | 
| presto-connector-kafka | Presto の kafka.properties ファイルの値を変更します。 | 
| presto-connector-localfile | Presto の localfile.properties ファイルの値を変更します。 | 
| presto-connector-memory | Presto の memory.properties ファイルの値を変更します。 | 
| presto-connector-mongodb | Presto の mongodb.properties ファイルの値を変更します。 | 
| presto-connector-mysql | Presto の musql.properties ファイルの値を変更します。 | 
| presto-connector-postgresql | Presto の postgresql.properties ファイルの値を変更します。 | 
| presto-connector-raptor | Presto の raptor.properties ファイルの値を変更します。 | 
| presto-connector-redis | Presto の redis.properties ファイルの値を変更します。 | 
| presto-connector-redshift | Presto の redshift.properties ファイルの値を変更します。 | 
| presto-connector-tpch | Presto の tpcj.properties ファイルの値を変更します。 | 
| presto-connector-tpcds | Presto の tpcds.properties ファイルの値を変更します。 | 
| ranger-kms-dbks-site | Ranger KMS の dbks-site.xml ファイルの値を変更します。 | 
| ranger-kms-site | Ranger KMS の ranger-kms-site.xml ファイルの値を変更します。 | 
| ranger-kms-env | Ranger KMS 環境の値を変更します。 | 
| ranger-kms-log4j | Ranger KMS の kms-log4j.properties ファイルの値を変更します。 | 
| ranger-kms-db-ca | Ranger KMS を使用した MySQL SSL 接続用の S3 の CA ファイルの値を変更します。 | 
| recordserver-env | EMR RecordServer 環境の値を変更します。 | 
| recordserver-conf | EMR RecordServer の erver.properties ファイルの値を変更します。 | 
| recordserver-log4j | EMR RecordServer の log4j.properties ファイルの値を変更します。 | 
| spark | Apache Spark 用の Amazon EMR-curated 設定。 | 
| spark-defaults | Spark の spark-defaults.conf ファイルの値を変更します。 | 
| spark-env | Spark 環境の値を変更します。 | 
| spark-hive-site | Spark の hive-site.xml ファイルの値を変更します | 
| spark-log4j | Spark の log4j.properties ファイルの値を変更します。 | 
| spark-metrics | Spark の metrics.properties ファイルの値を変更します。 | 
| sqoop-env | Sqoop の環境の値を変更します。 | 
| sqoop-oraoop-site | Sqoop OraOop の oraoop-site.xml ファイルの値を変更します。 | 
| sqoop-site | Sqoop の sqoop-site.xml ファイルの値を変更します。 | 
| tez-site | Tez の tez-site.xml ファイルの値を変更します。 | 
| yarn-env | YARN 環境の値を変更します。 | 
| yarn-site | YARN の yarn-site.xml ファイルの値を変更します。 | 
| zeppelin-env | Zeppelin 環境の値を変更します。 | 
| zookeeper-config | ZooKeeper の zoo.cfg ファイルの値を変更します。 | 
| zookeeper-log4j | ZooKeeper の log4j.properties ファイルの値を変更します。 | 