

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Amazon EMR 릴리스 4.7.0
<a name="emr-470-release"></a>

## 4.7.0 애플리케이션 버전
<a name="emr-470-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.7.0 | emr-4.6.1 | emr-4.6.0 | emr-4.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.27 | 1.10.27 | 1.10.27 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.1 | 1.2.0 | 1.2.0 |  -  | 
| HCatalog | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 
| Hadoop | 2.7.2-amzn-2 | 2.7.2-amzn-1 | 2.7.2-amzn-1 | 2.7.2-amzn-0 | 
| Hive | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-6 | 3.7.1-amzn-6 | 3.7.1-amzn-5 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.0 | 0.11.1 | 0.11.1 | 0.11.1 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.147 | 0.143 | 0.143 | 0.140 | 
| Spark | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.3 |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 |  -  | 

## 4.7.0 릴리스 정보
<a name="emr-470-relnotes"></a>

**중요**  
Amazon EMR 4.7.0은 더 이상 사용되지 않습니다. 대신 Amazon EMR 4.7.1 이상을 사용합니다.

릴리스 날짜: 2016년 6월 2일

**특성**
+ Apache Phoenix 4.7.0 추가
+ Apache Tez 0.8.3 추가
+ HBase 1.2.1으로 업그레이드
+ Mahout 0.12.0로 업그레이드
+ Presto 0.147으로 업그레이드
+ 를 1.10.75 AWS SDK for Java 로 업그레이드했습니다.
+ 사용자가 로컬 모드에서 Pig를 실행할 수 있도록 `mapreduce.cluster.local.dir`의 `mapred-site.xml` 속성에서 최종 플래그가 제거되었습니다.
+ 클러스터에서 사용할 수 있는 Amazon Redshift JDBC 드라이버

  이제 Amazon Redshift JDBC 드라이버는 `/usr/share/aws/redshift/jdbc`에 포함됩니다. `/usr/share/aws/redshift/jdbc/RedshiftJDBC41.jar`은 JDBC 4.1 호환 Amazon Redshift 드라이버이고 `/usr/share/aws/redshift/jdbc/RedshiftJDBC4.jar`은 JDBC 4.0 호환 Amazon Redshift 드라이버입니다. 자세한 내용은 *Amazon Redshift 관리 안내서*에서 [JDBC 연결 구성](https://docs.aws.amazon.com/redshift/latest/mgmt/configure-jdbc-connection.html)을 참조하세요.
+ Java 8

  Presto를 제외하고 모든 애플리케이션에 사용되는 기본 JDK는 OpenJDK 1.7입니다. 하지만 OpenJDK 1.7 및 1.8이 모두 설치됩니다. 애플리케이션에 대해 `JAVA_HOME`을 설정하는 방법에 대한 자세한 내용은 [Java 8을 사용하도록 애플리케이션 구성](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps.html#configuring-java8)을 참조하십시오.

**이전 릴리스에서 해결된 알려진 문제**
+ emr-4.6.0에서 Amazon EMR에 사용되는 처리량에 최적화된 HDD(st1) EBS 볼륨의 성능에 상당한 영향을 미치는 커널 문제를 수정했습니다.
+ 하둡을 애플리케이션으로 선택하지 않고 HDFS 암호화 영역을 지정할 경우 클러스터가 실패하는 문제를 수정했습니다.
+ 기본 HDFS 쓰기 정책을 `RoundRobin`에서 `AvailableSpaceVolumeChoosingPolicy`로 변경했습니다. RoundRobin 구성에서 일부 볼륨이 제대로 이용되지 않았으며 결과적으로 코어 노드가 실패하고 HDFS가 불안정한 상태가 되었습니다.
+ 일관된 보기에 대한 기본 DynamoDB 메타데이터 테이블을 생성할 때 예외가 발생하는 EMRFS CLI 문제를 수정했습니다.
+ 멀티파트 이름 바꾸기 및 복사 작업 중에 발생할 수 있는 EMRFS의 교착 문제를 수정했습니다.
+ CopyPart 크기가 기본적으로 5MB로 설정되는 EMRFS 문제를 수정했습니다. 기본값은 이제 128MB로 올바르게 설정됩니다.
+ 서비스를 중단할 수 없는 Zeppelin upstart 구성 문제를 수정했습니다.
+ `s3a://`이 해당 클래스 경로에 올바르게 로드되지 않기 때문에 `/usr/lib/hadoop/hadoop-aws.jar` URI 스키마를 사용할 수 없는 Spark 및 Zeppelin 문제를 수정했습니다.
+ [HUE-2484](https://issues.cloudera.org/browse/HUE-2484)를 백포트했습니다.
+ HBase 브라우저 샘플 문제를 수정하기 위해 Hue 3.9.0(JIRA가 존재하지 않음)의 [커밋](https://github.com/cloudera/hue/commit/c3c89f085e7a29c9fac7de016d881142d90af3eb)을 백포트했습니다.
+ [HIVE-9073](https://issues.apache.org/jira/browse/HIVE-9073)를 백포트했습니다.

## 4.7.0 구성 요소 버전
<a name="emr-470-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.1.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.7.1 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-5 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-5 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-5 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-5 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-5 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-5 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.46 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.147 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.147 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.3 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.18 | Apache HTTP 서버. | 
| zeppelin-server | 0.5.6-incubating | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 4.7.0 구성 분류
<a name="emr-470-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.7.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 