

# DynamicFrameReader クラス
<a name="aws-glue-api-crawler-pyspark-extensions-dynamic-frame-reader"></a>

##  — 方法 —
<a name="aws-glue-api-crawler-pyspark-extensions-dynamic-frame-reader-_methods"></a>
+ [\$1\$1init\$1\$1](#aws-glue-api-crawler-pyspark-extensions-dynamic-frame-reader-__init__)
+ [from\$1rdd](#aws-glue-api-crawler-pyspark-extensions-dynamic-frame-reader-from_rdd)
+ [from\$1options](#aws-glue-api-crawler-pyspark-extensions-dynamic-frame-reader-from_options)
+ [from\$1catalog](#aws-glue-api-crawler-pyspark-extensions-dynamic-frame-reader-from_catalog)

## \$1\$1init\$1\$1
<a name="aws-glue-api-crawler-pyspark-extensions-dynamic-frame-reader-__init__"></a>

**`__init__(glue_context)`**
+ `glue_context` - 使用する [GlueContext クラス](aws-glue-api-crawler-pyspark-extensions-glue-context.md)。

## from\$1rdd
<a name="aws-glue-api-crawler-pyspark-extensions-dynamic-frame-reader-from_rdd"></a>

**`from_rdd(data, name, schema=None, sampleRatio=None)`**

Resilient Distributed Dataset (RDD) から `DynamicFrame` を読み取ります。
+ `data` - 読み取り元のデータセット。
+ `name` - 読み取り元の名前。
+ `schema` - 読み取るスキーマ (オプション)。
+ `sampleRatio` - サンプル比率 (オプション)。

## from\$1options
<a name="aws-glue-api-crawler-pyspark-extensions-dynamic-frame-reader-from_options"></a>

**`from_options(connection_type, connection_options={}, format=None, format_options={}, transformation_ctx="")`**

指定された接続と形式を使用して `DynamicFrame` を読み込みます。
+ `connection_type` - 接続タイプ。有効な値には、`s3`、`mysql`、`postgresql`、`redshift`、`sqlserver`、`oracle`、`dynamodb`、`snowflake` が含まれています。
+ `connection_options` - 接続オプション (パスやデータベーステーブルなど) (オプション)。詳細については、「[AWS Glue for Spark で ETL の接続タイプとオプション](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-programming-etl-connect.html)」を参照してください。`s3` の `connection_type` の場合、Amazon S3 のパスは配列で定義されます。

  ```
  connection_options = {"paths": [ "s3://amzn-s3-demo-bucket/object_a", "s3://amzn-s3-demo-bucket/object_b"]}
  ```

  JDBC 接続の場合、いくつかのプロパティを定義する必要があります。データベース名は URL の一部である必要があることに注意してください。オプションで接続オプションに含めることができます。
**警告**  
スクリプトにパスワードを保存することはお勧めしません。AWS Secrets Manager または AWS Glue データカタログから取得する場合には、`boto3` を使用することを検討してください。

  ```
  connection_options = {"url": "jdbc-url/database", "user": "username", "password": passwordVariable,"dbtable": "table-name", "redshiftTmpDir": "s3-tempdir-path"} 
  ```

  並列読み込みを実行する ​​JDBC 接続の場合、ハッシュフィールドオプションを設定できます。例: 

  ```
  connection_options = {"url": "jdbc-url/database", "user": "username", "password": passwordVariable,"dbtable": "table-name", "redshiftTmpDir": "s3-tempdir-path" , "hashfield": "month"} 
  ```

  詳しくは、「[JDBC テーブルからの並列読み取り](run-jdbc-parallel-read-job.md)」を参照してください。
+ `format` – 形式の仕様 (オプション)。これは、Amazon Simple Storage Service (Amazon S3)、または複数の形式をサポートする AWS Glue 接続で使用されます。サポートされる形式については、[AWS Glue for Spark での入出力のデータ形式に関するオプション](aws-glue-programming-etl-format.md) を参照してください。
+ `format_options` – 指定された形式についてのオプション。サポートされる形式については、[AWS Glue for Spark での入出力のデータ形式に関するオプション](aws-glue-programming-etl-format.md) を参照してください。
+ `transformation_ctx` - 使用する変換コンテキスト (オプション)。
+ `push_down_predicate` – データセットのすべてのファイルをリストアップして読み取る必要がないフィルタパーティション。詳細については、「[Pre-Filtering Using Pushdown Predicates](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-programming-etl-partitions.html#aws-glue-programming-etl-partitions-pushdowns)」を参照してください。

## from\$1catalog
<a name="aws-glue-api-crawler-pyspark-extensions-dynamic-frame-reader-from_catalog"></a>

**`from_catalog(database, table_name, redshift_tmp_dir="", transformation_ctx="", push_down_predicate="", additional_options={})`**

指定されたカタログの名前空間とテーブル名を使用して `DynamicFrame` を読み取ります。
+ `database` - 読み取り元のデータベース。
+ `table_name` - 読み取り元のテーブルの名前。
+ `redshift_tmp_dir` – 使用する Amazon Redshift の一時ディレクトリ (Redshift からデータを読み取らない場合はオプション)。
+ `transformation_ctx` - 使用する変換コンテキスト (オプション)。
+ `push_down_predicate` – データセットのすべてのファイルをリストアップして読み取る必要がないフィルタパーティション。詳しくは、「[プッシュダウン述語を使用した事前フィルタ処理](aws-glue-programming-etl-partitions.md#aws-glue-programming-etl-partitions-pushdowns)」を参照してください。
+ `additional_options` – AWS Glue で使用する追加のオプション。
  + 並列読み込みを実行する ​​JDBC 接続を使用するには、`hashfield`、`hashexpression`、または `hashpartitions` オプションを設定できます。例: 

    ```
    additional_options = {"hashfield": "month"} 
    ```

    詳しくは、「[JDBC テーブルからの並列読み取り](run-jdbc-parallel-read-job.md)」を参照してください。
  + インデックス列に基づいたフィルタリングのためにカタログ式を渡すには、`catalogPartitionPredicate` オプションを使用できます。

    `catalogPartitionPredicate` – カタログ式を渡して、インデックス列に基づいたフィルタリングができます。これにより、フィルタリングをサーバー側で処理できます。詳細については、「[AWS Glue パーティションインデックス](https://docs.aws.amazon.com/glue/latest/dg/partition-indexes.html)」を参照してください。`push_down_predicate` と `catalogPartitionPredicate` では、異なる構文が使用されることに注意してください。前者では Spark SQL の標準構文を使用し、後者では JSQL パーサーを使用します。

    詳細については、「[AWS Glue での ETL 出力のパーティションの管理](aws-glue-programming-etl-partitions.md)」を参照してください。