

# AWS Glue でのストリーミング ETL ジョブ
<a name="add-job-streaming"></a>

連続的に実行されるストリーミング抽出/変換/ロード (ETL) ジョブを作成し、Amazon Kinesis Data Streams、Apache Kafka、Amazon Managed Streaming for Apache Kafka (Amazon MSK) などのストリーミングソースからのデータを使用できます。ジョブはデータをクレンジングして変換し、その結果を Amazon S3 データレイクまたは JDBC データストアにロードします。

さらに、Amazon Kinesis Data Streams ストリーム用のデータを生成できます。この機能は AWS Glue スクリプトを作成中のみ使用できます。詳細については、「[Kinesis 接続](aws-glue-programming-etl-connect-kinesis-home.md)」を参照してください。

デフォルトでは、AWS Glue は 100 秒ウィンドウ単位でデータ処理と書き出しを行います。これにより、データを効率的に処理しつつ、想定より遅く到着したデータに対する集計を実行できます。このウィンドウサイズを変更して、タイムリーで高精度の集計にできます。AWS Glue ストリーミングジョブでは、ジョブブックマークではなくチェックポイントを使用して、読み取られたデータを追跡します。

**注記**  
AWS Glue では、実行中の ETL ジョブのストリーミングに対して 1 時間ごとに課金します。

このビデオでは、ストリーミング ETL のコストに関する課題と、AWS Glue のコスト削減機能について説明しています。

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/6ggTFOtfUxU/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/6ggTFOtfUxU)


ストリーミング ETL ジョブを作成するには、次の手順を実行します。

1. Apache Kafka ストリーミングソースの場合は、Kafka ソースまたは Amazon MSK クラスターへの AWS Glue 接続を作成します。

1. ストリーミングソースの Data Catalog テーブルを手動で作成します。

1. ストリーミングデータソースの ETL ジョブを作成します。ストリーミング固有のジョブプロパティを定義し、独自のスクリプトを指定するか、生成されたスクリプトを必要に応じて変更します。

詳細については、「[AWS Glue でのストリーミング ETL](components-overview.md#streaming-etl-intro)」を参照してください。

Amazon Kinesis Data Streams にストリーミング ETL ジョブを作成する場合、AWS Glue 接続を作成する必要はありません。ただし、Kinesis Data Streams をソースとする AWS Glue ストリーミング ETL ジョブへの接続がある場合は、の場合は、Kinesis への Virtual Private Cloud (VPC) エンドポイントが必要です。詳細については、「Amazon VPC ユーザーガイド」の[インターフェイスエンドポイントの作成](https://docs.aws.amazon.com/vpc/latest/userguide/vpce-interface.html#create-interface-endpoint)を参照してください。別のアカウントで Amazon Kinesis Data Streams ストリームを指定する場合は、クロスアカウントアクセスを許可するようにロールおよびポリシーを設定する必要があります。詳細については、「[例: 別のアカウントで Kinesis Stream から読み込む](https://docs.aws.amazon.com/kinesisanalytics/latest/java/examples-cross.html)」を参照してください。

AWS Glue ストリーミング ETL ジョブにより、圧縮データの自動検出が行えます。また、ストリーミングデータを透過的に解凍し、入力ソースに対して一般的な変換を実行して、出力ストアにロードすることができます。

AWS Glue は、入力形式に対して指定された、以下の圧縮タイプのための自動解凍をサポートしています。


| 圧縮タイプ | Avro ファイル | Avro データム | JSON | CSV | Grok | 
| --- | --- | --- | --- | --- | --- | 
| BZIP2 | あり | はい | はい | はい | はい | 
| GZIP | いいえ | はい | はい | はい | はい | 
| SNAPPY | はい (raw Snappy) | はい (framed Snappy) | はい (フレーム付 Snappy) | はい (フレーム付 Snappy) | はい (フレーム付 Snappy) | 
| XZ | あり | はい | はい | はい | はい | 
| ZSTD | はい | なし | なし | なし | いいえ | 
| DEFLATE | あり | はい | はい | はい | はい | 

**Topics**
+ [Apache Kafka データストリームの AWS Glue 接続の作成](#create-conn-streaming)
+ [ストリーミングソースの Data Catalog テーブルの作成](#create-table-streaming)
+ [Avro ストリーミングソースに関する注意事項と制約事項](#streaming-avro-notes)
+ [ストリーミングソースへの grok パターンの適用](#create-table-streaming-grok)
+ [ストリーミング ETL ジョブのジョブプロパティの定義](#create-job-streaming-properties)
+ [ストリーミング ETL に関する注意と制限](#create-job-streaming-restrictions)

## Apache Kafka データストリームの AWS Glue 接続の作成
<a name="create-conn-streaming"></a>

Apache Kafka ストリームから読み取りを行うには、AWS Glue 接続を作成する必要があります。

**Kafka ソース用の AWS Glue 接続を作成するには (コンソール)**

1. [https://console.aws.amazon.com/glue/](https://console.aws.amazon.com/glue/) で AWS Glue コンソール を開きます。

1. ナビゲーションペインの [**データカタログ**] で [**接続**] を選択します。

1. [**接続の追加**] を選択し、[**接続のプロパティを設定します**] ページで接続名を入力します。
**注記**  
接続プロパティ指定の詳細については、「[AWS Glue connection properties.](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-connections)」( の接続プロパティ) を参照してください。

1. [**接続タイプ**] で、[**Kafka**] を選択します。

1. **Kafka のブートストラップサーバーの URL** として、Amazon MSK クラスターまたは Apache Kafka クラスターのブートストラップブローカーのホストとポート番号を入力します。Kafka クラスターへの初期接続を確立するには、Transport Layer Security (TLS) エンドポイントのみを使用します。Plaintext エンドポイントはサポートされていません。

   Amazon MSK クラスターのホスト名とポート番号のペアのリスト例を次に示します。

   ```
   myserver1.kafka.us-east-1.amazonaws.com:9094,myserver2.kafka.us-east-1.amazonaws.com:9094,
   myserver3.kafka.us-east-1.amazonaws.com:9094
   ```

   ブートストラップブローカー情報の取得の詳細については、「*Amazon Managed Streaming for Apache Kafka デベロッパーガイド*」の「[Getting the Bootstrap Brokers for an Amazon MSK Cluster](https://docs.aws.amazon.com/msk/latest/developerguide/msk-get-bootstrap-brokers.html)」を参照してください。

1. Kafka データソースへのセキュアな接続が必要な場合は、[**Require SSL connection**] (SSL 接続が必要) を選択し、[**Kafka private CA certificate location**] (Kafka　のプライベート CA 証明書の場所) に、カスタム SSL 証明書への有効な Amazon S3 パスを入力します。

   自己管理型 Kafka への SSL 接続の場合、カスタム証明書は必須です。Amazon MSK ではオプションです。

   Kafka のカスタム証明書を指定する方法の詳細については、「[AWS Glue SSL 接続プロパティ](connection-properties.md#connection-properties-SSL)」を参照してください。

1. AWS Glue Studio または AWS CLI を使用して、Kafka クライアントの認証方法を指定します。AWS Glue Studio にアクセスするには、左側のナビゲーションペインの [**ETL**] メニューから **[AWS Glue]** を選択します。

   Kafka クライアントの認証方法の詳細については、「[クライアント認証用の AWS Glue Kafka 接続プロパティ](#connection-properties-kafka-client-auth)」を参照してください。

1. 必要に応じて説明を入力し、[**Next**] (次へ) をクリックします。

1. Amazon MSK クラスターの場合は、その Virtual Private Cloud (VPC)、サブネット、およびセキュリティグループを指定します。VPC 情報は、自己管理型 Kafka の場合はオプションです。

1. [**Next**] (次へ) をクリックして、すべての接続プロパティを確認し、[**Finish**] (完了) をクリックします。

AWS Glue 接続の詳細については、「[データへの接続](glue-connections.md)」を参照してください。

### クライアント認証用の AWS Glue Kafka 接続プロパティ
<a name="connection-properties-kafka-client-auth"></a>

**SASL/GSSAPI (Kerberos) 認証**  
この認証方法を選択すると、Kerberos のプロパティを指定できます。

**Kerberos のキータブ**  
キータブファイルの場所を選択します。キータブには、1 つ以上のプリンシパルの長期キーが保存されます。詳細については、「[MIT Kerberos ドキュメント: キータブ](https://web.mit.edu/kerberos/krb5-latest/doc/basic/keytab_def.html)」を参照してください。

**Kerberos の krb5.conf ファイル**  
krb5.conf ファイルを選択します。これには、デフォルトの領域 (同じ KDC のシステムのグループを定義する論理ネットワークで、ドメインに類似しています) と KDC サーバーの場所が含まれます。詳細については、「[MIT Kerberos ドキュメント: krb5.conf](https://web.mit.edu/kerberos/krb5-1.12/doc/admin/conf_files/krb5_conf.html)」を参照してください。

**Kerberos のプリンシパルと Kerberos のサービス名**  
Kerberos のプリンシパルとサービス名を入力します。詳細については、「[MIT Kerberos ドキュメント: Kerberos のプリンシパル](https://web.mit.edu/kerberos/krb5-1.5/krb5-1.5.4/doc/krb5-user/What-is-a-Kerberos-Principal_003f.html)」を参照してください。

**SASL/SCRAM-SHA-512 認証**  
 この認証方法を選択すると、認証情報を指定することができます。

**AWS Secrets Manager**  
[Search] (検索) ボックスに名前または ARN を入力して、トークンを検索します。

**プロバイダのユーザー名とパスワードを直接入力**  
[Search] (検索) ボックスに名前または ARN を入力して、トークンを検索します。

**SSL クライアント認証**  
この認証方法を選択すると、Amazon S3 を参照することによって Kafka クライアントキーストアの場所を選択できます。オプションで、Kafka クライアントキーストアのパスワードと Kafka クライアントキーのパスワードを入力できます。

**IAM 認証**  
この認証方法は追加の仕様を必要とせず、ストリーミングソースが MSK Kafka の場合にのみ適用されます。

**SASL/PLAIN 認証**  
この認証方法を選択すると、認証情報を指定することができます。

## ストリーミングソースの Data Catalog テーブルの作成
<a name="create-table-streaming"></a>

データスキーマなど、ソースデータストリームのプロパティを指定するデータカタログテーブルを手動でストリーミングソースに対して作成できます。このテーブルは、ストリーミング ETL ジョブのデータソースとして使用されます。

ソースデータストリーム内のデータのスキーマがわからない場合は、スキーマなしでテーブルを作成できます。次に、ストリーミング ETL ジョブを作成するときに、AWS Glue スキーマ検出機能を有効にできます。AWS Glue では、ストリーミングデータからスキーマを決定します。

テーブルを作成するには、[AWS Glue コンソール](https://console.aws.amazon.com/glue/)、AWS Command Line Interface (AWS CLI)、または AWS Glue API を使用します。AWS Glue コンソールを使用して手動でテーブルを作成する方法については、「[テーブルの作成](tables-described.md)」を参照してください。

**注記**  
AWS Lake Formation コンソールを使用してテーブルを作成することはできません。AWS Glue コンソールを使用する必要があります。

また、Avro 形式のストリーミングソースや Grok パターンを適用できるログデータについては、次の情報を考慮します。
+ [Avro ストリーミングソースに関する注意事項と制約事項](#streaming-avro-notes)
+ [ストリーミングソースへの grok パターンの適用](#create-table-streaming-grok)

**Topics**
+ [Kinesis データソース](#kinesis-source)
+ [Kafka データソース](#kafka-source)
+ [AWS Glue スキーマレジストリテーブルのソース](#schema-registry-table)

### Kinesis データソース
<a name="kinesis-source"></a>

テーブルを作成するときは、次のストリーミング ETL プロパティ (コンソール) を設定します。

**ソースの種類**  
**Kinesis**

**同じアカウント内の Kinesis ソースの場合:**    
**リージョン**  
Amazon Kinesis Data Streams サービスが存在する AWS リージョン。リージョンと Kinesis ストリーム名は一緒にストリーム ARN に変換されます。  
例: https://kinesis.us-east-1.amazonaws.com  
**Kinesis ストリーム名**  
「*Amazon Kinesis Data Streams デベロッパーガイド*」の「[Creating a Stream](https://docs.aws.amazon.com/streams/latest/dev/kinesis-using-sdk-java-create-stream.html)」に記載されているストリーム名。

**別のアカウントの Kinesis ソースについては、[この例](https://docs.aws.amazon.com/kinesisanalytics/latest/java/examples-cross.html) を参照して、アカウント間アクセスを許可するようにロールとポリシーを設定します。これらの設定を行います。**    
**ストリーム ARN**  
コンシューマーを登録する Kinesis データストリームの ARN。詳細については、*AWS 全般のリファレンス* の「[Amazon リソースネーム (ARN) と AWS サービス ネームスぺース](https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html)」を参照してください。  
**引き受けたロールの ARN**  
引き受けるロールの Amazon リソースネーム (ARN)。  
**セッション名 (オプション)**  
引き受けたロールセッションの識別子。  
異なるプリンシパルによって同じロールが引き継がれた場合にセッションを一意に識別するために、またはその他の理由で、ロールセッション名を使用します。クロスアカウントシナリオでは、ロールセッション名が表示され、ロールを所有するアカウントでログ記録できます。引き受けたロールプリンシパルの ARN では、ロールセッション名も使用されます。つまり、一時的なセキュリティ認証情報を使用する後続のクロスアカウント API リクエストでは、ロールセッション名が AWS CloudTrail ログとして外部アカウントに開示されます。

**Amazon Kinesis Data Streams のストリーミング ETL プロパティを設定するには (AWS Glue API または AWS CLI)**
+ 同じアカウント内の Kinesis ソースのストリーミング ETL プロパティを設定するには、`CreateTable` API オペレーションまたは `create_table` CLI コマンドの `StorageDescriptor` データ構造の `streamName` および `endpointUrl` パラメータを指定します。

  ```
  "StorageDescriptor": {
  	"Parameters": {
  		"typeOfData": "kinesis",
  		"streamName": "sample-stream",
  		"endpointUrl": "https://kinesis.us-east-1.amazonaws.com"
  	}
  	...
  }
  ```

  または、`streamARN` を指定します。  
**Example**  

  ```
  "StorageDescriptor": {
  	"Parameters": {
  		"typeOfData": "kinesis",
  		"streamARN": "arn:aws:kinesis:us-east-1:123456789:stream/sample-stream"
  	}
  	...
  }
  ```
+ 別のアカウントの Kinesis ソースのストリーミング ETL プロパティを設定するには、`CreateTable` API オペレーションまたは `create_table` CLI コマンドの `StorageDescriptor` データ構造の `streamARN`、`awsSTSRoleARN`、および `awsSTSSessionName` (オプション) パラメータを指定します。

  ```
  "StorageDescriptor": {
  	"Parameters": {
  		"typeOfData": "kinesis",
  		"streamARN": "arn:aws:kinesis:us-east-1:123456789:stream/sample-stream",
  		"awsSTSRoleARN": "arn:aws:iam::123456789:role/sample-assume-role-arn",
  		"awsSTSSessionName": "optional-session"
  	}
  	...
  }
  ```

### Kafka データソース
<a name="kafka-source"></a>

テーブルを作成するときは、次のストリーミング ETL プロパティ (コンソール) を設定します。

**ソースの種類**  
 **Kafka**

**Kafka ソースの場合:**    
**トピック名**  
Kafka で指定されたトピック名。  
**接続**  
Kafka ソースを参照する AWS Glue 接続 (「[Apache Kafka データストリームの AWS Glue 接続の作成](#create-conn-streaming)」を参照)。

### AWS Glue スキーマレジストリテーブルのソース
<a name="schema-registry-table"></a>

AWS Glue スキーマレジストリをストリーミングジョブに使用するには、[ユースケース: AWS Glue Data Catalog](schema-registry-integrations.md#schema-registry-integrations-aws-glue-data-catalog) スキーマレジストリのテーブルを作成または更新する手順に従ってください。

現在、AWS Glue ストリーミングは、`false` にスキーマ推論が設定されたGlue スキーマレジストリ Avro 形式のみをサポートします。

## Avro ストリーミングソースに関する注意事項と制約事項
<a name="streaming-avro-notes"></a>

Avro 形式のストリーミングソースには、次の注意事項と制限事項が適用されます。
+ スキーマの検出が有効になっている場合、Avro スキーマをペイロードに含める必要があります。無効にすると、ペイロードにはデータのみが含まれます。
+ 一部の Avro データ型は、ダイナミックフレームでサポートされていません。AWS Glue コンソールの [create table] (テーブル作成) ウィザードの [**Define a schema**] (スキーマの定義) でスキーマを定義するときに、これらのデータ型を指定することはできません。スキーマの検出中に、Avro スキーマでサポートされていない型は、次のようにサポートされている型に変換されます。
  + `EnumType => StringType`
  + `FixedType => BinaryType`
  + `UnionType => StructType`
+ コンソールの [**Define a schema**] (スキーマの定義) ページでテーブルスキーマを定義する場合は、スキーマの暗黙のルート要素タイプは `record` です。`record` 以外のルート要素タイプ (`array` や `map` など) が必要な場合、[**Define a schema**] (スキーマの定義) ページでスキーマを指定することはできません。代わりに、そのページをスキップして、スキーマをテーブルプロパティとして、または ETL スクリプト内で指定する必要があります。
  + テーブルのプロパティでスキーマを指定するには、テーブル作成ウィザードを完了し、テーブルの詳細を編集し、[**Table properties**] (テーブルのプロパティ) に新しいキーと値のペアを追加します。`avroSchema` キーを使用して、次のスクリーンショットに示すように、値のスキーマ JSON オブジェクトを入力します。  
![\[[Table properties] (テーブルのプロパティ) の見出しの下に、2 列のテキストフィールドがあります。左側の列見出しは [Key] (キー) であり、右側の列見出しは [Value] (値) です。最初の行のキー/値のペアは、classification/avro です。2 行目のキー/値のペアは、avroSchema/{"type":"array","items":"string"} です。\]](http://docs.aws.amazon.com/ja_jp/glue/latest/dg/images/table_properties_avro.png)
  + ETL スクリプトでスキーマを指定するには、次の Python と Scala の例に示すように、`datasource0` 代入ステートメントを修正し、`avroSchema` キーを `additional_options` 引数に追加します。

------
#### [ Python ]

    ```
    SCHEMA_STRING = ‘{"type":"array","items":"string"}’
    datasource0 = glueContext.create_data_frame.from_catalog(database = "database", table_name = "table_name", transformation_ctx = "datasource0", additional_options = {"startingPosition": "TRIM_HORIZON", "inferSchema": "false", "avroSchema": SCHEMA_STRING})
    ```

------
#### [ Scala ]

    ```
    val SCHEMA_STRING = """{"type":"array","items":"string"}"""
    val datasource0 = glueContext.getCatalogSource(database = "database", tableName = "table_name", redshiftTmpDir = "", transformationContext = "datasource0", additionalOptions = JsonOptions(s"""{"startingPosition": "TRIM_HORIZON", "inferSchema": "false", "avroSchema":"$SCHEMA_STRING"}""")).getDataFrame()
    ```

------

## ストリーミングソースへの grok パターンの適用
<a name="create-table-streaming-grok"></a>

ログデータソース用のストリーミング ETL ジョブを作成し、Grok パターンを使用してログを構造化データに変換できます。その後、ETL ジョブは、データを構造化データソースとして処理します。ストリーミングソースの Data Catalog テーブルを作成するときに適用する Grok パターンを指定します。

Grok パターンとカスタムパターン文字列値については、「[Grok カスタム分類子の書き込み](custom-classifier.md#custom-classifier-grok)」を参照してください。

**Grok パターンを Data Catalog テーブルに追加するには (コンソール)**
+ [create table] (テーブル作成) ウィザードを使用し、[ストリーミングソースの Data Catalog テーブルの作成](#create-table-streaming) に指定されたパラメータでテーブルを作成します。データ形式を Grok として指定し、[**Grok pattern**] (Grok パターン) フィールドに入力し、必要に応じてカスタムパターンを [**Custom patterns (optional)**] (カスタムパターン (オプション)) に追加します。  
![\[*\]](http://docs.aws.amazon.com/ja_jp/glue/latest/dg/images/grok-data-format-create-table.png)

  各カスタムパターンの後に、**Enter** を押します。

**Grok パターンを Data Catalog テーブルに追加するには (AWS Glue API または AWS CLI)**
+ `GrokPattern` パラメータと、必要に応じて `CustomPatterns` パラメータを `CreateTable` API オペレーションまたは `create_table` CLI コマンドに追加します。

  ```
   "Parameters": {
  ...
      "grokPattern": "string",
      "grokCustomPatterns": "string",
  ...
  },
  ```

  `grokCustomPatterns` を文字列として表現し、パターン間の区切りとして「\$1n」を使用します。

  これらのパラメータの指定の例を次に示します。  
**Example**  

  ```
  "parameters": {
  ...
      "grokPattern": "%{USERNAME:username} %{DIGIT:digit:int}",
      "grokCustomPatterns": "digit \d",
  ...
  }
  ```

## ストリーミング ETL ジョブのジョブプロパティの定義
<a name="create-job-streaming-properties"></a>

AWS Glue コンソールでストリーミング ETL ジョブを定義する場合は、次に示すストリーム固有のプロパティを指定します。その他のジョブプロパティの説明については、「[Spark ジョブのジョブプロパティの定義](add-job.md#create-job)」を参照してください。

**IAM ロール**  
ジョブの実行、ストリーミングソースへのアクセス、およびターゲットデータストアへのアクセスに使用されるリソースへの権限付与に使用される AWS Identity and Access Management (IAM) ロールを指定します。  
Amazon Kinesis Data Streams にアクセスする場合は、 AWS 管理ポリシー `AmazonKinesisFullAccess` をロールにアタッチするか、よりきめ細かにアクセスを許可する同様の IAM ポリシーをアタッチします。サンプルポリシーについては、「[IAM を使用して Amazon Kinesis Data Streams リソースへのアクセスを制御する](https://docs.aws.amazon.com/streams/latest/dev/controlling-access.html)」を参照してください。  
AWS Glue でジョブを実行するためのアクセス権限の詳細については、[AWS Glue のアイデンティティとアクセスの管理](security-iam.md) を参照してください。

**タイプ**  
[**Spark Streaming**] (スパークストリーミング)を選択します。

**AWS Glue バージョン**  
AWS Glue バージョンによって、ジョブで使用できる Apache Spark、および Python または Scala のバージョンが決まります。ジョブで使用可能な Python または Scala のバージョンを指定する選択肢を選択します。AWS Glueバージョン 2.0 (Python 3 をサポート) は、ストリーミング ETL ジョブのデフォルトです。

**メンテナンスウィンドウ**  
ストリーミングジョブを再起動できるウィンドウを指定します。「[AWS Glue ストリーミングのメンテナンスウィンドウ](glue-streaming-maintenance.md)」を参照してください。

**ジョブのタイムアウト**  
必要に応じて、長さを分単位で入力します。デフォルト値は空白です。  
+ ストリーミングジョブのタイムアウト値は 7 日または 10080 分未満である必要があります。
+ 値が空白の場合、メンテナンスウィンドウを設定していない場合、ジョブは 7 日後に再起動されます。メンテナンスウィンドウを設定している場合、ジョブは7 日後にメンテナンスウィンドウ中に再起動されます。

**データソース**  
「[ストリーミングソースの Data Catalog テーブルの作成](#create-table-streaming)」で作成したテーブルを指定します。

**データターゲット**  
次のいずれかを行います。  
+ [**データターゲットでテーブルを作成する**] を選択し、次に示すデータターゲットプロパティを指定します。  
**データストア**  
Amazon S3 または JDBC を選択します。  
**形式**  
任意の形式を選択します。ストリーミングではすべてがサポートされています。
+ [**Use tables in the data catalog and update your data target**] (データカタログのテーブルを使用し、データターゲットを更新する) を選択し、JDBC データストアのテーブルを選択します。

**出力スキーマ定義**  
次のいずれかを行います。  
+ [**Automatically detect schema of each record**] (各レコードのスキーマを自動的に検出) を選択してスキーマ検出を有効にします。AWS Glue は、ストリーミングデータからスキーマを決定します。
+ [**Specify output schema for all records**] (すべてのレコードの出力スキーマを指定する) を選択して、[Apply Mapping] (マッピングの適用) 変換を使用して出力スキーマを定義します。

**スクリプト**  
必要に応じて、独自のスクリプトを指定するか、生成されたスクリプトを変更して、Apache Spark 構造化ストリーミングエンジンでサポートされる操作を実行します。使用可能な操作の詳細については、「[Operations on streaming DataFrames/Datasets](https://spark.apache.org/docs/latest/structured-streaming-programming-guide.html#operations-on-streaming-dataframesdatasets)」を参照してください。

## ストリーミング ETL に関する注意と制限
<a name="create-job-streaming-restrictions"></a>

次の注意事項と制限事項に留意してください。
+ AWS Glue ストリーミング ETL ジョブでの自動解凍は、サポートされた圧縮タイプに対してのみ使用できます。また、以下の点にも注意してください。
  + Framed Snappy とは、公式の[フレーミング形式](https://github.com/google/snappy/blob/main/framing_format.txt)を使用する Snappy を指します。
  + Deflate がサポートされるのは、Glue バージョン 3.0 です (Glue バージョン 2.0 ではサポートされません)。
+ スキーマ検出を使用する場合、ストリーミングデータの結合を実行できません。
+ AWS Glue のストリーミング ETL ジョブは、Avro 形式の AWS Glue スキーマレジストリに対する Union データ型をサポートしません。
+ ETL スクリプトでは、AWS Glue の組み込み変換と Apache Spark 構造化ストリーミングのネイティブな変換を使用できます。詳細については、Apache Spark ウェブサイトの「[ストリーミング DataFrames/Datasets の操作](https://spark.apache.org/docs/latest/structured-streaming-programming-guide.html#operations-on-streaming-dataframesdatasets)」または「[AWS Glue PySpark 変換リファレンス](aws-glue-programming-python-transforms.md)」を参照してください。
+ AWS Glue ストリーミング ETL ジョブでは、チェックポイントを使用して、読み取ったデータの追跡が行われます。このため、停止して再起動されたジョブは、ストリーム内で中断した位置から開始されます。データを再処理する場合は、スクリプト内で参照されているチェックポイントフォルダを削除することができます。
+ ジョブのブックマークはサポートされていません。
+ ジョブで Kinesis Data Streams の拡張ファンアウト機能を使用するには、「[Kinesis ストリーミングジョブでの拡張ファンアウトの使用](aws-glue-programming-etl-connect-kinesis-efo.md)」を参照してください。
+ AWS Glue スキーマレジストリ から作成されたData Catalog テーブルを使用する場合、新しいスキーマバージョンが使用可能になったら、新しいスキーマを反映するには、次の操作を行う必要があります。

  1. テーブルに関連するジョブを停止します。

  1. Data Catalog テーブルのスキーマを更新します。

  1. テーブルに関連付するジョブを再起動します。