

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# PySpark 分析テンプレートを使用して設定済みテーブルで PySpark ジョブを実行する
<a name="run-jobs-with-analysis-template"></a>

この手順では、コンソールで AWS Clean Rooms PySpark 分析テンプレートを使用して、**カスタム**分析ルールで設定済みテーブルを分析する方法を示します。

**PySpark 分析テンプレートを使用して設定済みテーブルで PySpark ジョブを実行するには**

にサインイン AWS マネジメントコンソール し、[https://console.aws.amazon.com/cleanrooms](https://console.aws.amazon.com/cleanrooms/home) で AWS Clean Rooms コンソールを開きます。

1. 左のナビゲーションペインで、**[コラボレーション]** を選択します。

1. **メンバーの能力**ステータスが **Run jobs** のコラボレーションを選択します。

1. **分析**タブ**のテーブル**セクションで、テーブルと関連する分析ルールタイプ (**カスタム分析ルール**) を表示します。
**注記**  
想定したテーブルが表示されない場合は、次のいずれかの理由が考えられます。  
テーブルが[関連付け](associate-configured-table.md)られていない。
テーブルに[分析ルールが設定](add-analysis-rule.md)されていない。

1. **分析**セクションの**分析モード** で、**分析テンプレートの実行** を選択します。

1. 分析テンプレートドロップダウンリストから PySpark **分析テンプレート**を選択します。

   PySpark 分析テンプレートのパラメータは、 **定義**に自動的に入力されます。

1. 分析テンプレートにパラメータが定義されている場合は、**Parameters** でパラメータの値を指定します。

   1. パラメータごとに、**パラメータ名**と**デフォルト値** (設定されている場合) を表示します。

   1. 上書きする各パラメータ**の値**を入力します。
**注記**  
値を指定せず、デフォルト値が存在する場合は、デフォルト値が使用されます。
**重要**  
パラメータ値は最大 1,000 文字で、UTF-8 エンコーディングをサポートします。すべてのパラメータ値は文字列として扱われ、コンテキストオブジェクトを介してユーザースクリプトに渡されます。  
ユーザースクリプトがパラメータ値を安全に検証して処理していることを確認します。安全なパラメータ処理の詳細については、「」を参照してください[PySpark 分析テンプレートでのパラメータの操作](pyspark-parameter-handling.md)。

1. サポートされている**ワーカータイプ**と**ワーカー数**を指定します。

   次の表を使用して、ユースケースに必要なタイプと数、またはワーカーを決定します。    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/clean-rooms/latest/userguide/run-jobs-with-analysis-template.html)
**注記**  
さまざまなワーカータイプとワーカー数には関連コストがあります。料金の詳細については、「 [AWS Clean Rooms の料金](https://aws.amazon.com/clean-rooms/pricing/)」を参照してください。

1. **[Run]** (実行) を選択します。
**注記**  
結果を受け取ることができるメンバーがジョブ結果の設定を行っていない場合、ジョブを実行することはできません。

1. パラメータを調整してジョブを再度実行するか、**\$1** ボタンを選択して新しいタブで新しいジョブを開始します。