

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Feature Store Feature Processor のリモートでの実行


ローカルで使用できるものよりも強力なハードウェアを必要とする大規模なデータセットで Feature Processor を実行するには、コードを `@remote` デコレータでデコレートして、ローカルの Python コードを単一ノードまたは複数ノードの分散型 SageMaker トレーニングジョブとして実行できます。コードを SageMaker トレーニングジョブとして実行する方法の詳細については、「[ローカルコードを SageMaker トレーニングジョブとして実行する](train-remote-decorator.md)」を参照してください。

以下は、`@remote` デコレータと `@feature_processor` デコレータの使用例です。

```
from sagemaker.remote_function.spark_config import SparkConfig
from sagemaker.remote_function import remote
from sagemaker.feature_store.feature_processor import CSVDataSource, feature_processor

CSV_DATA_SOURCE = CSVDataSource('s3://bucket/prefix-to-csv/')
OUTPUT_FG = 'arn:aws:sagemaker:us-east-1:123456789012:feature-group/feature-group'

@remote(
    spark_config=SparkConfig(), 
    instance_type="ml.m5.2xlarge",
    dependencies="/local/requirements.txt"
)
@feature_processor(
    inputs=[CSV_DATA_SOURCE], 
    output=OUTPUT_FG,
)
def transform(csv_input_df):
   return csv_input_df
   
transform()
```

この `spark_config` パラメータは、リモートジョブが Spark アプリケーションとして実行されることを示します。この `SparkConfig` インスタンスを使用して Spark 設定を行い、Python ファイル、JAR、ファイルなどの Spark アプリケーションへの依存関係を追加できます。

特徴量処理コードを開発する際の反復処理を高速化するために、`@remote` デコレータに `keep_alive_period_in_seconds` 引数を指定して、設定したリソースをウォームプールで保持し、その後のトレーニングジョブに備えることができます。ウォームプールの詳細については、API リファレンスガイドの「`[KeepAlivePeriodInSeconds](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ResourceConfig.html#sagemaker-Type-ResourceConfig-KeepAlivePeriodInSeconds)`」を参照してください。

次のコードはローカル `requirements.txt:` の例です。

```
sagemaker>=2.167.0
```

これにより、`@feature-processor`.の注釈が付けられたメソッドを実行するために必要な、対応する SageMaker SDK バージョンがリモートジョブにインストールされます。