翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
厳選されたハブモデルをファインチューニングする
厳選されたプライベートモデルハブでは、モデル参照を使用してファインチューニングトレーニングジョブを実行できます。モデル参照は、SageMaker AI パブリックハブで公開されている JumpStart モデルを参照しますが、特定のユースケースに合わせて独自のデータでモデルをファインチューニングできます。ファインチューニングジョブの後、エンドポイントで使用またはデプロイできるモデルの重みにアクセスできます。
SageMaker Python SDK を使用して、厳選されたハブモデルをわずか数行のコードでファインチューニングできます。公開されている JumpStart モデルのファインチューニングに関する一般的な情報については、「ファインチューニング用の基盤モデルとハイパーパラメータ」を参照してください。
前提条件
厳選されたハブで JumpStart モデル参照をファインチューニングするには、以下を実行します。
-
ユーザーの IAM ロールに SageMaker AI
TrainHubModelアクセス許可がアタッチされていることを確認します。詳細については、AWS IAM ユーザーガイドの「IAM ID アクセス許可の追加および削除」を参照してください。ユーザーの IAM ロールには、以下の例のようなポリシーをアタッチする必要があります。
注記
厳選されたハブが複数のアカウント間で共有されており、ハブコンテンツが別のアカウントによって所有されている場合は、次の例に示すように、リクエスト元アカウントに
TrainHubModelアクセス許可も付与するリソースベースの IAM ポリシーがHubContent(モデル参照リソース) にあることを確認してください。 -
ファインチューニングする JumpStart モデルへのモデル参照を含む、厳選されたプライベートハブを用意します。プライベートハブの作成の詳細については、「プライベートモデルハブを作成する」を参照してください。一般公開されている JumpStart モデルをプライベートハブに追加する方法については、「プライベートハブにモデルを追加する」を参照してください。
注記
選択した JumpStart モデルはファインチューニング可能である必要があります。「Built-in Algorithms with Pre-trained Models Table
」で、モデルがファインチューニング可能かどうかを確認できます。 -
モデルのファインチューニングに使用するトレーニングデータセットを用意します。データセットは、ファインチューニングするモデルに適したトレーニング形式である必要があります。
厳選されたハブモデル参照をファインチューニングする
次の手順では、SageMaker Python SDK を使用して、厳選されたプライベートハブでモデル参照をファインチューニングする方法を示しています。
-
SageMaker Python SDK の最新バージョン (少なくとも
2.242.0) がインストールされていることを確認します。詳細については、「Use Version 2.x of the SageMaker Python SDK」を参照してください。 !pip install --upgrade sagemaker -
AWS SDK for Python (Boto3) と必要なモジュールを SageMaker Python SDK からインポートします。
import boto3 from sagemaker.jumpstart.estimator import JumpStartEstimator from sagemaker.session import Session -
Boto3 セッション、SageMaker AI クライアント、SageMaker Python SDK セッションを初期化します。
sagemaker_client = boto3.Session(region_name=<AWS-region>).client("sagemaker") sm_session = Session(sagemaker_client=sagemaker_client) -
JumpStartEstimatorを作成し、JumpStart モデル ID、モデル参照を含むハブの名前、SageMaker Python SDK セッションを指定します。モデル ID のリストについては、「Built-in Algorithms with Pre-trained Model Table」を参照してください。 必要に応じて、推定器の作成時に
instance_typeフィールドとinstance_countフィールドを指定できます。指定しない場合、トレーニングジョブでは使用しているモデルのデフォルトのインスタンスタイプとカウントを使用します。必要に応じて、ファインチューニングされたモデルの重みを保存する Amazon S3 の場所を
output_pathで指定することもできます。output_pathを指定しない場合、デフォルトの SageMaker AI Amazon S3 バケットをアカウントのリージョンに使用します。名前はsagemaker-という形式になります。<region>-<account-id>estimator = JumpStartEstimator( model_id="meta-textgeneration-llama-3-2-1b", hub_name=<your-hub-name>, sagemaker_session=sm_session, # If you don't specify an existing session, a default one is created for you # Optional: specify your desired instance type and count for the training job # instance_type = "ml.g5.2xlarge" # instance_count = 1 # Optional: specify a custom S3 location to store the fine-tuned model artifacts # output_path: "s3://<output-path-for-model-artifacts>" ) -
ファインチューニングデータセットの場所を指定する
trainingキーを使用してディクショナリを作成します。この例では Amazon S3 URI を参照しています。ローカルモードや複数のトレーニングデータチャネルの使用など、その他の考慮事項がある場合は、SageMaker Python SDK ドキュメントの「JumpStartEstimator.fit()」で詳細を参照してください。 training_input = { "training": "s3://<your-fine-tuning-dataset>" } -
推定器の
fit()メソッドを呼び出し、トレーニングデータと EULA の同意 (該当する場合) を渡します。注記
次の例では
accept_eula=False.を設定しています。EULA に同意するには、値を手動でTrueに変更する必要があります。estimator.fit(inputs=training_input, accept_eula=False)
これでファインチューニングジョブが開始されます。
SageMaker AI コンソールで、または ListTrainingJobs API を使用して、トレーニングジョブを表示することでファインチューニングジョブを確認できます。
JumpStartEstimator オブジェクトで指定された Amazon S3 output_path (リージョンのデフォルトの SageMaker AI Amazon S3 バケット、または該当する場合は指定したカスタム Amazon S3 パス) で、ファインチューニングされたモデルアーティファクトにアクセスできます。