

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# コンソールを使ってコンパイル済みモデルをデプロイする
<a name="neo-deployment-hosting-services-console"></a>

モデルが AWS SDK for Python (Boto3)、、または Amazon SageMaker AI コンソールを使用してコンパイルされている場合は AWS CLI、[前提条件](https://docs.aws.amazon.com//sagemaker/latest/dg/neo-deployment-hosting-services-prerequisites)セクションを満たす必要があります。SageMaker AI コンソール ([https://console.aws.amazon.com/ SageMaker AI](https://console.aws.amazon.com/sagemaker/)) を使って SageMaker AI Neo コンパイルのモデルを作成してデプロイするには、以下のステップを実行します。

**Topics**
+ [モデルをデプロイする](#deploy-the-model-console-steps)

## モデルをデプロイする
<a name="deploy-the-model-console-steps"></a>

 [前提条件](https://docs.aws.amazon.com//sagemaker/latest/dg/neo-deployment-hosting-services-prerequisites)を満たしたら、次のステップに従い、Neo を使ってコンパイルしたモデルをデプロイします。

1. **[Models]** (モデル) を選択し、**[Inference]** (推論) グループから **[Create models]** (モデルの作成) を選択します。**[Create model]** (モデルの作成) ページで、**[Model name]** (モデル名)、**[IAM role]** (IAM ロール)、および必要に応じて **[VPC]** フィールドに値を入力します。  
![\[推論用の Neo モデルを作成する\]](http://docs.aws.amazon.com/ja_jp/sagemaker/latest/dg/images/create-pipeline-model.png)

1. モデルのデプロイに使われたコンテナに関する情報を追加するには、**[Add container]** (コンテナの追加) を選択して **[Next]** (次へ) を選択します。**[Container input options]** (コンテナ入力オプション)、**[Location of inference code image]** (推論コードイメージの場所)、**[Location of model artifacts]** (モデルアーティファクトの場所)、およびオプションで **[Container host name]** (コンテナのホスト名)、**[Environmental variables]** (環境変数) の各フィールドに入力します。  
![\[推論用の Neo モデルを作成する\]](http://docs.aws.amazon.com/ja_jp/sagemaker/latest/dg/images/neo-deploy-console-container-definition.png)

1. Neo コンパイル済みモデルをデプロイするには、以下を選択してください。
   + **Container input options** (コンテナ入力オプション): **[Provide model artifacts and inference image]** (モデルアーティファクトと推論イメージを指定します。) を選択します。
   + **[Location of inference code image]** (推論コードイメージの場所): [[Neo Inference Container Images]](https://docs.aws.amazon.com/sagemaker/latest/dg/neo-deployment-hosting-services-container-images.html) (Neo の推論コンテナイメージ) から、 AWS リージョンとアプリケーションの種類に応じて、推論イメージの URI を選択します。
   + **[Location of model artifact]** (モデルアーティファクトの場所): Neo のコンパイル API によって生成されたコンパイル済みモデルアーティファクトの Amazon S3 バケット の完全な URI を入力します。
   + **環境変数:**
     + **SageMaker XGBoost** の場合は、このフィールドは空白のままにします。
     + SageMaker AI を使ってモデルをトレーニングした場合は、トレーニングスクリプトを含む Amazon S3 バケット の URI として、環境変数 `SAGEMAKER_SUBMIT_DIRECTORY` を指定します。
     + SageMaker AI を使ってモデルをトレーニングしなかった場合は、次の環境変数を指定します。    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/sagemaker/latest/dg/neo-deployment-hosting-services-console.html)

1. コンテナの情報が正確であることを確認し、 [**モデルの作成**] を選択します。**[Create model landing page]** (モデルランディングページを作成) で **[Create endpoint]** (エンドポイントの作成) を選択します。  
![\[モデルランディングページを作成する\]](http://docs.aws.amazon.com/ja_jp/sagemaker/latest/dg/images/neo-deploy-console-create-model-land-page.png)

1. [**エンドポイントを作成および設定**] ダイアグラムで、[**エンドポイント名**] を指定します。**[Attach endpoint configuration]** (エンドポイント設定のアタッチ) で **[Create a new endpoint configuration]** (新しいエンドポイント設定の作成) を選択します。  
![\[Neo コンソールのエンドポイントの作成および設定 UI。\]](http://docs.aws.amazon.com/ja_jp/sagemaker/latest/dg/images/neo-deploy-console-config-endpoint.png)

1. [**新しいエンドポイント設定**] ページで、[**エンドポイント設定名**] を指定します。  
![\[Neo コンソールの新しいエンドポイント設定 UI。\]](http://docs.aws.amazon.com/ja_jp/sagemaker/latest/dg/images/neo-deploy-console-new-endpoint-config.png)

1. モデルの名前の横にある **[Edit]** (編集) を選択し、**[Edit Production Variant]** (本番稼働用バリアントの編集) ページで正しい **[Instance type]** (インスタンスタイプ) を指定します。[**インスタンスタイプ**] の値が、コンパイルジョブで指定されたものと一致することが必須です。  
![\[Neo コンソールの新しいエンドポイント設定 UI。\]](http://docs.aws.amazon.com/ja_jp/sagemaker/latest/dg/images/neo-deploy-console-edit-production-variant.png)

1. **[保存]** を選択します。

1. **[New endpoint configuration]** (新しいエンドポイント設定) ページで **[Create endpoint configuration]** (エンドポイント設定の作成) を選択してから、**[Create endpoint]** (エンドポイントの作成) を選択します。