

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Amazon SageMaker AI のモデルデプロイオプション
<a name="how-it-works-deployment"></a>

機械学習モデルをトレーニングした後、Amazon SageMaker AI を使用してデプロイし、予測を取得できます。Amazon SageMaker AI では、ユースケースに応じて、以下の方法でモデルをデプロイできます。
+ 一度に 1 つの予測を行う永続的なリアルタイムエンドポイントの場合は、SageMaker AI リアルタイムホスティングサービスを使用します。「[リアルタイム推論](realtime-endpoints.md)」を参照してください。
+ トラフィックのスパイク間にアイドル期間があり、コールドスタートを許容できるワークロードは、サーバーレス推論を使用します。「[Amazon SageMaker Serverless Inference を使用してモデルをデプロイする](serverless-endpoints.md)」を参照してください。
+ 1 GB までの大きなペイロードサイズ、長い処理時間、ほぼリアルタイムのレイテンシー要件を持つリクエストでは、Amazon SageMaker 非同期推論を使用します。「[非同期推論](async-inference.md)」を参照してください。
+ データセット全体の予測を取得するには、SageMaker AI のバッチ変換を使用します。「[Amazon SageMaker AI による推論のためのバッチ変換](batch-transform.md)」を参照してください。

SageMaker AI は、機械学習モデルをデプロイする際にリソースを管理し、推論性能を最適化する機能も提供します。
+ エッジデバイスのフリートで機械学習モデルを最適化、保護、モニタリング、保守できるようにエッジデバイス上のモデルを管理するには、「[SageMaker Edge Manager を使用したエッジでのモデルのデプロイ](edge.md)」を参照してください。これは、スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスに適用されます。
+ Ambarella、ARM、Intel、Nvidia、NXP、Qualcomm、Texas Instruments、Xilinx のプロセッサをベースとする Android、Linux、Windows マシンで推論を行うために、Gluon、Keras、MXNet、PyTorch、TensorFlow-Lite、ONNX モデルを最適化するには、「[SageMaker Neo によるモデルパフォーマンスの最適化](neo.md)」を参照してください。

これらすべてのデプロイオプションの詳細については、「[推論のためのモデルをデプロイする](deploy-model.md)」を参照してください。