

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# Amazon SageMaker AI 中的模型部署選項
<a name="how-it-works-deployment"></a>

訓練機器學習模型後，您可以使用 Amazon SageMaker AI 部署模型來取得預測。根據您的使用案例，Amazon SageMaker AI 支援以下模型部署方式：
+ 若為一次進行一項預測的持續性即時端點，請使用 SageMaker AI 即時託管服務。請參閱 [即時推論](realtime-endpoints.md)。
+ 流量突增之間有閒置期間且可容忍冷啟動的工作負載，應使用無伺服器推論。請參閱 [使用 Amazon SageMaker 無伺服器推論來部署模型](serverless-endpoints.md)。
+ 若為高達 1GB 大型承載大小、處理時間長且接近即時延遲要求的請求，請使用 Amazon SageMaker 非同步推論。請參閱 [非同步推論](async-inference.md)。
+ 使用 SageMaker AI 批次轉換，取得整個資料集的預測結果。請參閱 [使用 Amazon SageMaker AI 進行批次轉換以進行推論](batch-transform.md)。

SageMaker AI 還提供可在部署機器學習模型時管理資源和最佳化推論效能的功能：
+ 若要管理邊緣裝置上的模型，以便在邊緣裝置機群上最佳化、保護、監控和維護機器學習模型，請參閱 [使用 SageMaker Edge Manager 在邊緣部署模型](edge.md)。這適用於智慧型相機、機器人、個人電腦和行動裝置等邊緣裝置。
+ 若要最佳化 Gluon、Keras、MXNet、PyTorch、TensorFlow、TensorFlow-Lite 和 ONNX 模型，以便在以 Ambarella、ARM、Intel、Nvidia、NXP、Qualcomm、Texas Instruments 和 Xilinx 的處理器為基礎的 Android、Linux 和 Windows 機器上進行推論，請參閱[使用 SageMaker Neo 最佳化模型效能](neo.md)。

如需所有部署選項的更多相關資訊，請參閱[部署用於推論的模型](deploy-model.md)。