

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Opções de implantação de modelos no Amazon SageMaker AI
<a name="how-it-works-deployment"></a>

Depois de treinar seu modelo de machine learning, você pode implantá-lo usando o Amazon SageMaker AI para obter predições. O Amazon SageMaker AI oferece as seguintes formas para implantar um modelo, dependendo do seu caso de uso:
+ Para endpoints persistentes e em tempo real que fazem uma predição por vez, use os serviços de hospedagem em tempo real do SageMaker AI. Consulte [Inferência em tempo real](realtime-endpoints.md).
+ Workloads que têm períodos de inatividade entre surtos de tráfego e podem tolerar arranques a frio usam a Inferência Sem Servidor. Consulte [Implante modelos com o Amazon SageMaker Serverless Inference](serverless-endpoints.md).
+ Solicitações com cargas úteis de até 1 GB, tempos de processamento longos e requisitos de latência quase em tempo real usam a inferência assíncrona do Amazon SageMaker. Consulte [Inferência assíncrona](async-inference.md).
+ Para obter predições para um conjunto de dados completo, use a transformação em lote do SageMaker AI. Consulte [Transformação em lote para inferência com a Amazon AI SageMaker](batch-transform.md).

O SageMaker AI oferece componentes para gerenciar recursos e otimizar o desempenho de inferência ao implantar modelos de machine learning:
+ Para gerenciar modelos em dispositivos de borda para que você possa otimizar, proteger, monitorar e manter modelos de machine learning em frotas de dispositivos periféricos, consulte [Implantação de modelos na borda com o SageMaker Edge Manager](edge.md). Isso se aplica a dispositivos de borda, como câmeras inteligentes, robôs, computadores pessoais e dispositivos móveis.
+ Para otimizar os modelos Gluon, Keras, MXNet, PyTorch, TensorFlow, TensorFlow-Lite e ONNX para inferência em máquinas Android, Linux e Windows baseadas em processadores de Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments e Xilinx, consulte [Otimização do desempenho do modelo com o SageMaker Neo](neo.md).

Para obter mais informações sobre todas as opções de implantação, consulte [Implantar modelos para inferência](deploy-model.md).