

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Tipos e estruturas de instância compatíveis
<a name="neo-supported-cloud"></a>

O Amazon SageMaker Neo oferece apoio a frameworks mais conhecidos de aprendizado profundo para compilação e implantação. Você pode implantar o modelo compilado em instâncias de nuvem ou tipos de instância AWS Inferentia.

A seguir, descrevemos as estruturas compatíveis com o SageMaker Neo e as instâncias de nuvem de destino nas quais você pode compilar e implantar. Para obter informações sobre como implantar seu modelo compilado em uma instância de nuvem ou Inferentia, consulte [Implantar um modelo com instâncias de nuvem](https://docs.aws.amazon.com/sagemaker/latest/dg/neo-deployment-hosting-services.html).

## Instâncias de nuvem
<a name="neo-supported-cloud-instances"></a>

O SageMaker Neo é compatível com as seguintes estruturas de aprendizado profundo para instâncias de nuvem de CPU e GPU: 


| Framework | Versão do framework | Versão do modelo | Modelos da  | Formatos de modelo (empacotados em \$1.tar.gz) | Kits de ferramentas | 
| --- | --- | --- | --- | --- | --- | 
| MXNet | 1.8.0 | Compatível com 1.8.0 ou anterior | Classificação de imagens, detecção de objetos, segmentação semântica, estimativa de pose, reconhecimento de atividades | Um arquivo de símbolos (.json) e um arquivo de parâmetros (.params) | GluonCV v0.8.0 | 
| ONNX | 1.7.0 | Compatível com 1.7.0 ou anterior | Classificação de imagens, SVM | Um arquivo de modelo (.onnx) |  | 
| Keras | 2.2.4 | Compatível com 2.2.4 ou anterior | Classificação de imagens | Um arquivo de definição de modelo (.h5) |  | 
| PyTorch | 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13, ou 2.0 | Compatível com 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13, e 2.0 |  Classificação de imagens As versões 1.13 e 2.0 são compatíveis com Detecção de Objetos, Transformador de Visão e HuggingFace  | Um arquivo de definição de modelo (.pt ou .pth) com dtype de entrada de float32 |  | 
| TensorFlow | 1.15.3 ou 2.9 | Compatível com 1.15.3 e 2.9 | Classificação de imagens | Para os modelos salvos, um arquivo .pb ou um arquivo .pbtxt e um diretório de variáveis que contenha variáveis Para modelos congelados, apenas um arquivo .pb ou .pbtxt |  | 
| XGBoost | 1.3.3 | Compatível com 1.3.3 ou anterior | Árvores de decisão | Um arquivo de modelo XGBoost (.model) em que o número de nós em uma árvore é menor que 2^31 |  | 

**nota**  
“Versão do modelo” é a versão da estrutura usada para treinar e exportar o modelo. 

## Tipos de instância
<a name="neo-supported-cloud-instances-types"></a>

 Você pode implantar seu modelo compilado do SageMaker AI em uma das instâncias de nuvem listadas abaixo: 


| Instância | Tipo de computação | 
| --- | --- | 
| `ml_c4` | Padrão | 
| `ml_c5` | Padrão | 
| `ml_m4` | Padrão | 
| `ml_m5` | Padrão | 
| `ml_p2` | Computação acelerada | 
| `ml_p3` | Computação acelerada | 
| `ml_g4dn` | Computação acelerada | 

 Para obter informações sobre a vCPU, a memória e o preço por hora disponíveis para cada tipo de instância, consulte a [definição de preços do Amazon SageMaker](https://aws.amazon.com/sagemaker/pricing/). 

**nota**  
Ao compilar para instâncias `ml_*` usando a estrutura PyTorch, use o campo de **opções do compilador** na **Configuração de saída** para fornecer o tipo de dados correto (`dtype`) da entrada do modelo.  
O padrão é definido como `"float32"`.

## AWS Inferência
<a name="neo-supported-inferentia"></a>

 O SageMaker Neo é compatível com as seguintes estruturas de aprendizado profundo para Inf1: 


| Framework | Versão do framework | Versão do modelo | Modelos da  | Formatos de modelo (empacotados em \$1.tar.gz) | Kits de ferramentas | 
| --- | --- | --- | --- | --- | --- | 
| MXNet | 1.5 or 1.8  | Compatível com 1.8, 1.5 ou anterior | Classificação de imagens, detecção de objetos, segmentação semântica, estimativa de pose, reconhecimento de atividades | Um arquivo de símbolos (.json) e um arquivo de parâmetros (.params) | GluonCV v0.8.0 | 
| PyTorch | 1.7, 1.8 or 1.9 | Compatível com 1.9 ou anterior | Classificação de imagens | Um arquivo de definição de modelo (.pt ou .pth) com dtype de entrada de float32 |  | 
| TensorFlow | 1.15 ou 2.5 | Compatível com 2.5, 1.15 ou anterior | Classificação de imagens | Para os modelos salvos, um arquivo .pb ou um arquivo .pbtxt e um diretório de variáveis que contenha variáveis Para modelos congelados, apenas um arquivo .pb ou .pbtxt |  | 

**nota**  
“Versão do modelo” é a versão da estrutura usada para treinar e exportar o modelo.

Você pode implantar seu modelo necompilado do SageMaker em em instâncias da AWS Amazon EC2 Inf1 baseadas em inferência. O Inferentia é o primeiro chip de silício personalizado da Amazon projetado para acelerar o aprendizado profundo. Atualmente, você pode usar a instância `ml_inf1` para implantar seus modelos compilados.

### Inferentia2 da AWS e Trainium da AWS
<a name="neo-supported-inferentia-trainium"></a>

Atualmente, você pode implantar seu modelo compilado pelo SageMaker Neo em instâncias AWS Amazon EC2 Inf2 baseadas em Inferentia2 (na região Leste dos EUA (Ohio)) e em instâncias Amazon EC2 Trn1 baseadas em AWS Trainium (na região Leste dos EUA (Norte da Virgínia)). Para obter mais informações sobre os modelos compatíveis nessas instâncias, consulte as [Diretrizes de ajuste da arquitetura de modelos](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/general/arch/model-architecture-fit.html) na documentação do AWS Neuron e os exemplos no [repositório Neuron Github](https://github.com/aws-neuron/aws-neuron-sagemaker-samples).