

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Compilar um modelo (Amazon SageMaker AI SDK)
<a name="neo-job-compilation-sagemaker-sdk"></a>

 Você pode usar a [https://sagemaker.readthedocs.io/en/stable/api/training/estimators.html?#sagemaker.estimator.Estimator.compile_model](https://sagemaker.readthedocs.io/en/stable/api/training/estimators.html?#sagemaker.estimator.Estimator.compile_model)API no [Amazon SageMaker AI SDK para Python para](https://sagemaker.readthedocs.io/en/stable/) compilar um modelo treinado e otimizá-lo para hardware de destino específico. A API deve ser invocada no objeto estimador usado durante o treinamento do modelo. 

**nota**  
Você deve definir a variável de `MMS_DEFAULT_RESPONSE_TIMEOUT` ambiente como `500` ao compilar o modelo com MXNet ou PyTorch. A variável de ambiente não é necessária para TensorFlow. 

 Veja a seguir um exemplo de como você pode compilar um modelo usando o objeto `trained_model_estimator`. 

```
# Replace the value of expected_trained_model_input below and
# specify the name & shape of the expected inputs for your trained model
# in json dictionary form
expected_trained_model_input = {'data':[1, 784]}

# Replace the example target_instance_family below to your preferred target_instance_family
compiled_model = trained_model_estimator.compile_model(target_instance_family='ml_c5',
        input_shape=expected_trained_model_input,
        output_path='insert s3 output path',
        env={'MMS_DEFAULT_RESPONSE_TIMEOUT': '500'})
```

O código compila o modelo, salva o modelo otimizado em `output_path` e cria um modelo de SageMaker IA que pode ser implantado em um endpoint. 