

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Ein Modell kompilieren (Amazon SageMaker AI SDK)
<a name="neo-job-compilation-sagemaker-sdk"></a>

 Sie können die [https://sagemaker.readthedocs.io/en/stable/api/training/estimators.html?#sagemaker.estimator.Estimator.compile_model](https://sagemaker.readthedocs.io/en/stable/api/training/estimators.html?#sagemaker.estimator.Estimator.compile_model)API im [Amazon SageMaker AI SDK für Python](https://sagemaker.readthedocs.io/en/stable/) verwenden, um ein trainiertes Modell zu kompilieren und es für bestimmte Zielhardware zu optimieren. Die API sollte für das Estimator-Objekt aufgerufen werden, das beim Modelltraining verwendet wird. 

**Anmerkung**  
Sie müssen die `MMS_DEFAULT_RESPONSE_TIMEOUT` Umgebungsvariable auf setzen, `500` wenn Sie das Modell mit MXNet oder PyTorch kompilieren. Die Umgebungsvariable wird für TensorFlow nicht benötigt. 

 Im Folgenden finden Sie ein Beispiel dafür, wie Sie ein Modell mithilfe des `trained_model_estimator` Objekts kompilieren können: 

```
# Replace the value of expected_trained_model_input below and
# specify the name & shape of the expected inputs for your trained model
# in json dictionary form
expected_trained_model_input = {'data':[1, 784]}

# Replace the example target_instance_family below to your preferred target_instance_family
compiled_model = trained_model_estimator.compile_model(target_instance_family='ml_c5',
        input_shape=expected_trained_model_input,
        output_path='insert s3 output path',
        env={'MMS_DEFAULT_RESPONSE_TIMEOUT': '500'})
```

Der Code kompiliert das Modell, speichert das optimierte Modell unter und erstellt ein SageMaker KI-Modell`output_path`, das auf einem Endpunkt bereitgestellt werden kann. 