

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Ein Modell kompilieren (Amazon SageMaker AI Console)
<a name="neo-job-compilation-console"></a>

Sie können einen Amazon SageMaker Neo-Kompilierungsauftrag in der Amazon SageMaker AI-Konsole erstellen.

1. Wählen Sie in der **Amazon SageMaker AI-Konsole** **Compilation Jobs** und dann **Create Compilation Job** aus.  
![\[Erstellen eines Kompilierungsauftrags\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/neo/8-create-compilation-job.png)

1. Geben Sie auf der Seite **Create compilation job** unter **Job name** einen Namen ein. Anschließend wählen Sie unter **IAM role (IAM-Rolle)** eine Rolle aus.  
![\[Seite „Kompilierungsjob erstellen“\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/neo/9-create-compilation-job-config.png)

1. Wenn Sie keine IAM-Rolle haben, wählen Sie **Create a new role (Neue Rolle erstellen)** aus.  
![\[Option „IAM-Rolle erstellen“\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/neo/10a-create-iam-role.png)

1. Wählen Sie auf der Seite **Create an IAM role (IAM-Rolle erstellen)** die Option **Any S3 bucket (Beliebiger S3-Bucket)** aus und klicken Sie dann auf **Create role (Rolle erstellen)**.  
![\[Seite „IAM-Rolle erstellen“\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/neo/10-create-iam-role.png)

1. 

------
#### [ Non PyTorch Frameworks ]

   Im Bereich **Input configuration** geben Sie unter **Location of model artifacts ** den Pfad des S3-Buckets ein, in dem Ihre Modellartefakte gespeichert sind. Ihre Modellartefakte müssen in einem komprimierten Tarball-Dateiformat (`.tar.gz`) vorliegen. 

   Geben Sie für das Feld **Data input configuration** die JSON-Zeichenfolge ein, die die Form der Eingabedaten angibt.

   Unter **Machine Learning Framework** wählen Sie das Framework aus.

![\[Seite „Eingabekonfiguration“\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/neo/neo-create-compilation-job-input-config.png)


   Beispiele für JSON-Strings von Eingabedatenformen je nach Framework finden Sie unter [Welche Eingabedatenformen erwartet Neo](https://docs.aws.amazon.com/sagemaker/latest/dg/neo-troubleshooting.html#neo-troubleshooting-errors-preventing).

------
#### [ PyTorch Framework ]

   Ähnliche Anweisungen gelten für das Kompilieren von PyTorch Modellen. Wenn Sie jedoch mit Target trainiert haben PyTorch und versuchen, das Modell für `ml_*` (außer`ml_inf`) Target zu kompilieren, können Sie optional die Version angeben, die PyTorch Sie verwendet haben.

![\[Beispiel für den Abschnitt Eingabekonfiguration, das zeigt, wo die Framework-Version ausgewählt werden kann.\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/neo/compile_console_pytorch.png)


   Beispiele für JSON-Strings von Eingabedatenformen je nach Framework finden Sie unter [Welche Eingabedatenformen erwartet Neo](https://docs.aws.amazon.com/sagemaker/latest/dg/neo-troubleshooting.html#neo-troubleshooting-errors-preventing).

**Hinweise**  
Wenn Sie Ihr Modell mit PyTorch Version 2.0 oder höher gespeichert haben, ist das **Konfigurationsfeld für die Dateneingabe** optional. SageMaker Neo ruft die Eingabekonfiguration aus der Modelldefinitionsdatei ab, mit der Sie sie erstellen PyTorch. Weitere Informationen zum Erstellen der Definitionsdatei finden Sie im [PyTorch](neo-compilation-preparing-model.md#how-to-save-pytorch) Abschnitt *Speichern von Modellen für SageMaker AI Neo*.
Verwenden Sie beim Kompilieren für `ml_*` Instanzen mithilfe PyTorch des Frameworks das Feld **Compiler-Optionen** in der **Ausgabekonfiguration**, um den richtigen Datentyp (`dtype`) der Modelleingabe anzugeben. Der Standard ist auf `"float32"` gesetzt. 

![\[Beispiel für den Abschnitt Ausgabekonfiguration.\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/neo/neo_compilation_console_pytorch_compiler_options.png)


**Warnung**  
 Wenn Sie einen Amazon-S3-Bucket-URI-Pfad angeben, der zu einer `.pth` Datei führt, erhalten Sie nach dem Start der Kompilierung die folgende Fehlermeldung: `ClientError: InputConfiguration: Unable to untar input model.Please confirm the model is a tar.gz file` 

------

1.  Gehen Sie zum Abschnitt **Ausgabekonfiguration**. Wählen Sie aus, wo Sie Ihr Modell bereitstellen möchten. Sie können Ihr Modell auf einem **Target-device** oder einer **Target platform** bereitstellen. Zu den Zielgeräten gehören Cloud- und Edge-Geräte. Zielplattformen beziehen sich auf bestimmte Betriebssysteme, Architekturen und Beschleuniger, auf denen Ihr Modell ausgeführt werden soll. 

    Geben Sie für **S3 Output location** den Pfad zum S3 bucket, in dem das kompilierte Modell gespeichert werden soll. Sie können optional Compiler-Optionen im JSON-Format im Abschnitt **Compiler options** hinzufügen.   
![\[Seite „Ausgabekonfiguration“\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/neo/neo-console-output-config.png)

1. Überprüfen Sie den Status des Kompilierungsauftrags, wenn er gestartet wurde. Dieser Status des Job befindet sich oben auf der Seite mit dem **Compilation Job**, wie im folgenden Screenshot gezeigt. Sie können den Status auch in der **Status** Spalte überprüfen.  
![\[Status des Kompilierungsauftrags\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/neo/12-run-model-compilation.png)

1. Überprüfen Sie den Status des Kompilierungsauftrags, wenn er abgeschlossen wurde. Sie können den Status in der **Status** Spalte überprüfen, wie im folgenden Bildschirmfoto gezeigt.  
![\[Status des Kompilierungsauftrags\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/neo/12a-completed-model-compilation.png)