

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Testen der Bereitstellung
<a name="canvas-deploy-model-test"></a>

Sie können eine Modellbereitstellung testen, indem Sie den Endpunkt aufrufen oder einzelne Prognoseanfragen über die Amazon SageMaker Canvas-Anwendung stellen. Sie können diese Funktion verwenden, um zu überprüfen, ob Ihr Endpunkt auf Anfragen reagiert, bevor Sie Ihren Endpunkt programmgesteuert in einer Produktionsumgebung aufrufen.

## Testen einer benutzerdefinierten Modellbereitstellung
<a name="canvas-deploy-model-test-custom"></a>

Sie können die Bereitstellung eines benutzerdefinierten Modells testen, indem Sie über die **ML-Ops-Seite** darauf zugreifen und einen einzelnen Aufruf durchführen, der eine Vorhersage zusammen mit der Wahrscheinlichkeit zurückgibt, dass die Vorhersage korrekt ist.

**Anmerkung**  
Die Ausführungsdauer ist eine Schätzung der Zeit, die benötigt wird, um den Endpunkt in Canvas aufzurufen und eine Antwort vom Endpunkt zu erhalten. Detaillierte Latenzmetriken finden Sie unter [SageMaker KI Endpoint Invocation](https://docs.aws.amazon.com/sagemaker/latest/dg/monitoring-cloudwatch.html#cloudwatch-metrics-endpoint-invocation) Metrics.

Um Ihren Endpunkt mithilfe der Canvas-Anwendung zu testen, führen Sie die folgenden Schritte aus:

1. Öffnen Sie die SageMaker Canvas-Anwendung.

1. Wählen Sie im linken Navigationsbereich die Option **ML Ops** aus.

1. Wählen Sie die Registerkarte **Bereitstellen**.

1. Wählen Sie in der Liste der Bereitstellungen die Bereitstellung aus, die den Endpunkt enthält, den Sie aufrufen möchten.

1. Wählen Sie auf der Detailseite der Bereitstellung die Registerkarte **Testbereitstellung** aus.

1. Auf der Seite mit den Bereitstellungstests können Sie die **Werte** Feld ändern, um einen neuen Datenpunkt anzugeben. Für Zeitreihen-Prognosemodelle geben Sie die **Element-ID** an, für die Sie eine Prognose erstellen möchten.

1. Nachdem Sie die Werte geändert haben, wählen Sie **Aktualisieren**, um das Prognoseergebnis zu erhalten.

Die Vorhersage wird zusammen mit den **Aufrufergebnisfeldern** geladen, die angeben, ob der Aufruf erfolgreich war oder nicht und wie lange die Bearbeitung der Anfrage gedauert hat.

Der folgende Screenshot zeigt eine Vorhersage, die in der Canvas-Anwendung auf der Registerkarte **Testbereitstellung** durchgeführt wurde.

![\[Die Canvas-Anwendung, die eine Testvorhersage für ein bereitgestelltes Modell zeigt.\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/studio/canvas/canvas-test-deployments.png)


Für alle Modelltypen außer numerischer Vorhersage und Zeitreihenprognose gibt die Vorhersage die folgenden Felder zurück:
+  **predicted\$1label** – die vorhergesagte Ausgabe
+  **Wahrscheinlichkeit** – die Wahrscheinlichkeit, dass die vorhergesagte Beschriftung korrekt ist
+  **Beschriftungen** – die Liste aller möglichen Beschriftungen
+  **Wahrscheinlichkeiten** – die Wahrscheinlichkeiten, die jeder Beschriftung entsprechen (die Reihenfolge dieser Liste entspricht der Reihenfolge der Beschriftungen)

Bei numerischen Vorhersagemodellen enthält die Vorhersage nur das **Punktefeld**, das die prognostizierte Ausgabe des Modells darstellt, z. B. den prognostizierten Preis eines Hauses.

Bei Zeitreihen-Prognosemodellen handelt es sich bei der Vorhersage um ein Diagramm, das die Prognosen nach Quantilen darstellt. Sie können die **Schema-Ansicht** auswählen, um die prognostizierten numerischen Werte für jedes Quantil anzuzeigen.

Sie können weiterhin einzelne Vorhersagen auf der Seite mit den Bereitstellungstests treffen, oder im folgenden Abschnitt [Rufen Sie Ihren Endpunkt auf](canvas-deploy-model-invoke.md) erfahren Sie, wie Sie Ihren Endpunkt programmgesteuert von Anwendungen aus aufrufen können.

## Testen Sie eine Bereitstellung eines JumpStart Foundation-Modells
<a name="canvas-deploy-model-test-js"></a>

Sie können über die Canvas-Anwendung mit einem bereitgestellten JumpStart Foundation-Modell chatten, um dessen Funktionalität zu testen, bevor Sie es über Code aufrufen.

Gehen Sie wie folgt vor, um mit einem bereitgestellten JumpStart Foundation-Modell zu chatten:

1. Öffnen Sie die SageMaker Canvas-Anwendung.

1. Wählen Sie im linken Navigationsbereich die Option **ML Ops** aus.

1. Wählen Sie die Registerkarte **Bereitstellen**.

1. Suchen Sie in der Liste der Bereitstellungen diejenige, die Sie aufrufen möchten, und wählen Sie das Symbol **Weitere Optionen** (![\[More options icon for a model deployment.\]](http://docs.aws.amazon.com/de_de/sagemaker/latest/dg/images/studio/canvas/more-options-icon.png)) aus.

1. Wählen Sie im Kontextmenü die Option **Testbereitstellung** aus.

1. Es wird ein neuer Chat zum **Generieren, Extrahieren und Zusammenfassen von Inhalten** mit dem JumpStart Basismodell geöffnet, und Sie können mit der Eingabe von Eingabeaufforderungen beginnen. Beachten Sie, dass Eingabeaufforderungen aus diesem Chat als Anfragen an Ihren SageMaker AI Hosting-Endpunkt gesendet werden.