Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Hier erfahren Sie mehr über Anwendungsfälle für verschiedene Modellinferenzmethoden
Sie können Modellinferenzen direkt wie folgt ausführen:
| Methode | Anwendungsfall |
|---|---|
| Playgrounds in der Amazon-Bedrock-Konsole | So führen Sie eine Inferenz in einer benutzerfreundlichen grafischen Benutzeroberfläche aus. Für Erkundungen geeignet. |
| Converse oder ConverseStream | Implementieren Sie Konversationsanwendungen mit einer einheitlichen API für die Modelleingabe. |
| InvokeModel oder InvokeModelWithResponseStream | Senden Sie einen einzigen Prompt und generieren Sie synchron eine Antwort. Nützlich für die Generierung von Antworten in Echtzeit oder für Suchanfragen. |
| StartAsyncInvoke | Senden Sie einen einzigen Prompt und generieren Sie asynchron eine Antwort. Nützlich für die Generierung umfänglicher Antworten. |
| CreateModelInvocationJob | Bereiten Sie einen Datensatz mit Prompts vor und generieren Sie Antworten stapelweise. |
| Antworten-API |
Verwenden Sie die Responses API für moderne, agentische Anwendungen, die integrierte Tools (Suche, Codeinterpreter), multimodale Eingaben und statusbehaftete Konversationen erfordern. |
| Chat-Abschlüsse |
Verwenden Sie die Chat-Completions-API für einfache, statuslose, textorientierte Aufgaben, bei denen Sie die volle Kontrolle über die Verwaltung des Chat-Verlaufs und eine geringere Latenz benötigen. |
Die folgenden Features von Amazon Bedrock verwenden auch Modellinferenz als Schritt in einem größeren Workflow:
-
Die Modellevaluierung verwendet den Modellaufrufprozess, um die Leistung verschiedener Modelle zu bewerten, nachdem Sie eine Anfrage eingereicht haben. CreateEvaluationJob
-
Wissensdatenbanken verwenden den Modellaufruf, wenn sie die RetrieveAndGenerate-API verwenden, um eine Antwort auf Grundlage von Ergebnissen zu generieren, die aus einer Wissensdatenbank abgerufen wurden.
-
Agenten verwenden den Modellaufruf, um Antworten in verschiedenen Phasen einer InvokeAgent-Anfrage zu generieren.
-
Flows umfassen Amazon-Bedrock-Ressourcen wie Prompts, Wissensdatenbanken und Agenten, die den Modellaufruf verwenden.
Nachdem Sie verschiedene Basismodelle mit unterschiedlichen Eingabeaufforderungen und Inferenzparametern getestet haben, können Sie Ihre Anwendung so konfigurieren, dass sie diese APIs mit Ihren gewünschten Spezifikationen aufruft.