

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Verwenden einer Bereitstellung für die On-Demand-Inferenz
<a name="use-custom-model-on-demand"></a>

Nachdem Sie Ihr benutzerdefiniertes Modell für On-Demand-Inferenz bereitgestellt haben, können Sie es verwenden, um Antworten zu generieren, indem Sie Inferenzanfragen stellen. Für `InvokeModel`- oder `Converse`-Vorgänge verwenden Sie den Amazon-Ressourcennamen (ARN) der Bereitstellung als `modelId`.

Informationen zum Anfordern von Inferenzen finden Sie in den folgenden Themen:
+ [Prompts senden und Antworten mit Modellinferenz generieren](https://docs.aws.amazon.com/bedrock/latest/userguide/inference.html)
+ [Voraussetzungen für die Ausführung der Modellinferenz](https://docs.aws.amazon.com/bedrock/latest/userguide/inference-prereq.html)
+ [Mithilfe der API Prompts einreichen und Antworten generieren](https://docs.aws.amazon.com/bedrock/latest/userguide/inference-api.html)