Führen Sie Amazon Bedrock API-Beispielanfragen mit dem AWS Command Line Interface - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Führen Sie Amazon Bedrock API-Beispielanfragen mit dem AWS Command Line Interface

Dieser Abschnitt führt Sie durch das Ausprobieren einiger gängiger Vorgänge in Amazon Bedrock, mit denen AWS Command Line Interface Sie testen, ob Ihre Berechtigungen und Authentifizierung ordnungsgemäß eingerichtet sind. Bevor Sie die folgenden Beispiele ausführen, sollten Sie sich vergewissern, dass Sie die folgenden Voraussetzungen erfüllt haben:

Voraussetzungen

Testen Sie, ob Ihre Berechtigungen für Amazon Bedrock ordnungsgemäß konfiguriert sind, indem Sie einen Benutzer oder eine Rolle verwenden, den bzw. die Sie mit den richtigen Berechtigungen konfiguriert haben.

Auflisten der Basismodelle, die Amazon Bedrock zu bieten hat

Im folgenden Beispiel wird der ListFoundationModelsVorgang mit dem ausgeführt AWS CLI. ListFoundationModelslistet die Foundation-Modelle (FMs) auf, die in Amazon Bedrock in Ihrer Region verfügbar sind. Führen Sie den folgenden Befehl in einem Terminal aus:

aws bedrock list-foundation-models

Wenn der Befehl erfolgreich ist, gibt die Antwort eine Liste der Basismodelle zurück, die in Amazon Bedrock verfügbar sind.

Senden Sie eine Textaufforderung an ein Modell und generieren Sie eine Textantwort mit InvokeModel

Im folgenden Beispiel wird der InvokeModelVorgang mit dem ausgeführt AWS CLI. InvokeModelermöglicht es Ihnen, eine Aufforderung zur Generierung einer Modellantwort einzureichen. Führen Sie den folgenden Befehl in einem Terminal aus:

aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt

Wenn der Befehl erfolgreich ist, wird die vom Modell generierte Antwort in die Datei invoke-model-output-text.txt geschrieben. Die Textantwort wird zusammen mit den zugehörigen Informationen im Feld outputText zurückgegeben.

Senden eines Text-Prompts an ein Modell und Generieren einer Textantwort mit Converse

Im folgenden Beispiel wird die Converse-Operation mit dem AWS CLI ausgeführt. Converseermöglicht es Ihnen, eine Aufforderung zur Generierung einer Modellantwort einzureichen. Wir empfehlen, die Operation Converse anstatt InvokeModel zu verwenden, sofern dies unterstützt wird, da sie die Inferenzanforderung für alle Amazon-Bedrock-Modelle vereinheitlicht und die Verwaltung von Multi-Turn-Konversationen vereinfacht. Führen Sie den folgenden Befehl in einem Terminal aus:

aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'

Wenn der Befehl erfolgreich ist, wird die vom Modell generierte Antwort zusammen mit den zugehörigen Informationen im Feld text zurückgegeben.