Quickstart - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Quickstart

In diesem Abschnitt zeigen wir Ihnen, wie Sie innerhalb weniger Minuten mit Amazon Bedrock beginnen können. Wir werden die OpenAI-compatible APIs: Responses API und Chat Completions API sowie die Invoke and Converse API verwenden, um Ihnen zu zeigen, wie eine Inferenzanfrage ausgeführt wird. Eine vollständige Liste finden Sie unter. Entwicklung APIs

Schritt 1 — AWS-Konto: Wenn Sie bereits ein AWS-Konto haben, überspringen Sie diesen Schritt und fahren Sie mit Schritt 2 fort. Wenn Sie neu bei AWS sind, registrieren Sie sich für ein AWS-Konto und folgen Sie den Anweisungen.

Schritt 2 — API-Schlüssel: Sobald Sie ein AWS-Konto haben, können Sie einen langfristigen API-Schlüssel erstellen, um Ihre Anfragen an Amazon Bedrock zu authentifizieren. Rufen Sie dazu den Amazon Bedrock-Service in der AWS-Konsole auf und generieren Sie einen langfristigen Schlüssel. Weitere Informationen finden Sie im Abschnitt API-Schlüssel im Kapitel Build.

Schritt 3 — Holen Sie sich das SDK: Um dieses Handbuch für die ersten Schritte verwenden zu können, muss Python bereits installiert sein. Installieren Sie dann die entsprechende Software, je nachdem, welche APIs Sie verwenden.

Responses/Chat Completions API
pip install boto3 openai
Invoke/Converse API
pip install boto3

Schritt 4 — Umgebungsvariablen festlegen: Konfigurieren Sie Ihre Umgebung so, dass sie den API-Schlüssel für die Authentifizierung verwendet.

Responses/Chat Completions API
OPENAI_API_KEY="<provide your Bedrock API key>" OPENAI_BASE_URL="https://bedrock-mantle.<your-region>.api.aws/v1"
Invoke/Converse API
AWS_BEARER_TOKEN_BEDROCK="<provide your Bedrock API key>"

Schritt 5 — Führen Sie Ihre erste Inferenzanfrage aus: Amazon Bedrock unterstützt mehr als 100 Foundation-Modelle. Wählen Sie ein Modell aus und verwenden Sie dann den folgenden Python-Code, um Ihre erste Inferenzanforderung auszuführen. Speichern Sie die Datei unter bedrock-first-request.py

Responses API
from openai import OpenAI client = OpenAI() response = client.responses.create( model="openai.gpt-oss-120b", input="Can you explain the features of Amazon Bedrock?" ) print(response)
Chat Completions API
from openai import OpenAI client = OpenAI() response = client.chat.completions.create( model="openai.gpt-oss-120b", messages=[{"role": "user", "content": "Can you explain the features of Amazon Bedrock?"}] ) print(response)
Invoke API
import json import boto3 client = boto3.client('bedrock-runtime', region_name='us-east-1') response = client.invoke_model( modelId='anthropic.claude-opus-4-6-v1', body=json.dumps({ 'anthropic_version': 'bedrock-2023-05-31', 'messages': [{ 'role': 'user', 'content': 'Can you explain the features of Amazon Bedrock?'}], 'max_tokens': 1024 }) ) print(json.loads(response['body'].read()))
Converse API
import boto3 client = boto3.client('bedrock-runtime', region_name='us-east-1') response = client.converse( modelId='anthropic.claude-opus-4-6-v1', messages=[ { 'role': 'user', 'content': [{'text': 'Can you explain the features of Amazon Bedrock?'}] } ] ) print(response)

Führen Sie den Code mit Python aus, indem Sie den folgenden Befehl verwenden:

python3 bedrock-first-request.py

Sie sollten die Ausgabe Ihrer Inferenzanfrage sehen.

Weitere Informationen zur Verwendung von anderen APIs Endpunkten finden Sie unter. Entwicklung