Démarrage rapide - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Démarrage rapide

Dans cette section, nous allons vous montrer comment démarrer avec Amazon Bedrock en quelques minutes. Nous utiliserons les API Responses et Chat Completions, compatibles avec OpenAI APIs, ainsi que les API Invoke et Converse pour vous montrer comment exécuter une demande d'inférence. Voir Génération la liste complète APIs.

Étape 1 - Compte AWS : si vous possédez déjà un compte AWS, ignorez cette étape et passez à l'étape 2. Si vous utilisez AWS pour la première fois, créez un compte AWS et suivez les instructions.

Étape 2 - Clé d'API : une fois que vous avez un compte AWS, vous pouvez créer une clé d'API à long terme pour authentifier vos demandes auprès d'Amazon Bedrock. Pour ce faire, accédez au service Amazon Bedrock dans la console AWS et générez une clé à long terme. Pour plus d'informations, consultez la section sur les clés d'API dans le chapitre Build.

Étape 3 - Téléchargez le SDK : pour utiliser ce guide de démarrage, Python doit déjà être installé. Installez ensuite le logiciel approprié en fonction de celui APIs que vous utilisez.

Responses/Chat Completions API
pip install boto3 openai
Invoke/Converse API
pip install boto3

Étape 4 - Définissez les variables d'environnement : configurez votre environnement pour utiliser la clé API pour l'authentification.

Responses/Chat Completions API
OPENAI_API_KEY="<provide your Bedrock API key>" OPENAI_BASE_URL="https://bedrock-mantle.<your-region>.api.aws/v1"
Invoke/Converse API
AWS_BEARER_TOKEN_BEDROCK="<provide your Bedrock API key>"

Étape 5 - Exécutez votre première demande d'inférence : Amazon Bedrock prend en charge plus de 100 modèles de base. Choisissez un modèle, puis utilisez le code Python suivant pour exécuter votre première demande d'inférence. Enregistrez le fichier sous bedrock-first-request.py

Responses API
from openai import OpenAI client = OpenAI() response = client.responses.create( model="openai.gpt-oss-120b", input="Can you explain the features of Amazon Bedrock?" ) print(response)
Chat Completions API
from openai import OpenAI client = OpenAI() response = client.chat.completions.create( model="openai.gpt-oss-120b", messages=[{"role": "user", "content": "Can you explain the features of Amazon Bedrock?"}] ) print(response)
Invoke API
import json import boto3 client = boto3.client('bedrock-runtime', region_name='us-east-1') response = client.invoke_model( modelId='anthropic.claude-opus-4-6-v1', body=json.dumps({ 'anthropic_version': 'bedrock-2023-05-31', 'messages': [{ 'role': 'user', 'content': 'Can you explain the features of Amazon Bedrock?'}], 'max_tokens': 1024 }) ) print(json.loads(response['body'].read()))
Converse API
import boto3 client = boto3.client('bedrock-runtime', region_name='us-east-1') response = client.converse( modelId='anthropic.claude-opus-4-6-v1', messages=[ { 'role': 'user', 'content': [{'text': 'Can you explain the features of Amazon Bedrock?'}] } ] ) print(response)

Exécutez le code avec Python à l'aide de la commande :

python3 bedrock-first-request.py

Vous devriez voir le résultat de votre demande d'inférence.

Pour en savoir plus sur l'utilisation d'autres terminaux APIs et de points de terminaison, reportez-vous àGénération.