Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Démarrage d’une évaluation des modèles automatique dans Amazon Bedrock
Vous pouvez créer une tâche d'évaluation automatique du modèle à l'aide du AWS Management Console AWS CLI, ou d'un AWS SDK compatible. Dans une tâche d’évaluation des modèles automatique, le modèle que vous sélectionnez effectue une inférence à l’aide d’invites provenant d’un jeu de données intégré pris en charge ou de votre propre jeu de données d’invite personnalisé. Pour chaque tâche, vous devez également sélectionner un type de tâche. Le type de tâche vous fournit certaines mesures recommandées et des jeux de données d’invite intégrés. Pour en savoir plus sur les types de tâches et métriques disponibles, consultez Types de tâches d’évaluation de modèles dans Amazon Bedrock.
Les exemples suivants vous montrent comment créer une tâche d'évaluation automatique de modèles à l'aide de la console Amazon Bedrock et AWS CLI du SDK pour Python.
Toutes les tâches d’évaluation des modèles automatiques nécessitent la création d’un rôle de service IAM. Pour plus d’informations sur les exigences IAM nécessaires pour configurer une tâche d’évaluation des modèles, consultez Exigences de fonction du service pour les tâches d’évaluation de modèle.
Les exemples suivants montrent comment créer une tâche d’évaluation des modèles automatique. Dans l’API, vous pouvez également inclure un profil d’inférence dans la tâche en spécifiant son ARN dans le champ modelIdentifier.
- Amazon Bedrock console
-
Utilisez la procédure suivante pour créer une tâche d’évaluation des modèles à l’aide de la console Amazon Bedrock. Pour finaliser cette procédure, assurez-vous que votre utilisateur, groupe ou rôle IAM dispose des autorisations suffisantes pour accéder à la console. Pour en savoir plus, veuillez consulter la section Autorisations de la console nécessaires pour créer une tâche d’évaluation automatique de modèles.
En outre, les autorisations CORS requises doivent être ajoutées au compartiment Amazon S3 pour tous les jeux de données d’invite personnalisés que vous souhaitez spécifier dans la tâche d’évaluation des modèles. Pour plus d’informations sur l’ajout des autorisations CORS nécessaires, consultez Autorisation CORS (Cross Origin Resource Sharing) nécessaire sur les compartiments S3.
Pour créer une tâche d’évaluation des modèles automatique
-
Ouvrez la console Amazon Bedrock : https://console.aws.amazon.com/bedrock/
-
Dans le volet de navigation, choisissez Évaluation de modèle.
-
Dans la carte Élaborer une évaluation, sous Automatique, choisissez Créer une évaluation automatique.
-
Sur la page Créer une évaluation automatique, fournissez les informations suivantes :
-
Nom de l’évaluation : donnez un nom descriptif à la tâche d’évaluation de modèle. Ce nom s’affiche dans votre liste de tâches d’évaluation de modèle. Il doit être unique dans votre compte et au sein d’une Région AWS.
-
Description (facultatif) : fournissez éventuellement une description.
-
Modèles : choisissez le modèle que vous souhaitez utiliser dans la tâche d’évaluation de modèle.
Pour en savoir plus sur les modèles disponibles dans Amazon Bedrock, consultez Accès aux modèles de fondation Amazon Bedrock.
-
(Facultatif) Pour modifier la configuration de l’inférence, choisissez mettre à jour.
Le fait de modifier la configuration de l’inférence a pour effet de modifier les réponses générées par les modèles sélectionnés. Pour en savoir plus sur les paramètres d’inférence disponibles, consultez Paramètres de demande d’inférence et champs de réponse pour les modèles de fondation.
-
Type de tâche : choisissez le type de tâche que le modèle doit tenter d’effectuer dans la tâche d’évaluation de modèle.
-
Métriques et jeux de données : la liste des métriques et des jeux de données de requêtes disponibles change en fonction de la tâche sélectionnée. Vous pouvez effectuer un choix dans la liste Jeux de données intégrés disponibles ou choisir Utiliser votre jeu de données de requêtes. Si vous choisissez d’utiliser votre propre jeu de données d’invite, saisissez l’URI S3 exact de votre fichier de jeu de données d’invite ou choisissez Parcourir S3 pour rechercher votre jeu de données d’invite.
-
Résultats de l’évaluation : vous devez spécifier l’URI S3 du répertoire où doivent être enregistrés les résultats. Choisissez Parcourir S3 pour rechercher un emplacement dans Amazon S3.
-
(Facultatif) Pour utiliser une clé gérée par le client, sélectionnez la case Personnaliser les paramètres de chiffrement (avancé). Indiquez ensuite l’ARN de la clé AWS KMS
que vous souhaitez utiliser.
-
Rôle IAM Amazon Bedrock : choisissez Utiliser un rôle existant pour utiliser un rôle de service IAM disposant déjà des autorisations requises, ou choisissez Créer un nouveau rôle pour créer un nouveau rôle de service IAM.
-
Ensuite, choisissez Créer.
Une fois que le statut passe à Terminé, vous pouvez consulter le bulletin d’évaluation de la tâche.
- SDK for Python
-
L’exemple suivant crée une tâche d’évaluation automatique à l’aide de Python.
import boto3
client = boto3.client('bedrock')
job_request = client.create_evaluation_job(
jobName="api-auto-job-titan",
jobDescription="two different task types",
roleArn="arn:aws:iam::111122223333:role/role-name",
inferenceConfig={
"models": [
{
"bedrockModel": {
"modelIdentifier":"arn:aws:bedrock:us-west-2::foundation-model/amazon.titan-text-lite-v1",
"inferenceParams":"{\"inferenceConfig\":{\"maxTokens\": 512,\"temperature\":0.7,\"topP\":0.9}}"
}
}
]
},
outputDataConfig={
"s3Uri":"s3://amzn-s3-demo-bucket-model-evaluations/outputs/"
},
evaluationConfig={
"automated": {
"datasetMetricConfigs": [
{
"taskType": "QuestionAndAnswer",
"dataset": {
"name": "Builtin.BoolQ"
},
"metricNames": [
"Builtin.Accuracy",
"Builtin.Robustness"
]
}
]
}
}
)
print(job_request)
- AWS CLI
-
Dans le AWS CLI, vous pouvez utiliser la help commande pour voir quels paramètres sont obligatoires et quels paramètres sont facultatifs lors de la spécification create-evaluation-job dans le AWS CLI.
aws bedrock create-evaluation-job help
aws bedrock create-evaluation-job \
--job-name 'automatic-eval-job-cli-001' \
--role-arn 'arn:aws:iam::111122223333:role/role-name' \
--evaluation-config '{"automated": {"datasetMetricConfigs": [{"taskType": "QuestionAndAnswer","dataset": {"name": "Builtin.BoolQ"},"metricNames": ["Builtin.Accuracy","Builtin.Robustness"]}]}}' \
--inference-config '{"models": [{"bedrockModel": {"modelIdentifier":"arn:aws:bedrock:us-west-2::foundation-model/amazon.titan-text-lite-v1","inferenceParams":"{\"inferenceConfig\":{\"maxTokens\": 512,\"temperature\":0.7,\"topP\":0.9}}"}}]}' \
--output-data-config '{"s3Uri":"s3://automatic-eval-jobs/outputs"}'