Domaine du contenu 3 : applications des modèles de fondation - AWS Certified AI Practitioner

Domaine du contenu 3 : applications des modèles de fondation

Le domaine 3 couvre les applications des modèles de base et représente 28 % du contenu noté à l’examen.

Énoncé de la tâche 3.1 : décrire les considérations de conception pour les applications qui utilisent des modèles de fondation (FM).

Objectifs :

  • Identifier les critères de sélection pour choisir des modèles préentraînés (par exemple, coût, modalité, latence, multilingue, taille du modèle, complexité du modèle, personnalisation, longueur d’entrée/de sortie, mise en cache des invites)

  • Décrire l’effet des paramètres d’inférence sur les réponses du modèle (par exemple, température, longueur d’entrée/de sortie)

  • Définir la génération à enrichissement contextuel (RAG) et décrire ses applications métier (par exemple, les bases de connaissances Amazon Bedrock)

  • Identifier les services AWS qui permettent de stocker les intégrations dans des bases de données vectorielles (par exemple, Amazon OpenSearch Service, Amazon Aurora, Amazon Neptune, Amazon RDS for PostgreSQL)

  • Expliquer les compromis en matière de coûts des différentes approches de personnalisation du modèle de fondation (par exemple, préentraînement, peaufinage, apprentissage en contexte, RAG)

  • Décrire le rôle des agents dans les tâches en plusieurs étapes (par exemple, Agents Amazon Bedrock, IA agentique, protocole de contextualisation des modèles)

Énoncé de la tâche 3.2 : choisir des techniques d’ingénierie de requête efficaces.

Objectifs :

  • Définir les concepts et les constructions de l’ingénierie de requête (par exemple, contexte, instruction, invites négatives, espace latent du modèle, routage d’invite)

  • Définir des techniques pour une ingénierie de requête (par exemple, des modèles de chaîne de pensée, zero-shot, single-shot, few-shot, d’invites)

  • Identifier et décrire les avantages et les bonnes pratiques d’une ingénierie de requête (par exemple, amélioration de la qualité des réponses, expérimentation, barrières de protection, découverte, spécificité et concision, en utilisant plusieurs commentaires)

  • Définir les risques potentiels et les limites de l’ingénierie de requête (par exemple, exposition, empoisonnement, détournement, débridage)

Énoncé de la tâche 3.3 : décrire le processus d’entraînement et de peaufinage des modèles de fondation.

Objectifs :

  • Décrire les éléments clés de l’entraînement d’un modèle de fondation (par exemple, préentraînement, peaufinage, préentraînement continu, distillation)

  • Définir des méthodes pour peaufiner un modèle de fondation (par exemple, réglage des instructions, adaptation de modèles pour des domaines spécifiques, apprentissage par transfert, préentraînement continu)

  • Décrire comment préparer les données pour peaufiner un modèle de fondation (par exemple, curation des données, gouvernance, taille, étiquetage, représentativité, apprentissage par renforcement à partir des commentaires humains [RLHF])

Énoncé de la tâche 3.4 : décrire les méthodes d’évaluation des performances du modèle de fondation.

Objectifs :

  • Déterminer des approches pour évaluer les performances du modèle de fondation (par exemple, évaluation humaine, jeux de données de référence, évaluation des modèles Amazon Bedrock)

  • Identifier les métriques pertinentes pour évaluer les performances des modèles de fondation (par exemple, ROUGE [Recall-Oriented Understudy for Gisting Evaluation], BLEU [Bilingual Evaluation Understudy], BERTScore)

  • Déterminer si un modèle de fondation répond efficacement aux objectifs métier (par exemple, productivité, engagement des utilisateurs, ingénierie des tâches)

  • Identifier des approches permettant d’évaluer les performances des applications créées à l’aide de modèles de fondation (par exemple, RAG, agents, flux de travail)