

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Modèles de base d'IA générative dans SageMaker Canvas
<a name="canvas-fm-chat"></a>

Amazon SageMaker Canvas fournit des modèles de base d'IA génératifs que vous pouvez utiliser pour démarrer des discussions conversationnelles. Ces modèles de génération de contenu sont entraînés sur de grandes quantités de données texte pour apprendre les modèles statistiques et les relations entre les mots. Ils peuvent produire un texte cohérent statistiquement similaire au texte sur lequel ils ont été entraînés. Vous pouvez utiliser cette fonctionnalité pour augmenter votre productivité en effectuant les tâches suivantes :
+ Générer du contenu, tel que des plans de documents, des rapports et des blogs
+ Résumer du texte à partir de grands corps de textes, tels que des transcriptions de conférences téléphoniques, des rapports annuels ou des chapitres de manuels d'utilisation
+ Extraire des informations et des points à retenir de grands passages de texte, tels que des notes de réunion ou des récits
+ Améliorer le texte et détecter les erreurs grammaticales ou les fautes de frappe

Les modèles de base sont une combinaison des grands modèles linguistiques [Amazon SageMaker JumpStart et Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-service.html) (LLMs). Canvas propose les modèles suivants :


| Modèle | Type | Description | 
| --- | --- | --- | 
|  Amazon Titan  | Modèle Amazon Bedrock |  Amazon Titan est un modèle de langage puissant et polyvalent que vous pouvez utiliser pour des tâches telles que le résumé, la génération de texte (comme la création d'un billet de blog), la classification, les questions-réponses ouvertes et l'extraction d'informations. Il est pré-entraîné sur de grands jeux de données, ce qui le rend adapté aux tâches et aux raisonnements complexes. Pour continuer à prendre en charge les bonnes pratiques en matière d’utilisation responsable de l’IA, les modèles de fondation Amazon Titan sont conçus pour détecter et supprimer les contenus préjudiciables dans les données, rejeter les contenus inappropriés dans les entrées utilisateur et filtrer les résultats des modèles comportant des contenus inappropriés (tels que les discours de haine, le langage grossier et la violence).  | 
|  Anthropic Claude Instant  | Modèle Amazon Bedrock |  Le modèle Claude Instant d'Anthropic est plus rapide et plus rentable tout en restant très performant. Ce modèle peut gérer une gamme de tâches, notamment le dialogue informel, l'analyse de texte, le résumé et la réponse aux questions sur des documents. Tout comme Claude-2, Claude Instant peut prendre en charge jusqu’à 100 000 jetons par invite, soit l’équivalent d’environ 200 pages d’informations.  | 
|  Anthropic Claude-2  | Modèle Amazon Bedrock |  Claude-2 est le modèle le plus puissant d'Anthropic, qui excelle dans un large éventail de tâches, qu'il s'agisse de dialogues sophistiqués, de génération de contenu créatif ou de suivi d'instructions détaillées. Claude-2 peut prendre en charge jusqu'à 100 000 jetons par invite, soit l'équivalent d'environ 200 pages d'informations. Il peut générer des réponses plus longues par rapport à sa version précédente. Il prend en charge des cas d’utilisation tels que la réponse aux questions, l’extraction d’informations, la suppression d’informations personnelles identifiables, la génération de contenu, la classification à choix multiples, le jeu de rôle, la comparaison de texte, le résumé et les questions-réponses sur les documents avec citation.  | 
|  Falcon-7B-Instruct  | JumpStart modèle |  Falcon-7B-Instruct possède 7 milliards de paramètres et a été optimisé sur la base d’un mélange de jeux de données de chat et d’instructions. Il convient comme assistant virtuel et fonctionne mieux lorsque vous suivez des instructions ou que vous engagez une conversation. Étant donné que le modèle a été entraîné sur de grandes quantités de données Web en anglais, il reprend les stéréotypes et les préjugés courants qu'on peut trouver en ligne et ne convient pas aux langues autres que l'anglais. Comparé au Falcon-40B-Instruct, le modèle Falcon-7B-Instruct est légèrement plus petit et plus compact.  | 
|  Falcon-40B-Instruct  | JumpStart modèle |  Falcon-40B-Instruct possède 40 milliards de paramètres et a été optimisé sur la base d’un mélange de jeux de données de chat et d’instructions. Il convient comme assistant virtuel et fonctionne mieux lorsque vous suivez des instructions ou que vous engagez une conversation. Étant donné que le modèle a été entraîné sur de grandes quantités de données Web en anglais, il reprend les stéréotypes et les préjugés courants qu'on peut trouver en ligne et ne convient pas aux langues autres que l'anglais. Comparé au Falcon-7B-Instruct, le modèle Falcon-40B-Instruct est légèrement plus grand et plus puissant.  | 
|  Jurassic-2 Mid  | Modèle Amazon Bedrock |  Jurassic-2 Mid est un modèle de génération de texte haute performance entraîné sur un corps de texte massif (à jour jusqu’à mi-2022). Il est très polyvalent et capable de composer du texte de type humain et de résoudre des tâches complexes telles que la réponse à des questions, la classification de texte et bien d’autres. Ce modèle offre des fonctionnalités d'instruction en zéro coup, ce qui permet de l'orienter uniquement avec un langage naturel, sans utiliser d'exemples. Il est jusqu'à 30 % plus rapide que son prédécesseur, le modèle Jurassic-1. Le Jurassic-2 Mid est un modèle AI21 de taille moyenne, soigneusement conçu pour trouver le juste équilibre entre qualité exceptionnelle et prix abordable.  | 
|  Jurassic-2 Ultra  | Modèle Amazon Bedrock |  Jurassic-2 Ultra est un modèle de génération de texte haute performance entraîné sur un corps de texte massif (à jour jusqu’à mi-2022). Il est très polyvalent et capable de composer du texte de type humain et de résoudre des tâches complexes telles que la réponse à des questions, la classification de texte et bien d’autres. Ce modèle offre des fonctionnalités d'instruction en zéro coup, ce qui permet de l'orienter uniquement avec un langage naturel, sans utiliser d'exemples. Il est jusqu'à 30 % plus rapide que son prédécesseur, le modèle Jurassic-1. Comparé à Jurassic-2 Mid, le modèle Jurassic-2 Ultra est légèrement plus grand et plus puissant.  | 
|  Llama-2-7b-Chat  | JumpStart modèle |  Llama-2-7b-Chat est un modèle de fondation développé par Meta qui permet d’engager des conversations cohérentes et pertinentes, de générer du contenu nouveau et d’extraire des réponses à partir de notes existantes. Étant donné que le modèle a été entraîné à partir d’une grande quantité de données Internet en anglais, il comporte les biais et les limites que l’on trouve couramment en ligne et est particulièrement adapté aux tâches en anglais.  | 
|  Llama-2-13B-Chat  | Modèle Amazon Bedrock |  Llama-2-13B-Chat de Meta a été peaufiné sur les données conversationnelles après un entraînement initial sur les données Internet. Il est optimisé pour les dialogues naturels et les capacités de chat engageantes, ce qui le rend parfaitement adapté en tant qu’agent conversationnel. Comparé au plus petit Llama-2-7b-Chat, Llama-2-13B-Chat dispose de près de deux fois plus de paramètres, ce qui lui permet de mémoriser davantage de contexte et de produire des réponses conversationnelles plus nuancées. Tout comme Llama-2-7b-Chat, Llama-2-13B-Chat a été entraîné à partir de données en anglais et est particulièrement adapté aux tâches en anglais.  | 
|  Llama-2-70B-Chat  | Modèle Amazon Bedrock |  Tout comme Llama-2-7b-Chat et Llama-2-13B-Chat, le modèle Llama-2-70B-Chat de Meta est optimisé pour engager des dialogues naturels et pertinents. Avec 70 milliards de paramètres, ce modèle conversationnel de grande taille peut mémoriser un contexte plus étendu et produire des réponses très cohérentes par rapport aux versions plus compactes du modèle. Cependant, cela se traduit par des réponses plus lentes et des besoins en ressources plus importants. Llama-2-70B-Chat a été entraîné à partir d’une grande quantité de données Internet en anglais et est particulièrement adapté aux tâches en anglais.  | 
|  Mistral-7B  | JumpStart modèle |  Mistral-7B de Mistral.AI est un excellent modèle de langage polyvalent, adapté à un large éventail de tâches de traitement du langage naturel (NLP), telles que la génération de texte, la synthèse et la réponse à des questions. Il utilise l’attention par requêtes groupées (GQA), qui permet d’augmenter les vitesses d’inférence, ce qui le rend comparable à des modèles comportant deux à trois fois plus de paramètres. Il a été entraîné à partir d’un mélange de données textuelles comprenant des livres, des sites Web et des articles scientifiques en anglais. Il est donc particulièrement adapté aux tâches en anglais.  | 
|  Mistral-7B-Chat  | JumpStart modèle |  Mistral-7B-Chat est un modèle conversationnel développé par Mistral.AI et basé sur Mistral-7B. Alors que Mistral-7B est idéal pour les tâches générales de traitement du langage naturel, Mistral-7B-Chat a été optimisé à partir de données conversationnelles afin de disposer de meilleures capacités pour des discussions naturelles et engageantes. Par conséquent, Mistral-7B-Chat génère des réponses plus humaines et mémorise le contexte des réponses précédentes. Comme Mistral-7B, ce modèle est particulièrement bien adapté aux tâches linguistiques en anglais.  | 
|  MPT-7B-Instruct  | JumpStart modèle |  MPT-7B-Instruct est un modèle pour les tâches de suivi d’instructions longues qui peut vous aider à rédiger des tâches, notamment à résumer des textes et à répondre aux questions, afin de vous faire gagner du temps et de l’énergie. Ce modèle a été entraîné sur de grandes quantités de données optimisées et peut gérer des entrées plus importantes, telles que des documents complexes. Utilisez ce modèle lorsque vous souhaitez traiter de grands corps de texte ou que vous souhaitez que le modèle génère de longues réponses.  | 

Les modèles de fondation d’Amazon Bedrock ne sont actuellement disponibles que dans les régions USA Est (Virginie du Nord) et USA Ouest (Oregon). En outre, lorsque vous utilisez des modèles de fondation d'Amazon Bedrock, vous êtes facturé en fonction du volume de jetons d'entrée et de jetons de sortie, tel que spécifié par chaque fournisseur de modèle. Pour plus d’informations, consultez la page [Tarification Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/). Les modèles de JumpStart base sont déployés sur des instances d' SageMaker AI Hosting, et la durée d'utilisation vous est facturée en fonction du type d'instance utilisé. Pour plus d'informations sur le coût des différents types d'instances, consultez la section Amazon SageMaker AI Hosting : Real-Time Inference sur la [page de SageMaker tarification](https://aws.amazon.com/sagemaker/pricing/).

L’interrogation de documents est une fonctionnalité supplémentaire que vous pouvez utiliser pour interroger et obtenir des informations à partir de documents stockés dans des index à l’aide d’Amazon Kendra. Grâce à cette fonctionnalité, vous pouvez générer du contenu à partir du contexte de ces documents et recevoir des réponses spécifiques à votre cas d’utilisation métier, par opposition à des réponses génériques aux grandes quantités de données sur lesquelles les modèles de fondation ont été entraînés. Pour plus d’informations sur les index dans Amazon Kendra, consultez le [Guide du développeur Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/what-is-kendra.html).

Si vous souhaitez obtenir des réponses de l’un des modèles de fondation personnalisés en fonction de vos données et de votre cas d’utilisation, vous pouvez optimiser les modèles de fondation. Pour en savoir plus, veuillez consulter la section [Peaufinage des modèles de fondation](canvas-fm-chat-fine-tune.md).

Si vous souhaitez obtenir des prédictions à partir d'un modèle Amazon SageMaker JumpStart Foundation via une application ou un site Web, vous pouvez déployer le modèle sur un point de *terminaison* basé sur l' SageMaker IA. SageMaker Les points de terminaison AI hébergent votre modèle, et vous pouvez envoyer des demandes au point de terminaison via le code de votre application pour recevoir les prédictions du modèle. Pour de plus amples informations, veuillez consulter [Déploiement de vos modèles sur un point de terminaison](canvas-deploy-model.md).

# Complétez les prérequis pour les modèles de base dans Canvas SageMaker
<a name="canvas-fm-chat-prereqs"></a>

Les sections suivantes décrivent les conditions préalables à l’interaction avec les modèles de fondation et à l’utilisation de la fonctionnalité d’interrogation de documents dans Canvas. Le reste du contenu de cette page suppose que vous avez rempli les conditions préalables requises pour les modèles de fondation. La fonctionnalité d’interrogation de documents nécessite des autorisations supplémentaires.

## Conditions préalables requises pour les modèles de fondation
<a name="canvas-fm-chat-prereqs-fm"></a>

Les autorisations dont vous avez besoin pour interagir avec les modèles sont incluses dans les autorisations Ready-to-use des modèles Canvas. Pour utiliser les modèles basés sur l'IA générative dans Canvas, vous devez activer les autorisations de configuration des ** Ready-to-usemodèles Canvas lors de la configuration** de votre domaine Amazon SageMaker AI. Pour de plus amples informations, veuillez consulter [Conditions préalables à la configuration d'Amazon Canvas SageMaker](canvas-getting-started.md#canvas-prerequisites). La **configuration Ready-to-use des modèles Canvas** associe la politique [AmazonSageMakerCanvasAIServicesd'accès](https://docs.aws.amazon.com/sagemaker/latest/dg/security-iam-awsmanpol-canvas.html#security-iam-awsmanpol-AmazonSageMakerCanvasAIServicesAccess) au rôle d'exécution de votre utilisateur Canvas Gestion des identités et des accès AWS (IAM). Si vous rencontrez des problèmes lors de l'octroi d'autorisations, consultez la rubrique [Résolution des problèmes liés à l'octroi d'autorisations via la console SageMaker AI](canvas-limits.md#canvas-troubleshoot-trusted-services).

Si vous avez déjà configuré votre domaine, vous pouvez modifier ses paramètres et activer les autorisations. Pour obtenir des instructions de modification des paramètres de votre domaine, consultez [Modification des paramètres du domaine](domain-edit.md). Lorsque vous modifiez les paramètres de votre domaine, accédez aux **paramètres Canvas** et activez l'option **Activer les Ready-to-use modèles Canvas**.

Certains modèles de JumpStart base nécessitent également que vous demandiez une augmentation du quota d'instances SageMaker AI. Canvas héberge les modèles avec lesquels vous interagissez actuellement sur ces instances, mais le quota par défaut pour votre compte peut ne pas être suffisant. Si vous rencontrez une erreur lors de l’exécution de l’un des modèles suivants, demandez une augmentation de quota pour les types d’instances associés :
+ Falcon-40B – `ml.g5.12xlarge`, `ml.g5.24xlarge`
+ Falcon-13B – `ml.g5.2xlarge`, `ml.g5.4xlarge`, `ml.g5.8xlarge`
+ MPT-7B-Instruct – `ml.g5.2xlarge`, `ml.g5.4xlarge`, `ml.g5.8xlarge`

Pour les types d'instances précédents, demandez une augmentation de 0 à 1 pour le quota d'utilisation des points de terminaison. Pour plus d’informations sur l’augmentation d’un quota d’instances pour votre compte, consultez [Demande d’augmentation de quota](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html) dans le *Guide de l’utilisateur Service Quotas*.

## Conditions préalables requises pour l’interrogation de documents
<a name="canvas-fm-chat-prereqs-kendra"></a>

**Note**  
L'interrogation de documents est prise en charge dans les pays suivants Régions AWS : USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Oregon), Europe (Irlande), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Tokyo) et Asie-Pacifique (Mumbai).

La fonctionnalité d’interrogation de documents nécessite que vous disposiez déjà d’un index Amazon Kendra qui stocke vos documents et leurs métadonnées. Pour plus d’informations sur Amazon Kendra, consultez le [Guide du développeur Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/what-is-kendra.html). Pour en apprendre davantage sur les quotas d’interrogation des index, consultez [Quotas](https://docs.aws.amazon.com/kendra/latest/dg/quotas.html) dans le *Guide du développeur Amazon Kendra*.

Vous devez également vous assurer que votre profil utilisateur Canvas dispose des autorisations nécessaires pour l’interrogation de documents. La [AmazonSageMakerCanvasFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerCanvasFullAccess.html)politique doit être attachée au rôle d'exécution AWS IAM pour le domaine SageMaker AI qui héberge votre application Canvas (cette politique est attachée par défaut à tous les profils utilisateur Canvas nouveaux et existants). Vous devez également accorder spécifiquement des autorisations d’interrogation de documents et spécifier l’accès à un ou plusieurs index Amazon Kendra.

Si votre administrateur Canvas configure un nouveau domaine ou profil utilisateur, demandez-lui de configurer le domaine en suivant les instructions fournies dans [Conditions préalables à la configuration d'Amazon Canvas SageMaker](canvas-getting-started.md#canvas-prerequisites). Lors de la configuration du domaine, ils peuvent activer le document demandant des autorisations via la **configuration des Ready-to-use modèles Canvas**.

L’administrateur Canvas peut également gérer les autorisations d’interrogation de documents au niveau du profil utilisateur. Par exemple, si l’administrateur souhaite accorder des autorisations d’interrogation de documents à certains profils utilisateur, mais qu’il souhaite supprimer ces autorisations pour d’autres, il peut modifier les autorisations pour un utilisateur spécifique.

La procédure suivante décrit comment activer les autorisations d’interrogation de documents pour un profil utilisateur spécifique :

1. Ouvrez la console SageMaker AI à l'adresse [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/).

1. Dans le panneau de navigation de gauche, choisissez **Configurations d’administrateur**.

1. Sous **Configurations d’administrateur**, choisissez **Domaines**.

1. Dans la liste des domaines, sélectionnez le domaine du profil utilisateur.

1. Sur la page **Détails du domaine**, choisissez le **Profil utilisateur** dont vous souhaitez modifier les autorisations.

1. Sur la page **Détails de l’utilisateur**, choisissez **Modifier**.

1. Dans le panneau de navigation de gauche, choisissez **Paramètres de Canvas**.

1. Dans la section de **configuration Ready-to-use des modèles Canvas**, activez le bouton **Activer la requête de document à l'aide d'Amazon Kendra**.

1. Dans la liste déroulante, sélectionnez un ou plusieurs index Amazon Kendra auxquels vous souhaitez accorder l’accès.

1. Choisissez **Soumettre** pour enregistrer les modifications apportées à vos paramètres de domaine.

Vous devriez désormais être en mesure d’utiliser les modèles de fondation Canvas pour interroger les documents dans les index Amazon Kendra spécifiés.

# Démarrage d’une nouvelle conversation pour générer, extraire ou résumer du contenu
<a name="canvas-fm-chat-new"></a>

Pour commencer à utiliser les modèles de fondation d’IA générative dans Canvas, vous pouvez lancer une nouvelle session de discussion avec l’un des modèles. Pour les JumpStart modèles, vous êtes débité lorsque le modèle est actif. Vous devez donc démarrer les modèles lorsque vous souhaitez les utiliser et les arrêter lorsque vous avez terminé d'interagir. Si vous n'arrêtez pas un JumpStart modèle, Canvas l'arrête après 2 heures d'inactivité. Pour les modèles Amazon Bedrock (tels qu’Amazon Titan), vous êtes facturé par invite ; les modèles sont déjà actifs et n’ont pas besoin d’être démarrés ou arrêtés. L’utilisation de ces modèles vous est facturée directement par Amazon Bedrock.

Pour ouvrir une discussion avec un modèle, procédez comme suit :

1. Ouvrez l'application SageMaker Canvas.

1. Dans le volet de navigation de gauche, sélectionnez **R eady-to-use models**.

1. Choisissez **Générer, extraire et résumer du contenu**.

1. Sur la page d'accueil, vous recevrez une recommandation pour démarrer le modèle par défaut. Vous pouvez démarrer le modèle recommandé ou choisir **Sélectionner un autre modèle** dans la liste déroulante pour en choisir un autre.

1. Si vous avez sélectionné un modèle de JumpStart base, vous devez le démarrer avant de pouvoir l'utiliser. **Choisissez Démarrer le modèle**, puis le modèle est déployé sur une instance d' SageMaker IA. Le processus peut prendre plusieurs minutes. Lorsque le modèle est prêt, vous pouvez entrer des invites et poser des questions au modèle.

   Si vous avez sélectionné un modèle de fondation d'Amazon Bedrock, vous pouvez commencer à l'utiliser instantanément en entrant une invite et en posant des questions.

Selon le modèle, vous pouvez effectuer différentes tâches. Par exemple, vous pouvez entrer un passage de texte et demander au modèle de le résumer. Vous pouvez également demander au modèle de vous fournir un bref résumé des tendances du marché dans votre domaine.

Les réponses du modèle dans une discussion sont basées sur le contexte de vos invites précédentes. Si vous souhaitez poser une nouvelle question dans la discussion, qui n’a aucun rapport avec le sujet de conversation précédent, nous vous recommandons de démarrer une nouvelle discussion avec le modèle.

# Extraction d’informations à partir de documents à l’aide de l’interrogation de documents
<a name="canvas-fm-chat-query"></a>

**Note**  
Cette section suppose que vous avez déjà consulté la section préalable [Conditions préalables requises pour l’interrogation de documents](canvas-fm-chat-prereqs.md#canvas-fm-chat-prereqs-kendra).

L’interrogation de documents est une fonctionnalité que vous pouvez utiliser lorsque vous interagissez avec des modèles de fondation dans Canvas. Grâce à l’interrogation de documents, vous pouvez accéder à un corpus de documents stocké dans un *index* Amazon Kendra, qui contient le contenu de vos documents et est structuré de manière à permettre les recherches dans les documents. Vous pouvez poser des questions spécifiques ciblées sur les données de votre index Amazon Kendra, et le modèle de fondation retournera des réponses à vos questions. Par exemple, vous pouvez interroger une base de connaissances interne contenant des informations informatiques et poser des questions telles que « Comment me connecter au réseau de mon entreprise ? » Pour plus d’informations sur la configuration d’un index, consultez le [Guide du développeur Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/what-is-kendra.html).

Lorsque vous utilisez la fonctionnalité d’interrogation de documents, les modèles de fondation limitent leurs réponses au contenu des documents de votre index à l’aide d’une technique appelée Génération à enrichissement contextuel (RAG). Cette technique regroupe les informations les plus pertinentes de l’index ainsi que l’invite de l’utilisateur et les envoie au modèle de fondation pour obtenir une réponse. Les réponses sont limitées à ce qui peut être trouvé dans votre index, ce qui empêche le modèle de vous donner des réponses incorrectes basées sur des données externes. Pour plus d’informations sur ce processus, consultez le billet de blog [Développer rapidement des applications d’IA générative de haute précision à l’aide de données d’entreprise](https://aws.amazon.com/blogs/machine-learning/quickly-build-high-accuracy-generative-ai-applications-on-enterprise-data-using-amazon-kendra-langchain-and-large-language-models/).

Pour commencer, lors d’une discussion avec un modèle de fondation dans Canvas, activez le bouton **Interrogation de documents** en haut de la page. Dans le menu déroulant, sélectionnez l’index Amazon Kendra que vous souhaitez interroger. Ensuite, vous pouvez commencer à poser des questions relatives aux documents figurant dans votre index.

**Important**  
L’interrogation de documents prend en charge la fonctionnalité [Comparaison des résultats de modèle](canvas-fm-chat-compare.md). Tout historique de discussion existant est remplacé lorsque vous démarrez une nouvelle discussion afin de comparer les résultats du modèle.

# Démarrage des modèles
<a name="canvas-fm-chat-manage"></a>

**Note**  
La section suivante décrit les modèles de démarrage, qui ne s'appliquent qu'aux modèles de JumpStart base, tels que Falcon-40B-Instruct. Vous pouvez accéder aux modèles Amazon Bedrock, tels qu’Amazon Titan, instantanément et à tout moment.

Vous pouvez démarrer autant de JumpStart modèles que vous le souhaitez. Chaque JumpStart modèle actif entraîne des frais sur votre compte. Nous vous recommandons donc de ne pas démarrer plus de modèles que ceux que vous utilisez actuellement.

Pour démarrer un autre modèle, procédez comme suit :

1. Sur la page **Générer, extraire et résumer du contenu**, choisissez **Nouvelle discussion**.

1. Choisissez le modèle dans le menu déroulant. Si vous souhaitez choisir un modèle qui ne figure pas dans le menu déroulant, choisissez **Démarrer un autre modèle**, puis sélectionnez le modèle que vous souhaitez démarrer.

1. Choisissez **Démarrer le modèle**.

Le modèle devrait commencer à démarrer et vous pourrez discuter avec lui en quelques minutes.

# Arrêt des modèles
<a name="canvas-fm-chat-shut-down"></a>

Nous vous recommandons vivement d’arrêter les modèles que vous n’utilisez pas. Les modèles s'arrêtent automatiquement après 2 heures d'inactivité. Pour arrêter manuellement un modèle, procédez comme suit :

1. Sur la page **Générer, extraire et résumer du contenu**, ouvrez la discussion du modèle que vous souhaitez arrêter.

1. Sur la page de discussion, choisissez l'icône **Plus d'options** (![\[Vertical ellipsis icon representing a menu or more options.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/studio/canvas/more-options-icon.png)).

1. Choisissez **Arrêter le modèle**.

1. Dans la zone de confirmation **Arrêter le modèle**, choisissez **Arrêter**.

Le modèle commence à s'arrêter. Si votre discussion compare deux modèles ou plus, vous pouvez arrêter un modèle individuel à partir de la page de discussion en choisissant l'icône **Plus d'options** du modèle (![\[Vertical ellipsis icon representing a menu or more options.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/studio/canvas/more-options-icon.png)), puis en choisissant **Arrêter le modèle**.

# Comparaison des résultats de modèle
<a name="canvas-fm-chat-compare"></a>

Vous souhaiterez peut-être comparer les résultats de différents modèles côte à côte afin de déterminer celui que vous préférez. Cela peut vous aider à choisir le modèle le mieux adapté à votre cas d'utilisation. Vous pouvez comparer jusqu'à trois modèles dans les discussions.

**Note**  
Chaque modèle individuel entraîne des frais sur votre compte.

Vous devez démarrer une nouvelle discussion pour ajouter des modèles à comparer. Pour comparer les résultats des modèles côte à côte dans une discussion, procédez comme suit :

1. Dans une discussion, choisissez **Nouvelle discussion**.

1. Choisissez **Comparer**, puis utilisez le menu déroulant pour sélectionner le modèle que vous souhaitez ajouter. Pour ajouter un troisième modèle, choisissez à nouveau **Comparer** pour ajouter un autre modèle.
**Note**  
Si vous souhaitez utiliser un JumpStart modèle qui n'est pas actif actuellement, vous êtes invité à le démarrer.

Lorsque les modèles sont actifs, vous pouvez voir les deux modèles côte à côte dans la discussion. Vous pouvez envoyer votre invite et chaque modèle répond dans la même discussion, comme illustré dans la capture d'écran suivante.

![\[Capture d’écran de l’interface Canvas avec les résultats de deux modèles présentés côte à côte.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/studio/canvas/canvas-chat-compare-outputs.png)


Lorsque vous avez terminé d'interagir, assurez-vous d'éteindre tous les JumpStart modèles individuellement pour éviter d'encourir des frais supplémentaires.

# Peaufinage des modèles de fondation
<a name="canvas-fm-chat-fine-tune"></a>

Les modèles de base auxquels vous pouvez accéder via Amazon SageMaker Canvas peuvent vous aider à effectuer toute une série de tâches générales. Toutefois, si vous avez un cas d’utilisation spécifique et que vous souhaitez personnaliser les réponses en fonction de vos propres données, vous pouvez *optimiser* un modèle de fondation.

Pour optimiser un modèle de fondation, vous fournissez un jeu de données composé d’exemples d’invites et de réponses du modèle. Ensuite, vous entraînez le modèle de fondation sur ces données. Enfin, le modèle de fondation optimisé est en mesure de vous apporter des réponses plus spécifiques.

La liste suivante contient les modèles de fondation que vous pouvez optimiser dans Canvas :
+ Titan Express
+ Falcon-7B
+ Falcon-7B-Instruct
+ Falcon-40B-Instruct
+ Falcon-40B
+ Flan-T5-Large
+ Flan-T5-Xl
+ Flan-T5-Xxl
+ MPT-7B
+ MPT-7B-Instruct

Vous pouvez accéder à des informations plus détaillées sur chaque modèle de fondation dans l’application Canvas tout en optimisant un modèle. Pour de plus amples informations, veuillez consulter [Peaufinage du modèle](#canvas-fm-chat-fine-tune-procedure-model).

Cette rubrique décrit comment optimiser les modèles de fondation dans Canvas.

## Avant de commencer
<a name="canvas-fm-chat-fine-tune-prereqs"></a>

Avant de peaufiner un modèle de base, assurez-vous que vous disposez des autorisations nécessaires pour les Ready-to-use modèles dans Canvas et d'un rôle d' Gestion des identités et des accès AWS exécution qui entretient une relation de confiance avec Amazon Bedrock, ce qui permet à Amazon Bedrock d'assumer votre rôle tout en peaufinant les modèles de base.

Lorsque vous configurez ou modifiez votre domaine Amazon SageMaker AI, vous devez 1) activer les autorisations de configuration des Ready-to-use modèles Canvas et 2) créer ou spécifier un rôle Amazon Bedrock, qui est un rôle d'exécution IAM auquel SageMaker AI attache une relation de confiance avec Amazon Bedrock. Pour plus d’informations sur la configuration de ces paramètres, consultez [Conditions préalables à la configuration d'Amazon Canvas SageMaker](canvas-getting-started.md#canvas-prerequisites).

Vous pouvez configurer le rôle Amazon Bedrock manuellement si vous préférez utiliser votre propre rôle d'exécution IAM (au lieu de laisser l' SageMaker IA en créer un en votre nom). Pour plus d’informations sur la configuration de la relation d’approbation entre votre propre rôle d’exécution IAM et Amazon Bedrock, consultez [Octroi d’autorisations aux utilisateurs pour utiliser Amazon Bedrock et les fonctionnalités d’IA générative dans Canvas](canvas-fine-tuning-permissions.md).

Vous devez également disposer d'un jeu de données formaté pour affiner les grands modèles de langage ()LLMs. Voici une liste des exigences relatives à votre jeu de données :
+ Le jeu de données doit être tabulaire et contenir au moins deux colonnes de données textuelles : une colonne d’entrée (contenant des exemples d’invites pour le modèle) et une colonne de sortie (contenant des exemples de réponses du modèle).

  Voici un exemple :     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/canvas-fm-chat-fine-tune.html)
+ Nous recommandons que le jeu de données comporte au moins 100 paires de texte (lignes d’éléments d’entrée et de sortie correspondants). Cela garantit que le modèle de fondation dispose de suffisamment de données pour le peaufinage et augmente l’exactitude de ses réponses.
+ Chaque élément d’entrée et de sortie doit contenir un maximum de 512 caractères. Tout texte plus long est réduit à 512 caractères lors du peaufinage du modèle de fondation.

Lors du peaufinage d’un modèle Amazon Bedrock, vous devez respecter les quotas Amazon Bedrock. Pour plus d’informations, consultez [Quotas de personnalisation des modèles](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html#model-customization-quotas) dans le *Guide de l’utilisateur Amazon Bedrock*.

Pour plus d’informations sur les exigences et limitations générales des jeux de données dans Canvas, consultez [Création d’un jeu de données](canvas-import-dataset.md).

## Peaufinage d’un modèle de fondation
<a name="canvas-fm-chat-fine-tune-procedure"></a>

Vous pouvez optimiser un modèle de fondation en utilisant l’une des méthodes suivantes dans l’application Canvas :
+ Au cours d’une discussion de type **Générer, extraire et résumer du contenu** avec un modèle de fondation, choisissez l’icône **Optimiser le modèle** (![\[Magnifying glass icon with a plus sign, indicating a search or zoom-in function.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/studio/canvas/wrench-icon-small.png)).
+ Au cours d’une discussion avec un modèle de fondation, si vous avez généré une nouvelle réponse deux fois ou plus, Canvas vous offre la possibilité d’**optimiser le modèle**. La capture d’écran suivante montre à quoi cela ressemble.  
![\[Capture d’écran de l’option Optimiser le modèle de fondation affichée dans une discussion.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/studio/canvas/fine-tuning-ingress.png)
+ Sur la page **Mes modèles**, vous pouvez créer un nouveau modèle en choisissant **Nouveau modèle**, puis sélectionner **Optimiser le modèle de fondation**.
+ Sur la page d'accueil des **Ready-to-use modèles**, vous pouvez choisir **Créer votre propre modèle**, puis dans la boîte de dialogue **Créer un nouveau modèle**, sélectionner **Fine-tune foundation model**.
+ Lorsque vous parcourez vos jeux de données dans l’onglet **Data Wrangler**, vous pouvez sélectionner un jeu de données et choisir **Créer un modèle**. Choisissez ensuite **Optimiser le modèle de fondation**.

Après avoir commencé à optimiser un modèle, procédez comme suit :

### Sélection d’un jeu de données
<a name="canvas-fm-chat-fine-tune-procedure-select"></a>

Dans l’onglet **Sélectionner** du peaufinage d’un modèle, vous choisissez les données sur lesquelles vous souhaitez entraîner le modèle de fondation.

Sélectionnez un jeu de données existant ou créez un nouveau jeu de données répondant aux exigences répertoriées dans la section [Avant de commencer](#canvas-fm-chat-fine-tune-prereqs). Pour plus d’informations sur la manière de créer un jeu de données, consultez [Création d’un jeu de données](canvas-import-dataset.md).

Lorsque vous avez sélectionné ou créé un jeu de données et que vous êtes prêt à continuer, choisissez **Sélectionner le jeu de données**.

### Peaufinage du modèle
<a name="canvas-fm-chat-fine-tune-procedure-model"></a>

Après avoir sélectionné vos données, vous êtes maintenant prêt à commencer l’entraînement et le peaufinage du modèle.

Dans l’onglet **Optimiser**, procédez comme suit :

1. (Facultatif) Choisissez **En savoir plus sur nos modèles de fondation** pour accéder à plus d’informations sur chaque modèle et mieux choisir le ou les modèles de fondation à déployer.

1. Pour **sélectionner jusqu'à 3 modèles de base**, ouvrez le menu déroulant et consultez jusqu'à 3 modèles de base (jusqu'à 2 JumpStart modèles et 1 modèle Amazon Bedrock) que vous souhaitez peaufiner pendant le stage de formation. En optimisant plusieurs modèles de fondation, vous pouvez comparer leurs performances et finalement choisir celui qui convient le mieux à votre cas d’utilisation comme modèle par défaut. Pour plus d’informations sur les modèles par défaut, consultez [Visualisation des modèles candidats dans le classement des modèles](canvas-evaluate-model-candidates.md).

1. Pour **Sélectionner la colonne d’entrée**, sélectionnez la colonne de données textuelles de votre jeu de données contenant les exemples d’invites du modèle.

1. Pour **Sélectionner la colonne de sortie**, sélectionnez la colonne de données textuelles de votre jeu de données contenant les exemples de réponses du modèle.

1. (Facultatif) Pour configurer les paramètres avancés de la tâche d’entraînement, choisissez **Configurer le modèle**. Pour plus d’informations sur les paramètres avancés de génération de modèle, consultez [Configurations avancées de génération de modèle](canvas-advanced-settings.md).

   Dans la fenêtre contextuelle **Configurer le modèle**, procédez comme suit :

   1. Pour **Hyperparamètres**, vous pouvez ajuster le **nombre d’époques**, la **taille du lot**, le **taux d’apprentissage** et les **étapes d’échauffement du taux d’apprentissage** pour chaque modèle sélectionné. Pour plus d'informations sur ces paramètres, consultez la [section Hyperparamètres de la JumpStart documentation](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-fine-tune.html#jumpstart-hyperparameters).

   1. Pour **Partage des données**, vous pouvez spécifier des pourcentages pour répartir vos données entre le **jeu d’entraînement** et le **jeu de validation**.

   1. Pour **Durée d’exécution de tâche maximale**, vous pouvez définir la durée maximale pendant laquelle Canvas exécute la tâche de génération. Cette fonctionnalité n'est disponible que pour les modèles de JumpStart base.

   1. Après avoir configuré ces paramètres, choisissez **Enregistrer**.

1. Choisissez **Optimiser** pour commencer à entraîner les modèles de fondation que vous avez sélectionnés.

Une fois que la tâche de peaufinage a commencé, vous pouvez quitter la page. Lorsque le modèle apparaît comme **Prêt** sur la page **Mes modèles**, il est prêt à être utilisé et vous pouvez alors analyser les performances de votre modèle de fondation optimisé.

### Analyse du modèle de fondation optimisé
<a name="canvas-fm-chat-fine-tune-procedure-analyze"></a>

Dans l’onglet **Analyser** de votre modèle de fondation optimisé, vous pouvez voir les performances du modèle.

L’onglet **Vue d’ensemble** de cette page affiche les scores de perplexité et de perte, ainsi que les analyses permettant de visualiser l’amélioration du modèle au fil du temps pendant l’entraînement. La capture d’écran suivante présente l’onglet **Vue d’ensemble**.

![\[Onglet Analyser d’un modèle de fondation optimisé dans Canvas, montrant les courbes de perplexité et de perte.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/studio/canvas/canvas-fine-tune-analyze-2.png)


Sur cette page, vous pouvez voir les visualisations suivantes :
+ La **courbe de perplexité** mesure la précision de la prédiction par le modèle du mot suivant d’une séquence ou le niveau grammatical de la sortie du modèle. Dans l’idéal, à mesure que le modèle s’améliore pendant l’entraînement, le score diminue et entraîne une courbe qui s’abaisse et s’aplatit au fil du temps.
+ La **courbe de perte** quantifie la différence entre la sortie correcte et la sortie prédite du modèle. Une courbe de perte qui diminue et s’aplatit au fil du temps indique que le modèle améliore sa capacité à réaliser des prédictions précises.

L’onglet **Métriques avancées** vous montre les hyperparamètres et les métriques supplémentaires pour votre modèle. Cela ressemble à la capture d’écran suivante :

![\[Capture d’écran de l’onglet Métriques avancées d’un modèle de fondation optimisé dans Canvas.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/studio/canvas/canvas-fine-tune-metrics.png)


L’onglet **Métriques avancées** contient les informations suivantes :
+ La section **Explicabilité** contient les **hyperparamètres**, qui sont les valeurs définies avant le travail pour guider le peaufinage du modèle. Si vous n’avez pas spécifié d’hyperparamètres personnalisés dans les paramètres avancés du modèle dans la section [Peaufinage du modèle](#canvas-fm-chat-fine-tune-procedure-model), Canvas sélectionne les hyperparamètres par défaut pour vous.

  Pour les JumpStart modèles, vous pouvez également consulter la métrique avancée [ROUGE (Recall-Oriented Understudy for Gisting Evaluation)](https://en.wikipedia.org/wiki/ROUGE_(metric)), qui évalue la qualité des résumés générés par le modèle. Elle mesure la précision avec laquelle le modèle peut résumer les principaux points d’un passage.
+ La section **Artefacts** vous fournit des liens vers les artefacts générés au cours de la tâche de peaufinage. Vous pouvez accéder aux données d’entraînement et de validation enregistrées dans Amazon S3, ainsi qu’au lien vers le rapport d’évaluation des modèles (pour en savoir plus, consultez le paragraphe suivant).

Pour obtenir davantage d'informations sur l'évaluation des modèles, vous pouvez télécharger un rapport généré à l'aide de [SageMaker Clarify](https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-configure-processing-jobs.html), une fonctionnalité qui peut vous aider à détecter les biais dans votre modèle et vos données. Commencez par générer ce rapport en choisissant **Générer un rapport d’évaluation** au bas de la page. Une fois le rapport généré, vous pouvez télécharger le rapport complet en choisissant **Télécharger le rapport** ou en retournant à la section **Artefacts**.

Vous pouvez également accéder à un bloc-notes Jupyter qui vous montre comment répliquer votre tâche de peaufinage dans du code Python. Vous pouvez l’utiliser pour répliquer ou apporter des modifications programmatiques à votre tâche de peaufinage ou pour mieux comprendre comment Canvas optimise votre modèle. Pour en savoir plus sur les blocs-notes de modèle et sur la façon d’y accéder, consultez [Téléchargement d’un modèle de bloc-notes](canvas-notebook.md).

Pour plus d’informations sur la façon d’interpréter les informations contenues dans l’onglet **Analyser** de votre modèle de fondation optimisé, consultez la rubrique [Évaluation de modèle](canvas-evaluate-model.md).

Après avoir analysé les onglets **Vue d’ensemble** et **Métriques avancées**, vous pouvez également choisir d’ouvrir le **classement des modèles**, qui affiche la liste des modèles de base entraînés pendant la génération. Le modèle présentant le score de perte le plus bas est considéré comme le modèle le plus performant et est sélectionné comme **modèle par défaut**, c’est-à-dire le modèle dont vous pouvez voir l’analyse dans l’onglet **Analyser**. Vous pouvez uniquement tester et déployer le modèle par défaut. Pour plus d’informations sur le classement des modèles et sur la façon de modifier le modèle par défaut, consultez [Visualisation des modèles candidats dans le classement des modèles](canvas-evaluate-model-candidates.md).

### Test d’un modèle de fondation optimisé dans une discussion
<a name="canvas-fm-chat-fine-tune-procedure-test"></a>

Après avoir analysé les performances d’un modèle de fondation optimisé, vous souhaiterez peut-être le tester ou comparer ses réponses avec le modèle de base. Vous pouvez tester un modèle de fondation optimisé dans une discussion grâce à la fonctionnalité **Générer, extraire et résumer du contenu**.

Démarrez une discussion avec un modèle peaufiné en choisissant l’une des méthodes suivantes :
+ Dans l'onglet **Analyser** du modèle affiné, choisissez **Tester dans les modèles de Ready-to-use base**.
+ Sur la page **Ready-to-use des modèles** Canvas, choisissez **Générer, extraire et résumer le contenu**. Choisissez ensuite **Nouvelle discussion** et sélectionnez la version du modèle que vous souhaitez tester.

Le modèle démarre dans une discussion et vous pouvez interagir avec lui comme avec n’importe quel autre modèle de fondation. Vous pouvez ajouter d’autres modèles à la discussion et comparer leurs sorties. Pour plus d’informations sur les fonctionnalités des discussions, consultez [Modèles de base d'IA générative dans SageMaker Canvas](canvas-fm-chat.md).

## Opérationnalisation des modèles de fondation optimisés
<a name="canvas-fm-chat-fine-tune-mlops"></a>

Après avoir optimisé votre modèle dans Canvas, vous pouvez effectuer les opérations suivantes :
+ Enregistrez le modèle dans le registre des SageMaker modèles pour l'intégrer aux MLOps processus de votre organisation. Pour de plus amples informations, veuillez consulter [Enregistrer une version de modèle dans le registre des modèles d' SageMaker IA](canvas-register-model.md).
+ Déployez le modèle sur un point de terminaison d' SageMaker IA et envoyez des demandes au modèle depuis votre application ou votre site Web pour obtenir des prédictions (ou des *inférences*). Pour de plus amples informations, veuillez consulter [Déploiement de vos modèles sur un point de terminaison](canvas-deploy-model.md).

**Important**  
Vous ne pouvez enregistrer et déployer que des modèles de JumpStart base affinés, et non des modèles basés sur Amazon Bedrock.