

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Ajouter un modèle
<a name="jumpstart-content-sharing-add-model"></a>

Pour ajouter un modèle, choisissez **Partagés par mon organisation**, puis sélectionnez **Ajouter un modèle** dans la liste déroulante **Ajouter**. Entrez les informations de base de votre modèle et ajoutez toutes les informations de formation ou d'inférence que vous souhaitez partager avec des collaborateurs, pour former ou déployer votre modèle. Après avoir saisi toutes les informations nécessaires, choisissez **Ajouter un modèle** dans le coin inférieur droit.

**Topics**
+ [Ajout d’informations de base](jumpstart-content-sharing-info.md)
+ [Activer l'entraînement](jumpstart-content-sharing-training.md)
+ [Activer le déploiement](jumpstart-content-sharing-deployment.md)
+ [Ajouter un bloc-notes](jumpstart-content-sharing-notebooks.md)

# Ajout d’informations de base
<a name="jumpstart-content-sharing-info"></a>

L'ajout d'un modèle JumpStart implique de fournir des informations de base sur le modèle que vous souhaitez entraîner. Ces informations permettent de définir les caractéristiques et les capacités de votre modèle, et de le rendre plus facile à découvrir et à rechercher. Pour créer un modèle, procédez comme suit :

1. Ajoutez un titre pour ce modèle. L'ajout d'un titre renseigne automatiquement un identifiant unique dans le champ ID en fonction du titre du modèle.

1. Ajouter une description du modèle.

1. Sélectionnez un type de données parmi les options : *texte* (texte), *vision*, *tabular* (tabulaire) ou *audio*.

1. Sélectionnez une tâche de machine learning dans la liste des tâches disponibles, comme *image classification* (classification d'images) ou *text generation* (génération de texte).

1. Sélectionnez un cadre de machine learning.

1. Ajoutez des informations de métadonnées avec des mots clés ou des expressions à utiliser lors de la recherche d'un modèle. Séparez les mots clés à l'aide de virgules. Tous les espaces sont automatiquement remplacés par des virgules.

# Activer l'entraînement
<a name="jumpstart-content-sharing-training"></a>

Lorsque vous ajoutez un modèle à partager, vous pouvez fournir un environnement d'entraînement et permettre aux collaborateurs de votre organisation d'entraîner le modèle partagé. 

**Note**  
Si vous ajoutez un modèle tabulaire, vous devez également spécifier un format de colonne et une colonne cible pour activer l'entraînement.

Après avoir fourni les informations de base concernant votre modèle, vous devez configurer les paramètres de la tâche d’entraînement qui sera utilisée pour l’entraîner. Cela implique de spécifier l’environnement du conteneur, les scripts de code, les jeux de données, les emplacements de sortie et divers autres paramètres permettant de contrôler comment la tâche d’entraînement est exécutée. Pour configurer les paramètres de la tâche d’entraînement, procédez comme suit :

1. Ajoutez un conteneur à utiliser pour l'entraînement des modèles. Vous pouvez sélectionner un conteneur utilisé pour un poste de formation existant, apporter votre propre conteneur dans Amazon ECR ou utiliser un conteneur Amazon SageMaker Deep Learning.

1. Ajoutez des variables d'environnement.

1. Indiquez l'emplacement du script d'entraînement.

1. Fournissez un point d'entrée en mode script.

1. Fournissez un URI Amazon S3 pour les artefacts du modèle générés pendant l'entraînement.

1. Fournissez l'URI Amazon S3 au jeu de données d'entraînement par défaut.

1. Fournissez un chemin de sortie du modèle. Le chemin de sortie du modèle doit être le chemin de l'URI Amazon S3 pour tous les artefacts de modèle générés lors de l'entraînement. SageMaker L'IA enregistre les artefacts du modèle dans un seul fichier TAR compressé dans Amazon S3.

1. Fournissez un jeu de données de validation à utiliser pour évaluer votre modèle pendant l'entraînement. Les jeux de données de validation doivent contenir le même nombre de colonnes et les mêmes en-têtes de fonctions que le jeu de données d'entraînement.

1. Activez l'isolation du réseau. L'isolation du réseau isole le conteneur du modèle afin qu'aucun appel réseau entrant ou sortant ne puisse être effectué vers le conteneur modèle ou à partir de celui-ci.

1. Fournissez des canaux de formation par le biais desquels l' SageMaker IA peut accéder à vos données. Par exemple, vous pouvez spécifier les canaux d'entrée nommés `train` ou `test`. Pour chaque canal, spécifiez un nom de canal et un URI indiquant l'emplacement de vos données. Choisissez **Browse** (Parcourir) pour rechercher des emplacements Amazon S3.

1. Fournissez des hyperparamètres. Ajoutez tous les hyperparamètres que les collaborateurs devraient tester pendant l'entraînement. Fournissez une plage de valeurs valides pour ces hyperparamètres. Cette plage est utilisée pour la validation des hyperparamètres des tâches d'entraînement. Vous pouvez définir des plages en fonction du type de données de l'hyperparamètre.

1. Sélectionnez un type d'instance. Nous recommandons d'utiliser une instance de GPU avec davantage de mémoire pour l'entraînement avec de grandes tailles de lot. Pour obtenir une liste complète des instances de SageMaker formation dans toutes AWS les régions, consultez le tableau **des tarifs à la demande** dans [Amazon SageMaker Pricing.](https://aws.amazon.com/sagemaker/pricing/)

1. Fournissez des métriques. Définissez les métriques d'une tâche d'entraînement en spécifiant un nom et une expression régulière pour chaque métrique surveillée par votre entraînement. Concevez les expressions régulières de manière à ce qu'elles capturent les valeurs des métriques émises par votre algorithme. Par exemple, la métrique `loss` peut contenir l'expression régulière `"Loss =(.*?);"`.

# Activer le déploiement
<a name="jumpstart-content-sharing-deployment"></a>

Lorsque vous ajoutez un modèle à partager, vous pouvez fournir un environnement d'inférence dans lequel les collaborateurs de votre organisation peuvent déployer le modèle partagé pour l'inférence.

Après avoir entraîné votre modèle d'apprentissage automatique, vous devrez le déployer sur un point de terminaison Amazon SageMaker AI à des fins d'inférence. Cela implique de fournir un environnement de conteneur, un script d’inférence, les artefacts du modèle générés pendant l’entraînement, et de sélectionner un type d’instance de calcul approprié. Une bonne configuration de ces paramètres est essentielle pour garantir que votre modèle déployé peut effectuer des prédictions précises et traiter efficacement les demandes d’inférence. Pour configurer votre modèle à des fins d’inférence, procédez comme suit :

1. Ajoutez un conteneur à utiliser pour l'inférence. Vous pouvez apporter votre propre conteneur dans Amazon ECR ou utiliser un conteneur Amazon SageMaker Deep Learning.

1. Fournissez l'URI Amazon S3 à un script d'inférence. Des scripts d'inférence personnalisés s'exécutent dans le conteneur de votre choix. Votre script d'inférence doit inclure une fonction de chargement du modèle et, éventuellement, des fonctions générant des prédictions et traitant les entrées et les sorties. Pour plus d'informations sur la création de scripts d'inférence pour le framework de votre choix, consultez [Frameworks](https://sagemaker.readthedocs.io/en/stable/frameworks/index.html) dans la documentation du SDK SageMaker Python. Par exemple, pour TensorFlow, voir [Comment implémenter le ou les gestionnaires de and/or pré-post-traitement.](https://sagemaker.readthedocs.io/en/stable/frameworks/tensorflow/deploying_tensorflow_serving.html#how-to-implement-the-pre-and-or-post-processing-handler-s)

1. Fournissez un URI Amazon S3 pour les artefacts de modèle. Les artefacts de modèle sont les résultats de l'entraînement d'un modèle. Ils se composent généralement de paramètres entraînés, d'une définition de modèle décrivant comment calculer les inférences et d'autres métadonnées. Si vous avez entraîné votre modèle à l' SageMaker IA, les artefacts du modèle sont enregistrés dans un seul fichier TAR compressé dans Amazon S3. Si vous avez entraîné votre modèle en dehors de l' SageMaker IA, vous devez créer ce fichier TAR compressé unique et l'enregistrer dans un emplacement Amazon S3.

1. Sélectionnez un type d'instance. Nous recommandons d'utiliser une instance de GPU avec davantage de mémoire pour l'entraînement avec de grandes tailles de lot. Pour obtenir une liste complète des instances de SageMaker formation dans toutes AWS les régions, consultez le tableau **des tarifs à la demande** dans [Amazon SageMaker Pricing](https://aws.amazon.com/sagemaker/pricing/).

# Ajouter un bloc-notes
<a name="jumpstart-content-sharing-notebooks"></a>

Pour ajouter un bloc-notes, choisissez **Partagés par mon organisation**, puis sélectionnez **Ajouter un bloc-notes** dans la liste déroulante **Ajouter**. Entrez les informations de base de votre bloc-notes et fournissez un URI Amazon S3 pour l'emplacement de ce bloc-notes. 

Tout d'abord, ajoutez les informations descriptives de base sur votre bloc-notes. Ces informations permettent d'améliorer la facilité de recherche de votre bloc-notes.

1. Ajoutez un titre à ce bloc-notes. L'ajout d'un titre renseigne automatiquement un identifiant unique dans le champ ID en fonction du titre du bloc-notes.

1. Ajoutez une description du bloc-notes.

1. Sélectionnez un type de données parmi les options : *texte* (texte), *vision*, *tabular* (tabulaire) ou *audio*.

1. Sélectionnez une tâche de machine learning dans la liste des tâches disponibles, comme *image classification* (classification d'images) ou *text generation* (génération de texte).

1. Sélectionnez un framework de machine learning.

1. Ajoutez des informations de métadonnées avec des mots clés ou des expressions à utiliser lors de la recherche d'un bloc-notes. Séparez les mots clés à l'aide de virgules. Tous les espaces sont automatiquement remplacés par des virgules.

Après avoir spécifié les informations de base de ce bloc-notes, vous pouvez fournir un URI Amazon S3 pour son emplacement. Vous pouvez sélectionner **Browse** (Parcourir) pour parcourir vos compartiments Amazon S3 pour l'emplacement de votre fichier de votre bloc-notes. Une fois que vous avez trouvé votre bloc-notes, copiez l'URI Amazon S3, choisissez **Cancel** (Annuler), puis ajoutez l'URI Amazon S3 dans le champ **Notebook Location** (Emplacement du bloc-notes). 

Après avoir saisi toutes les informations nécessaires, choisissez **Add notebook** (Ajouter un bloc-notes) dans le coin inférieur droit. 