

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Algorithmes et modèles personnalisés avec AWS Marketplace
<a name="your-algorithms-marketplace"></a>

Les sections suivantes expliquent comment créer des ressources d'algorithmes et de packages de modèles que vous pouvez utiliser localement et publier AWS sur le Marketplace.

**Topics**
+ [Création de ressources d’algorithme et de package de modèle](sagemaker-mkt-create.md)
+ [Utilisation des ressources d’algorithme et de package de modèle](sagemaker-mkt-buy.md)

# Création de ressources d’algorithme et de package de modèle
<a name="sagemaker-mkt-create"></a>

Une fois que votre code d' and/or inférence d'entraînement est intégré dans des conteneurs Docker, créez des ressources d'algorithmes et de packages de modèles que vous pouvez utiliser dans votre compte Amazon SageMaker AI et, éventuellement, y publier. AWS Marketplace

**Topics**
+ [Création d’une ressource d’algorithme](sagemaker-mkt-create-algo.md)
+ [Création d’une ressource de package de modèle](sagemaker-mkt-create-model-package.md)

# Création d’une ressource d’algorithme
<a name="sagemaker-mkt-create-algo"></a>

Vous pouvez créer une ressource d'algorithme à utiliser pour les tâches de formation dans Amazon SageMaker AI, et vous pouvez la publier sur ce site AWS Marketplace. Les sections suivantes expliquent comment procéder à l'aide de l'API AWS Management Console et de l' SageMaker API.

Pour créer une ressource d’algorithme, vous spécifiez les informations suivantes :
+ Les conteneurs Docker qui contiennent le code d’entraînement et, éventuellement, d’inférence.
+ La configuration des données d’entrée attendues par votre algorithme pour l’entraînement.
+ Les hyperparamètres pris en charge par votre algorithme.
+ Mesures que votre algorithme envoie à Amazon CloudWatch pendant les tâches de formation.
+ Les types d’instances pris en charge par votre algorithme pour l’entraînement et l’inférence, et l’information relative à la prise en charge ou non de l’entraînement distribué sur plusieurs instances.
+ Les profils de validation, qui sont des tâches de formation que l' SageMaker IA utilise pour tester le code d'apprentissage de votre algorithme et des tâches de transformation par lots que l' SageMaker IA exécute pour tester le code d'inférence de votre algorithme.

  Pour que les acheteurs et les vendeurs puissent être sûrs que les produits fonctionnent grâce à l' SageMaker IA, nous vous demandons de valider vos algorithmes avant de les mettre en vente AWS Marketplace. Vous ne pouvez y mettre des produits AWS Marketplace que si la validation aboutit. Pour valider vos algorithmes, l' SageMaker IA utilise votre profil de validation et des exemples de données pour exécuter les tâches de validation suivantes :

  1. Créez un poste de formation dans votre compte pour vérifier que votre image de formation fonctionne avec l' SageMaker IA.

  1. Si vous avez inclus le code d’inférence dans l’algorithme, créer un modèle dans votre compte à l’aide de l’image d’inférence de l’algorithme et des artefacts de modèles produits par la tâche d’entraînement.

  1. Si vous avez inclus un code d'inférence dans votre algorithme, créez une tâche de transformation dans votre compte à l'aide du modèle pour vérifier que votre image d'inférence fonctionne avec SageMaker l'IA.

  Lorsque vous mettez votre produit en vente AWS Marketplace, les entrées et les sorties de ce processus de validation sont conservées dans le cadre de votre produit et sont mises à la disposition de vos acheteurs. Les acheteurs peuvent ainsi mieux comprendre et évaluer le produit avant de l’acheter. Par exemple, les acheteurs peuvent examiner les données d’entrée que vous avez utilisées, les sorties générées et les journaux et métriques émis par votre code. Il leur sera d’autant plus facile d’évaluer votre produit si votre spécification de validation est exhaustive.
**Note**  
Dans votre profil de validation, fournissez uniquement les données que vous souhaitez exposer publiquement.

  La validation peut durer plusieurs heures. Pour connaître le statut des tâches de votre compte, dans la console SageMaker AI, consultez les pages Tâches de **formation** et **Tâches de transformation**. Si la validation échoue, vous pouvez accéder aux rapports de scan et de validation depuis la console SageMaker AI. Si des problèmes sont détectés, vous devrez recréer l’algorithme.
**Note**  
Pour publier votre algorithme sur AWS Marketplace, au moins un profil de validation est requis.

Vous pouvez créer un algorithme à l'aide de la console SageMaker IA ou de l'API SageMaker AI.

**Topics**
+ [Création d’une ressource d’algorithme (console)](#sagemaker-mkt-create-algo-console)
+ [Création d’une ressource d’algorithme (API)](#sagemaker-mkt-create-algo-api)

## Création d’une ressource d’algorithme (console)
<a name="sagemaker-mkt-create-algo-console"></a>

**Pour créer une ressource d’algorithme (console)**

1. Ouvrez la console SageMaker AI à l'adresse [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/).

1. Dans le menu de gauche, sélectionnez **Training** (Entraînement).

1. Dans le menu déroulant, sélectionnez **Algorithms** (Algorithmes), puis **Create algorithm** (Créer un algorithme).

1. Sur la page **Spécifications d’entraînement**, fournissez les informations suivantes :

   1. Nommez votre algorithme dans le champ **Nom de l’algorithme**. Le nom de l'algorithme doit être unique dans votre compte et dans la AWS région. Il doit comporter entre 1 et 64 caractères. Les caractères valides sont : a-z, A-Z, 0-9 et le trait d’union (-).

   1. Décrivez votre algorithme. Cette description apparaît dans la console SageMaker AI et dans le AWS Marketplace.

   1. Sous **Image d’entraînement, saisissez le chemin d’accès dans Amazon ECR où votre conteneur d’entraînement est stocké.**

   1. Sous **Support distributed training (Prendre en charge l’entraînement distribué)**, choisissez **Oui** si votre algorithme prend en charge l’entraînement sur plusieurs instances. Sinon, choisissez **Non**.

   1. Sous **Support instance types for training (Prendre en charge les types d’instances pour l’entraînement)**, choisissez les types d’instances pris en charge par votre algorithme.

   1. Sous **Channel spécification (Spécification des canaux)**, spécifiez jusqu’à 8 canaux de données d’entrée pour votre algorithme. Par exemple, vous pouvez spécifier les trois canaux d’entrée nommés `train`, `validation` et `test`. Pour chaque canal, spécifiez les informations suivantes :

      1. Sous **Nom du canal**, tapez un nom pour le canal. Il doit comporter entre 1 et 64 caractères. Les caractères valides sont : a-z, A-Z, 0-9 et le trait d’union (-).

      1. Pour exiger le canal lié à votre algorithme, choisissez **Channel required (Canal obligatoire)**.

      1. Décrivez le canal.

      1. Sous **Supported input modes (Modes d’entrée pris en charge)**, choisissez **Pipe mode (Mode Tube)** si votre algorithme prend en charge le streaming des données d’entrée et **File mode (Mode Fichier)** si votre algorithme prend en charge le téléchargement des données d’entrée en tant que fichier. Vous pouvez choisir les deux modes.

      1. Sous **Supported content types (Types de contenu pris en charge)**, saisissez le type MIME attendu par votre algorithme pour les données d’entrée.

      1. Sous **Supported compression type (Type de compression pris en charge)**, choisissez **Gzip** si votre algorithme prend en charge la compression gzip. Sinon, sélectionnez **None (Aucun)**.

      1. Choisissez **Ajouter canal** pour ajouter un autre canal d’entrée de données ou **Suivant** si vous avez terminé l’ajout de canaux.

1. Sur la page **Tuning specifications (Spécifications de réglage)**, fournissez les informations suivantes :

   1. Sous **Hyperparameter specification (Spécification d’hyperparamètre)**, spécifiez les hyperparamètres pris en charge par votre algorithme en modifiant l’objet JSON. Pour chaque hyperparamètre pris en charge par votre algorithme, construisez un bloc JSON similaire à ce qui suit :

      ```
      {
      "DefaultValue": "5",
      "Description": "The first hyperparameter",
      "IsRequired": true,
      "IsTunable": false,
      "Name": "intRange",
      "Range": {
      "IntegerParameterRangeSpecification": {
      "MaxValue": "10",
      "MinValue": "1"
      },
      "Type": "Integer"
      }
      ```

      Dans l’objet JSON, précisez ce qui suit :

      1. Pour `DefaultValue`, spécifiez une valeur par défaut de l’hyperparamètre, le cas échéant.

      1. Pour `Description`, décrivez l’hyperparamètre.

      1. Pour `IsRequired`, indiquez si l’hyperparamètre est obligatoire.

      1. Pour `IsTunable`, spécifiez `true` si cet hyperparamètre peut être ajusté lorsqu’un utilisateur exécute une tâche de réglage des hyperparamètres reposant sur cet algorithme. Pour plus d'informations, veuillez consulter [Réglage automatique du modèle grâce à l' SageMaker IA](automatic-model-tuning.md).

      1. Pour `Name`, spécifiez un nom pour l’hyperparamètre.

      1. Pour `Range`, spécifiez l’une des valeurs suivantes :
         + `IntegerParameterRangeSpecification` : les valeurs de l’hyperparamètre sont des nombres entiers. Spécifiez les valeurs minimum et maximum de l’hyperparamètre.
         + 
         + `ContinuousParameterRangeSpecification` : les valeurs de l’hyperparamètre sont des valeurs à virgule flottante. Spécifiez les valeurs minimum et maximum de l’hyperparamètre.
         + `CategoricalParameterRangeSpecification` : les valeurs de l’hyperparamètre sont des valeurs catégorielles. Spécifiez une liste de toutes les valeurs possibles.

      1. Pour `Type`, spécifiez `Integer`, `Continuous` ou `Categorical`. La valeur doit correspondre au type de `Range` que vous avez spécifié.

   1. Pour **les définitions de métriques**, spécifiez les métriques d'entraînement que vous souhaitez que votre algorithme émette. SageMaker L'IA utilise l'expression régulière que vous spécifiez pour trouver les métriques en analysant les journaux de votre conteneur d'entraînement pendant l'entraînement. Les utilisateurs peuvent consulter ces indicateurs lorsqu'ils exécutent des tâches de formation avec votre algorithme, et ils peuvent surveiller et tracer les indicateurs sur Amazon CloudWatch. Pour plus d'informations, consultez [Amazon CloudWatch Metrics pour le suivi et l'analyse des offres de formation](training-metrics.md). Pour chaque métrique, indiquez les informations suivantes :

      1. Sous **Nom de métrique**, nommez la métrique.

      1. Pour`Regex`, tapez l'expression régulière que l' SageMaker IA utilise pour analyser les journaux d'entraînement afin de trouver la valeur de la métrique.

      1. Sous **Prise en charge de la métrique d’objectif**, choisissez **Oui** si cette métrique peut être utilisée comme métrique d’objectif pour une tâche de réglage d’hyperparamètre. Pour plus d'informations, veuillez consulter [Réglage automatique du modèle grâce à l' SageMaker IA](automatic-model-tuning.md).

      1. Choisissez **Ajouter une métrique** pour ajouter une autre métrique ou **Suivant** si vous avez terminé l’ajout de métriques.

1. Sur la page **Spécifications de l’inférence**, fournissez les informations suivantes si votre algorithme prend en charge l’inférence :

   1. Pour **Emplacement de l’image d’inférence**, saisissez le chemin d’accès dans Amazon ECR où votre conteneur d’inférence est stocké.

   1. Sous **Container DNS host name (Nom d’hôte DNS du conteneur)**, tapez le nom d’un hôte DNS pour votre image.

   1. Pour les **types d'instances pris en charge pour l'inférence en temps réel**, choisissez les types d'instances pris en charge par votre algorithme pour les modèles déployés en tant que points de terminaison hébergés dans SageMaker l'IA. Pour plus d'informations, consultez [Déploiement de modèles pour l'inférence](deploy-model.md).

   1. Sous **Supported instance types for batch transform jobs (Types d’instances pris en charge pour les tâches de transformation par lots)**, choisissez les types d’instances pris en charge par votre algorithme pour les tâches de transformation par lots. Pour plus d'informations, veuillez consulter [Transformation par lots à des fins d'inférence avec Amazon AI SageMaker](batch-transform.md).

   1. Sous **Supported content types (Types de contenu pris en charge)**, saisissez le type de données d’entrée attendu par votre algorithme pour les demandes d’inférence.

   1. Sous **Supported response MIME types (Types MIME de réponse pris en charge)**, tapez les types MIME que votre algorithme prend en charge pour les réponses d’inférence.

   1. Choisissez **Suivant**.

1. Sur la page **Validation specifications (Spécifications de validation)**, spécifiez les informations ci-dessous :

   1. Pour **Publier cet algorithme sur AWS Marketplace**, choisissez **Oui** pour publier l'algorithme AWS Marketplace.

   1. Pour **Valider cette ressource**, choisissez **Oui** si vous souhaitez que l' SageMaker IA exécute le code d'and/or batch transform jobs that you specify to test the training and/orinférence des tâches d'entraînement de votre algorithme.
**Note**  
Pour publier votre algorithme sur AWS Marketplace, celui-ci doit être validé.

   1. Pour le **rôle IAM**, choisissez un rôle IAM disposant des autorisations requises pour exécuter des tâches de formation et des tâches de transformation par lots dans SageMaker AI, ou choisissez **Create a new role** pour permettre à SageMaker AI de créer un rôle auquel la politique `AmazonSageMakerFullAccess` gérée est attachée. Pour plus d'informations, consultez [Comment utiliser les rôles d'exécution de l' SageMaker IA](sagemaker-roles.md).

   1. Sous **Profil de validation**, spécifiez ce qui suit :
      + Un nom pour le profil de validation.
      + Une **définition de tâche d’entraînement**. Il s’agit d’un bloc JSON qui décrit une tâche d’entraînement. Ce paramètre a le même format que le paramètre d’entrée [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TrainingJobDefinition.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TrainingJobDefinition.html) de l’API [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAlgorithm.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAlgorithm.html).
      + Une **définition de tâche de transformation**. Il s’agit d’un bloc JSON qui décrit une tâche de transformation par lots. Ce paramètre a le même format que le paramètre d'entrée [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TransformJobDefinition.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TransformJobDefinition.html) de l'API [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAlgorithm.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAlgorithm.html).

   1. Choisissez **Create algorithm (Créer un algorithme)**.

## Création d’une ressource d’algorithme (API)
<a name="sagemaker-mkt-create-algo-api"></a>

Pour créer une ressource d'algorithme à l'aide de l' SageMaker API, appelez l'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAlgorithm.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAlgorithm.html)API. 

# Création d’une ressource de package de modèle
<a name="sagemaker-mkt-create-model-package"></a>

Pour créer une ressource de package de modèles que vous pouvez utiliser pour créer des modèles déployables dans Amazon SageMaker AI et les publier, AWS Marketplace spécifiez les informations suivantes :
+ Le conteneur Docker qui contient le code d’inférence ou la ressource d’algorithme qui a été utilisée pour former le modèle.
+ L’emplacement des artefacts de modèles. Les artefacts de modèle peuvent être empaquetés dans le même conteneur Docker que le code d’inférence ou stockés dans Amazon S3.
+ Les types d’instances pris en charge par votre package de modèle pour les tâches d’inférence et de transformation par lots en temps réel.
+ Les profils de validation, qui sont des tâches de transformation par lots que l' SageMaker IA exécute pour tester le code d'inférence du package de votre modèle.

  Avant de mettre en vente des modèles de packages AWS Marketplace, vous devez les valider. Cela garantit que les acheteurs et les vendeurs peuvent être sûrs que les produits fonctionnent dans Amazon SageMaker AI. Vous ne pouvez mettre en vente des produits AWS Marketplace que si la validation aboutit. 

  La procédure de validation utilise votre profil de validation et les exemples de données afin d’exécuter les tâches de validation ci-dessous :

  1. Création d’un modèle dans votre compte à l’aide de l’image d’inférence du package de modèle et des artefacts de modèle facultatifs qui sont stockés dans Amazon S3.
**Note**  
Un package de modèle est spécifique à la région dans laquelle vous le créez. Le compartiment S3 où les artefacts de modèle sont stockés doit se trouver dans la même région que celle où vous avez créé le package de modèle.

  1. Créez une tâche de transformation dans votre compte à l'aide du modèle pour vérifier que votre image d'inférence fonctionne avec l' SageMaker IA.

  1. Créez un profil de validation.
**Note**  
Dans votre profil de validation, fournissez uniquement les données que vous souhaitez exposer publiquement.

  La validation peut durer plusieurs heures. Pour connaître le statut des tâches de votre compte, consultez les pages de **transformation des tâches** dans la console SageMaker AI. Si la validation échoue, vous pouvez accéder aux rapports de scan et de validation depuis la console SageMaker AI. Une fois les problèmes corrigés, recréez l’algorithme. Lorsque le statut de l'algorithme est atteint`COMPLETED`, trouvez-le dans la console SageMaker AI et lancez le processus de listage
**Note**  
Pour publier votre modèle de package sur AWS Marketplace, au moins un profil de validation est requis.

Vous pouvez créer un modèle de package soit à l'aide de la console SageMaker AI, soit à l'aide de l' SageMaker API.

**Topics**
+ [Création d’une ressource de package de modèle (console)](#sagemaker-mkt-create-model-pkg-console)
+ [Création d’une ressource de package de modèle (API)](#sagemaker-mkt-create-model-pkg-api)

## Création d’une ressource de package de modèle (console)
<a name="sagemaker-mkt-create-model-pkg-console"></a>

**Pour créer un package modèle dans la console SageMaker AI :**

1. Ouvrez la console SageMaker AI à l'adresse [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/).

1. Dans le menu de gauche, sélectionnez **Inférence**.

1. Sélectionnez **Packages de marketplace**, puis sélectionnez **Créer un package de modèle de marketplace**.

1. Sur la page **Spécifications d’inférence**, fournissez les informations suivantes :

   1. Sous **Nom du package de modèle**, attribuez un nom au package de modèle. Le nom du package modèle doit être unique dans votre compte et dans la AWS région. Il doit comporter entre 1 et 64 caractères. Les caractères valides sont : a-z, A-Z, 0-9 et le trait d’union (-).

   1. Tapez une description pour votre package de modèle. Cette description apparaît dans la console SageMaker AI et dans le AWS Marketplace.

   1. Sous **Options de spécification d’inférence**, choisissez **Préciser l’emplacement de l’image d’inférence et des artefacts de modèles** afin de créer un package de modèle à l’aide d’un conteneur d’inférence et d’artefacts de modèles. Choisissez **Préciser l’algorithme utilisé pour l’entraînement et ses artefacts de modèles** afin de créer un package de modèle à partir d’une ressource d’algorithme que vous avez créée ou à laquelle vous vous êtes abonné sur AWS Marketplace.

   1. Si vous avez choisi **Préciser l’emplacement de l’image d’inférence et des artefacts de modèles** comme **Options de spécification d’inférence**, fournissez les informations suivantes dans les champs **Définition de conteneur** et **Ressources prises en charge** :

      1. Sous **Emplacement de l’image d’inférence**, tapez le chemin d’accès à l’image qui contient le code d’inférence. L’image doit être stockée en tant que conteneur Docker dans Amazon ECR.

      1. Sous **Emplacement des artefacts de données de modèles**, tapez l’emplacement dans S3 où sont stockés les artefacts de modèles.

      1. Sous **Nom d’hôte DNS du conteneur**, tapez le nom de l’hôte DNS à utiliser pour votre conteneur.

      1. Pour les **types d'instances pris en charge pour l'inférence en temps réel**, choisissez les types d'instances pris en charge par votre package de modèles pour l'inférence en temps réel à partir de points de terminaison hébergés par l' SageMaker IA.

      1. Sous **Types d’instances pris en charge pour les tâches de transformation par lots**, choisissez les types d’instances pris en charge par votre package de modèle pour les tâches de transformation par lots.

      1. Sous **Types de contenu pris en charge**, saisissez les types de contenu attendus par votre package de modèle pour les demandes d’inférence.

      1. Sous **Types MIME de réponse pris en charge**, tapez les types MIME utilisés par votre modèle pour fournir des inférences.

   1. Si vous avez choisi **Préciser l’algorithme utilisé pour l’entraînement et ses artefacts de modèles** comme **Options de spécification d’inférence**, fournissez les informations suivantes :

      1. Sous **ARN de l’algorithme**, saisissez l’Amazon Resource Name (ARN) de la ressource d’algorithme à utiliser pour créer le package de modèle.

      1. Sous **Emplacement des artefacts de données de modèles**, tapez l’emplacement dans S3 où sont stockés les artefacts de modèles.

   1. Choisissez **Suivant**.

1. Sur la page **Validation et analyse**, fournissez les informations suivantes :

   1. Pour **Publier ce modèle de package sur AWS Marketplace**, choisissez **Oui** pour publier le modèle de package sur AWS Marketplace.

   1. Pour **Valider cette ressource**, choisissez **Oui** si vous souhaitez que l' SageMaker IA exécute les tâches de transformation par lots que vous spécifiez pour tester le code d'inférence de votre package de modèle.
**Note**  
Pour publier votre modèle de package sur AWS Marketplace, celui-ci doit être validé.

   1. Pour le **rôle IAM**, choisissez un rôle IAM disposant des autorisations requises pour exécuter des tâches de transformation par lots dans SageMaker AI, ou choisissez **Create a new role** pour permettre à SageMaker AI de créer un rôle auquel la politique `AmazonSageMakerFullAccess` gérée est attachée. Pour plus d'informations, consultez [Comment utiliser les rôles d'exécution de l' SageMaker IA](sagemaker-roles.md).

   1. Sous **Profil de validation**, spécifiez ce qui suit :
      + Un nom pour le profil de validation.
      + Une **définition de tâche de transformation**. Il s’agit d’un bloc JSON qui décrit une tâche de transformation par lots. Ce paramètre a le même format que le paramètre d’entrée [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TransformJobDefinition.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TransformJobDefinition.html) de l’API [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAlgorithm.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAlgorithm.html).

1. Sélectionnez **Créer un package de modèle de marketplace**.

## Création d’une ressource de package de modèle (API)
<a name="sagemaker-mkt-create-model-pkg-api"></a>

Pour créer un package modèle à l'aide de l' SageMaker API, appelez l'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModelPackage.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModelPackage.html)API. 

# Utilisation des ressources d’algorithme et de package de modèle
<a name="sagemaker-mkt-buy"></a>

Vous pouvez créer des algorithmes et des packages de modèles comme ressources dans votre compte Amazon SageMaker AI. Vous pouvez aussi rechercher des algorithmes et des packages de modèles et vous y abonner sur AWS Marketplace.

Utilisez les algorithmes pour accomplir ce qui suit :
+ Exécuter des tâches d’entraînement. Pour plus d’informations, consultez [Utilisation d’un algorithme pour exécuter une tâche d’entraînement](sagemaker-mkt-algo-train.md).
+ Exécuter des tâches de réglage d’hyperparamètre. Pour plus d’informations, consultez [Utilisation d’un algorithme pour exécuter une tâche de réglage d’hyperparamètre](sagemaker-mkt-algo-tune.md).
+ Créer des packages de modèle. Si vous avez utilisé une ressource d’algorithme afin d’exécuter une tâche d’entraînement ou une tâche de réglage d’hyperparamètre, vous pouvez utiliser les artefacts de modèles générés par ces tâches avec l’algorithme pour créer un package de modèle. Pour plus d’informations, consultez [Création d’une ressource de package de modèle](sagemaker-mkt-create-model-package.md).
**Note**  
Si vous vous abonnez à un algorithme sur AWS Marketplace, vous devez créer un package de modèle que vous utiliserez pour obtenir des inférences en configurant un point de terminaison hébergé ou en exécutant une tâche de transformation par lots.

![\[flux de travail d’acheteur du marché.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/mkt-buyer-workflow.png)


Utilisez les packages de modèle pour accomplir ce qui suit :
+ Créer des modèles que vous pouvez utiliser pour obtenir l’inférence en temps réel ou pour exécuter des tâches de transformation par lots. Pour plus d’informations, consultez [Utilisation d’un package de modèle pour créer un modèle](sagemaker-mkt-model-pkg-model.md).
+ Créer des points de terminaison hébergés afin d’obtenir l’inférence en temps réel. Pour plus d’informations, consultez [Déployer le modèle sur les services d'hébergement SageMaker AI](ex1-model-deployment.md#ex1-deploy-model).
+ Créer des tâches de transformation par lots. Pour plus d’informations, consultez [(Facultatif) Faire une prédiction avec la transformation par lots](ex1-model-deployment.md#ex1-batch-transform).

**Topics**
+ [Utilisation d’un algorithme pour exécuter une tâche d’entraînement](sagemaker-mkt-algo-train.md)
+ [Utilisation d’un algorithme pour exécuter une tâche de réglage d’hyperparamètre](sagemaker-mkt-algo-tune.md)
+ [Utilisation d’un package de modèle pour créer un modèle](sagemaker-mkt-model-pkg-model.md)

# Utilisation d’un algorithme pour exécuter une tâche d’entraînement
<a name="sagemaker-mkt-algo-train"></a>

Vous pouvez créer une ressource d'algorithme pour créer une tâche de formation à l'aide de la console Amazon SageMaker AI, de l' SageMaker API Amazon de bas niveau ou du [SDK Amazon SageMaker Python](https://sagemaker.readthedocs.io/en/stable).

**Note**  
Votre rôle d'exécution doit être `sagemaker:DescribeAlgorithm` autorisé à accéder à la ressource d'algorithme que vous spécifiez. Pour plus d'informations sur les autorisations des rôles d'exécution, consultez[CreateTrainingJob API : autorisations relatives aux rôles d'exécution](sagemaker-roles.md#sagemaker-roles-createtrainingjob-perms).

**Topics**
+ [Utilisation d’un algorithme pour exécuter une tâche d’entraînement (console)](#sagemaker-mkt-algo-train-console)
+ [Utilisation d’un algorithme pour exécuter une tâche d’entraînement (API)](#sagemaker-mkt-algo-train-api)
+ [Utiliser un algorithme pour exécuter une tâche de formation ([Amazon SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable))](#sagemaker-mkt-algo-train-sdk)

## Utilisation d’un algorithme pour exécuter une tâche d’entraînement (console)
<a name="sagemaker-mkt-algo-train-console"></a>

**Pour utiliser un algorithme afin d’exécuter une tâche d’entraînement (console)**

1. Ouvrez la console SageMaker AI à l'adresse [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/).

1. Choisissez **Algorithmes**.

1. Choisissez un algorithme que vous avez créé dans la liste de l’onglet **Mes algorithmes** ou choisissez un algorithme auquel vous vous êtes abonné sur l’onglet des **abonnements AWS Marketplace **.

1. Choisissez **Créer une tâche d’entraînement**.

   L’algorithme que vous avez choisi sera automatiquement sélectionné.

1. Sur la page **Créer une tâche d’entraînement**, fournissez les informations suivantes :

   1. Sous **Nom de la tâche**, nommez la tâche d’entraînement.

   1. Pour le **rôle IAM**, choisissez un rôle IAM disposant des autorisations requises pour exécuter des tâches de formation dans SageMaker AI, ou choisissez **Créer un nouveau rôle** pour permettre à SageMaker AI de créer un rôle auquel la politique `AmazonSageMakerFullAccess` gérée est attachée. Pour plus d'informations, consultez [Comment utiliser les rôles d'exécution de l' SageMaker IA](sagemaker-roles.md).

   1. Sous **Configuration des ressources**, fournissez les informations suivantes :

      1. Sous **Type d’instance**, choisissez le type d’instance à utiliser pour l’entraînement.

      1. Sous **Nombre d’instances**, saisissez le nombre d’instances ML à utiliser pour la tâche d’entraînement.

      1. Sous **Taille du volume par instance (Go)**, entrez la taille du volume de stockage ML que vous souhaitez allouer. Les volumes de stockage ML stockent les artefacts de modèles et les états incrémentiels.

      1. Pour la **clé de chiffrement**, si vous souhaitez qu'Amazon SageMaker AI utilise une AWS clé du service de gestion des clés pour chiffrer les données du volume de stockage ML attaché à l'instance de formation, spécifiez la clé.

      1. Sous **Condition d’arrêt**, spécifiez la durée maximale, en secondes, en minutes, en heures ou en jours, pendant laquelle doit s’exécuter la tâche d’entraînement.

   1. Sous **VPC**, choisissez un Amazon VPC auquel votre conteneur d’entraînement pourra accéder. Pour de plus amples informations, veuillez consulter [Donnez aux SageMaker professionnels de formation en IA l'accès aux ressources de votre Amazon VPC](train-vpc.md).

   1. Sous **Hyperparamètres**, spécifiez les valeurs des hyperparamètres à utiliser pour la tâche d’entraînement.

   1. Sous **Configuration des données d’entrée**, spécifiez les valeurs suivantes pour chaque canal de données d’entrée à utiliser pour la tâche d’entraînement. Les canaux pris en charge par l’algorithme que vous utilisez pour le support d’entraînement, le type de contenu, le type de compression pris en charge et les modes d’entrée pris en charge pour chaque canal sont visibles sous la section **Spécification de canal** de la page **Récapitulatif d’algorithme** de l’algorithme.

      1. Dans le champ **Nom du canal**, saisissez le nom du canal d’entrée.

      1. Sous **Type de contenu**, saisissez le type de contenu des données attendu par l’algorithme pour le canal.

      1. Sous **Type de compression**, choisissez le type de compression des données à utiliser, le cas échéant.

      1. Sous **Habillage des enregistrements**, choisissez `RecordIO` si l’algorithme attend des données au format `RecordIO`.

      1. Sous **Type de données S3**, **Type de distribution de données S3** et **Emplacement S3**, spécifiez les valeurs appropriées. Pour obtenir des informations sur la signification de ces valeurs, consultez [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_S3DataSource.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_S3DataSource.html).

      1. Sous **Mode d’entrée**, choisissez **Fichier** afin de télécharger les données depuis le volume de stockage ML alloué et montez le répertoire dans un volume Docker. Choisissez **Tube** pour diffuser directement les données d’Amazon S3 vers le conteneur.

      1. Pour ajouter un autre canal d’entrée, choisissez **Ajouter canal**. Si vous avez terminé d’ajouter des canaux d’entrée, choisissez **Terminé**.

   1. Sous l’emplacement **Sortie**, spécifiez les valeurs suivantes :

      1. Sous **Chemin de sortie S3**, choisissez l’emplacement S3 où la tâche d’entraînement stocke la sortie, tels les artefacts de modèles.
**Note**  
Vous utilisez les artefacts de modèles stockés à cet emplacement pour créer un modèle ou un package de modèle à partir de cette tâche d’entraînement.

      1. Pour la **clé de chiffrement**, si vous souhaitez que l' SageMaker IA utilise une AWS KMS clé pour chiffrer les données de sortie au repos dans l'emplacement S3.

   1. Sous **Balises**, spécifiez une ou plusieurs balises permettant de gérer la tâche d’entraînement. Chaque balise est constituée d'une clé et d'une valeur facultative. Les clés de balise doivent être uniques à chaque ressource.

   1. Choisissez **Créer une tâche d’entraînement** afin d’exécuter la tâche d’entraînement.

## Utilisation d’un algorithme pour exécuter une tâche d’entraînement (API)
<a name="sagemaker-mkt-algo-train-api"></a>

Pour utiliser un algorithme afin d'exécuter une tâche de formation à l'aide de l' SageMaker API, spécifiez le nom ou l'Amazon Resource Name (ARN) comme `AlgorithmName` champ de l'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AlgorithmSpecification.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AlgorithmSpecification.html)objet auquel vous passez [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html). Pour plus d'informations sur les modèles de formation en SageMaker IA, consultez[Entraînez un modèle avec Amazon SageMaker](how-it-works-training.md).

## Utiliser un algorithme pour exécuter une tâche de formation ([Amazon SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable))
<a name="sagemaker-mkt-algo-train-sdk"></a>

Utilisez un algorithme que vous avez créé ou auquel vous vous êtes abonné AWS Marketplace pour créer une tâche de formation, créer un `AlgorithmEstimator` objet et spécifier le nom de la ressource Amazon (ARN) ou le nom de l'algorithme comme valeur de l'`algorithm_arn`argument. Appelez ensuite la méthode `fit` de l’évaluateur. Par exemple : 

```
from sagemaker import AlgorithmEstimator
data_path = os.path.join(DATA_DIR, 'marketplace', 'training')

algo = AlgorithmEstimator(
algorithm_arn='arn:aws:sagemaker:us-east-2:012345678901:algorithm/my-algorithm',
        role='SageMakerRole',
        instance_count=1,
        instance_type='ml.c4.xlarge',
        sagemaker_session=sagemaker_session,
        base_job_name='test-marketplace')

train_input = algo.sagemaker_session.upload_data(
path=data_path, key_prefix='integ-test-data/marketplace/train')

algo.fit({'training': train_input})
```

# Utilisation d’un algorithme pour exécuter une tâche de réglage d’hyperparamètre
<a name="sagemaker-mkt-algo-tune"></a>

La section suivante explique comment utiliser une ressource d'algorithme pour exécuter une tâche de réglage d'hyperparamètres dans Amazon SageMaker AI. Une tâche de réglage d’hyperparamètre détecte la meilleure version d’un modèle en exécutant plusieurs tâches d’entraînement sur votre jeu de données à l’aide de l’algorithme et des plages d’hyperparamètres que vous spécifiez. Elle choisit ensuite les valeurs d’hyperparamètres qui génèrent un modèle avec des performances optimales, telles qu’elles sont mesurées par une métrique que vous choisissez. Pour de plus amples informations, veuillez consulter [Réglage automatique du modèle grâce à l' SageMaker IA](automatic-model-tuning.md).

Vous pouvez créer une ressource d'algorithme pour créer une tâche de réglage d'hyperparamètres à l'aide de la console Amazon SageMaker AI, de l' SageMaker API Amazon de bas niveau ou du SDK Amazon [ SageMaker Python](https://sagemaker.readthedocs.io/en/stable).

**Topics**
+ [Utilisation d’un algorithme pour exécuter une tâche de réglage d’hyperparamètre (console)](#sagemaker-mkt-algo-tune-console)
+ [Utilisation d’un algorithme pour exécuter une tâche de réglage d’hyperparamètre (API)](#sagemaker-mkt-algo-tune-api)
+ [Utiliser un algorithme pour exécuter une tâche de réglage d'hyperparamètres ([Amazon SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable))](#sagemaker-mkt-algo-tune-sdk)

## Utilisation d’un algorithme pour exécuter une tâche de réglage d’hyperparamètre (console)
<a name="sagemaker-mkt-algo-tune-console"></a>

**Pour utiliser un algorithme afin d’exécuter une tâche de réglage d’hyperparamètre (console)**

1. Ouvrez la console SageMaker AI à l'adresse [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/).

1. Choisissez **Algorithmes**.

1. Choisissez un algorithme que vous avez créé dans la liste de l’onglet **Mes algorithmes** ou choisissez un algorithme auquel vous vous êtes abonné sur l’onglet des **abonnements AWS Marketplace **.

1. Choisissez **Créer une tâche de réglage d’hyperparamètre**.

   L’algorithme que vous avez choisi sera automatiquement sélectionné.

1. Sur la page **Créer une tâche de réglage d’hyperparamètre**, fournissez les informations suivantes :

   1. Sous **Démarrage à chaud**, choisissez **Activer le démarrage à chaud** afin d’utiliser les informations issues des tâches de réglage d’hyperparamètre précédentes comme point de départ pour cette tâche de réglage d’hyperparamètre. Pour de plus amples informations, veuillez consulter [Exécution d'une tâche de réglage des hyperparamètres avec démarrage à chaud](automatic-model-tuning-warm-start.md).

      1. Choisissez **Algorithme et données identiques** si les données d’entrée sont identiques aux données d’entrée des tâches parentes de cette tâche de réglage d’hyperparamètre ou choisissez **Apprentissage par transfert** afin d’utiliser des données d’entrée supplémentaires ou différentes pour cette tâche de réglage d’hyperparamètre.

      1. Sous **Tâche(s) de réglage d’hyperparamètre parente(s)**, choisissez jusqu’à cinq tâches de réglage d’hyperparamètre à utiliser comme parentes de cette tâche de réglage d’hyperparamètre.

   1. Sous **Nom de tâche de réglage d’hyperparamètre**, saisissez un nom pour la tâche de réglage.

   1. Pour le **rôle IAM**, choisissez un rôle IAM disposant des autorisations requises pour exécuter des tâches de réglage d'hyperparamètres dans SageMaker AI, ou choisissez **Create a new role** pour permettre à SageMaker AI de créer un rôle auquel la politique `AmazonSageMakerFullAccess` gérée est attachée. Pour plus d'informations, consultez [Comment utiliser les rôles d'exécution de l' SageMaker IA](sagemaker-roles.md).

   1. Sous **VPC**, choisissez un Amazon VPC auquel les tâches d’entraînement lancées par la tâche de réglage pourront accéder. Pour de plus amples informations, veuillez consulter [Donnez aux SageMaker professionnels de formation en IA l'accès aux ressources de votre Amazon VPC](train-vpc.md).

   1. Choisissez **Suivant**.

   1. Sous **Métrique d’objectif**, choisissez la métrique que la tâche de réglage d’hyperparamètre utilise pour déterminer la meilleure combinaison des hyperparamètres, puis choisissez de réduire ou d’agrandir cette métrique. Pour de plus amples informations, veuillez consulter [Affichage de la meilleure tâche d'entraînement](automatic-model-tuning-ex-tuning-job.md#automatic-model-tuning-best-training-job).

   1. Sous **Configuration d’hyperparamètre**, choisissez les plages correspondant aux hyperparamètres réglables que la tâche de réglage doit rechercher, puis définissez les valeurs statiques des hyperparamètres qui doivent rester constantes dans toutes les tâches d’entraînement lancées par la tâche de réglage d’hyperparamètre. Pour de plus amples informations, veuillez consulter [Définition des plages d'hyperparamètres](automatic-model-tuning-define-ranges.md).

   1. Choisissez **Suivant**.

   1. Sous **Configuration des données d’entrée**, spécifiez les valeurs suivantes pour chaque canal de données d’entrée à utiliser pour la tâche de réglage d’hyperparamètre. Les canaux pris en charge par l’algorithme que vous utilisez pour le réglage des hyperparamètres, le type de contenu, le type de compression pris en charge et les modes d’entrée pris en charge pour chaque canal sont visibles sous la section **Spécification de canal** de la page **Récapitulatif d’algorithme** de l’algorithme.

      1. Dans le champ **Nom du canal**, saisissez le nom du canal d’entrée.

      1. Sous **Type de contenu**, saisissez le type de contenu des données attendu par l’algorithme pour le canal.

      1. Sous **Type de compression**, choisissez le type de compression des données à utiliser, le cas échéant.

      1. Sous **Habillage des enregistrements**, choisissez `RecordIO` si l’algorithme attend des données au format `RecordIO`.

      1. Sous **Type de données S3**, **Type de distribution de données S3** et **Emplacement S3**, spécifiez les valeurs appropriées. Pour obtenir des informations sur la signification de ces valeurs, consultez [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_S3DataSource.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_S3DataSource.html).

      1. Sous **Mode d’entrée**, choisissez **Fichier** afin de télécharger les données depuis le volume de stockage ML alloué et montez le répertoire dans un volume Docker. Choisissez **Tube** pour diffuser directement les données d’Amazon S3 vers le conteneur.

      1. Pour ajouter un autre canal d’entrée, choisissez **Ajouter canal**. Si vous avez terminé d’ajouter des canaux d’entrée, choisissez **Terminé**.

   1. Sous l’emplacement **Sortie**, spécifiez les valeurs suivantes :

      1. Sous **Chemin de sortie S3**, choisissez l’emplacement S3 où est stockée la sortie (les artefacts de modèles, par exemple) générée par les tâches d’entraînement lancées par cette tâche de réglage d’hyperparamètre.
**Note**  
Vous utilisez les artefacts de modèles stockés à cet emplacement pour créer un modèle ou un package de modèle à partir de cette tâche de réglage d’hyperparamètre.

      1. Pour la **clé de chiffrement**, si vous souhaitez que l' SageMaker IA utilise une AWS KMS clé pour chiffrer les données de sortie au repos dans l'emplacement S3.

   1. Sous **Configuration des ressources**, fournissez les informations suivantes :

      1. Sous **Type d’instance**, choisissez le type d’instance à utiliser pour chaque tâche d’entraînement lancée par la tâche de réglage d’hyperparamètre.

      1. Sous **Nombre d’instances**, saisissez le nombre d’instances ML à utiliser pour chaque tâche d’entraînement lancée par la tâche de réglage d’hyperparamètre.

      1. Sous **Taille du volume par instance (Go)**, saisissez la taille du volume de stockage ML que vous souhaitez allouer à chaque tâche d’entraînement lancée par la tâche de réglage d’hyperparamètre. Les volumes de stockage ML stockent les artefacts de modèles et les états incrémentiels.

      1. Pour la **clé de chiffrement**, si vous souhaitez qu'Amazon SageMaker AI utilise une AWS clé du service de gestion des clés pour chiffrer les données du volume de stockage ML attaché aux instances de formation, spécifiez la clé.

   1. Sous **Limites des ressources**, fournissez les informations suivantes :

      1. Sous **Nombre total de tâches d’entraînement**, spécifiez le nombre maximum de tâches d’entraînement que peut lancer la tâche de réglage d’hyperparamètre. Une tâche de réglage d’hyperparamètre peut lancer 500 tâches d’entraînement au maximum.

      1. Sous **Nombre maximal de tâches d’entraînement parallèles**, spécifiez le nombre maximum de tâches d’entraînement simultanées que peut lancer la tâche de réglage d’hyperparamètre. Une tâche de réglage d’hyperparamètre peut lancer 10 tâches d’entraînement simultanées au maximum.

      1. Sous **Condition d’arrêt**, spécifiez la durée maximale, en secondes, en minutes, en heures ou en jours, pendant laquelle doit s’exécuter chaque tâche d’entraînement lancée par la tâche de réglage d’hyperparamètre.

   1. Sous **Balises**, spécifiez une ou plusieurs balises permettant de gérer la tâche de réglage d’hyperparamètre. Chaque balise est constituée d'une clé et d'une valeur facultative. Les clés de balise doivent être uniques à chaque ressource.

   1. Choisissez **Créer des tâches** afin d’exécuter la tâche de réglage d’hyperparamètre.

## Utilisation d’un algorithme pour exécuter une tâche de réglage d’hyperparamètre (API)
<a name="sagemaker-mkt-algo-tune-api"></a>

Pour utiliser un algorithme afin d'exécuter une tâche de réglage d'hyperparamètres à l'aide de l' SageMaker API, spécifiez le nom ou l'Amazon Resource Name (ARN) de l'algorithme comme `AlgorithmName` champ de l'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AlgorithmSpecification.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AlgorithmSpecification.html)objet à [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateHyperParameterTuningJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateHyperParameterTuningJob.html)passer. Pour plus d'informations sur le réglage des hyperparamètres dans l' SageMaker IA, consultez[Réglage automatique du modèle grâce à l' SageMaker IA](automatic-model-tuning.md).

## Utiliser un algorithme pour exécuter une tâche de réglage d'hyperparamètres ([Amazon SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable))
<a name="sagemaker-mkt-algo-tune-sdk"></a>

Utilisez un algorithme que vous avez créé ou auquel vous êtes abonné AWS Marketplace pour créer une tâche de réglage d'hyperparamètres, créer un `AlgorithmEstimator` objet et spécifier le nom de la ressource Amazon (ARN) ou le nom de l'algorithme comme valeur de l'`algorithm_arn`argument. Ensuite, initialisez un objet `HyperparameterTuner` avec la valeur `AlgorithmEstimator` que vous avez créée comme valeur de l’argument `estimator`. Enfin, appelez la méthode `fit` de l’instance `AlgorithmEstimator`. Par exemple : 

```
from sagemaker import AlgorithmEstimator
from sagemaker.tuner import HyperparameterTuner

data_path = os.path.join(DATA_DIR, 'marketplace', 'training')

algo = AlgorithmEstimator(
            algorithm_arn='arn:aws:sagemaker:us-east-2:764419575721:algorithm/scikit-decision-trees-1542410022',
            role='SageMakerRole',
            instance_count=1,
            instance_type='ml.c4.xlarge',
            sagemaker_session=sagemaker_session,
            base_job_name='test-marketplace')

train_input = algo.sagemaker_session.upload_data(
    path=data_path, key_prefix='integ-test-data/marketplace/train')

algo.set_hyperparameters(max_leaf_nodes=10)
tuner = HyperparameterTuner(estimator=algo, base_tuning_job_name='some-name',
                                objective_metric_name='validation:accuracy',
                                hyperparameter_ranges=hyperparameter_ranges,
                                max_jobs=2, max_parallel_jobs=2)

tuner.fit({'training': train_input}, include_cls_metadata=False)
tuner.wait()
```

# Utilisation d’un package de modèle pour créer un modèle
<a name="sagemaker-mkt-model-pkg-model"></a>

Utilisez un package de modèle afin de créer un modèle pouvant être déployé que vous utiliserez pour obtenir les inférences en temps réel en configurant un point de terminaison hébergé ou d’exécuter des tâches de transformation par lots. Vous pouvez créer un modèle déployable à partir d'un package de modèles à l'aide de la console Amazon SageMaker AI, de l' SageMaker API de bas niveau ou du SDK Amazon [ SageMaker Python](https://sagemaker.readthedocs.io/en/stable).

**Topics**
+ [Utilisation d’un package de modèle pour créer un modèle (console)](#sagemaker-mkt-model-pkg-model-console)
+ [Utilisation d’un package de modèle pour créer un modèle (API)](#sagemaker-mkt-model-pkg-model-api)
+ [Utiliser un Package de modèles pour créer un modèle ([SDK Amazon SageMaker Python](https://sagemaker.readthedocs.io/en/stable))](#sagemaker-mkt-model-pkg-model-sdk)

## Utilisation d’un package de modèle pour créer un modèle (console)
<a name="sagemaker-mkt-model-pkg-model-console"></a>

**Pour créer un modèle pouvant être déployé à partir d’un package de modèle (console)**

1. Ouvrez la console SageMaker AI à l'adresse [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/).

1. Choisissez **Model packages (Packages de modèle)**.

1. Choisissez un package de modèle que vous avez créé dans la liste de l’onglet **Mes packages de modèle** ou choisissez un package de modèle auquel vous vous êtes abonné sur l’onglet des **abonnements AWS Marketplace **.

1. Sélectionnez **Créer un modèle**.

1. Sous **Nom du modèle**, attribuez un nom au modèle.

1. Pour le **rôle IAM**, choisissez un rôle IAM disposant des autorisations requises pour appeler d'autres services en votre nom, ou choisissez **Créer un nouveau rôle** pour permettre à SageMaker AI de créer un rôle auquel la politique `AmazonSageMakerFullAccess` gérée est attachée. Pour plus d'informations, consultez [Comment utiliser les rôles d'exécution de l' SageMaker IA](sagemaker-roles.md).

1. Sous **VPC**, choisissez un Amazon VPC auquel le modèle pourra accéder. Pour de plus amples informations, veuillez consulter [Donnez aux points de terminaison hébergés par SageMaker IA un accès aux ressources de votre Amazon VPC](host-vpc.md).

1. Conservez les valeurs par défaut des options **Container input options (Options d’entrée du conteneur)** et **Choose model package (Choisir le package de modèle)**.

1. Indiquez ensuite les noms et les valeurs des variables d’environnement que vous souhaitez transmettre au conteneur de modèle.

1. Sous **Balises**, spécifiez une ou plusieurs balises permettant de gérer le modèle. Chaque balise est constituée d'une clé et d'une valeur facultative. Les clés de balise doivent être uniques à chaque ressource.

1. Sélectionnez **Créer un modèle**.

Une fois le modèle déployable créé, vous pouvez l’utiliser afin de configurer un point de terminaison pour l’inférence en temps réel ou de créer une tâche de transformation par lots afin d’obtenir les inférences sur tous les jeux de données. Pour plus d'informations sur l'hébergement de points de terminaison dans l' SageMaker IA, consultez la section [Déployer des modèles pour l'inférence](https://docs.aws.amazon.com/sagemaker/latest/dg/deploy-model.html).

## Utilisation d’un package de modèle pour créer un modèle (API)
<a name="sagemaker-mkt-model-pkg-model-api"></a>

Pour utiliser un package de modèle afin de créer un modèle déployable à l'aide de l' SageMaker API, spécifiez le nom ou l'Amazon Resource Name (ARN) du package de modèle comme `ModelPackageName` champ de l'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ContainerDefinition.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ContainerDefinition.html)objet que vous transmettez à l'[https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API.

Une fois le modèle déployable créé, vous pouvez l’utiliser afin de configurer un point de terminaison pour l’inférence en temps réel ou de créer une tâche de transformation par lots afin d’obtenir les inférences sur tous les jeux de données. Pour plus d'informations sur les points de terminaison hébergés dans l' SageMaker IA, consultez la section [Déployer des modèles pour l'inférence](https://docs.aws.amazon.com/sagemaker/latest/dg/deploy-model.html).

## Utiliser un Package de modèles pour créer un modèle ([SDK Amazon SageMaker Python](https://sagemaker.readthedocs.io/en/stable))
<a name="sagemaker-mkt-model-pkg-model-sdk"></a>

Pour utiliser un package de modèle afin de créer un modèle déployable à l'aide du SDK SageMaker AI Python, initialisez un `ModelPackage` objet et transmettez le nom de ressource Amazon (ARN) du package de modèle comme argument. `model_package_arn` Par exemple :

```
from sagemaker import ModelPackage
model = ModelPackage(role='SageMakerRole',
         model_package_arn='training-job-scikit-decision-trees-1542660466-6f92',
         sagemaker_session=sagemaker_session)
```

Une fois le modèle déployable créé, vous pouvez l’utiliser afin de configurer un point de terminaison pour l’inférence en temps réel ou de créer une tâche de transformation par lots afin d’obtenir les inférences sur tous les jeux de données. Pour plus d'informations sur l'hébergement de points de terminaison dans l' SageMaker IA, consultez la section [Déployer des modèles pour l'inférence](https://docs.aws.amazon.com/sagemaker/latest/dg/deploy-model.html).