

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Affichage des détails sur les points de terminaison dans SageMaker Studio
<a name="manage-endpoints-studio"></a>

Dans Amazon SageMaker Studio, vous pouvez afficher et gérer vos points de terminaison de l’hébergement SageMaker AI. Pour en savoir plus sur Studio, consultez [Amazon SageMaker Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html).

Pour trouver la liste de vos points de terminaison dans SageMaker Studio, procédez comme suit :

1. Ouvrez l’application Studio.

1. Dans le panneau de navigation de gauche, sélectionnez **Déploiements**.

1. Dans le menu déroulant, sélectionnez **Points de terminaison**.

La page **Points de terminaison** s’ouvre et répertorie tous vos points de terminaison de l’hébergement SageMaker AI. Sur cette page, vous pouvez voir les points de terminaison et leur **statut**. Vous pouvez également créer un nouveau point de terminaison, modifier un point de terminaison existant ou supprimer un point de terminaison.

Pour voir les détails d’un point de terminaison spécifique, choisissez-en un dans la liste. Sur la page de détails du point de terminaison, vous obtenez une vue d’ensemble similaire à la capture d’écran suivante.

![\[Capture d’écran de la page principale d’un point de terminaison présentant un résumé des détails du point de terminaison dans Studio.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/inference/studio-endpoint-details-page.png)


La page des détails sur chaque point de terminaison contient les onglets d’informations suivants :

# Afficher les variantes (ou les modèles)
<a name="manage-endpoints-studio-variants"></a>

L’onglet **Variantes** (également appelé onglet **Modèles** si plusieurs modèles sont déployés sur votre point de terminaison) affiche la liste des [variantes de modèles](https://docs.aws.amazon.com/sagemaker/latest/dg/model-ab-testing.html) ou des modèles actuellement déployés sur votre point de terminaison. La capture d’écran suivante vous montre à quoi ressemble l’aperçu et la section **Modèles** pour un point de terminaison avec plusieurs modèles déployés.

![\[Capture d’écran de la page principale d’un point de terminaison montrant plusieurs modèles déployés.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/inference/studio-goldfinch-multi-model-endpoint.png)


Vous pouvez ajouter ou modifier les paramètres pour chaque variante ou modèle. Vous pouvez également sélectionner une variante et activer une politique d’autoscaling par défaut, que vous pourrez modifier ultérieurement dans l’onglet **Autoscaling**.

# Afficher les paramètres
<a name="manage-endpoints-studio-settings"></a>

Dans l’onglet **Paramètres**, vous pouvez afficher le rôle IAM AWS associé au point de terminaison, la clé AWS KMS utilisée pour le chiffrement (le cas échéant), le nom de votre VPC et les paramètres d’isolement réseau.

# Tester l’inférence
<a name="manage-endpoints-studio-test"></a>

Dans l’onglet **Tester l’inférence**, vous pouvez envoyer une demande d’inférence de test à un modèle déployé. Cela est utile si vous souhaitez vérifier que votre point de terminaison répond aux demandes comme prévu.

Pour tester l’inférence, procédez comme suit :

1. Dans l’onglet **Tester l’inférence** du modèle, choisissez l’une des options suivantes :

   1. Sélectionnez **Entrer le corps de la requête** si vous souhaitez tester le point de terminaison et recevoir une réponse via l’interface Studio.

   1. Sélectionnez **Copier un exemple de code (Python)** si vous souhaitez copier un exemple AWS SDK pour Python (Boto3) que vous pouvez utiliser pour invoquer votre point de terminaison depuis un environnement local et recevoir une réponse par programmation.

1. Dans **Modèle**, sélectionnez le modèle que vous voulez tester sur le point de terminaison.

1. Si vous avez choisi la méthode de test de l’interface Studio, vous pouvez également choisir le **type de contenu** souhaité pour la réponse dans la liste déroulante.

Après avoir configuré votre requête, vous pouvez choisir **Envoyer la requête** (pour recevoir une réponse via l’interface Studio) ou **Copier** pour copier l’exemple Python.

Si vous recevez une réponse via l’interface de Studio, elle ressemblera à la capture d’écran suivante.

![\[Capture d’écran d’une demande d’inférence de test réussie sur un point de terminaison dans Studio.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/inference/endpoint-test-inference.png)


# Scalabilité automatique
<a name="manage-endpoints-studio-autoscaling"></a>

Dans l’onglet **Autoscaling**, vous pouvez consulter toutes les politiques d’autoscaling configurées pour les modèles hébergés sur votre point de terminaison. La capture d’écran suivante montre l’onglet **Autoscaling**.

![\[Capture d’écran de l’onglet Autoscaling, montrant une politique active.\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/images/inference/studio-endpoint-autoscaling.png)


Vous pouvez choisir **Modifier l’autoscaling** pour modifier l’une des politiques et activer ou désactiver la politique d’autoscaling par défaut.

Pour en savoir plus sur l’autoscaling pour les points de terminaison en temps réel, consultez [Mise à l’échelle automatique des modèles Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/endpoint-auto-scaling.html). Si vous ne savez pas comment configurer une politique d’autoscaling pour votre point de terminaison, vous pouvez utiliser une [tâche de recommandations d’autoscaling d’Inference Recommender](https://docs.aws.amazon.com/sagemaker/latest/dg/inference-recommender-autoscaling.html) pour obtenir des recommandations pour une politique d’autoscaling.