

Nous ne mettons plus à jour le service Amazon Machine Learning et n'acceptons plus de nouveaux utilisateurs pour celui-ci. Cette documentation est disponible pour les utilisateurs existants, mais nous ne la mettons plus à jour. Pour plus d'informations, consultez [Qu'est-ce qu'Amazon Machine Learning](https://docs.aws.amazon.com/machine-learning/latest/dg/what-is-amazon-machine-learning.html) ?

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Demande de prédiction en temps réel
<a name="requesting-real-time-predictions"></a>

Une prédiction en temps réel est un appel synchrone à Amazon Machine Learning (Amazon ML). La prédiction est effectuée lorsque Amazon ML reçoit la demande, et la réponse est renvoyée immédiatement. Les prédictions en temps réel sont couramment utilisées pour fournir des fonctionnalités prédictives au sein d'applications interactives web, mobiles ou de bureau. Vous pouvez interroger un modèle ML créé avec Amazon ML pour obtenir des prédictions en temps réel à l'aide de l'`Predict`API à faible latence. L'opération `Predict` accepte une seule observation d'entrée dans la charge utile de demande et renvoie de façon synchrone la prédiction dans la réponse. Cela le distingue de l'API de prédiction par lots, qui est invoquée avec l'ID d'un objet de source de données Amazon ML qui pointe vers l'emplacement des observations en entrée, et renvoie de manière asynchrone un URI vers un fichier contenant des prédictions pour toutes ces observations. Amazon ML répond à la plupart des demandes de prédiction en temps réel dans un délai de 100 millisecondes.

Vous pouvez essayer des prédictions en temps réel sans frais dans la console Amazon ML. Si vous décidez ensuite d'utiliser les prédictions en temps réel, vous devez commencer par créer un point de terminaison pour la génération des prédictions en temps réel. Vous pouvez le faire dans la console Amazon ML ou à l'aide de l'`CreateRealtimeEndpoint`API. Une fois que vous avez un point de terminaison, utilisez l'API de prédiction en temps réel pour générer des prédictions en temps réel.

**Note**  
Une fois que vous aurez créé un point de terminaison en temps réel pour votre modèle, vous commencerez à payer des frais de réservation de capacité en fonction de la taille du modèle. Pour plus d’informations, consultez [Tarification d’](https://aws.amazon.com/machine-learning/pricing/). Si vous créez le point de terminaison en temps réel dans la console, celle-ci affiche un détail des frais estimés que le point de terminaison comptabilisera de façon continue. Pour cesser d'engager des frais lorsque vous n'avez plus besoin d'obtenir de prédictions en temps réel à partir de ce modèle, supprimez le point de terminaison en temps réel à l'aide de la console ou de l'opération `DeleteRealtimeEndpoint`.

Pour des exemples de `Predict` demandes et de réponses, consultez [Predict](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html) dans le *manuel Amazon Machine Learning API Reference*. Pour voir un exemple du format de réponse exact que votre modèle utilise, consultez [Essai d'utilisation des prédictions en temps réel](#testing-real-time-predictions).

**Topics**
+ [Essai d'utilisation des prédictions en temps réel](#testing-real-time-predictions)
+ [Création d'un point de terminaison en temps réel](#creating-a-real-time-endpoint)
+ [Localisation du point de terminaison de prédiction en temps réel (console)](#locate-endpoint-by-console)
+ [Localisation du point de terminaison de prédiction en temps réel (API)](#locating-the-real-time-prediction-endpoint)
+ [Création d'une demande de prédiction en temps réel](#real-time-prediction-request-format)
+ [Suppression d'un point de terminaison en temps réel](#delete-endpoint)

## Essai d'utilisation des prédictions en temps réel
<a name="testing-real-time-predictions"></a>

Pour vous aider à décider d'activer ou non les prédictions en temps réel, Amazon ML vous permet d'essayer de générer des prédictions sur des enregistrements de données uniques sans encourir les frais supplémentaires associés à la configuration d'un point de terminaison de prédiction en temps réel. Pour essayer les prédictions en temps réel, vous devez disposer d'un modèle d'apprentissage-machine. Pour créer des prédictions en temps réel à plus grande échelle, utilisez l'API [Predict](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html) dans le *manuel Amazon Machine Learning API Reference*.

**Pour essayer d'utiliser les prédictions en temps réel**

1. Connectez-vous à la console Amazon Machine Learning AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. Dans la barre de navigation, dans le menu déroulant **Amazon Machine Learning**, choisissez **ML models**.

1. Choisissez le modèle que vous souhaitez utiliser pour essayer les prédictions en temps réel, tel que le modèle `Subscription propensity model` issu du didacticiel.

1. Dans la page de rapport du modèle d'apprentissage-machine, sous **Predictions**, choisissez **Summary**, puis choisissez **Try real-time predictions**.  
![\[Tools section with option to try real-time predictions.\]](http://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/images/try-real-time.png)

   Amazon ML affiche une liste des variables qui constituaient les enregistrements de données utilisés par Amazon ML pour entraîner votre modèle.

1. Vous pouvez continuer en entrant des données dans tous les champs du formulaire ou en collant un enregistrement de données unique, au format CSV, dans la zone de texte.

   Pour utiliser le formulaire, pour chaque champ **Valeur**, entrez les données que vous souhaitez utiliser pour tester vos prédictions en temps réel. Si l'enregistrement de données que vous entrez ne contient pas de valeurs pour un ou plusieurs attributs de données, laissez les champs d'entrée vides.

   Pour fournir un enregistrement de données, choisissez **Paste a record**. **Collez une seule ligne de données au format CSV dans le champ de texte, puis choisissez Soumettre.** Amazon ML remplit automatiquement les champs de **valeur** pour vous.
**Note**  
Les données de l'enregistrement de données doivent avoir le même nombre de colonnes que les données de formation, et être organisées dans le même ordre. La seule exception est que vous devez omettre la valeur cible. Si vous incluez une valeur cible, Amazon ML l'ignore.

1. En bas de la page, choisissez **Create prediction**. Amazon ML renvoie la prédiction immédiatement.

   Dans le volet **Prediction results**, vous voyez l'objet prédiction que l'appel à l'API `Predict` renvoie, ainsi que le type de modèle d'apprentissage-machine, le nom de la variable cible et la classe ou la valeur prédite. Pour obtenir des informations sur l'interprétation des résultats, consultez [Interprétation du contenu des fichiers de prédiction par lots pour un modèle d'apprentissage-machine de classification binaire](reading-the-batchprediction-output-files.md#interpreting-the-contents-of-batch-prediction-files-for-a-binary-classification-ml-model).  
![\[Prediction results showing binary ML model type with predicted label 0 and score details.\]](http://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/images/real-time-result.png)

## Création d'un point de terminaison en temps réel
<a name="creating-a-real-time-endpoint"></a>

Pour générer des prédictions en temps réel, vous devez créer un point de terminaison en temps réel. Pour créer un point de terminaison en temps réel, vous devez déjà avoir un modèle d'apprentissage-machine pour lequel vous souhaitez générer des prédictions en temps réel. Vous pouvez créer un point de terminaison en temps réel à l'aide de la console Amazon ML ou en appelant l'`CreateRealtimeEndpoint`API. Pour plus d'informations sur l'utilisation de l'`CreateRealtimeEndpoint`API, consultez [https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_CreateRealtimeEndpoint.html](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_CreateRealtimeEndpoint.html) le manuel Amazon Machine Learning API Reference.

**Pour créer un point de terminaison en temps réel**

1. Connectez-vous à la console Amazon Machine Learning AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. Dans la barre de navigation, dans le menu déroulant **Amazon Machine Learning**, choisissez **ML models**.

1. Choisissez le modèle pour lequel vous souhaitez générer des prédictions en temps réel.

1. Dans la page **ML model summary**, sous **Predictions**, choisissez **Create real-time endpoint**.

   Une boîte de dialogue qui explique comment les prédictions en temps réel sont facturées apparaît.

1. Choisissez **Créer**. La demande de point de terminaison en temps réel est envoyée à Amazon ML et entrée dans une file d'attente. L'état du point de terminaison en temps réel est **Mise à jour en cours**.  
![\[Real-time endpoint status shown as "Updating" in a user interface element.\]](http://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/images/endpoint-updating.png)

1. Lorsque le point de terminaison en temps réel est prêt, le statut passe à **Prêt** et Amazon ML affiche l'URL du point de terminaison. Utilisez l'URL du point de terminaison pour créer des demandes de prédictions en temps réel avec l'API `Predict`. Pour plus d'informations sur l'utilisation de l'`Predict`API, consultez [https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html) le manuel Amazon Machine Learning API Reference.  
![\[Real-time endpoint status showing Ready with an endpoint URL and Peak Requests Per Second value.\]](http://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/images/endpoint-ready.png)

## Localisation du point de terminaison de prédiction en temps réel (console)
<a name="locate-endpoint-by-console"></a>

Pour utiliser la console Amazon ML afin de trouver l'URL du point de terminaison d'un modèle de ML, accédez à la page de **résumé du modèle de ML** du modèle.

**Pour localiser l'URL d'un point de terminaison en temps réel**

1. Connectez-vous à la console Amazon Machine Learning AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. Dans la barre de navigation, dans le menu déroulant **Amazon Machine Learning**, choisissez **ML models**.

1. Choisissez le modèle pour lequel vous souhaitez générer des prédictions en temps réel.

1. Dans la page **ML model summary**, faites défiler l'affichage vers le bas jusqu'à ce que vous voyiez la section **Predictions**.

1. L'URL du point de terminaison du modèle est répertoriée dans **Real-time prediction**. Utilisez cette URL comme URL **Endpoint Url** pour vos appels de prédiction en temps réel. Pour plus d'informations sur la façon d'utiliser le point de terminaison pour générer des prédictions, consultez [https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html) le manuel Amazon Machine Learning API Reference.

## Localisation du point de terminaison de prédiction en temps réel (API)
<a name="locating-the-real-time-prediction-endpoint"></a>

Lorsque vous créez un point de terminaison en temps réel à l'aide de l'opération `CreateRealtimeEndpoint`, l'URL et l'état de ce point de terminaison vous sont renvoyés dans la réponse. Si vous avez créé le point de terminaison en temps réel à l'aide de la console ou si vous souhaitez récupérer l'URL et l'état d'un point de terminaison que vous avez créé précédemment, appelez l'opération `GetMLModel` avec l'ID du modèle à interroger pour les prédictions en temps réel. Les informations du point de terminaison figurent dans la section `EndpointInfo` de la réponse. Pour un modèle doté d'un point de terminaison en temps réel associé, la section `EndpointInfo` peut ressembler à ceci :

```
"EndpointInfo":{
    "CreatedAt": 1427864874.227,
    "EndpointStatus": "READY",
    "EndpointUrl": "https://endpointUrl",
    "PeakRequestsPerSecond": 200
}
```

Un modèle sans point de terminaison en temps réel renverrait ce qui suit :

```
EndpointInfo":{
    "EndpointStatus": "NONE",
    "PeakRequestsPerSecond": 0
}
```

## Création d'une demande de prédiction en temps réel
<a name="real-time-prediction-request-format"></a>

Un exemple de charge utile de demande `Predict` peut ressembler à ceci :

```
{
    "MLModelId": "model-id",
    "Record":{
        "key1": "value1",
        "key2": "value2"
    },
    "PredictEndpoint": "https://endpointUrl"
}
```

Le `PredictEndpoint` champ doit correspondre au `EndpointUrl` champ de la `EndpointInfo` structure. Amazon ML utilise ce champ pour acheminer la demande vers les serveurs appropriés du parc de prévisions en temps réel.

`MLModelId` est l'identifiant d'un modèle formé précédemment avec un point de terminaison en temps réel.

`Record` est un mappage de noms de variables et de valeurs de variables. Chaque paire représente une observation. La `Record` carte contient les entrées de votre modèle Amazon ML. Il est analogue à une ligne de données individuelle dans votre jeu de données de formation, sans la variable cible. Quel que soit le type de valeurs figurant dans les données d'entraînement, `Record` contient un string-to-string mappage.

**Note**  
Vous pouvez omettre les variables pour lesquelles vous n'avez pas de valeur, bien que cela puisse réduire la précision de votre prédiction. Plus vous pouvez inclure de variables, plus votre modèle est précis.

Le format de la réponse renvoyée par les demandes `Predict` dépend du type de modèle qui est interrogé pour la prédiction. Dans tous les cas, le champ `details` contient des informations sur la demande de prédiction, notamment le champ `PredictiveModelType` avec le type de modèle.

L'exemple suivant illustre une réponse pour un modèle binaire :

```
{
    "Prediction":{
        "details":{
            "PredictiveModelType": "BINARY"
        },
        "predictedLabel": "0",
        "predictedScores":{
            "0": 0.47380468249320984
        }
    }
}
```

Notez le `predictedLabel` champ qui contient l'étiquette prédite, dans ce cas 0. Amazon ML calcule l'étiquette prédite en comparant le score de prédiction au seuil de classification :
+ Vous pouvez obtenir le seuil de classification actuellement associé à un modèle ML en inspectant le `ScoreThreshold` champ dans la réponse à l'`GetMLModel`opération ou en consultant les informations du modèle dans la console Amazon ML. Si vous ne définissez pas de seuil de score, Amazon ML utilise la valeur par défaut de 0,5.
+ Vous pouvez obtenir le score de prédiction exact pour un modèle de classification binaire en inspectant le mappage `predictedScores`. Dans ce mappage, l'étiquette prédite est associée au score de prédiction exact.

Pour plus d'informations sur les prédictions binaires, consultez [Interprétation des prédictions](binary-model-insights.md#interpreting-the-predictions).

L'exemple suivant illustre une réponse pour un modèle de régression. Remarquez que la valeur numérique prédite se trouve dans le champ `predictedValue` :

```
{
    "Prediction":{
        "details":{
            "PredictiveModelType": "REGRESSION"
        },
        "predictedValue": 15.508452415466309
    }
}
```

L'exemple suivant illustre une réponse pour un modèle multiclasse : 

```
{
    "Prediction":{
        "details":{
            "PredictiveModelType": "MULTICLASS"
        },
        "predictedLabel": "red",
        "predictedScores":{
            "red": 0.12923571467399597,
            "green": 0.08416014909744263,
            "orange": 0.22713537514209747,
            "blue": 0.1438363939523697,
            "pink": 0.184102863073349,
            "violet": 0.12816807627677917,
            "brown": 0.10336143523454666
        }
    }
}
```

À l'instar des modèles de classification binaire, les prévisions label/class se trouvent `predictedLabel` sur le terrain. Vous pouvez mieux comprendre à quel point la prédiction est liée à chaque classe en examinant le mappage `predictedScores`. Plus le score d'une classe au sein de ce mappage est élevé et plus la prédiction est fortement liée à la classe, la valeur la plus haute étant sélectionnée comme `predictedLabel`.

Pour plus d'informations sur les prédictions multiclasses, consultez [Analyse du modèle multiclasse](multiclass-model-insights.md).

## Suppression d'un point de terminaison en temps réel
<a name="delete-endpoint"></a>

Lorsque vous avez terminé vos prédictions en temps réel, supprimez le point de terminaison en temps réel pour ne pas encourir de frais supplémentaires. Les frais cessent de s'accumuler dès que vous supprimez votre point de terminaison.

**Pour supprimer un point de terminaison en temps réel**

1. Connectez-vous à la console Amazon Machine Learning AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. Dans la barre de navigation, dans le menu déroulant **Amazon Machine Learning**, choisissez **ML models**.

1. Choisissez le modèle qui n'a plus besoin de prédictions en temps réel.

1. Dans la page de rapport du modèle d'apprentissage-machine, sous **Prédictions**, choisissez **Résumé**. 

1. Choisissez **Delete real-time endpoint (Supprimer le point de terminaison en temps réel)**.

1. Dans la boîte de dialogue **Delete real-time endpoint (Supprimer le point de terminaison en temps réel)**, choisissez **Supprimer**.