

Nous ne mettons plus à jour le service Amazon Machine Learning et n'acceptons plus de nouveaux utilisateurs pour celui-ci. Cette documentation est disponible pour les utilisateurs existants, mais nous ne la mettons plus à jour. Pour plus d'informations, consultez [Qu'est-ce qu'Amazon Machine Learning](https://docs.aws.amazon.com/machine-learning/latest/dg/what-is-amazon-machine-learning.html) ?

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Génération et interprétation des prédictions
<a name="interpreting_predictions"></a>

Amazon ML fournit deux mécanismes pour générer des prédictions : asynchrone (par lots) et synchrone (). one-at-a-time

Utilisez les prédictions asynchrones, ou *prédictions par lots***,** lorsque vous avez un certain nombre d'observations et que vous souhaitez obtenir des prédictions pour toutes les observations à la fois. Le processus utilise une source de données en entrée et fournit des prédictions en sortie, dans un fichier .csv stocké dans un compartiment S3 de votre choix. Vous devez attendre que le processus de prédiction par lots se termine avant de pouvoir accéder aux résultats de prédiction. La taille maximale d'une source de données qu'Amazon ML peut traiter dans un fichier batch est de 1 To (environ 100 millions d'enregistrements). Si votre source de données est supérieure à 1 To, votre tâche échouera et Amazon ML renverra un code d'erreur. Pour éviter cela, fractionnez vos données en plusieurs lots. Si vos enregistrements sont globalement plus longs, vous atteindrez la limite de 1 To avant de traiter 100 millions d'enregistrements. Dans ce cas, nous vous recommandons de contacter [AWS support](https://aws.amazon.com/contact-us/) pour augmenter la taille de la tâche pour votre prédiction par lots.

Utilisez des *prédictions en temps réel***, synchrones,** pour obtenir des prédictions à faible latence. L'API de prédiction en temps réel accepte une seule observation en entrée, sérialisée sous la forme d'une chaîne JSON, et renvoie de façon synchrone la prédiction et les métadonnées associées dans le cadre de la réponse de l'API. Vous pouvez appeler simultanément l'API plusieurs fois pour obtenir des prédictions synchrones en parallèle. Pour plus d'informations sur les limites de débit de l'API de prédiction en temps réel, reportez-vous aux limites de prédiction en temps réel dans [Référence d'API Amazon ML](https://docs.aws.amazon.com/machine-learning/latest/APIReference/).

**Topics**
+ [

# Création d'une prédiction par lots
](creating-batch-prediction-objects.md)
+ [

# Examen des métriques de prédiction par lots
](working-with-batch-predictions.md)
+ [

# Lecture des fichiers de sortie de prédiction par lots
](reading-the-batchprediction-output-files.md)
+ [

# Demande de prédiction en temps réel
](requesting-real-time-predictions.md)

# Création d'une prédiction par lots
<a name="creating-batch-prediction-objects"></a>

Pour créer une prédiction par lots, vous devez créer un `BatchPrediction` objet à l'aide de la console ou de l'API Amazon Machine Learning (Amazon ML). Un `BatchPrediction` objet décrit un ensemble de prédictions générées par Amazon ML à l'aide de votre modèle ML et d'un ensemble d'observations d'entrée. Lorsque vous créez un `BatchPrediction` objet, Amazon ML lance un flux de travail asynchrone qui calcule les prédictions. 

Vous devez utiliser le même schéma pour la source de données que vous utilisez pour obtenir des prédictions par lots et la source de données que vous avez utilisée pour former le modèle d'apprentissage-machine que vous interrogez pour obtenir des prédictions. La seule exception est que la source de données pour une prédiction par lots n'a pas besoin d'inclure l'attribut cible, car Amazon ML prédit la cible. Si vous fournissez l'attribut cible, Amazon ML ignore sa valeur. 

## Création d'une prédiction par lots (console)
<a name="batch-prediction-console"></a>

Pour créer une prédiction par lots à l'aide de la console Amazon ML, utilisez l'assistant Create Batch Prediction. 

**Pour créer une prédiction par lots (console)**

1. Connectez-vous à la console Amazon Machine Learning AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. Sur le tableau de bord Amazon ML, sous **Objets**, choisissez **Create new...** , puis choisissez **Prédiction par lots**.

1. Choisissez le modèle Amazon ML que vous souhaitez utiliser pour créer la prédiction par lots.

1. Pour confirmer que vous souhaitez utiliser ce modèle, choisissez **Continue**.

1. Choisissez la source de données pour laquelle vous voulez créer les prédictions. La source de données doit avoir le même schéma que votre modèle, même si elle n'est pas tenue d'inclure l'attribut cible.

1. Choisissez **Continuer**.

1. Pour **S3 destination**, tapez le nom de votre compartiment S3.

1. Choisissez **Examiner**.

1. Passez en revue vos paramètres et choisissez **Create batch prediction**.

## Création d'une prédiction par lots (API)
<a name="batch-prediction-api"></a>

Pour créer un `BatchPrediction` objet à l'aide de l'API Amazon ML, vous devez fournir les paramètres suivants :

**ID de source de données**  
ID de la source de données qui pointe sur les observations pour lesquelles vous souhaitez obtenir des prédictions. Par exemple, si vous voulez des prédictions pour les données d'un fichier nommé `s3://examplebucket/input.csv`, vous devez créer un objet source de données qui pointe sur le fichier de données, puis transmettre l'ID de cette source de données avec ce paramètre.

**BatchPrediction ID**  
ID à attribuer à la prédiction par lots.

**ID du modèle d'apprentissage-machine**  
L'ID du modèle ML qu'Amazon ML doit interroger pour les prédictions.

**URI de sortie**  
L'URI du compartiment S3 dans lequel stocker le résultat de la prédiction. Amazon ML doit être autorisé à écrire des données dans ce compartiment.  
Le paramètre `OutputUri` doit faire référence à un chemin S3 qui se termine par une barre oblique (« / »), comme indiqué dans l'exemple suivant :  
s3://examplebucket/examplepath/  
Pour obtenir des informations sur la configuration des autorisations S3, consultez [Octroi d'autorisations à Amazon ML pour fournir en sortie des prédictions dans Amazon S3](granting-amazon-ml-permissions-to-output-predictions-to-amazon-s3.md).

**(Facultatif) BatchPrediction Nom**  
(Facultatif) Nom contrôlable de visu pour votre prédiction par lots.

# Examen des métriques de prédiction par lots
<a name="working-with-batch-predictions"></a>

Une fois qu'Amazon Machine Learning (Amazon ML) a créé une prédiction par lots, il fournit deux métriques `Records seen` : `Records failed to process` et. `Records seen`vous indique le nombre d'enregistrements examinés par Amazon ML lors de l'exécution de votre prédiction par lots. `Records failed to process`indique le nombre d'enregistrements qu'Amazon ML n'a pas pu traiter.

Pour permettre à Amazon ML de traiter les enregistrements ayant échoué, vérifiez le formatage des enregistrements dans les données utilisées pour créer votre source de données, et assurez-vous que tous les attributs requis sont présents et que toutes les données sont correctes. Après avoir corrigé vos données, vous pouvez recréer votre prédiction par lots ou créer une nouvelle source de données avec les enregistrements ayant échoué, puis créer une nouvelle prédiction par lots à l'aide de la nouvelle source de données.

## Examen des métriques de prédiction par lots (console)
<a name="review-console"></a>

Pour consulter les métriques dans la console Amazon ML, ouvrez la page de **résumé des prédictions Batch** et consultez la section **Informations traitées**.

## Examen des détails et des métriques de prédiction par lots (API)
<a name="review-api"></a>

Vous pouvez utiliser Amazon ML APIs pour récupérer des informations sur les `BatchPrediction` objets, y compris les métriques d'enregistrement. Amazon ML fournit les appels d'API de prédiction par lots suivants :
+ `CreateBatchPrediction`
+ `UpdateBatchPrediction`
+ `DeleteBatchPrediction`
+ `GetBatchPrediction`
+ `DescribeBatchPredictions`

Pour plus d'informations, consultez le manuel [Amazon ML API Reference](https://docs.aws.amazon.com/machine-learning/latest/APIReference/).

# Lecture des fichiers de sortie de prédiction par lots
<a name="reading-the-batchprediction-output-files"></a>

Effectuez les opérations suivantes pour récupérer les fichiers de sortie de prédiction par lots :

1. Localisez le fichier manifeste de prédiction par lots.

1. Lisez le fichier manifeste pour déterminer les emplacements des fichiers de sortie.

1. Récupérez les fichiers de sortie qui contiennent les prédictions.

1. Interprétez le contenu des fichiers de sortie. Le contenu varie en fonction du type de modèle d'apprentissage-machine qui a été utilisé pour générer les prédictions.

Les sections suivantes décrivent ces étapes de façon plus détaillée.

## Localisation du fichier manifeste de prédiction par lots
<a name="locating-the-batch-prediction-manifest-file"></a>

Les fichiers manifestes de prédiction par lots contiennent les informations qui mettent en correspondance vos fichiers d'entrée avec les fichiers de sortie de prédiction.

Pour localiser le fichier manifeste, commencez avec l'emplacement de sortie que vous avez spécifié en créant l'objet de prédiction par lots. Vous pouvez interroger un objet de prédiction par lots terminé pour récupérer l'emplacement S3 de ce fichier à l'aide de l'[API Amazon ML](https://docs.aws.amazon.com/machine-learning/latest/APIReference/) ou du [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

Le fichier manifeste est situé dans l'emplacement de sortie, avec un chemin constitué de la chaîne statique `/batch-prediction/` ajoutée à l'emplacement de sortie et du nom du fichier manifeste, qui correspond à l'ID de la prédiction par lots, avec l'extension `.manifest` ajoutée à cela.

Par exemple, si vous créez un objet de prédiction par lots avec l'ID `bp-example`, et que vous spécifiez l'emplacement S3 `s3://examplebucket/output/` comme emplacement de sortie, vous trouverez votre fichier manifeste ici :

`s3://examplebucket/output/batch-prediction/bp-example.manifest`

## Lecture du fichier manifeste
<a name="reading-the-manifest-file"></a>

Le contenu du fichier .manifest est codé sous la forme d'un mappage JSON, dans lequel la clé est une chaîne du nom d'un fichier de données d'entrée S3, et la valeur est une chaîne du fichier de résultats de prédiction par lots associé. Il existe une ligne de mappage pour chaque paire de input/output fichiers. En poursuivant notre exemple, si l'entrée pour la création de l'objet `BatchPrediction` se compose d'un fichier individuel nommé data.csv et situé dans `s3://examplebucket/input/`, vous pouvez voir une chaîne de mappage similaire à :

```
{"s3://examplebucket/input/data.csv":"
s3://examplebucket/output/batch-prediction/result/bp-example-data.csv.gz"}
```

Si l'entrée pour la création de l'objet `BatchPrediction` se compose de trois fichiers appelés data1.csv, data2.csv et data3.csv, et qu'ils sont tous stockés dans l'emplacement S3 `s3://examplebucket/input/`, vous pouvez voir une chaîne de mappage similaire à :

```
{"s3://examplebucket/input/data1.csv":"s3://examplebucket/output/batch-prediction/result/bp-example-data1.csv.gz",

"s3://examplebucket/input/data2.csv":"
s3://examplebucket/output/batch-prediction/result/bp-example-data2.csv.gz",

"s3://examplebucket/input/data3.csv":"
s3://examplebucket/output/batch-prediction/result/bp-example-data3.csv.gz"}
```

## Récupération des fichiers de sortie de prédiction par lots
<a name="retrieving-the-batch-prediction-output-files"></a>

Vous pouvez télécharger chaque fichier de prédiction par lots obtenu à partir du mappage de manifeste et le traiter localement. Le format de fichier est CSV, compressé avec l'algorithme gzip. Ce fichier comprend une ligne pour chaque observation en entrée dans le fichier d'entrée correspondant.

Pour joindre les prédictions au fichier d'entrée de la prédiction par lots, vous pouvez effectuer une simple record-by-record fusion des deux fichiers. Le fichier de sortie de la prédiction par lots contient toujours le même nombre d'enregistrements que le fichier d'entrée de prédiction, dans le même ordre. Si une observation en entrée échoue au cours du traitement et qu'aucune prédiction ne peut être générée, le fichier de sortie de la prédiction par lots aura une ligne vide dans l'emplacement correspondant.

## Interprétation du contenu des fichiers de prédiction par lots pour un modèle d'apprentissage-machine de classification binaire
<a name="interpreting-the-contents-of-batch-prediction-files-for-a-binary-classification-ml-model"></a>

Les colonnes du fichier de prédiction par lots pour un modèle de classification binaire sont nommées **bestAnswer** et **score**.

La colonne **bestAnswer** contient l'étiquette de prédiction (« 1 » ou « 0 ») qui est obtenue en évaluant le score de prédiction par rapport au score seuil. Pour plus d'informations sur les scores limites, consultez [Ajustement du score seuil](https://docs.aws.amazon.com/machine-learning/latest/dg/evaluating_models.html). Vous définissez un score limite pour le modèle ML en utilisant l'API Amazon ML ou la fonctionnalité d'évaluation du modèle sur la console Amazon ML. Si vous ne définissez pas de score limite, Amazon ML utilise la valeur par défaut de 0,5.

La colonne de **score** contient le score de prédiction brut attribué par le modèle ML pour cette prédiction. Amazon ML utilise des modèles de régression logistique. Ce score tente donc de modéliser la probabilité que l'observation corresponde à une valeur vraie (« 1 »). Notez que le **score** est indiqué en notation scientifique ; dans la première ligne de l'exemple suivant, la valeur 8,7642E-3 est donc égale à 0,0087642.

Par exemple, si le score seuil pour le modèle d'apprentissage-machine est 0,75, le contenu du fichier de sortie de prédiction par lots pour un modèle de classification binaire peut ressembler à ce qui suit :

```
bestAnswer,score

0,8.7642E-3

1,7.899012E-1


0,6.323061E-3

0,2.143189E-2


1,8.944209E-1
```

Les deuxième et cinquième observations dans le fichier d'entrée ont reçu des scores de prédiction supérieurs à 0,75, de sorte que la colonne bestAnswer pour ces observations indique la valeur « 1 », tandis que les autres observations ont la valeur « 0 ».

## Interprétation du contenu des fichiers de prédiction par lots pour un modèle d'apprentissage-machine de classification multiclasse
<a name="interpreting-the-contents-of-batch-prediction-files-for-a-multiclass-classification-ml-model"></a>

Le fichier de prédiction par lots pour un modèle multiclasse contient une colonne pour chaque classe figurant dans les données de formation. Les noms des colonnes apparaissent dans la ligne d'en-tête du fichier de prédiction par lots.

Lorsque vous demandez des prédictions à partir d'un modèle multiclasse, Amazon ML calcule plusieurs scores de prédiction pour chaque observation du fichier d'entrée, un pour chacune des classes définies dans le jeu de données d'entrée. Cela équivaut à demander : « Quelle est la probabilité (mesurée entre 0 et 1) pour que cette observation appartienne à cette classe, plutôt qu'à l'une des autres classes ? ». Chaque score peut être interprété comme une « probabilité pour que l'observation appartienne à cette classe ». Dans la mesure où les scores de prédiction modélisent les probabilités sous-jacentes pour que l'observation appartienne à une classe ou à une autre, la somme de tous les scores de prédiction sur une ligne est égale à 1. Vous devez choisir une classe en tant que classe prévue pour le modèle. Le plus souvent, vous devez choisir comme meilleure réponse la classe qui présente la plus haute probabilité.

Considérons par exemple une tentative visant à prédire l'évaluation d'un produit par un client sur une échelle de 1 à 5 étoiles. Si les classes sont nommées `1_star`, `2_stars`, `3_stars`, `4_stars` et `5_stars`, le fichier de sortie de prédiction multiclasse peut ressembler à ceci :

```
1_star, 2_stars, 3_stars, 4_stars, 5_stars

8.7642E-3, 2.7195E-1, 4.77781E-1, 1.75411E-1, 6.6094E-2

5.59931E-1, 3.10E-4, 2.48E-4, 1.99871E-1, 2.39640E-1

7.19022E-1, 7.366E-3, 1.95411E-1, 8.78E-4, 7.7323E-2

1.89813E-1, 2.18956E-1, 2.48910E-1, 2.26103E-1, 1.16218E-1

3.129E-3, 8.944209E-1, 3.902E-3, 7.2191E-2, 2.6357E-2
```

Dans cet exemple, la première observation possède le score de prédiction le plus élevé pour la classe `3_stars` (score de prédiction = 4,77781E-1) et vous interpréteriez les résultats comme indiquant que la classe `3_stars` est la meilleure réponse pour cette observation. Notez que les scores de prédiction sont indiqués en notation scientifique et qu'un score de prédiction de 4,77781E-1 est égal à 0,477781.

Dans certaines circonstances, il est possible que vous ne souhaitiez pas choisir la classe dotée de la plus haute probabilité. Par exemple, vous pouvez établir un seuil minimum sous lequel vous ne considérerez pas une classe comme étant la meilleure réponse, même si elle a le meilleur score de prédiction. Supposons que vous classez des films par genre et que vous voulez que le score de prédiction soit au moins 5E-1 avant de déclarer le genre comme votre meilleure réponse. Vous obtenez un score de prédiction de 3E-1 pour les comédies, de 2,5E-1 pour les drames, de 2,5E-1 pour les documentaires et de 2E-1 pour les films d'action. Dans ce cas, le modèle d'apprentissage-machine prédit que la comédie est votre choix le plus probable, mais vous décidez de ne pas la choisir comme meilleure réponse. Dans la mesure où aucun des scores de prédiction n'a dépassé votre score de prédiction de base de 5E-1, vous décidez que la prédiction est insuffisante pour prédire de manière fiable le genre et vous décidez de choisir quelque chose d'autre. Votre application peut alors traiter le champ genre de ce film comme « inconnu ».

## Interprétation du contenu des fichiers de prédiction par lots pour un modèle d'apprentissage-machine de régression
<a name="interpreting-the-contents-of-batch-prediction-files-for-a-regression-ml-model"></a>

Le fichier de prédiction par lots d'un modèle de régression contient une seule colonne nommée **score**. Cette colonne contient les prédictions numériques brutes de toutes les observations figurant dans les données d'entrée. Les valeurs sont indiquées en notation scientifique ; la valeur **score** de -1,526385E1 est donc égale à -15,26835 dans la première ligne de l'exemple suivant. 

Cet exemple montre un fichier de sortie pour une prédiction par lots effectuée sur un modèle de régression :

```
score

-1.526385E1

-6.188034E0

-1.271108E1

-2.200578E1

8.359159E0
```

# Demande de prédiction en temps réel
<a name="requesting-real-time-predictions"></a>

Une prédiction en temps réel est un appel synchrone à Amazon Machine Learning (Amazon ML). La prédiction est effectuée lorsque Amazon ML reçoit la demande, et la réponse est renvoyée immédiatement. Les prédictions en temps réel sont couramment utilisées pour fournir des fonctionnalités prédictives au sein d'applications interactives web, mobiles ou de bureau. Vous pouvez interroger un modèle ML créé avec Amazon ML pour obtenir des prédictions en temps réel à l'aide de l'`Predict`API à faible latence. L'opération `Predict` accepte une seule observation d'entrée dans la charge utile de demande et renvoie de façon synchrone la prédiction dans la réponse. Cela le distingue de l'API de prédiction par lots, qui est invoquée avec l'ID d'un objet de source de données Amazon ML qui pointe vers l'emplacement des observations en entrée, et renvoie de manière asynchrone un URI vers un fichier contenant des prédictions pour toutes ces observations. Amazon ML répond à la plupart des demandes de prédiction en temps réel dans un délai de 100 millisecondes.

Vous pouvez essayer des prédictions en temps réel sans frais dans la console Amazon ML. Si vous décidez ensuite d'utiliser les prédictions en temps réel, vous devez commencer par créer un point de terminaison pour la génération des prédictions en temps réel. Vous pouvez le faire dans la console Amazon ML ou à l'aide de l'`CreateRealtimeEndpoint`API. Une fois que vous avez un point de terminaison, utilisez l'API de prédiction en temps réel pour générer des prédictions en temps réel.

**Note**  
Une fois que vous aurez créé un point de terminaison en temps réel pour votre modèle, vous commencerez à payer des frais de réservation de capacité en fonction de la taille du modèle. Pour plus d’informations, consultez [Tarification d’](https://aws.amazon.com/machine-learning/pricing/). Si vous créez le point de terminaison en temps réel dans la console, celle-ci affiche un détail des frais estimés que le point de terminaison comptabilisera de façon continue. Pour cesser d'engager des frais lorsque vous n'avez plus besoin d'obtenir de prédictions en temps réel à partir de ce modèle, supprimez le point de terminaison en temps réel à l'aide de la console ou de l'opération `DeleteRealtimeEndpoint`.

Pour des exemples de `Predict` demandes et de réponses, consultez [Predict](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html) dans le *manuel Amazon Machine Learning API Reference*. Pour voir un exemple du format de réponse exact que votre modèle utilise, consultez [Essai d'utilisation des prédictions en temps réel](#testing-real-time-predictions).

**Topics**
+ [

## Essai d'utilisation des prédictions en temps réel
](#testing-real-time-predictions)
+ [

## Création d'un point de terminaison en temps réel
](#creating-a-real-time-endpoint)
+ [

## Localisation du point de terminaison de prédiction en temps réel (console)
](#locate-endpoint-by-console)
+ [

## Localisation du point de terminaison de prédiction en temps réel (API)
](#locating-the-real-time-prediction-endpoint)
+ [

## Création d'une demande de prédiction en temps réel
](#real-time-prediction-request-format)
+ [

## Suppression d'un point de terminaison en temps réel
](#delete-endpoint)

## Essai d'utilisation des prédictions en temps réel
<a name="testing-real-time-predictions"></a>

Pour vous aider à décider d'activer ou non les prédictions en temps réel, Amazon ML vous permet d'essayer de générer des prédictions sur des enregistrements de données uniques sans encourir les frais supplémentaires associés à la configuration d'un point de terminaison de prédiction en temps réel. Pour essayer les prédictions en temps réel, vous devez disposer d'un modèle d'apprentissage-machine. Pour créer des prédictions en temps réel à plus grande échelle, utilisez l'API [Predict](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html) dans le *manuel Amazon Machine Learning API Reference*.

**Pour essayer d'utiliser les prédictions en temps réel**

1. Connectez-vous à la console Amazon Machine Learning AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. Dans la barre de navigation, dans le menu déroulant **Amazon Machine Learning**, choisissez **ML models**.

1. Choisissez le modèle que vous souhaitez utiliser pour essayer les prédictions en temps réel, tel que le modèle `Subscription propensity model` issu du didacticiel.

1. Dans la page de rapport du modèle d'apprentissage-machine, sous **Predictions**, choisissez **Summary**, puis choisissez **Try real-time predictions**.  
![\[Tools section with option to try real-time predictions.\]](http://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/images/try-real-time.png)

   Amazon ML affiche une liste des variables qui constituaient les enregistrements de données utilisés par Amazon ML pour entraîner votre modèle.

1. Vous pouvez continuer en entrant des données dans tous les champs du formulaire ou en collant un enregistrement de données unique, au format CSV, dans la zone de texte.

   Pour utiliser le formulaire, pour chaque champ **Valeur**, entrez les données que vous souhaitez utiliser pour tester vos prédictions en temps réel. Si l'enregistrement de données que vous entrez ne contient pas de valeurs pour un ou plusieurs attributs de données, laissez les champs d'entrée vides.

   Pour fournir un enregistrement de données, choisissez **Paste a record**. **Collez une seule ligne de données au format CSV dans le champ de texte, puis choisissez Soumettre.** Amazon ML remplit automatiquement les champs de **valeur** pour vous.
**Note**  
Les données de l'enregistrement de données doivent avoir le même nombre de colonnes que les données de formation, et être organisées dans le même ordre. La seule exception est que vous devez omettre la valeur cible. Si vous incluez une valeur cible, Amazon ML l'ignore.

1. En bas de la page, choisissez **Create prediction**. Amazon ML renvoie la prédiction immédiatement.

   Dans le volet **Prediction results**, vous voyez l'objet prédiction que l'appel à l'API `Predict` renvoie, ainsi que le type de modèle d'apprentissage-machine, le nom de la variable cible et la classe ou la valeur prédite. Pour obtenir des informations sur l'interprétation des résultats, consultez [Interprétation du contenu des fichiers de prédiction par lots pour un modèle d'apprentissage-machine de classification binaire](reading-the-batchprediction-output-files.md#interpreting-the-contents-of-batch-prediction-files-for-a-binary-classification-ml-model).  
![\[Prediction results showing binary ML model type with predicted label 0 and score details.\]](http://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/images/real-time-result.png)

## Création d'un point de terminaison en temps réel
<a name="creating-a-real-time-endpoint"></a>

Pour générer des prédictions en temps réel, vous devez créer un point de terminaison en temps réel. Pour créer un point de terminaison en temps réel, vous devez déjà avoir un modèle d'apprentissage-machine pour lequel vous souhaitez générer des prédictions en temps réel. Vous pouvez créer un point de terminaison en temps réel à l'aide de la console Amazon ML ou en appelant l'`CreateRealtimeEndpoint`API. Pour plus d'informations sur l'utilisation de l'`CreateRealtimeEndpoint`API, consultez [https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_CreateRealtimeEndpoint.html](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_CreateRealtimeEndpoint.html) le manuel Amazon Machine Learning API Reference.

**Pour créer un point de terminaison en temps réel**

1. Connectez-vous à la console Amazon Machine Learning AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. Dans la barre de navigation, dans le menu déroulant **Amazon Machine Learning**, choisissez **ML models**.

1. Choisissez le modèle pour lequel vous souhaitez générer des prédictions en temps réel.

1. Dans la page **ML model summary**, sous **Predictions**, choisissez **Create real-time endpoint**.

   Une boîte de dialogue qui explique comment les prédictions en temps réel sont facturées apparaît.

1. Choisissez **Créer**. La demande de point de terminaison en temps réel est envoyée à Amazon ML et entrée dans une file d'attente. L'état du point de terminaison en temps réel est **Mise à jour en cours**.  
![\[Real-time endpoint status shown as "Updating" in a user interface element.\]](http://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/images/endpoint-updating.png)

1. Lorsque le point de terminaison en temps réel est prêt, le statut passe à **Prêt** et Amazon ML affiche l'URL du point de terminaison. Utilisez l'URL du point de terminaison pour créer des demandes de prédictions en temps réel avec l'API `Predict`. Pour plus d'informations sur l'utilisation de l'`Predict`API, consultez [https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html) le manuel Amazon Machine Learning API Reference.  
![\[Real-time endpoint status showing Ready with an endpoint URL and Peak Requests Per Second value.\]](http://docs.aws.amazon.com/fr_fr/machine-learning/latest/dg/images/endpoint-ready.png)

## Localisation du point de terminaison de prédiction en temps réel (console)
<a name="locate-endpoint-by-console"></a>

Pour utiliser la console Amazon ML afin de trouver l'URL du point de terminaison d'un modèle de ML, accédez à la page de **résumé du modèle de ML** du modèle.

**Pour localiser l'URL d'un point de terminaison en temps réel**

1. Connectez-vous à la console Amazon Machine Learning AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. Dans la barre de navigation, dans le menu déroulant **Amazon Machine Learning**, choisissez **ML models**.

1. Choisissez le modèle pour lequel vous souhaitez générer des prédictions en temps réel.

1. Dans la page **ML model summary**, faites défiler l'affichage vers le bas jusqu'à ce que vous voyiez la section **Predictions**.

1. L'URL du point de terminaison du modèle est répertoriée dans **Real-time prediction**. Utilisez cette URL comme URL **Endpoint Url** pour vos appels de prédiction en temps réel. Pour plus d'informations sur la façon d'utiliser le point de terminaison pour générer des prédictions, consultez [https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html) le manuel Amazon Machine Learning API Reference.

## Localisation du point de terminaison de prédiction en temps réel (API)
<a name="locating-the-real-time-prediction-endpoint"></a>

Lorsque vous créez un point de terminaison en temps réel à l'aide de l'opération `CreateRealtimeEndpoint`, l'URL et l'état de ce point de terminaison vous sont renvoyés dans la réponse. Si vous avez créé le point de terminaison en temps réel à l'aide de la console ou si vous souhaitez récupérer l'URL et l'état d'un point de terminaison que vous avez créé précédemment, appelez l'opération `GetMLModel` avec l'ID du modèle à interroger pour les prédictions en temps réel. Les informations du point de terminaison figurent dans la section `EndpointInfo` de la réponse. Pour un modèle doté d'un point de terminaison en temps réel associé, la section `EndpointInfo` peut ressembler à ceci :

```
"EndpointInfo":{
    "CreatedAt": 1427864874.227,
    "EndpointStatus": "READY",
    "EndpointUrl": "https://endpointUrl",
    "PeakRequestsPerSecond": 200
}
```

Un modèle sans point de terminaison en temps réel renverrait ce qui suit :

```
EndpointInfo":{
    "EndpointStatus": "NONE",
    "PeakRequestsPerSecond": 0
}
```

## Création d'une demande de prédiction en temps réel
<a name="real-time-prediction-request-format"></a>

Un exemple de charge utile de demande `Predict` peut ressembler à ceci :

```
{
    "MLModelId": "model-id",
    "Record":{
        "key1": "value1",
        "key2": "value2"
    },
    "PredictEndpoint": "https://endpointUrl"
}
```

Le `PredictEndpoint` champ doit correspondre au `EndpointUrl` champ de la `EndpointInfo` structure. Amazon ML utilise ce champ pour acheminer la demande vers les serveurs appropriés du parc de prévisions en temps réel.

`MLModelId` est l'identifiant d'un modèle formé précédemment avec un point de terminaison en temps réel.

`Record` est un mappage de noms de variables et de valeurs de variables. Chaque paire représente une observation. La `Record` carte contient les entrées de votre modèle Amazon ML. Il est analogue à une ligne de données individuelle dans votre jeu de données de formation, sans la variable cible. Quel que soit le type de valeurs figurant dans les données d'entraînement, `Record` contient un string-to-string mappage.

**Note**  
Vous pouvez omettre les variables pour lesquelles vous n'avez pas de valeur, bien que cela puisse réduire la précision de votre prédiction. Plus vous pouvez inclure de variables, plus votre modèle est précis.

Le format de la réponse renvoyée par les demandes `Predict` dépend du type de modèle qui est interrogé pour la prédiction. Dans tous les cas, le champ `details` contient des informations sur la demande de prédiction, notamment le champ `PredictiveModelType` avec le type de modèle.

L'exemple suivant illustre une réponse pour un modèle binaire :

```
{
    "Prediction":{
        "details":{
            "PredictiveModelType": "BINARY"
        },
        "predictedLabel": "0",
        "predictedScores":{
            "0": 0.47380468249320984
        }
    }
}
```

Notez le `predictedLabel` champ qui contient l'étiquette prédite, dans ce cas 0. Amazon ML calcule l'étiquette prédite en comparant le score de prédiction au seuil de classification :
+ Vous pouvez obtenir le seuil de classification actuellement associé à un modèle ML en inspectant le `ScoreThreshold` champ dans la réponse à l'`GetMLModel`opération ou en consultant les informations du modèle dans la console Amazon ML. Si vous ne définissez pas de seuil de score, Amazon ML utilise la valeur par défaut de 0,5.
+ Vous pouvez obtenir le score de prédiction exact pour un modèle de classification binaire en inspectant le mappage `predictedScores`. Dans ce mappage, l'étiquette prédite est associée au score de prédiction exact.

Pour plus d'informations sur les prédictions binaires, consultez [Interprétation des prédictions](binary-model-insights.md#interpreting-the-predictions).

L'exemple suivant illustre une réponse pour un modèle de régression. Remarquez que la valeur numérique prédite se trouve dans le champ `predictedValue` :

```
{
    "Prediction":{
        "details":{
            "PredictiveModelType": "REGRESSION"
        },
        "predictedValue": 15.508452415466309
    }
}
```

L'exemple suivant illustre une réponse pour un modèle multiclasse : 

```
{
    "Prediction":{
        "details":{
            "PredictiveModelType": "MULTICLASS"
        },
        "predictedLabel": "red",
        "predictedScores":{
            "red": 0.12923571467399597,
            "green": 0.08416014909744263,
            "orange": 0.22713537514209747,
            "blue": 0.1438363939523697,
            "pink": 0.184102863073349,
            "violet": 0.12816807627677917,
            "brown": 0.10336143523454666
        }
    }
}
```

À l'instar des modèles de classification binaire, les prévisions label/class se trouvent `predictedLabel` sur le terrain. Vous pouvez mieux comprendre à quel point la prédiction est liée à chaque classe en examinant le mappage `predictedScores`. Plus le score d'une classe au sein de ce mappage est élevé et plus la prédiction est fortement liée à la classe, la valeur la plus haute étant sélectionnée comme `predictedLabel`.

Pour plus d'informations sur les prédictions multiclasses, consultez [Analyse du modèle multiclasse](multiclass-model-insights.md).

## Suppression d'un point de terminaison en temps réel
<a name="delete-endpoint"></a>

Lorsque vous avez terminé vos prédictions en temps réel, supprimez le point de terminaison en temps réel pour ne pas encourir de frais supplémentaires. Les frais cessent de s'accumuler dès que vous supprimez votre point de terminaison.

**Pour supprimer un point de terminaison en temps réel**

1. Connectez-vous à la console Amazon Machine Learning AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. Dans la barre de navigation, dans le menu déroulant **Amazon Machine Learning**, choisissez **ML models**.

1. Choisissez le modèle qui n'a plus besoin de prédictions en temps réel.

1. Dans la page de rapport du modèle d'apprentissage-machine, sous **Prédictions**, choisissez **Résumé**. 

1. Choisissez **Delete real-time endpoint (Supprimer le point de terminaison en temps réel)**.

1. Dans la boîte de dialogue **Delete real-time endpoint (Supprimer le point de terminaison en temps réel)**, choisissez **Supprimer**.