

Ya no actualizamos el servicio Amazon Machine Learning ni aceptamos nuevos usuarios para él. Esta documentación está disponible para los usuarios actuales, pero ya no la actualizamos. Para obtener más información, consulte [Qué es Amazon Machine Learning](https://docs.aws.amazon.com/machine-learning/latest/dg/what-is-amazon-machine-learning.html).

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Creación e interpretación de predicciones
<a name="interpreting_predictions"></a>

Amazon ML proporciona dos mecanismos para generar predicciones: asíncrono (basado en lotes) y sincrónico (). one-at-a-time

Utilice predicciones asíncronas o *predicciones en lote***,** cuando tenga una serie de observaciones y desea obtener predicciones para todas las observaciones a la vez. El proceso utiliza una fuente de datos como entrada y genera predicciones en un archivo.csv que se almacena en el depósito de S3 que desee. Debe esperar hasta que se complete el proceso de predicciones en lote antes de poder acceder a los resultados de las predicciones. El tamaño máximo de una fuente de datos que puede procesar Amazon ML en lote en un archivo es de 1 TB (aproximadamente 100 millones de registros). Si la fuente de datos supera 1 TB, su proceso fallará y Amazon ML devolverá un código de error. Para evitarlo, divida los datos en varios lotes. Si sus registros acostumbran a ser más largos, alcanzará el límite de 1 TB antes de que se procesen 100 millones de registros. En este caso, le recomendamos que se ponga en contacto con [AWS Support](https://aws.amazon.com/contact-us/) para aumentar el tamaño del proceso de predicciones en lote.

Utilice predicciones sincrónicas o *predicciones en tiempo real***** cuando desee obtener predicciones de baja latencia. La API de predicciones en tiempo real acepta una sola observación de entrada serializada como cadena JSON, y devuelve, de forma sincrónica, la predicción y los metadatos asociados como parte de la respuesta de la API. Al mismo tiempo, puede invocar la API más de una vez para obtener predicciones sincrónicas en paralelo. Para obtener más información sobre los límites de rendimiento de la API de predicciones en tiempo real, consulte los límites de predicciones en tiempo real en las [referencias de la API de Amazon ML](https://docs.aws.amazon.com/machine-learning/latest/APIReference/).

**Topics**
+ [Creación de una predicción por lotes](creating-batch-prediction-objects.md)
+ [Revisión de métricas de predicciones por lotes](working-with-batch-predictions.md)
+ [Lectura de archivos de salida de predicciones por lotes](reading-the-batchprediction-output-files.md)
+ [Solicitud de predicciones en tiempo real](requesting-real-time-predictions.md)

# Creación de una predicción por lotes
<a name="creating-batch-prediction-objects"></a>

Para crear una predicción por lotes, se crea un objeto `BatchPrediction` a través de la consola Amazon Machine Learning (Amazon ML) o la API. Un objeto `BatchPrediction` se describe como un conjunto de predicciones que genera Amazon ML mediante su modelo de ML y un conjunto de observaciones de entrada. Al crear un objeto `BatchPrediction`, Amazon ML inicia un flujo de trabajo asíncrono que calcula las predicciones. 

Debe utilizar el mismo esquema para la fuente de datos que utilice para obtener predicciones por lotes y la fuente de datos que utilizó para formar el modelo de ML al que consulta las predicciones. La única excepción es que la fuente de datos para una predicción por lotes no tiene por qué incluir el atributo de destino porque Amazon ML predice el destino. Si proporciona el atributo de destino, Amazon ML pasa por alto su valor. 

## Creación de una predicción por lotes (consola)
<a name="batch-prediction-console"></a>

Para crear una predicción por lotes con la consola Amazon ML utilice el asistente Create Batch Prediction. 

**Para crear una predicción por lotes (consola)**

1. Inicie sesión en la consola Amazon Machine Learning Consola de administración de AWS y ábrala en [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. En el panel de Amazon ML, en **Objetos**, elija **Crear nuevo...** y, a continuación, elija **Predicción por lotes**.

1. Elija el modelo de Amazon ML que desee utilizar para crear la predicción por lotes.

1. Para confirmar que desea utilizar este modelo, seleccione **Continue (Continuar)**.

1. Elija la fuente de datos para la que desee crear predicciones. La fuente de datos debe tener el mismo esquema que su modelo, aunque no tiene que incluir el atributo de destino.

1. Elija **Continuar**.

1. Para **S3 destination (Destino de S3)**, escriba el nombre del bucket de S3.

1. Elija **Revisar**.

1. Revise la configuración y seleccione **Create batch prediction (Crear predicciones por lotes)**.

## Creación de una predicción por lotes (API)
<a name="batch-prediction-api"></a>

Para crear un objeto `BatchPrediction` utilizando la API de Amazon ML, debe proporcionar los siguientes parámetros:

**Datasource ID**  
El ID de la fuente de datos que apunta a las observaciones para las que desea las predicciones. Por ejemplo, si desea predicciones para los datos en un archivo llamado `s3://examplebucket/input.csv`, crearía un objeto de fuente de datos que apunte al archivo de datos y, a continuación, trasladaría el ID de esa fuente de datos con este parámetro.

**BatchPrediction ID**  
El ID que se asigna a la predicción por lotes.

**ML Model ID**  
El ID del modelo de ML que Amazon ML debe consultar para las predicciones.

**Output Uri**  
El URI del bucket de S3 en el que almacenar el resultado de la predicción. Amazon ML debe tener permisos para escribir datos en este bucket.  
El parámetro `OutputUri` debe hacer referencia a una ruta de S3 que termine con una barra inclinada ('/'), tal y como se muestra en el ejemplo siguiente:  
s3://examplebucket/examplepath/  
Para obtener más información acerca de la configuración de permisos de S3, consulte [Concesión de permisos a Amazon ML para enviar predicciones a Amazon S3](granting-amazon-ml-permissions-to-output-predictions-to-amazon-s3.md).

**(Opcional) BatchPrediction Nombre**  
(Opcional) Un nombre legible para la predicción por lotes.

# Revisión de métricas de predicciones por lotes
<a name="working-with-batch-predictions"></a>

Después de que Amazon Machine Learning (Amazon ML) cree una predicción por lotes, proporciona dos métricas: `Records seen` y `Records failed to process`. `Records seen` le indica la cantidad de registros de Amazon ML que se han analizado cuando se ha ejecutado la predicción por lotes. `Records failed to process` le indica la cantidad de registros de Amazon ML que no se han podido procesar.

Para permitir que Amazon ML procese registros fallidos, compruebe el formato de los registros de los datos utilizados para crear la fuente de datos y asegúrese de que todos los atributos obligatorios estén indicados y que todos los datos sean correctos. Después de reparar los datos, puede volver a crear su predicción por lotes o crear una nueva fuente de datos con los registros fallidos y, a continuación, crear una nueva predicción por lotes utilizando la nueva fuente de datos.

## Revisión de métricas de predicciones por lotes (consola)
<a name="review-console"></a>

Para consultar las métricas en la consola de Amazon ML, abra la página **Resumen de predicción por lotes** y busque en la sección **Información procesada**.

## Revisión de métricas e información de predicciones por lotes (API)
<a name="review-api"></a>

Puede utilizar Amazon ML APIs para recuperar detalles sobre los `BatchPrediction` objetos, incluidas las métricas de registro. Amazon ML ofrece las siguientes llamadas a la API de predicciones por lotes:
+ `CreateBatchPrediction`
+ `UpdateBatchPrediction`
+ `DeleteBatchPrediction`
+ `GetBatchPrediction`
+ `DescribeBatchPredictions`

Para obtener más información, consulte la [Referencia de las API de Amazon ML](https://docs.aws.amazon.com/machine-learning/latest/APIReference/).

# Lectura de archivos de salida de predicciones por lotes
<a name="reading-the-batchprediction-output-files"></a>

Realice los siguientes pasos para recuperar los archivos de salida de predicciones por lotes:

1. Localice el archivo de manifiesto de predicciones por lotes.

1. Lea el archivo de manifiesto para determinar las ubicaciones de los archivos de salida.

1. Recupere los archivos de salida que contengan las predicciones.

1. Interprete el contenido de los archivos de salida. El contenido variará en función del tipo de modelo de ML que se utilizó para generar las predicciones.

En las siguientes secciones se describen los pasos de manera más detallada.

## Localización del archivo de manifiesto de predicciones por lotes
<a name="locating-the-batch-prediction-manifest-file"></a>

Los archivos de manifiesto de predicciones por lotes contienen la información que une los archivos de entrada y los archivos de salida de las predicciones.

Para localizar el archivo de manifiesto, comience con la ubicación de salida especificada al crear el objeto de predicciones por lotes. Puede consultar un objeto de predicción de lotes completado para recuperar la ubicación S3 de este archivo mediante la [API Amazon ML](https://docs.aws.amazon.com/machine-learning/latest/APIReference/) o la [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

El archivo de manifiesto se encuentra en la ubicación de salida, en una ruta que consta de la cadena estática `/batch-prediction/` anexada a la ubicación de salida y el nombre del archivo de manifiesto, el cual se corresponde con el ID de la predicción por lotes, con la extensión `.manifest` anexada.

Por ejemplo, si crea un objeto de predicciones por lotes con el ID `bp-example` y especifica la ubicación de S3 `s3://examplebucket/output/` como la ubicación de salida, encontrará su archivo de manifiesto aquí:

`s3://examplebucket/output/batch-prediction/bp-example.manifest`

## Lectura del archivo de manifiesto
<a name="reading-the-manifest-file"></a>

El contenido del archivo de manifiesto está codificado como un mapa JSON, donde la clave es una cadena del nombre de un archivo de datos de entrada de S3 y el valor es una cadena del archivo asociado de resultados de predicciones por lotes. Hay una línea de mapeo para cada par de input/output archivos. Siguiendo con nuestro ejemplo, si la entrada de la creación del objeto `BatchPrediction` consta de un único archivo llamado data.csv que se encuentra en `s3://examplebucket/input/`, es posible que vea una cadena de asignación que tenga este aspecto:

```
{"s3://examplebucket/input/data.csv":"
s3://examplebucket/output/batch-prediction/result/bp-example-data.csv.gz"}
```

Si la entrada de la creación del objeto `BatchPrediction` consta de tres archivos llamados data1.csv, data2.csv y data3.csv y si están almacenados en la ubicación `s3://examplebucket/input/` de S3, es posible que vea una cadena de asignación que tenga este aspecto:

```
{"s3://examplebucket/input/data1.csv":"s3://examplebucket/output/batch-prediction/result/bp-example-data1.csv.gz",

"s3://examplebucket/input/data2.csv":"
s3://examplebucket/output/batch-prediction/result/bp-example-data2.csv.gz",

"s3://examplebucket/input/data3.csv":"
s3://examplebucket/output/batch-prediction/result/bp-example-data3.csv.gz"}
```

## Recuperación de archivos de salida de predicciones por lotes
<a name="retrieving-the-batch-prediction-output-files"></a>

Puede descargar cada archivo de predicciones por lotes obtenido de la asignación del manifiesto y procesarlo a nivel local. El formato de archivo es CSV, comprimido con el algoritmo gzip. Dentro de dicho archivo, hay una línea por observación de entrada en el archivo de entrada correspondiente.

Para unir las predicciones con el archivo de entrada de la predicción por lotes, puede realizar una simple record-by-record combinación de los dos archivos. El archivo de salida de la predicción por lotes siempre contiene el mismo número de registros que el archivo de entrada de predicciones, en el mismo orden. Si una observación de entrada falla durante el procesamiento y no se puede generar ninguna predicción, el archivo de salida de la predicción por lotes tendrá una línea en blanco en la ubicación correspondiente.

## Interpretación del contenido de los archivos de predicciones por lotes para un modelo de ML de clasificación binaria
<a name="interpreting-the-contents-of-batch-prediction-files-for-a-binary-classification-ml-model"></a>

Las columnas del archivo de predicciones por lotes para un modelo de clasificación binaria se llaman **bestAnswer** y **score**.

La columna **bestAnswer** contiene la etiqueta de predicción ("1" o "0") que se obtiene mediante la evaluación de la puntuación de la predicción frente a la puntuación de corte. Para obtener más información sobre las puntuaciones de corte, consulte [Ajuste de la puntuación de corte](https://docs.aws.amazon.com/machine-learning/latest/dg/evaluating_models.html). Puede definir una puntuación de corte para el modelo de ML mediante la API de Amazon ML o la funcionalidad de la evaluación del modelo de la consola de Amazon ML. Si no establece ninguna puntuación de corte, Amazon ML se utilizará el valor predeterminado de 0,5.

La columna **puntuación** contiene la puntuación de la predicción bruta asignada por el modelo de ML para esta predicción. Amazon ML utiliza modelos de regresión logística, por lo que esta puntuación intenta modelar la probabilidad de la observación que corresponde a un valor "true" ("1"). El valor de **score** se expresa en notación científica, por lo que en la primera fila del siguiente ejemplo el valor 8,7642E-3 es igual a 0,0087642.

Por ejemplo, si la puntuación de corte del modelo de ML es de 0,75, el contenido del archivo de salida de predicciones por lotes para un modelo de clasificación binaria puede tener el siguiente aspecto:

```
bestAnswer,score

0,8.7642E-3

1,7.899012E-1


0,6.323061E-3

0,2.143189E-2


1,8.944209E-1
```

La segunda y la quinta observaciones en el archivo de entrada han recibido puntuaciones de predicciones superiores a 0,75, por lo que la columna bestAnswer de estas observaciones indica el valor "1", mientras que otras observaciones tienen el valor "0".

## Interpretación del contenido de los archivos de predicciones por lotes para un modelo de ML de clasificación multiclase
<a name="interpreting-the-contents-of-batch-prediction-files-for-a-multiclass-classification-ml-model"></a>

El archivo de predicciones por lotes para un modelo multiclase contiene una columna para cada clase de los datos de entrenamiento. Los nombres de columna aparecen en la línea del encabezado del archivo de predicciones por lotes.

Al solicitar predicciones desde un modelo multiclase, Amazon ML genera varias puntuaciones de predicciones para cada una de las observaciones del archivo de entrada, una para cada una de las clases definidas en el conjunto de datos de entrada. Es equivalente a la pregunta: "¿Cuál es la probabilidad (medida entre 0 y 1) de que esta observación pase a formar parte de esta clase, en lugar de pasar a formar parte de cualquiera de las otras clases?" Cada puntuación puede interpretarse como una "probabilidad de que la observación pertenezca a esta clase". Dado que las puntuaciones de predicción influyen en las probabilidades subyacentes de que la observación pertenezca a una clase u otra, la suma de todas las puntuaciones de predicción en una fila es 1. Debe elegir una clase como clase predicha para el modelo. Lo más común es que elija la clase que tenga la mayor probabilidad como mejor respuesta.

Por ejemplo, imagine que intenta predecir la calificación del cliente de un producto, basándose en una escala de 1 a 5 estrellas. Si las clases se llaman `1_star`, `2_stars`, `3_stars`, `4_stars` y `5_stars`, el archivo de salida de la predicción multiclase puede tener un aspecto similar al siguiente:

```
1_star, 2_stars, 3_stars, 4_stars, 5_stars

8.7642E-3, 2.7195E-1, 4.77781E-1, 1.75411E-1, 6.6094E-2

5.59931E-1, 3.10E-4, 2.48E-4, 1.99871E-1, 2.39640E-1

7.19022E-1, 7.366E-3, 1.95411E-1, 8.78E-4, 7.7323E-2

1.89813E-1, 2.18956E-1, 2.48910E-1, 2.26103E-1, 1.16218E-1

3.129E-3, 8.944209E-1, 3.902E-3, 7.2191E-2, 2.6357E-2
```

En este ejemplo, la primera observación tiene la mayor puntuación de predicción para la clase `3_stars` (puntuación de predicción = 4.77781E-1), por lo que interpretaría los resultados de manera que la clase `3_stars` es la mejor respuesta para esta observación. Las puntuaciones de predicción se muestran en notaciones científicas, por lo que una puntuación de predicción de 4.77781E-1 es igual a 0.477781.

Puede haber circunstancias en las que no desea elegir la clase con la mayor probabilidad. Por ejemplo, es posible que quiera establecer un umbral mínimo por debajo del cual no considerará a una clase como la mejor respuesta aunque tenga la mayor puntuación de predicción. Supongamos que está clasificando películas por géneros y que desea que la puntuación de predicción sea al menos de 5E-1 antes de determinar que un género es la mejor respuesta. Obtiene una puntuación de predicción de 3E-1 para comedias, 2.5E-1 para dramas, 2.5E-1 para documentales y 2E-1 para películas de acción. En este caso, el modelo de ML predice que la comedia es la elección más probable, pero usted decide no elegirla como la mejor respuesta. Dado que ninguna de las puntuaciones de predicción ha superado su puntuación de predicción de referencia de 5E-1, decide que la predicción no es suficiente para predecir el género de forma segura y elegir otra cosa. La aplicación podría tratar el campo del género de esta película como "unknown".

## Interpretación del contenido de los archivos de predicciones por lotes para un modelo de ML de regresión
<a name="interpreting-the-contents-of-batch-prediction-files-for-a-regression-ml-model"></a>

El archivo de predicciones por lotes para un modelo de regresión contiene una única columna llamada **score**. Esta columna contiene la predicción numérica raíz de cada observación de los datos de entrada. Los valores se expresan en notación científica, por lo que el valor de **score** de -1.526385E1 es igual a -15.26835 en la primera fila del siguiente ejemplo. 

Este ejemplo muestra un archivo de salida de una predicción por lotes realizada en un modelo de regresión:

```
score

-1.526385E1

-6.188034E0

-1.271108E1

-2.200578E1

8.359159E0
```

# Solicitud de predicciones en tiempo real
<a name="requesting-real-time-predictions"></a>

Una predicción en tiempo real es una llamada sincrónica a Amazon Machine Learning (Amazon ML). La predicción se lleva a cabo cuando Amazon ML obtiene la solicitud y la respuesta se devuelve inmediatamente. Las predicciones en tiempo real se utilizan generalmente para habilitar capacidades predictivas en aplicaciones web, móviles o aplicaciones de escritorio. Puede consultar un modelo de ML creado con Amazon ML para obtener predicciones en tiempo real a través de la API `Predict` de baja latencia. La operación `Predict` acepta una única observación de entrada en la solicitud de carga y devuelve la predicción de la respuesta de forma síncrona. Esto la diferencia de la API de predicciones por lotes, que se invoca con el ID de un objeto de fuente de datos de Amazon ML que apunta a la ubicación de las observaciones de entrada y devuelve de forma asíncrona una URI a un archivo que contiene predicciones para todas estas observaciones. Amazon ML responde a la mayoría de solicitudes de predicciones en tiempo real en un plazo de 100 milisegundos.

Puede probar las predicciones en tiempo real sin incurrir en gastos en la consola de Amazon ML. Si decide utilizar las predicciones en tiempo real, primero debe crear un punto de enlace para la generación de predicciones en tiempo real. Puede hacerlo en la consola de Amazon ML o utilizando la API `CreateRealtimeEndpoint`. Cuando tenga un punto de enlace, utilice la API de predicciones en tiempo real para generar predicciones en tiempo real.

**nota**  
Después de crear un punto de enlace en tiempo real para el modelo, podrá comenzar a incurrir en una carga de reserva de capacidad que se basa en el tamaño del modelo. Para obtener más información, consulte [Precios](https://aws.amazon.com/machine-learning/pricing/). Si crea el punto de enlace en tiempo real en la consola, la consola mostrará un desglose de los cargos estimados que el punto de enlace acumulará de forma continua. Para parar de incurrir en cargos cuando ya no necesita obtener las predicciones en tiempo real a partir de ese modelo, elimine el punto de enlace en tiempo real a través de la consola o la operación `DeleteRealtimeEndpoint`.

Para ver ejemplos de `Predict` solicitudes y respuestas, consulte [Predecir](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html) en la *referencia de la API de Amazon Machine Learning*. Para ver un ejemplo del formato exacto de respuesta que utiliza su modelo, consulte [Pruebas con las predicciones en tiempo real](#testing-real-time-predictions).

**Topics**
+ [Pruebas con las predicciones en tiempo real](#testing-real-time-predictions)
+ [Creación de un punto de enlace en tiempo real](#creating-a-real-time-endpoint)
+ [Ubicación del punto de enlace de predicciones en tiempo real (consola)](#locate-endpoint-by-console)
+ [Ubicación del punto de enlace de predicciones en tiempo real (API)](#locating-the-real-time-prediction-endpoint)
+ [Creación de una solicitud de predicciones en tiempo real](#real-time-prediction-request-format)
+ [Eliminación de un punto de enlace en tiempo real](#delete-endpoint)

## Pruebas con las predicciones en tiempo real
<a name="testing-real-time-predictions"></a>

Para ayudarle a decidir si desea habilitar las predicciones en tiempo real, Amazon ML le permite probar la generación de predicciones en registros de datos únicos sin incurrir en cargos adicionales asociados con la configuración de un punto de conexión de predicciones en tiempo real. Para probar las predicciones en tiempo real, debe contar con un modelo de ML. Para crear predicciones en tiempo real a mayor escala, utilice la API [Predecir](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html) en la *Referencia de la API de Amazon Machine Learning*.

**Pruebas con predicciones en tiempo real**

1. Inicie sesión en la consola Amazon Machine Learning Consola de administración de AWS y ábrala en [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. En la barra de navegación, en el desplegable **Amazon Machine Learning**, elija **ML models (Modelos ML)**.

1. Elija el modelo que desea utilizar para probar las predicciones en tiempo real, como el `Subscription propensity model` del tutorial.

1. En la página del informe del modelo de ML, en **Predictions (Predicciones)**, seleccione **Summary (Resumen)** y, a continuación, elija **Try real-time predictions (Predicciones en tiempo real)**.  
![\[Tools section with option to try real-time predictions.\]](http://docs.aws.amazon.com/es_es/machine-learning/latest/dg/images/try-real-time.png)

   Amazon ML muestra una lista de las variables que componen los registros de datos que Amazon ML utilizó para entrenar el modelo.

1. Puede continuar escribiendo datos en cada uno de los campos en el formulario o pegar un solo registro de datos, en formato CSV, en el cuadro de texto.

   Para utilizar el formulario, para cada campo **Value (Valor)**, escriba los datos que desea utilizar para probar sus predicciones en tiempo real. Si el registro de datos que ha introducido no contiene valores correspondientes a uno o varios atributos de datos, deje los campos de entrada en blanco.

   Para proporcionar un registro de datos, seleccione **Paste a record (Pegar un registro)**. Pegue una sola fila de datos con formato CSV en el campo de texto y elija **Enviar**. Amazon ML rellena automáticamente los campos **Valor**.
**nota**  
Los datos en el registro de datos deben tener el mismo número de columnas que los datos de entrenamiento y estar organizados en el mismo orden. La única excepción es que debería omitir el valor de destino. Si incluye un valor de destino, Amazon ML no lo tiene en cuenta.

1. En la parte inferior de la página, elija **Create prediction**. Amazon ML devuelve la predicción de forma inmediata.

   En el panel **Prediction results (Resultados de predicción)**, verá el objeto de predicciones que devuelve la llamada a la API `Predict`, junto con el tipo de modelo de ML, el nombre de la variable de destino y la clase o el valor predichos. Para obtener información acerca de cómo interpretar los resultados, consulte [Interpretación del contenido de los archivos de predicciones por lotes para un modelo de ML de clasificación binaria](reading-the-batchprediction-output-files.md#interpreting-the-contents-of-batch-prediction-files-for-a-binary-classification-ml-model).  
![\[Prediction results showing binary ML model type with predicted label 0 and score details.\]](http://docs.aws.amazon.com/es_es/machine-learning/latest/dg/images/real-time-result.png)

## Creación de un punto de enlace en tiempo real
<a name="creating-a-real-time-endpoint"></a>

Para generar predicciones en tiempo real, debe crear un punto de enlace en tiempo real. Para crear un punto de enlace en tiempo real, ya debe tener un modelo de ML para el que desea generar predicciones en tiempo real. Puede crear un punto de conexión en tiempo real a través de la consola de Amazon ML o mediante una llamada a la API `CreateRealtimeEndpoint`. Para obtener más información sobre el uso de la API `CreateRealtimeEndpoint`, consulte [https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_CreateRealtimeEndpoint.html](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_CreateRealtimeEndpoint.html) en la referencia de la API de Amazon Machine Learning.

**Creación de un punto de enlace en tiempo real**

1. Inicie sesión en la consola Amazon Machine Learning Consola de administración de AWS y ábrala en [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. En la barra de navegación, en el desplegable **Amazon Machine Learning**, elija **ML models (Modelos ML)**.

1. Elija el modelo por el cual desea generar predicciones en tiempo real.

1. En la página **ML model summary (Resumen de modelo de ML)**, en **Predictions (Predicciones)**, seleccione **Create real-time endpoint (Crear punto de enlace en tiempo real)**.

   Aparecerá un cuadro de diálogo que explica el precio que tienen las predicciones en tiempo real.

1. Seleccione **Crear**. La solicitud del punto de conexión en tiempo real se envía a Amazon ML y se introduce en una cola. El estado del punto de enlace en tiempo real es **Updating (Actualizando)**.  
![\[Real-time endpoint status shown as "Updating" in a user interface element.\]](http://docs.aws.amazon.com/es_es/machine-learning/latest/dg/images/endpoint-updating.png)

1. Cuando el punto de conexión en tiempo real esté listo, el estado cambia a **Listo** y Amazon ML muestra la dirección URL del punto de conexión. Utilice la dirección URL del punto de enlace para crear solicitudes de predicciones en tiempo real con la API `Predict`. Para obtener más información sobre el uso de la API `Predict`, consulte [https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html) en la Referencia de API de Amazon Machine Learning.  
![\[Real-time endpoint status showing Ready with an endpoint URL and Peak Requests Per Second value.\]](http://docs.aws.amazon.com/es_es/machine-learning/latest/dg/images/endpoint-ready.png)

## Ubicación del punto de enlace de predicciones en tiempo real (consola)
<a name="locate-endpoint-by-console"></a>

Para utilizar la consola de Amazon ML para encontrar la dirección URL del punto de conexión de un modelo de ML, consulte la página **Resumen de modelo de ML**.

**Ubicación de la dirección URL de un punto de enlace en tiempo real**

1. Inicie sesión en la consola Amazon Machine Learning Consola de administración de AWS y ábrala en [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. En la barra de navegación, en el desplegable **Amazon Machine Learning**, elija **ML models (Modelos ML)**.

1. Elija el modelo por el cual desea generar predicciones en tiempo real.

1. En la página **ML model summary (Resumen de modelo de ML)**, desplácese hacia abajo hasta que vea la sección **Predictions (Predicciones)**.

1. La dirección URL del punto de enlace del modelo se muestra en **Real-time prediction (Predicción en tiempo real)**. Utilice la dirección URL como dirección URL de **Endpoint Url (URL de punto de enlace)** para sus llamadas de predicciones en tiempo real. Para obtener información acerca de cómo utilizar el punto de conexión para generar predicciones, consulte [https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html) en la Referencia de API de Amazon Machine Learning.

## Ubicación del punto de enlace de predicciones en tiempo real (API)
<a name="locating-the-real-time-prediction-endpoint"></a>

Cuando crea un punto de conexión en tiempo real mediante la utilización de la operación `CreateRealtimeEndpoint`, la dirección URL y el estado del punto de enlace se le devuelven en la respuesta. Si creó el punto de enlace en tiempo real a través de la consola o si desea recuperar la dirección URL y el estado de un punto de enlace que ha creado anteriormente, llame a la operación `GetMLModel` con el ID del modelo del que desea consultar las predicciones en tiempo real. La información del punto de enlace está en la sección `EndpointInfo` de la respuesta. Para un modelo que tiene un punto de enlace en tiempo real asociado, `EndpointInfo` podría devolver lo siguiente:

```
"EndpointInfo":{
    "CreatedAt": 1427864874.227,
    "EndpointStatus": "READY",
    "EndpointUrl": "https://endpointUrl",
    "PeakRequestsPerSecond": 200
}
```

Un modelo sin un punto de enlace en tiempo real devolverá lo siguiente:

```
EndpointInfo":{
    "EndpointStatus": "NONE",
    "PeakRequestsPerSecond": 0
}
```

## Creación de una solicitud de predicciones en tiempo real
<a name="real-time-prediction-request-format"></a>

Una carga de solicitud `Predict` podría devolver lo siguiente:

```
{
    "MLModelId": "model-id",
    "Record":{
        "key1": "value1",
        "key2": "value2"
    },
    "PredictEndpoint": "https://endpointUrl"
}
```

El campo `PredictEndpoint` debe corresponderse con el campo `EndpointUrl` de la estructura `EndpointInfo`. Amazon ML utiliza este campo para dirigir la solicitud a los servidores adecuados en la flota de predicciones en tiempo real.

El `MLModelId` es el identificador de un modelo entrenado previamente con un punto de enlace en tiempo real.

Un `Record` es un mapa de nombres de variables a valores variables. Cada par representa una observación. El mapa `Record` contiene las entradas de su modelo de Amazon ML. Es similar a una sola fila de datos en el conjunto de datos de entrenamiento, sin la variable de destino. Con independencia del tipo de valores de los datos de entrenamiento, `Record` contiene un string-to-string mapeo.

**nota**  
Puede omitir variables para las que no tiene un valor, aunque esto podría reducir la exactitud de su predicción. Cuantas más variables pueda incluir, más preciso será su modelo.

El formato de la respuesta que devuelven las solicitudes `Predict` depende del tipo de modelo que se utiliza para las consultas de predicción. En todos los casos, el campo `details` contiene información acerca de la solicitud de predicciones, incluyendo de manera notable el campo `PredictiveModelType` con el tipo de modelo.

El siguiente ejemplo muestra una respuesta para un modelo binario:

```
{
    "Prediction":{
        "details":{
            "PredictiveModelType": "BINARY"
        },
        "predictedLabel": "0",
        "predictedScores":{
            "0": 0.47380468249320984
        }
    }
}
```

Tenga en cuenta el campo `predictedLabel` que contiene la etiqueta prevista, que en este caso es 0. Amazon ML procesa la etiqueta predicha comparando la puntuación de predicción con el corte de clasificación:
+ Puede obtener el corte de clasificación que está asociado actualmente con un modelo de ML inspeccionando el campo `ScoreThreshold` en la respuesta de la operación `GetMLModel` o visualizando la información del modelo en la consola de Amazon ML. Si no establece un umbral de corte, Amazon ML utiliza el valor predeterminado de 0,5.
+ Puede obtener la puntuación de predicciones exacta para un modelo de clasificación binaria inspeccionando el mapa `predictedScores`. Dentro de este mapa, la etiqueta predicha se empareja con la puntuación de predicciones exacta.

Para obtener más información sobre las predicciones binarias, consulte [Interpretación de las predicciones](binary-model-insights.md#interpreting-the-predictions).

El siguiente ejemplo muestra una respuesta para un modelo de regresión. Tenga en cuenta que el valor numérico predicho se encuentra en el campo `predictedValue`:

```
{
    "Prediction":{
        "details":{
            "PredictiveModelType": "REGRESSION"
        },
        "predictedValue": 15.508452415466309
    }
}
```

El siguiente ejemplo muestra una respuesta para un modelo multiclase: 

```
{
    "Prediction":{
        "details":{
            "PredictiveModelType": "MULTICLASS"
        },
        "predictedLabel": "red",
        "predictedScores":{
            "red": 0.12923571467399597,
            "green": 0.08416014909744263,
            "orange": 0.22713537514209747,
            "blue": 0.1438363939523697,
            "pink": 0.184102863073349,
            "violet": 0.12816807627677917,
            "brown": 0.10336143523454666
        }
    }
}
```

Al igual que en los modelos de clasificación binaria, la predicción label/class se encuentra en el `predictedLabel` campo. Puede comprender mejor cómo de fuertemente está relacionada la predicción con cada clase consultando el mapa `predictedScores`. Cuanto mayor sea la puntuación de una clase dentro de este mapa, más fuertemente está relacionada la predicción con dicha clase. El valor máximo quede seleccionado como `predictedLabel`.

Para obtener más información sobre las predicciones multiclase, consulte [Información del modelo multiclase](multiclass-model-insights.md).

## Eliminación de un punto de enlace en tiempo real
<a name="delete-endpoint"></a>

Cuando haya completado sus predicciones en tiempo real, elimine el punto de enlace en tiempo real para evitar incurrir en cargos adicionales. Se detiene la acumulación de cargos en cuanto elimina el punto de enlace.

**Eliminación de un punto de enlace en tiempo real**

1. Inicie sesión en la consola Amazon Machine Learning Consola de administración de AWS y ábrala en [https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/).

1. En la barra de navegación, en el desplegable **Amazon Machine Learning**, elija **ML models (Modelos ML)**.

1. Elija el modelo que ya no requiere predicciones en tiempo real.

1. En la página del informe del modelo de ML, en **Predictions (Predicciones)**, elija **Summary (Resumen)**. 

1. Seleccione **Delete real-time endpoint (Eliminar punto de enlace en tiempo real)**.

1. En el cuadro de diálogo **Delete real-time endpoint (Eliminar puerto de enlace en tiempo real)**, elija **Delete (Eliminar)**.