

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Productos de machine learning en AWS Marketplace
<a name="machine-learning-products"></a>

Como vendedor de AWS Marketplace, puede crear algoritmos y modelos de machine learning (ML) que sus compradores puedan implementar en AWS. Este tema proporciona información sobre los tipos de productos de Amazon SageMaker AI que se publican en AWS Marketplace.

Hay dos tipos de productos de Amazon SageMaker AI publicados en AWS Marketplace: 

**Paquete de modelos**  
 Un modelo previamente entrenado para hacer predicciones que no requiere ninguna formación adicional por parte del comprador. 

**Algoritmo**  
 Un modelo que requiere que el comprador suministre datos de formación antes de hacer predicciones. Se incluye el algoritmo de formación. 

Estos productos están disponibles para los compradores a través de la consola Amazon SageMaker AI o AWS Marketplace. Los compradores pueden revisar descripciones, documentación, opiniones de clientes, precios e información de soporte técnico de los productos. Cuando se suscriben a un producto de paquete de modelos o a un producto de algoritmo, este se añade a su lista de productos en la consola de SageMaker AI. Los compradores también pueden usar los SDK de AWS, la consola AWS Command Line Interface (AWS CLI) o SageMaker AI para crear un punto de conexión de inferencia REST totalmente administrado o realizar inferencias en lotes de datos. 

 Para obtener ayuda con la creación de productos de machine learning con Amazon SageMaker AI, póngase en contacto con [Operaciones de vendedores de AWS Marketplace](https://aws.amazon.com/marketplace/management/contact-us/). 

# Explicación de los productos de machine learning
<a name="ml-overview"></a>

 AWS Marketplace admite dos tipos de productos de aprendizaje automático mediante Amazon SageMaker AI. Ambos tipos, los productos de paquetes de modelos y los productos de algoritmos, producen un modelo de inferencia desplegable para realizar predicciones.

## SageMaker Paquete de modelos de IA
<a name="ml-amazon-sagemaker-model-package"></a>

 Un producto de [paquete modelo Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-marketplace.html#sagemaker-mkt-model-package) contiene un modelo previamente entrenado. Los modelos previamente entrenados se pueden implementar en la SageMaker IA para hacer inferencias o predicciones en tiempo real o por lotes. Este producto contiene un componente de inferencia entrenado con artefactos del modelo, si los hay. Como vendedor, puedes entrenar un modelo con SageMaker IA o traer tu propio modelo. 

## SageMaker Algoritmo de IA
<a name="ml-amazon-sagemaker-algorithm"></a>

 Los compradores pueden usar un producto de [algoritmo de SageMaker IA](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-marketplace.html#sagemaker-mkt-algorithm) para realizar cargas de trabajo completas de aprendizaje automático. Un producto de algoritmo tiene dos componentes lógicos: el entrenamiento y la inferencia. En el SageMaker caso de la IA, los compradores utilizan sus propios conjuntos de datos para crear un trabajo de formación con tu componente de formación. Cuando el algoritmo de tu componente de entrenamiento se completa, genera los artefactos del modelo de aprendizaje automático. SageMaker La IA guarda los artefactos del modelo en el depósito de Amazon Simple Storage Service (Amazon S3) de los compradores. En el SageMaker caso de la IA, los compradores pueden implementar el componente de inferencia junto con los artefactos del modelo generados para realizar inferencias (o predicciones) en tiempo real o por lotes. 

## Implementación de un modelo de inferencia
<a name="ml-deploying-an-inference-model"></a>

 Tanto si el modelo de inferencia se crea a partir de un paquete de modelos como de un algoritmo, existen dos métodos para desplegarlos: 
+  **Punto final**: este método utiliza la SageMaker IA para implementar el modelo y crear un punto final de API. El comprador puede usar este punto de conexión como parte de su servicio de backend para impulsar sus aplicaciones. Cuando los datos se envían al punto final, la SageMaker IA los pasa al contenedor del modelo y devuelve los resultados en una respuesta de la API. El punto de conexión y el contenedor siguen funcionando hasta que el comprador los detiene.
**nota**  
 En AWS Marketplace, el método de punto final se denomina *inferencia en tiempo real* y, en la documentación de la SageMaker IA, se denomina *servicios de alojamiento*. Para obtener más información, consulte [Implementación de un modelo en Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/how-it-works-deployment.html). 
+  **Trabajo de transformación por lotes**: en este método, un comprador almacena conjuntos de datos para su inferencia en Amazon S3. Cuando se inicia el trabajo de transformación por lotes, la SageMaker IA despliega el modelo, pasa los datos de un depósito de S3 al contenedor del modelo y, a continuación, devuelve los resultados a un depósito de Amazon S3. Cuando se completa el trabajo, la SageMaker IA lo detiene. Para obtener más información, consulte [Utilizar transformación por lotes](https://docs.aws.amazon.com/sagemaker/latest/dg/batch-transform.html).
**nota**  
 Ambos métodos son transparentes para el modelo porque la SageMaker IA pasa los datos al modelo y devuelve los resultados al comprador. 

# Ciclo de vida del producto de machine learning
<a name="ml-product-lifecycle"></a>

Un producto de aprendizaje automático AWS Marketplace consta de una o más versiones de software y metadatos asociados. La configuración del producto incluye propiedades esenciales como el nombre, la descripción, las instrucciones de uso, los precios, la categorización y las palabras clave de búsqueda. 

## Proceso de creación de productos de machine learning
<a name="ml-publication-process"></a>

 Para incluir un producto de aprendizaje automático AWS Marketplace, debes completar lo siguiente: 

1. [Preparación del producto en SageMaker AI](ml-prepare-your-product-in-sagemaker.md)

1. [Publicar tu producto en AWS Marketplace](ml-publishing-your-product-in-aws-marketplace.md)

 Una vez que haya creado su producto de machine learning, podrá editarlo y administrarlo. Para obtener más información, consulte [Administración de sus productos de machine learning](ml-product-management.md). 

## Productos de machine learning
<a name="ml-product-status"></a>

 Inicialmente, los nuevos productos tienen una visibilidad limitada y solo pueden acceder a ellos las cuentas incluidas en la lista de permitidos y el creador del producto. Tras probarlo y validarlo, puedes publicar tu producto para que esté disponible en el AWS Marketplace catálogo para todos los compradores. Los productos incluidos AWS Marketplace pueden tener los siguientes valores de estado: 


| Status | Definición | 
| --- |--- |
| Staging |  Este estado indica que un producto está incompleto y aún está añadiendo información. Tras guardar y salir de la experiencia de autoservicio por primera vez, AWS Marketplace crea un producto inédito que contiene información sobre los pasos completados. A partir de este estado, puede seguir agregando información o modificar los detalles enviados.   | 
| Limitado | Un producto alcanza este estado una vez que se envía AWS Marketplace y supera todas las comprobaciones de validación. En este momento, el producto tiene una página de detalles a la que solo pueden acceder tu cuenta y las entidades incluidas en la lista de permitidos. Puedes realizar pruebas del producto a través de esta página de detalles. | 
| Public | Cuando estés preparado para que los compradores puedan suscribirte a tu producto, actualiza la visibilidad del producto en la consola. Una vez procesado, el producto pasa del estado Limitado al Público. Para obtener información sobre AWS las directrices, consulte[Requisitos y prácticas recomendadas para crear productos de machine learning](ml-listing-requirements-and-best-practices.md).  | 
| Restricto |  Para impedir que los nuevos usuarios se suscriban a su producto, puede restringirlo actualizando la configuración de visibilidad. El estado Restringido permite a los usuarios actuales de la lista de permitidos seguir usando el producto, pero dejará de estar visible para el público y no estará disponible para los nuevos usuarios.  | 

 Para obtener más información o ayuda, póngase en contacto con el [equipo de Operaciones de vendedores de AWS Marketplace](https://aws.amazon.com/marketplace/management/contact-us/). 

# Precios de productos de aprendizaje automático para AWS Marketplace
<a name="machine-learning-pricing"></a>

Puedes elegir entre varios modelos de precios disponibles para tus productos de Amazon SageMaker AI en AWS Marketplace. Los compradores que se suscriben a tu producto lo utilizan la SageMaker IA dentro del suyo propio Cuenta de AWS. El precio para sus compradores es una combinación de los costes de infraestructura de los recursos que utilizan en su Cuenta de AWS y los precios del producto que establezca. En las siguientes secciones se proporciona información sobre los modelos de precios de los productos de SageMaker IA en AWS Marketplace

**Topics**
+ [Precios de la infraestructura](#ml-infrastructure-pricing)
+ [Precios del software](#ml-software-pricing)

## Precios de la infraestructura
<a name="ml-infrastructure-pricing"></a>

Los compradores son responsables de todos los costes de infraestructura de la SageMaker IA durante el uso del producto. Estos costes los establece la página de [precios de Amazon SageMaker AI AWS](https://aws.amazon.com/sagemaker/pricing/) y están disponibles en ella.

## Precios del software
<a name="ml-software-pricing"></a>

Tú determinas los precios del software que AWS Marketplace cobra al comprador por usar tu producto. Establece los precios y las condiciones al añadir su producto de machine learning a AWS Marketplace.

Todos los precios de infraestructura y software por tipo de instancia se presentan al comprador en las páginas de la lista de productos AWS Marketplace antes de que el comprador se suscriba.

**Topics**
+ [Precios gratuitos](#ml-pricing-free)
+ [Precios por hora](#ml-pricing-hourly)
+ [Precios por inferencia](#ml-pricing-inference)
+ [Prueba gratuita](#ml-pricing-free-trial)

### Precios gratuitos
<a name="ml-pricing-free"></a>

Puede elegir ofrecer su producto de forma gratuita. En este caso, el comprador solo paga los costes de infraestructura.

### Precios por hora
<a name="ml-pricing-hourly"></a>

Puedes ofrecer tu producto a un precio por hora y por instancia de software que se ejecute en SageMaker IA. Puede cobrar un precio por hora diferente por cada tipo de instancia en la que se ejecute el software. Mientras un comprador ejecuta tu software, AWS Marketplace realiza un seguimiento del uso y, después, factura al comprador en consecuencia. El uso se prorratea por minuto.

En el caso de productos en *paquete de modelo*, el comprador puede ejecutar el software de dos maneras diferentes. Pueden alojar un punto de conexión de forma continua para realizar inferencias en tiempo real o ejecutar un trabajo de transformación por lotes en un conjunto de datos. Puede establecer precios diferentes para las dos formas en que un comprador puede utilizar su software.

En el caso de los productos de *algoritmos*, además de determinar los precios para realizar inferencias, como se ha mencionado anteriormente, también se determina el precio por hora para los trabajos de formación. Puede cobrar un precio por hora diferente por cada tipo de instancia compatible con su imagen de entrenamiento.

### Precios por inferencia
<a name="ml-pricing-inference"></a>

Cuando el comprador ejecuta su software alojando un punto de conexión para realizar inferencias en tiempo real de forma continua, puede optar por fijar un precio por inferencia.

**nota**  
Los siguientes tipos de productos de aprendizaje automático siempre utilizan precios por hora:  
Trabajos de transformación por lotes
Puntos finales de inferencia asíncrona
Trabajos de formación para productos algorítmicos
El precio de cada tipo se establece de forma independiente de los precios de inferencia y entre sí.

De forma predeterminada, con los precios por inferencia, se le AWS Marketplace cobra al comprador por cada uso de su terminal. Sin embargo, en algunos casos, el software procesa un lote de inferencias en una sola invocación (también conocida como *minilote*). En el caso de una implementación de punto de conexión, puede indicar un número personalizado de inferencias que AWS Marketplace debe cobrar al comprador por esa única invocación. Para ello, incluye un encabezado de medición personalizado en los encabezados de respuesta HTTP de su invocación, como en el siguiente ejemplo. En este ejemplo, se muestra una invocación que cobra al comprador tres deducciones.

```
X-Amzn-Inference-Metering: {"Dimension": "inference.count", "ConsumedUnits": 3}
```

**nota**  
En cuanto a los precios por inferencia, AWS Marketplace solo se cobra al comprador por las solicitudes en las que aparezca el código de respuesta HTTP. `2XX`

### Prueba gratuita
<a name="ml-pricing-free-trial"></a>

Si lo desea, puede crear una versión de prueba gratuita para su producto y definir el número de días de la prueba gratuita. Las pruebas gratuitas pueden durar de 5 a 31 días. Durante la prueba gratuita, los compradores pueden utilizar el software tanto como quieran y no se les cobrará nada por él. Durante la prueba gratuita, a los compradores se les cobrarán los costes de infraestructura. Una vez finalizada la prueba, se les cobrará el precio normal del software, junto con los costes de infraestructura.

Cuando los compradores se suscriben a un producto con una versión de prueba gratuita, reciben un mensaje de correo electrónico de bienvenida. El mensaje incluye el plazo de la prueba gratuita, una fecha de caducidad calculada y detalles sobre la cancelación de la suscripción. Tres días antes de la fecha de vencimiento se envía un mensaje recordatorio por correo electrónico.

Si ofreces una prueba gratuita de tu producto en AWS Marketplace, aceptas la [política de reembolso](https://docs.aws.amazon.com/marketplace/latest/userguide/refunds.html#refund-policy) específica para las pruebas gratuitas. 

**nota**  
Para obtener información sobre las ofertas privadas de machine learning, consulte [Ofertas privadas](https://docs.aws.amazon.com/marketplace/latest/userguide/private-offers-overview.html).

# Restricciones y cuotas de servicio para productos de aprendizaje automático en AWS Marketplace
<a name="ml-service-restrictions-and-limits"></a>

En esta sección, se describen las restricciones y las cuotas de los productos de machine learning (ML) en AWS Marketplace.

**Topics**
+ [Aislamiento de red](#ml-network-isolation)
+ [Tamaño de imagen](#ml-image-size)
+ [Tamaño del almacenamiento](#ml-storage-size)
+ [Tamaño de instancia](#ml-instance-size)
+ [Tamaño de la carga útil para realizar inferencias](#ml-payload-size-for-inference)
+ [Tiempo de procesamiento para la inferencia](#ml-processing-time-for-inference)
+ [Cuotas de servicio](#ml-service-quotas)
+ [Inferencia sin servidor](#severless-inference)
+ [Entrenamiento de spot administrado](#ml-managed-spot-training)
+ [Imágenes de Docker y Cuentas de AWS](#ml-docker-images-and-aws-accounts)
+ [Publicar paquetes de modelos a partir de algoritmos integrados o AWS Marketplace](#ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace)
+ [Compatible con Regiones de AWS la publicación](#ml-supported-aws-regions-for-publishing)

## Aislamiento de red
<a name="ml-network-isolation"></a>

Por motivos de seguridad, cuando un comprador se suscribe a su producto en contenedores, los contenedores de Docker se ejecutan en un entorno aislado sin conexión a Internet. Cuando cree sus contenedores, no confíe en que podrá realizar llamadas salientes a través de Internet, ya que fallarán. Las llamadas a también Servicios de AWS fallarán. 

## Tamaño de imagen
<a name="ml-image-size"></a>

El tamaño de las imágenes de Docker se rige por las [Service Quotas](https://docs.aws.amazon.com/AmazonECR/latest/userguide/service_limits.html) de Amazon Elastic Container Registry (Amazon ECR). El tamaño de la imagen de Docker afecta al tiempo de arranque durante los trabajos de entrenamiento, transformación por lotes y creación de puntos de conexión. Para lograr un mejor rendimiento, le recomendamos mantener un tamaño óptimo de imagen de Docker. 

## Tamaño del almacenamiento
<a name="ml-storage-size"></a>

Al crear un punto de conexión, Amazon SageMaker AI adjunta un volumen de almacenamiento de Amazon Elastic Block Store (Amazon EBS) a cada instancia de procesamiento de aprendizaje automático que aloja el punto de conexión. (Un punto final también se conoce como *inferencia en tiempo real* o *servicio de alojamiento de Amazon SageMaker AI*). El tamaño del volumen de almacenamiento depende del tipo de instancia. Para obtener más información, consulte [Volúmenes de almacenamiento de instancias hospedadas](https://docs.aws.amazon.com/sagemaker/latest/dg/host-instance-storage.html) en la *Guía para desarrolladores de Amazon SageMaker AI*. 

Para obtener información sobre la transformación por lotes, consulte [Storage in Batch Transform](https://docs.aws.amazon.com/sagemaker/latest/dg/batch-transform-storage.html) en la *Guía para desarrolladores de Amazon SageMaker AI*. 

## Tamaño de instancia
<a name="ml-instance-size"></a>

SageMaker La IA ofrece una selección de tipos de instancias optimizados para adaptarse a diferentes casos de uso del aprendizaje automático. Los tipos de instancias tienen distintos tipos de combinaciones de CPU, GPU, memoria y capacidad de red. Los tipos de instancias brindan la flexibilidad para elegir la combinación adecuada de recursos para crear, entrenar e implementar modelos de ML. Para obtener más información, consulte [Tipos de instancias de Amazon SageMaker AI ML](https://aws.amazon.com/sagemaker/pricing/instance-types/). 

## Tamaño de la carga útil para realizar inferencias
<a name="ml-payload-size-for-inference"></a>

 Para un punto final, limite el tamaño máximo de los datos de entrada por invocación a 25 MB. Este valor no se puede ajustar.

Para la transformación por lotes, el tamaño máximo de los datos de entrada por cada invocación es de 100 MB. Este valor no se puede ajustar.

## Tiempo de procesamiento para la inferencia
<a name="ml-processing-time-for-inference"></a>

Para un punto de conexión, el tiempo máximo de procesamiento por cada invocación es de 60 segundos para las respuestas normales y de 8 minutos para las respuestas de streaming. Este valor no se puede ajustar.

Para la transformación por lotes, el tiempo máximo de procesamiento por cada invocación es de 60 minutos. Este valor no se puede ajustar.

## Cuotas de servicio
<a name="ml-service-quotas"></a>

Para obtener más información sobre las cuotas relacionadas con la formación y la inferencia, consulte [Amazon SageMaker AI Service Quotas](https://docs.aws.amazon.com/general/latest/gr/sagemaker.html#limits_sagemaker). 

## Inferencia sin servidor
<a name="severless-inference"></a>

Los paquetes de modelos y los algoritmos publicados en no se AWS Marketplace pueden implementar en puntos de conexión configurados para [Amazon SageMaker AI Serverless Inference](https://docs.aws.amazon.com/sagemaker/latest/dg/serverless-endpoints.html). Para los puntos de conexión configurados para la inferencia sin servidor, los modelos deben tener conectividad de red. Todos los AWS Marketplace modelos funcionan de forma aislada en la red. Para obtener más información, consulte [Sin acceso a la red](https://docs.aws.amazon.com/marketplace/latest/userguide/ml-security-and-intellectual-property.html#ml-no-network-access).

## Entrenamiento de spot administrado
<a name="ml-managed-spot-training"></a>

Para todos los algoritmos de AWS Marketplace, el valor de `MaxWaitTimeInSeconds` se establece en 3.600 segundos (60 minutos), incluso si se implementa el punto de control para la [formación puntual gestionada](https://docs.aws.amazon.com/sagemaker/latest/dg/model-managed-spot-training.html). Este valor no se puede ajustar. 

## Imágenes de Docker y Cuentas de AWS
<a name="ml-docker-images-and-aws-accounts"></a>

Para su publicación, las imágenes deben almacenarse en los repositorios de Amazon ECR propiedad Cuenta de AWS del vendedor. No es posible publicar imágenes almacenadas en un repositorio que sea propiedad de otra persona. Cuenta de AWS

## Publicar paquetes de modelos a partir de algoritmos integrados o AWS Marketplace
<a name="ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace"></a>

Los paquetes de modelos creados a partir de trabajos de formación con un [algoritmo integrado de Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/algos.html) o un algoritmo de una AWS Marketplace suscripción no se pueden publicar. 

Puede seguir utilizando los artefactos del modelo del trabajo de entrenamiento, pero necesitará su propia imagen de inferencia para publicar paquetes de modelos. 

## Compatible con Regiones de AWS la publicación
<a name="ml-supported-aws-regions-for-publishing"></a>

AWS Marketplace admite la publicación de recursos de algoritmos y paquetes de modelos a partir de los Regiones de AWS cuales se cumple lo siguiente: 
+ Una región [compatible con Amazon SageMaker AI](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) 
+ Una [región disponible](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) inscrita de forma predeterminada (por ejemplo, [describe-regions](https://docs.aws.amazon.com/general/latest/gr/rande-manage.html#ec2-describe-regions) devuelve `"OptInStatus": "opt-in-not-required"`) 

Todos los activos necesarios para publicar un paquete de modelos o un producto de algoritmo deben almacenarse en la misma región desde la que haya decidido publicar. Esta incluye lo siguiente: 
+ Modele los recursos de paquetes y algoritmos que se crean en Amazon SageMaker AI 
+ Imágenes de inferencia y entrenamiento que se cargan en los repositorios de Amazon ECR 
+ Artefactos de modelos (si los hay) que se almacenan en Amazon Simple Storage Service y se cargan dinámicamente durante la implementación de modelos para los recursos de paquetes de modelos 
+ Datos de prueba para la validación de inferencias y entrenamiento que se almacenan en Amazon S3 

Puede desarrollar y capacitar su producto en cualquier región que cuente con el respaldo de la SageMaker IA. Sin embargo, antes de poder publicar, debe copiar todos los activos y volver a crear los recursos en una región desde la que AWS Marketplace admita publicar. 

# Seguridad y propiedad intelectual con Amazon SageMaker AI
<a name="ml-security-and-intellectual-property"></a>

Amazon SageMaker AI protege tanto su propiedad intelectual como los datos de los compradores de los modelos y algoritmos obtenidos de ellos AWS Marketplace. En las siguientes secciones se proporciona más información sobre las formas en que la SageMaker IA protege la propiedad intelectual y la seguridad de los datos de los clientes.

**Topics**
+ [Protección de la propiedad intelectual](#ml-protecting-intellectual-property)
+ [Sin acceso a la red](#ml-no-network-access)
+ [Seguridad de datos del cliente](#ml-security-of-customer-data)

## Protección de la propiedad intelectual
<a name="ml-protecting-intellectual-property"></a>

 Al crear un producto, el código se empaqueta en imágenes de contenedores de Docker. Para obtener más información, consulte [Preparación del producto en SageMaker AI](ml-prepare-your-product-in-sagemaker.md) más adelante en esta guía. Al cargar una imagen de contenedor, la imagen y los artefactos se cifran tanto en tránsito como en reposo. Las imágenes también se escanean para detectar vulnerabilidades antes de publicarlas. 

 Para ayudar a proteger tu propiedad intelectual, la SageMaker IA permite que solo los compradores accedan a tu producto a través de Servicio de AWS puntos de conexión. Los compradores no pueden acceder directamente a las imágenes de los contenedores o a los artefactos modelo, ni pueden acceder directamente a la infraestructura subyacente. 

## Sin acceso a la red
<a name="ml-no-network-access"></a>

 A diferencia de los modelos y algoritmos de SageMaker IA que crean los compradores, cuando los compradores lanzan tu producto AWS Marketplace, los modelos y algoritmos se despliegan sin acceso a la red. SageMaker La IA despliega imágenes en un entorno sin acceso a la red ni a los puntos Servicio de AWS finales. Por ejemplo, una imagen de contenedor no puede realizar llamadas API salientes a servicios en Internet, puntos de conexión de [VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) o cualquier otro Servicios de AWS. 

## Seguridad de datos del cliente
<a name="ml-security-of-customer-data"></a>

 Tu producto funciona con SageMaker IA en el del comprador. Cuenta de AWS Por lo tanto, cuando un comprador utiliza su producto para realizar una inferencia de datos, usted, como vendedor, no podrá acceder a sus datos. 

 En el caso de los productos algorítmicos, la imagen de entrenamiento genera los artefactos del modelo después de cada trabajo de entrenamiento. Los artefactos modelo se almacenan en la cuenta del comprador. Los artefactos del modelo del trabajo de entrenamiento se utilizan cuando el comprador implementa el modelo con su imagen de inferencia. Para proteger cualquier propiedad intelectual que pueda contener el artefacto modelo, cífrela antes de publicarla. 

**importante**  
 Este modelo de seguridad impide el acceso a Internet del código durante el tiempo de ejecución. Por lo tanto, su código no puede usar recursos o bibliotecas de Internet, así que empaquete sus dependencias en la imagen del contenedor de Docker. Esto es especialmente importante si decide cifrar los artefactos de salida del trabajo de formación. No se puede acceder a las claves para cifrar y descifrar los artefactos a través de Internet durante el tiempo de ejecución. Deben estar empaquetadas con la imagen. 

 Para obtener más información, consulte [Seguridad en Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/security.html). 

# Informes de aprendizaje automático en AWS Marketplace
<a name="ml-reporting"></a>

AWS Marketplace produce informes para tus productos de Amazon SageMaker AI que incluyen datos sobre compradores, finanzas, uso e impuestos. Todos los informes están disponibles en la AWS Marketplace Management Portal [página de informes.](https://aws.amazon.com/marketplace/management/reports) Para obtener más información, consulte [Informes del vendedor](https://docs.aws.amazon.com/marketplace/latest/userguide/Reporting.html). Las siguientes secciones proporcionan información resumida sobre los informes de los productos de machine learning.

**Topics**
+ [Informe de actividades diarias](#ml-daily-business-report)
+ [Informe mensual de ingresos](#ml-monthly-revenue-report)
+ [Informe de abonos](#ml-disbursement-report)
+ [Otros informes y análisis](#ml-other-reports)

## Informe de actividades diarias
<a name="ml-daily-business-report"></a>

 El informe comercial diario proporciona el tipo de instancia, las horas de uso, los ingresos por cargos de software y otros detalles de cada comprador y producto. Los compradores pueden identificarse mediante su Cuenta de AWS identificación. Para obtener más información, consulte [Informe comercial diario](https://docs.aws.amazon.com/marketplace/latest/userguide/daily-business-report.html). 

## Informe mensual de ingresos
<a name="ml-monthly-revenue-report"></a>

 El informe de ingresos mensuales le proporciona los ingresos mensuales que se han facturado a sus compradores por el uso del software. Para obtener más información, consulte el [Informe de ingresos facturados mensuales](https://docs.aws.amazon.com/marketplace/latest/userguide/monthly-billed-revenue-report.html). 

## Informe de abonos
<a name="ml-disbursement-report"></a>

 El informe de desembolso mensual proporciona un desglose de todos los fondos recaudados en su nombre durante el período de liquidación para los cargos de software. El importe total de la liquidación que se refleja en el informe debe coincidir con el importe depositado en su cuenta bancaria. Para obtener más información, consulte [Informes de desembolsos](https://docs.aws.amazon.com/marketplace/latest/userguide/monthly-disbursement-report.html). 

## Otros informes y análisis
<a name="ml-other-reports"></a>

 Para ver otros informes disponibles, consulte [Informes de vendedores](https://docs.aws.amazon.com/marketplace/latest/userguide/dashboards.html). 

También puede crear informes personalizados utilizando las [Fuentes de datos de entrega de vendedores en AWS Marketplace](data-feed-service.md) disponibles en AWS Marketplace.

# Preparación del producto en SageMaker AI
<a name="ml-prepare-your-product-in-sagemaker"></a>

Antes de publicar el producto en AWS Marketplace, debe prepararlo en Amazon SageMaker AI. Hay dos tipos de productos de SageMaker AI que se muestran en AWS Marketplace: paquetes de modelos y algoritmos. Para obtener más información, consulte [Productos de machine learning en AWS Marketplace](machine-learning-products.md). En este tema se proporciona una descripción general de los tres pasos que se requieren para preparar el producto:

1. [Empaquetar su código en imágenes para productos de aprendizaje automático en AWS Marketplace](ml-packaging-your-code-into-images.md): para preparar un paquete modelo o un producto de algoritmo, debe crear las imágenes del contenedor de Docker para su producto. 

1. [Carga de las imágenes a Amazon Elastic Container Registry](ml-uploading-your-images.md): tras empaquetar el código en imágenes de contenedores y probarlas localmente, cargue las imágenes y escanéelas en busca de vulnerabilidades conocidas. Corrija cualquier vulnerabilidad antes de continuar. 

1.  [Cómo crear tu recurso de Amazon SageMaker AI](ml-creating-your-amazon-sagemaker-resource.md): una vez escaneadas correctamente las imágenes, puede utilizarlas para crear un paquete de modelos o un recurso de algoritmo en SageMaker AI.

# Empaquetar su código en imágenes para productos de aprendizaje automático en AWS Marketplace
<a name="ml-packaging-your-code-into-images"></a>

Los productos de aprendizaje automático AWS Marketplace utilizan Amazon SageMaker AI para crear y ejecutar la lógica de aprendizaje automático que usted proporciona a los compradores. SageMaker La IA ejecuta imágenes de contenedores de Docker que contienen tu lógica. SageMaker La IA ejecuta estos contenedores en una infraestructura segura y escalable. Para obtener más información, consulte [Seguridad y propiedad intelectual con Amazon SageMaker AI](ml-security-and-intellectual-property.md). En las siguientes secciones, se proporciona información sobre cómo empaquetar el código en imágenes de contenedores de Docker para SageMaker IA.

**Topics**
+ [¿Qué tipo de imagen de contenedor debo crear?](#ml-which-type-of-container-image-do-i-create)
+ [Creación de imágenes de paquetes de modelos](ml-model-package-images.md)
+ [Creación de imágenes de algoritmos](ml-algorithm-images.md)

## ¿Qué tipo de imagen de contenedor debo crear?
<a name="ml-which-type-of-container-image-do-i-create"></a>

 Los dos tipos de imágenes de contenedor son una imagen de inferencia y una imagen de entrenamiento. 

 Para crear un producto de paquete modelo, solo necesita una imagen de inferencia. Para obtener instrucciones detalladas, consulte [Creación de imágenes de paquetes de modelos](ml-model-package-images.md). 

 Para crear un producto de algoritmo, se necesitan imágenes de entrenamiento y de inferencia. Para obtener instrucciones detalladas, consulte [Creación de imágenes de algoritmos](ml-algorithm-images.md). 

 Para empaquetar el código correctamente en una imagen de contenedor, el contenedor debe cumplir con la estructura de archivos de SageMaker AI. El contenedor debe exponer los puntos finales correctos para garantizar que el servicio pueda transferir datos hacia y desde su contenedor. En las siguientes secciones se explican los detalles de este proceso. 

**importante**  
 Por motivos de seguridad, cuando un comprador se suscribe a su producto en contenedores, los contenedores de Docker se ejecutan en un entorno aislado sin conexión a Internet. Cuando cree sus contenedores, no confíe en que podrá realizar llamadas salientes a través de Internet, ya que fallarán. Las llamadas a también Servicios de AWS fallarán. Para obtener más información, consulte la sección [Seguridad y propiedad intelectual con Amazon SageMaker AI](ml-security-and-intellectual-property.md). 

 Si lo desea, al crear sus imágenes de inferencia y entrenamiento, utilice un contenedor de [Imágenes de contenedores de aprendizaje profundo disponibles](https://aws.amazon.com/releasenotes/available-deep-learning-containers-images/) como punto de partida. Las imágenes ya vienen empaquetadas correctamente con diferentes marcos de machine learning. 

# Creación de imágenes de paquetes de modelos
<a name="ml-model-package-images"></a>

Un paquete de modelos de Amazon SageMaker AI es un modelo previamente entrenado que hace predicciones y no requiere ninguna formación adicional por parte del comprador. Puedes crear un paquete modelo en SageMaker IA y publicar tu producto de aprendizaje automático en AWS Marketplaceél. En las siguientes secciones se explica cómo crear un paquete modelo AWS Marketplace. Esto incluye la creación de la imagen del contenedor y la creación y prueba de la imagen localmente.

**Topics**
+ [Descripción general de](#ml-model-package-images-overview)
+ [Creación de una imagen de inferencia para paquetes de modelos](#ml-creating-an-inference-image-for-model-packages)

## Descripción general de
<a name="ml-model-package-images-overview"></a>

 Un paquete de modelos incluye los siguientes componentes: 
+  Imagen de inferencia almacenada en [Amazon Elastic Container Registry](https://aws.amazon.com/ecr/) (Amazon ECR) 
+  (Opcional) Artefactos del modelo, almacenados por separado en [Amazon S3](https://aws.amazon.com/s3/) 

**nota**  
Los artefactos del modelo son archivos que su modelo utiliza para realizar predicciones y, por lo general, son el resultado de sus propios procesos de entrenamiento. Los artefactos pueden ser de cualquier tipo de archivo que necesite el modelo, pero deben comprimirse con el archivo use.tar.gz. En el caso de los paquetes modelo, pueden agruparse en la imagen de inferencia o almacenarse por separado en Amazon SageMaker AI. Los artefactos del modelo almacenados en Amazon S3 se cargan en el contenedor de inferencias durante el tiempo de ejecución. Al publicar su paquete modelo, esos artefactos se publican y almacenan en depósitos de Amazon S3 AWS Marketplace propios a los que el comprador no puede acceder directamente. 

**sugerencia**  
Si su modelo de inferencia se ha creado con un marco de aprendizaje profundo como Gluon, Keras,,, TensorFlow -Lite u TensorFlow ONNX PyTorch, considere la posibilidad de utilizar Amazon AI Neo. MXNet SageMaker Neo puede optimizar automáticamente los modelos de inferencia que se implementan en una familia específica de tipos de instancias en la nube, como, etc. `ml.c4` `ml.p2` Para obtener más información, consulte [Optimizar el rendimiento de los modelos con Neo](https://docs.aws.amazon.com/sagemaker/latest/dg/neo.html) en la *Guía para desarrolladores de Amazon SageMaker AI*.

En el siguiente diagrama se muestra el flujo de trabajo para publicar y usar productos de paquetes de modelos. 

![\[Diagrama de cómo un vendedor crea una imagen de paquete de modelos con un algoritmo y cómo la usa un comprador.\]](http://docs.aws.amazon.com/es_es/marketplace/latest/userguide/images/ml-model-package-images.png)


El flujo de trabajo para crear un paquete de modelos de SageMaker IA AWS Marketplace incluye los siguientes pasos:

1. El vendedor crea una imagen de inferencia (no tiene acceso a la red cuando está implementada) y la envía al registro ECR de Amazon. 

   Los artefactos del modelo pueden agruparse en la imagen de inferencia o almacenarse por separado en S3.

1. A continuación, el vendedor crea un recurso de paquete modelo en Amazon SageMaker AI y publica su producto de aprendizaje automático en él AWS Marketplace.

1. El comprador se suscribe al producto de ML e implementa el modelo. 
**nota**  
 El modelo se puede implementar como punto de conexión para inferencias en tiempo real o como un trabajo por lotes para obtener predicciones para todo un conjunto de datos de una sola vez. Para obtener más información, consulte [Implementar modelos para inferencia](https://docs.aws.amazon.com/sagemaker/latest/dg/deploy-model.html). 

1. SageMaker La IA ejecuta la imagen de inferencia. Todos los artefactos del modelo proporcionados por el vendedor que no estén incluidos en la imagen de inferencia se cargan dinámicamente en tiempo de ejecución. 

1.  SageMaker La IA pasa los datos de inferencia del comprador al contenedor mediante los puntos finales HTTP del contenedor y devuelve los resultados de la predicción. 

## Creación de una imagen de inferencia para paquetes de modelos
<a name="ml-creating-an-inference-image-for-model-packages"></a>

En esta sección se proporciona un tutorial para empaquetar el código de inferencia en una imagen de inferencia para el producto de paquete de modelos. El proceso consta de los siguientes pasos:

**Topics**
+ [Paso 1: creación de la imagen del contenedor](#ml-step-1-creating-the-container-image)
+ [Paso 2: creación y prueba de la imagen localmente](#ml-step-2-building-and-testing-the-image-locally)

La imagen de inferencia es una imagen de Docker que contiene la lógica de inferencia. En tiempo de ejecución, el contenedor expone los puntos de enlace HTTP para permitir que la SageMaker IA pase datos hacia y desde el contenedor. 

**nota**  
 El siguiente es solo un ejemplo de código de empaquetado para una imagen de inferencia. [Para obtener más información, consulte [Uso de contenedores Docker con SageMaker IA y los ejemplos de IA](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms.html) que aparecen más abajo AWS Marketplace SageMaker .](https://github.com/aws/amazon-sagemaker-examples/tree/master/aws_marketplace) GitHub  
En el siguiente ejemplo se utiliza un servicio web, [Flask](https://pypi.org/project/Flask/), por motivos de simplicidad, y no se considera listo para la producción.

### Paso 1: creación de la imagen del contenedor
<a name="ml-step-1-creating-the-container-image"></a>

 Para que la imagen de inferencia sea compatible con la SageMaker IA, la imagen de Docker debe exponer los puntos finales HTTP. Mientras el contenedor está en ejecución, la SageMaker IA pasa las entradas del comprador para su inferencia al punto final HTTP del contenedor. Los resultados de la inferencia se devuelven en el cuerpo de la respuesta HTTP. 

 En el siguiente tutorial se utiliza la CLI de Docker en un entorno de desarrollo utilizando una distribución Linux Ubuntu. 
+ [Crear el script del servidor web](#ml-create-the-web-server-script)
+ [Crear el script para la ejecución del contenedor](#ml-create-the-script-for-the-container-run)
+ [Creación del `Dockerfile`](#ml-create-the-dockerfile)
+ [Empaqueta o cargar los artefactos del modelo](#ml-package-or-upload-the-model-artifacts)

#### Crear el script del servidor web
<a name="ml-create-the-web-server-script"></a>

 Este ejemplo usa un servidor de Python llamado [Flask](https://pypi.org/project/Flask/), pero puede usar cualquier servidor web que funcione para su marco. 

**nota**  
Aquí se usa [Flask](https://pypi.org/project/Flask/) por motivos de simplicidad. No se considera un servidor web listo para producción.

 Crea un script para el servidor web de Flask que sirva a los dos puntos finales HTTP del puerto TCP 8080 que utiliza AI. SageMaker Los dos puntos de conexión esperados son los siguientes: 
+  `/ping`— SageMaker AI realiza solicitudes HTTP GET a este punto final para comprobar si su contenedor está listo. Cuando el contenedor esté listo, responderá a las solicitudes HTTP GET en este punto de conexión con un código de respuesta HTTP 200. 
+  `/invocations`— SageMaker La IA realiza solicitudes HTTP POST a este punto final para realizar inferencias. Los datos de entrada para la inferencia se envían en el cuerpo de la solicitud. El tipo de contenido especificado por el usuario se pasa en el encabezado HTTP. El cuerpo de la respuesta es el resultado de la inferencia. Para obtener más información sobre los tiempos de espera, consulte [Requisitos y prácticas recomendadas para crear productos de machine learning](ml-listing-requirements-and-best-practices.md). 

 **`./web_app_serve.py`** 

```
# Import modules
import json
import re
from flask import Flask
from flask import request
app = Flask(__name__)

# Create a path for health checks
@app.route("/ping")
def endpoint_ping():
  return ""
 
# Create a path for inference
@app.route("/invocations", methods=["POST"])
def endpoint_invocations():
  
  # Read the input
  input_str = request.get_data().decode("utf8")
  
  # Add your inference code between these comments.
  #
  #
  #
  #
  #
  # Add your inference code above this comment.
  
  # Return a response with a prediction
  response = {"prediction":"a","text":input_str}
  return json.dumps(response)
```

En el ejemplo anterior, no existe una lógica de inferencia real. Para la imagen de inferencia real, añada la lógica de inferencia a la aplicación web para que procese la entrada y devuelva la predicción real.

La imagen de inferencia debe contener todas las dependencias requeridas, ya que no tendrá acceso a Internet ni podrá realizar llamadas a ninguna de ellas. Servicios de AWS

**nota**  
Este mismo código se utiliza tanto para las inferencias en tiempo real como para las inferencias por lotes

#### Crear el script para la ejecución del contenedor
<a name="ml-create-the-script-for-the-container-run"></a>

 Cree un script con el nombre de `serve` que SageMaker AI ejecute cuando ejecute la imagen del contenedor de Docker. El siguiente script inicia el servidor web HTTP. 

 **`./serve`** 

```
#!/bin/bash

# Run flask server on port 8080 for SageMaker
flask run --host 0.0.0.0 --port 8080
```

#### Creación del `Dockerfile`
<a name="ml-create-the-dockerfile"></a>

 Cree un `Dockerfile` en su contexto de compilación. En este ejemplo se usa Ubuntu 18.04, pero puede empezar desde cualquier imagen base que funcione para su framework. 

 `./Dockerfile` 

```
FROM ubuntu:18.04

# Specify encoding
ENV LC_ALL=C.UTF-8
ENV LANG=C.UTF-8

# Install python-pip
RUN apt-get update \
&& apt-get install -y python3.6 python3-pip \
&& ln -s /usr/bin/python3.6 /usr/bin/python \
&& ln -s /usr/bin/pip3 /usr/bin/pip;

# Install flask server
RUN pip install -U Flask;

# Add a web server script to the image
# Set an environment to tell flask the script to run
COPY /web_app_serve.py /web_app_serve.py
ENV FLASK_APP=/web_app_serve.py

# Add a script that Amazon SageMaker AI will run
# Set run permissions
# Prepend program directory to $PATH
COPY /serve /opt/program/serve
RUN chmod 755 /opt/program/serve
ENV PATH=/opt/program:${PATH}
```

 El `Dockerfile` añade a la imagen los dos scripts creados anteriormente. El directorio del script `serve` se agrega a PATH para que pueda ejecutarse cuando se ejecute el contenedor. 

#### Empaqueta o cargar los artefactos del modelo
<a name="ml-package-or-upload-the-model-artifacts"></a>

 Las dos formas de proporcionar los artefactos del modelo, desde el entrenamiento del modelo hasta la imagen de inferencia, son las siguientes: 
+  Se empaqueta estáticamente con la imagen de inferencia. 
+  Se carga dinámicamente en tiempo de ejecución. Como se carga de forma dinámica, puede usar la misma imagen para empaquetar diferentes modelos de machine learning.

 Si desea empaquetar los artefactos del modelo con la imagen de inferencia, inclúyalos en el `Dockerfile`. 

 Si desea cargar los artefactos del modelo de forma dinámica, almacénelos por separado en un archivo comprimido (.tar.gz) en Amazon S3. Al crear el paquete modelo, especifique la ubicación del archivo comprimido y SageMaker AI extraerá y copiará el contenido en el directorio del contenedor `/opt/ml/model/` cuando ejecute el contenedor. Al publicar su paquete de modelos, esos artefactos se publican y almacenan en buckets de Amazon S3 propiedad de AWS Marketplace a los que el comprador no puede acceder directamente. 

### Paso 2: creación y prueba de la imagen localmente
<a name="ml-step-2-building-and-testing-the-image-locally"></a>

 En el contexto de la compilación, ahora existen los siguientes archivos: 
+  `./Dockerfile` 
+  `./web_app_serve.py` 
+  `./serve` 
+  Su lógica de inferencia y sus dependencias (opcionales) 

 A continuación, compile, ejecute y pruebe la imagen del contenedor. 

#### Compilar la imagen
<a name="ml-build-the-image"></a>

 Ejecute el comando Docker en el contexto de compilación para crear y etiquetar la imagen. En este ejemplo se utiliza la etiqueta `my-inference-image`. 

```
sudo docker build --tag my-inference-image ./
```

 Tras ejecutar este comando de Docker para crear la imagen, debería ver el resultado a medida que Docker cree la imagen en función de cada línea de su `Dockerfile`. Cuando termine, debería ver algo similar a lo siguiente. 

```
Successfully built abcdef123456
Successfully tagged my-inference-image:latest
```

#### Ejecutar localmente
<a name="ml-run-locally"></a>

 Una vez completada la compilación, puede probar la imagen localmente. 

```
sudo docker run \
  --rm \
  --publish 8080:8080/tcp \
  --detach \
  --name my-inference-container \
  my-inference-image \
  serve
```

 A continuación se muestran los detalles del comando: 
+ `--rm`: eliminar automáticamente el contenedor una vez que se detenga.
+ `--publish 8080:8080/tcp`— Exponga el puerto 8080 para simular el puerto al que SageMaker AI envía las solicitudes HTTP.
+ `--detach`: ejecuta el contenedor en segundo plano.
+ `--name my-inference-container`: asigna un nombre a este contenedor en ejecución.
+ `my-inference-image`: ejecuta la imagen creada.
+ `serve`— Ejecute el mismo script que ejecuta SageMaker AI al ejecutar el contenedor.

 Tras ejecutar este comando, Docker crea un contenedor a partir de la imagen de inferencia compilada y la ejecuta en segundo plano. El contenedor ejecuta el script `serve`, que lanza el servidor web con fines de prueba. 

#### Probar el ping de punto de conexión HTTP
<a name="ml-test-the-ping-http-endpoint"></a>

 Cuando la SageMaker IA ejecuta el contenedor, hace ping periódicamente al punto final. Cuando el punto final devuelve una respuesta HTTP con el código de estado 200, indica a la SageMaker IA que el contenedor está listo para la inferencia. Para comprobarlo, ejecute el siguiente comando, que comprueba el punto de conexión e incluye el encabezado de respuesta. 

```
curl --include http://127.0.0.1:8080/ping
```

A continuación, se muestra un ejemplo de resultado.

```
HTTP/1.0 200 OK
Content-Type: text/html; charset=utf-8
Content-Length: 0
Server: MyServer/0.16.0 Python/3.6.8
Date: Mon, 21 Oct 2019 06:58:54 GMT
```

#### Probar el punto de conexión HTTP de inferencia
<a name="ml-test-the-inference-http-endpoint"></a>

 Cuando el contenedor indica que está listo devolviendo un código de estado 200 a tu ping, la SageMaker IA pasa los datos de inferencia al punto final `/invocations` HTTP mediante una `POST` solicitud. Pruebe el punto de inferencia ejecutando el siguiente comando. 

```
curl \
  --request POST \
  --data "hello world" \
  http://127.0.0.1:8080/invocations
```

 A continuación, se muestra un ejemplo de resultado. 

 `{"prediction": "a", "text": "hello world"}` 

 Con estos dos puntos finales HTTP funcionando, la imagen de inferencia ahora es compatible con la IA. SageMaker 

**nota**  
 El modelo de su producto de paquete de modelos se puede implementar de dos maneras: en tiempo real y por lotes. En ambas implementaciones, la SageMaker IA utiliza los mismos puntos de enlace HTTP mientras ejecuta el contenedor de Docker. 

 Para detener el contenedor, ejecute el siguiente comando.

```
sudo docker container stop my-inference-container
```

 Cuando la imagen de inferencia esté lista y probada, podrá continuar con [Carga de las imágenes a Amazon Elastic Container Registry](ml-uploading-your-images.md). 

# Creación de imágenes de algoritmos
<a name="ml-algorithm-images"></a>

Un algoritmo de SageMaker IA de Amazon requiere que el comprador traiga sus propios datos para entrenarse antes de hacer predicciones. Como AWS Marketplace vendedor, puedes usar la SageMaker IA para crear algoritmos y modelos de aprendizaje automático (ML) que tus compradores puedan utilizar AWS. En las siguientes secciones se explica cómo crear imágenes de algoritmos AWS Marketplace. Esto incluye la creación de la imagen de entrenamiento de Docker para entrenar el algoritmo y la imagen de inferencia que contiene la lógica de inferencia. Tanto las imágenes de entrenamiento como las de inferencia son obligatorias para publicar un producto de algoritmo.

**Topics**
+ [Descripción general de](#ml-algorithm-images-overview)
+ [Crear una imagen de entrenamiento para algoritmos](#ml-creating-a-training-image-for-algorithms)
+ [Crear una imagen de inferencia para algoritmos](#ml-creating-an-inference-image-for-algorithms)

## Descripción general de
<a name="ml-algorithm-images-overview"></a>

Un algoritmo incluye los siguientes componentes: 
+  Una imagen de entrenamiento almacenada en [Amazon ECR](https://aws.amazon.com/ecr/) 
+  Imagen de inferencia almacenada en Amazon Elastic Container Registry (Amazon ECR) 

**nota**  
 En el caso de los productos de algoritmos, el contenedor de entrenamiento genera artefactos del modelo que se cargan en el contenedor de inferencias al implementar el modelo. 

En el siguiente diagrama se muestra el flujo de trabajo de publicación y uso de productos de algoritmos.

![\[Diagrama de cómo un vendedor crea una imagen de paquete con un algoritmo y cómo la usa un comprador.\]](http://docs.aws.amazon.com/es_es/marketplace/latest/userguide/images/ml-algorithm-package-images.png)


El flujo de trabajo para crear un algoritmo de SageMaker IA AWS Marketplace incluye los siguientes pasos:

1. El vendedor crea una imagen de formación y una imagen de inferencia (no hay acceso a la red cuando está implementada) y las carga en el registro ECR de Amazon. 

1. A continuación, el vendedor crea un recurso de algoritmo en Amazon SageMaker AI y publica su producto de aprendizaje automático en él AWS Marketplace.

1. El comprador se suscribe al producto de ML. 

1. El comprador crea un trabajo de formación con un conjunto de datos compatible y los valores de hiperparámetros adecuados. SageMaker La IA ejecuta la imagen de entrenamiento y carga los datos de entrenamiento y los hiperparámetros en el contenedor de entrenamiento. Cuando se completa el trabajo de entrenamiento, los artefactos del modelo que se encuentran en `/opt/ml/model/` se comprimen y se copian en el bucket de [Amazon S3](https://aws.amazon.com/s3/) del comprador. 

1. El comprador crea un paquete de modelos con los artefactos del modelo de entrenamiento almacenado en Amazon S3 e implementa el modelo. 

1. SageMaker La IA ejecuta la imagen de inferencia, extrae los artefactos comprimidos del modelo y carga los archivos en la ruta del directorio del contenedor de inferencias, `/opt/ml/model/` donde son consumidos por el código que sirve para la inferencia. 

1.  Ya sea que el modelo se despliegue como un punto final o como un trabajo de transformación por lotes, la SageMaker IA pasa los datos para su inferencia en nombre del comprador al contenedor a través del punto final HTTP del contenedor y devuelve los resultados de la predicción. 

**nota**  
 Para obtener más información, consulte [Entrenar modelos](https://docs.aws.amazon.com/sagemaker/latest/dg/train-model.html). 

## Crear una imagen de entrenamiento para algoritmos
<a name="ml-creating-a-training-image-for-algorithms"></a>

 En esta sección se proporciona un tutorial para empaquetar el código de entrenamiento en una imagen de entrenamiento. Se necesita una imagen de entrenamiento para crear un producto de algoritmo. 

 Una *imagen de entrenamiento* es una imagen de Docker que contiene su algoritmo de entrenamiento. El contenedor se adhiere a una estructura de archivos específica para que la SageMaker IA pueda copiar los datos hacia y desde el contenedor. 

 Tanto las imágenes de entrenamiento como las de inferencia son obligatorias para publicar un producto de algoritmo. Tras crear la imagen de entrenamiento, debe crear una imagen de inferencia. Las dos imágenes se pueden combinar en una sola imagen o permanecer como imágenes independientes. Usted decide si desea combinar las imágenes o separarlas. Por lo general, la inferencia es más sencilla que el entrenamiento, y es posible que desee separar las imágenes para mejorar el rendimiento de la inferencia.

**nota**  
 El siguiente es solo un ejemplo de código de empaquetado para una imagen de entrenamiento. Para obtener más información, consulte [Utilice sus propios algoritmos y modelos con los AWS Marketplace](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-marketplace.html) [ejemplos de AWS Marketplace SageMaker IA puestos](https://github.com/aws/amazon-sagemaker-examples/tree/master/aws_marketplace). GitHub

**Topics**
+ [Paso 1: Creación de la imagen del contenedor](#ml-step-1-creating-the-container-image-1)
+ [Paso 2: Crear y probar la imagen localmente](#ml-step-2-building-and-testing-the-image-locally-1)

### Paso 1: Creación de la imagen del contenedor
<a name="ml-step-1-creating-the-container-image-1"></a>

 Para que la imagen de entrenamiento sea compatible con Amazon SageMaker AI, debe cumplir con una estructura de archivos específica para permitir que SageMaker AI copie los datos de entrenamiento y las entradas de configuración en rutas específicas de su contenedor. Cuando se completa el entrenamiento, los artefactos del modelo generados se almacenan en una ruta de directorio específica en el contenedor desde el que SageMaker AI copia. 

 A continuación, se utiliza la CLI de Docker instalada en un entorno de desarrollo en una distribución Ubuntu de Linux. 
+ [Preparar el programa para leer las entradas de configuración](#ml-prepare-your-program-to-read-configuration-inputs)
+ [Preparar el programa para leer entradas de datos](#ml-prepare-your-program-to-read-data-inputs)
+ [Prepare su programa para escribir los resultados del entrenamiento](#ml-prepare-your-program-to-write-training-outputs)
+ [Crear el script para la ejecución del contenedor](#ml-create-the-script-for-the-container-run-1)
+ [Creación del `Dockerfile`](#ml-create-the-dockerfile-1)

#### Preparar el programa para leer las entradas de configuración
<a name="ml-prepare-your-program-to-read-configuration-inputs"></a>

 Si su programa de entrenamiento requiere alguna entrada de configuración proporcionada por el comprador, la siguiente es la ubicación en la que se copian dentro del contenedor cuando se ejecuta. Si es necesario, el programa debe leer esas rutas de archivo específicas. 
+  `/opt/ml/input/config` es el directorio que contiene la información que controla el funcionamiento del programa. 
  +  `hyperparameters.json` es un diccionario de nombres y valores de hiperparámetros con formato JSON. Los valores son cadenas, por lo que puede que necesite convertirlos. 
  +  `resourceConfig.json` es un archivo con formato JSON que describe el diseño de red utilizado para el [entrenamiento distribuido](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-training-algo-running-container.html#your-algorithms-training-algo-running-container-dist-training). Si su imagen de formación no admite el entrenamiento distribuido, puede omitir este archivo. 

**nota**  
 Para obtener más información sobre las entradas de configuración, consulte [Cómo Amazon SageMaker AI proporciona información de formación](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-training-algo-running-container.html). 

#### Preparar el programa para leer entradas de datos
<a name="ml-prepare-your-program-to-read-data-inputs"></a>

 Los datos de entrenamiento se pueden pasar al contenedor en uno de los dos modos siguientes. El programa de entrenamiento que se ejecuta en el contenedor digiere los datos de entrenamiento en uno de esos dos modos. 

 **Modo de archivo** 
+  `/opt/ml/input/data/<channel_name>/` contiene los datos de entrada de ese canal. Los canales se crean en función de la llamada a la operación `CreateTrainingJob`, pero generalmente es importante que los canales coincidan con lo que espera el algoritmo. Los archivos de cada canal se copian de [Amazon S3](https://aws.amazon.com/s3/) a este directorio, conservando la estructura de árbol indicada por la estructura de claves de Amazon S3. 

 **Modo de canalización** 
+  `/opt/ml/input/data/<channel_name>_<epoch_number>` es la canalización de una fecha de inicio determinada. Las fechas de inicio (epochs) comienzan en cero y aumentan en una cada vez que las lees. No hay límite en cuanto al número de épocas que puede recorrer, pero debe cerrar cada canalización antes de leer la siguiente. 

#### Prepare su programa para escribir los resultados del entrenamiento
<a name="ml-prepare-your-program-to-write-training-outputs"></a>

 El resultado del entrenamiento se escribe en los siguientes directorios de contenedores: 
+  `/opt/ml/model/` es el directorio en el que se escribe el modelo o los artefactos del modelo que genera su algoritmo de entrenamiento. El modelo puede estar en el formato que desee. Puede ser un único archivo o un árbol de directorios completo. SageMaker AI empaqueta todos los archivos de este directorio en un archivo comprimido (.tar.gz). Este archivo está disponible en la ubicación de Amazon S3 devuelta por la operación de la API `DescribeTrainingJob`. 
+  `/opt/ml/output/` es un directorio en el que el algoritmo puede escribir un archivo `failure` que describa el motivo del error en la tarea. El contenido de este archivo se devuelve en el campo `FailureReason` del resultado `DescribeTrainingJob`. En el caso de los trabajos que se realicen correctamente, no hay motivo para escribir este archivo porque se omite. 

#### Crear el script para la ejecución del contenedor
<a name="ml-create-the-script-for-the-container-run-1"></a>

 Cree un script de `train` shell que SageMaker AI ejecute cuando ejecute la imagen del contenedor de Docker. Cuando finalice el entrenamiento y los artefactos del modelo estén escritos en sus directorios respectivos, salga del script. 

 **`./train`** 

```
#!/bin/bash

# Run your training program here
#
#
#
#
```

#### Creación del `Dockerfile`
<a name="ml-create-the-dockerfile-1"></a>

 Cree un `Dockerfile` en su contexto de compilación. En este ejemplo se usa Ubuntu 18.04 como imagen base, pero puede empezar desde cualquier imagen base que funcione para su framework. 

 **`./Dockerfile`** 

```
FROM ubuntu:18.04

# Add training dependencies and programs
#
#
#
#
#
# Add a script that SageMaker AI will run
# Set run permissions
# Prepend program directory to $PATH
COPY /train /opt/program/train
RUN chmod 755 /opt/program/train
ENV PATH=/opt/program:${PATH}
```

 El `Dockerfile` añade el script `train` creado anteriormente a la imagen. El directorio del script se agrega a PATH para que pueda ejecutarse cuando se ejecute el contenedor. 

 En el ejemplo anterior, no existe una lógica de entrenamiento real. Para su imagen de entrenamiento real, añada las dependencias de entrenamiento al `Dockerfile` y añada la lógica para leer las entradas de entrenamiento para entrenar y generar los artefactos del modelo. 

 La imagen de entrenamiento debe contener todas las dependencias necesarias, ya que no tendrá acceso a Internet. 

 Para obtener más información, consulte [Utilice sus propios algoritmos y modelos con los AWS Marketplace](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-marketplace.html) [ejemplos de AWS Marketplace SageMaker IA incluidos](https://github.com/aws/amazon-sagemaker-examples/tree/master/aws_marketplace). GitHub

### Paso 2: Crear y probar la imagen localmente
<a name="ml-step-2-building-and-testing-the-image-locally-1"></a>

 En el contexto de la compilación, ahora existen los siguientes archivos: 
+ `./Dockerfile`
+ `./train`
+ Su lógica y dependencias de entrenamiento

 A continuación, puede crear, ejecutar y probar esta imagen de contenedor. 

#### Compilar la imagen
<a name="ml-build-the-image-1"></a>

 Ejecute el comando Docker en el contexto de compilación para crear y etiquetar la imagen. En este ejemplo se utiliza la etiqueta `my-training-image`. 

```
sudo docker build --tag my-training-image ./
```

 Tras ejecutar este comando de Docker para crear la imagen, debería ver el resultado a medida que Docker cree la imagen en función de cada línea de su `Dockerfile`. Cuando termine, debería ver algo similar a lo siguiente. 

```
Successfully built abcdef123456
Successfully tagged my-training-image:latest
```

#### Ejecutar localmente
<a name="ml-run-locally-1"></a>

 Una vez finalizado, pruebe la imagen de forma local, como se muestra en el siguiente ejemplo. 

```
sudo docker run \
  --rm \
  --volume '<path_to_input>:/opt/ml/input:ro' \
  --volume '<path_to_model>:/opt/ml/model' \
  --volume '<path_to_output>:/opt/ml/output' \
  --name my-training-container \
  my-training-image \
  train
```

 A continuación se muestran los detalles del comando: 
+  `--rm`: eliminar automáticamente el contenedor una vez que se detenga. 
+  `--volume '<path_to_input>:/opt/ml/input:ro'`: hacer que el directorio de entrada de prueba esté disponible para el contenedor como de solo lectura. 
+  `--volume '<path_to_model>:/opt/ml/model'`: monta de forma vinculada la ruta en la que se almacenan los artefactos del modelo en la máquina host una vez finalizada la prueba de entrenamiento. 
+  `--volume '<path_to_output>:/opt/ml/output'`: monta de forma vinculada la ruta en la que se escribe el motivo del error en un archivo `failure` en la máquina host. 
+  `--name my-training-container`: asigna un nombre a este contenedor en ejecución. 
+  `my-training-image`: ejecuta la imagen creada. 
+  `train`— Ejecute el mismo script que ejecuta SageMaker AI al ejecutar el contenedor. 

 Tras ejecutar este comando, Docker crea un contenedor a partir de la imagen de entrenamiento creada y lo ejecuta. El contenedor ejecuta el script `train`, que inicia el programa de entrenamiento. 

 Cuando el programa de entrenamiento finalice y el contenedor salga, comprueba que los artefactos del modelo de salida sean correctos. Además, comprueba los resultados del registro para confirmar que no están produciendo registros no deseados y, al mismo tiempo, asegurarse de que se proporcione suficiente información sobre el trabajo de entrenamiento. 

 Esto completa el empaquetado del código de entrenamiento para un producto algorítmico. Como un producto de algoritmo también incluye una imagen de inferencia, continúe con la siguiente sección, [Crear una imagen de inferencia para algoritmos](#ml-creating-an-inference-image-for-algorithms). 

## Crear una imagen de inferencia para algoritmos
<a name="ml-creating-an-inference-image-for-algorithms"></a>

 En esta sección se proporciona un tutorial para empaquetar el código de inferencia en una imagen de inferencia para el producto de su algoritmo. 

 La imagen de inferencia es una imagen de Docker que contiene la lógica de inferencia. En tiempo de ejecución, el contenedor expone los puntos finales HTTP para permitir que la SageMaker IA pase datos hacia y desde el contenedor. 

 Tanto las imágenes de entrenamiento como las de inferencia son obligatorias para publicar un producto de algoritmo. Si aún no lo ha hecho, consulte la sección anterior sobre [Crear una imagen de entrenamiento para algoritmos](#ml-creating-a-training-image-for-algorithms). Las dos imágenes se pueden combinar en una sola imagen o permanecer como imágenes separadas. Usted decide si desea combinar las imágenes o separarlas. Por lo general, la inferencia es más sencilla que el entrenamiento, y es posible que desee separar las imágenes para mejorar el rendimiento de la inferencia.

**nota**  
 El siguiente es solo un ejemplo de código de empaquetado para una imagen de inferencia. Para obtener más información, consulte [Utilice sus propios algoritmos y modelos con los AWS Marketplace](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-marketplace.html) [ejemplos de AWS Marketplace SageMaker IA puestos](https://github.com/aws/amazon-sagemaker-examples/tree/master/aws_marketplace). GitHub  
En el siguiente ejemplo se utiliza un servicio web, [Flask](https://pypi.org/project/Flask/), por motivos de simplicidad, y no se considera listo para la producción.

**Topics**
+ [Paso 1: Creación de la imagen de inferencia](#ml-step-1-creating-the-inference-image)
+ [Paso 2: Crear y probar la imagen localmente](#ml-step-2-building-and-testing-the-image-locally-2)

### Paso 1: Creación de la imagen de inferencia
<a name="ml-step-1-creating-the-inference-image"></a>

 Para que la imagen de inferencia sea compatible con la SageMaker IA, la imagen de Docker debe exponer los puntos finales HTTP. Mientras el contenedor está en ejecución, la SageMaker IA transfiere los datos de inferencia proporcionados por el comprador al punto de enlace HTTP del contenedor. El resultado de la inferencia se muestra en el cuerpo de la respuesta HTTP. 

 A continuación, se utiliza la CLI de Docker instalada en un entorno de desarrollo en una distribución Ubuntu de Linux. 
+ [Crear el script del servidor web](#ml-create-the-web-server-script-1) 
+ [Crear el script para la ejecución del contenedor](#ml-create-the-script-for-the-container-run-2)
+ [Creación del `Dockerfile`](#ml-create-the-dockerfile-2)
+ [Preparar el programa para cargar dinámicamente los artefactos del modelo](#ml-preparing-your-program-to-dynamically-load-model-artifacts)

#### Crear el script del servidor web
<a name="ml-create-the-web-server-script-1"></a>

 Este ejemplo usa un servidor de Python llamado [Flask](https://pypi.org/project/Flask/), pero puede usar cualquier servidor web que funcione para su marco. 

**nota**  
Aquí se usa [Flask](https://pypi.org/project/Flask/) por motivos de simplicidad. No se considera un servidor web listo para producción.

 Cree el script del servidor web Flask que sirva a los dos puntos finales HTTP del puerto TCP 8080 que utiliza AI. SageMaker Los dos puntos de conexión esperados son los siguientes: 
+  `/ping`— SageMaker AI realiza solicitudes HTTP GET a este punto final para comprobar si su contenedor está listo. Cuando el contenedor esté listo, responderá a las solicitudes HTTP GET en este punto de conexión con un código de respuesta HTTP 200. 
+  `/invocations`— SageMaker La IA realiza solicitudes HTTP POST a este punto final para realizar inferencias. Los datos de entrada para la inferencia se envían en el cuerpo de la solicitud. El tipo de contenido especificado por el usuario se pasa en el encabezado HTTP. El cuerpo de la respuesta es el resultado de la inferencia. 

 **`./web_app_serve.py`** 

```
# Import modules
import json
import re
from flask import Flask
from flask import request
app = Flask(__name__)

# Create a path for health checks
@app.route("/ping")
def endpoint_ping():
  return ""
 
# Create a path for inference
@app.route("/invocations", methods=["POST"])
def endpoint_invocations():
  
  # Read the input
  input_str = request.get_data().decode("utf8")
  
  # Add your inference code here.
  #
  #
  #
  #
  #
  # Add your inference code here.
  
  # Return a response with a prediction
  response = {"prediction":"a","text":input_str}
  return json.dumps(response)
```

 En el ejemplo anterior, no existe una lógica de inferencia real. Para la imagen de inferencia real, añada la lógica de inferencia a la aplicación web para que procese la entrada y devuelva la predicción. 

 La imagen de inferencia debe contener todas las dependencias necesarias, ya que no tendrá acceso a Internet. 

#### Crear el script para la ejecución del contenedor
<a name="ml-create-the-script-for-the-container-run-2"></a>

 Cree un script con el nombre de `serve` que SageMaker AI ejecute cuando ejecute la imagen del contenedor de Docker. En este script, inicie el servidor web HTTP. 

 **`./serve`** 

```
#!/bin/bash

# Run flask server on port 8080 for SageMaker AI
flask run --host 0.0.0.0 --port 8080
```

#### Creación del `Dockerfile`
<a name="ml-create-the-dockerfile-2"></a>

 Cree un `Dockerfile` en su contexto de compilación. En este ejemplo se usa Ubuntu 18.04, pero puede empezar desde cualquier imagen base que funcione para su framework. 

 **`./Dockerfile`** 

```
FROM ubuntu:18.04

# Specify encoding
ENV LC_ALL=C.UTF-8
ENV LANG=C.UTF-8

# Install python-pip
RUN apt-get update \
&& apt-get install -y python3.6 python3-pip \
&& ln -s /usr/bin/python3.6 /usr/bin/python \
&& ln -s /usr/bin/pip3 /usr/bin/pip;

# Install flask server
RUN pip install -U Flask;

# Add a web server script to the image
# Set an environment to tell flask the script to run
COPY /web_app_serve.py /web_app_serve.py
ENV FLASK_APP=/web_app_serve.py

# Add a script that Amazon SageMaker AI will run
# Set run permissions
# Prepend program directory to $PATH
COPY /serve /opt/program/serve
RUN chmod 755 /opt/program/serve
ENV PATH=/opt/program:${PATH}
```

 El `Dockerfile` añade los dos scripts creados anteriormente a la imagen. El directorio del script `serve` se agrega a PATH para que pueda ejecutarse cuando se ejecute el contenedor. 

#### Preparar el programa para cargar dinámicamente los artefactos del modelo
<a name="ml-preparing-your-program-to-dynamically-load-model-artifacts"></a>

 En el caso de los productos algorítmicos, el comprador utiliza sus propios conjuntos de datos con la imagen de entrenamiento para generar artefactos de modelo únicos. Cuando se complete el proceso de entrenamiento, el contenedor de entrenamiento envía los artefactos del modelo al directorio ` /opt/ml/model/` del contenedor. SageMaker La IA comprime el contenido de ese directorio en un archivo.tar.gz y lo almacena en Amazon S3 del comprador. Cuenta de AWS 

 Cuando el modelo se implementa, la SageMaker IA ejecuta la imagen de inferencia, extrae los artefactos del modelo del archivo .tar.gz almacenado en la cuenta del comprador en Amazon S3 y los carga en el contenedor de inferencia del directorio. `/opt/ml/model/` En tiempo de ejecución, el código del contenedor de inferencias utiliza los datos del modelo. 

**nota**  
 Para proteger cualquier propiedad intelectual que pueda contener los archivos del artefacto, puede elegir cifrarlos antes de publicarlos. Para obtener más información, consulte [Seguridad y propiedad intelectual con Amazon SageMaker AI](ml-security-and-intellectual-property.md). 

### Paso 2: Crear y probar la imagen localmente
<a name="ml-step-2-building-and-testing-the-image-locally-2"></a>

 En el contexto de la compilación, ahora existen los siguientes archivos: 
+ `./Dockerfile`
+ `./web_app_serve.py`
+ `./serve`

 A continuación, puede crear, ejecutar y probar esta imagen de contenedor. 

#### Compilar la imagen
<a name="ml-build-the-image-2"></a>

 Ejecuta el comando de Docker para compilar y etiquetar la imagen. En este ejemplo se utiliza la etiqueta `my-inference-image`. 

```
sudo docker build --tag my-inference-image ./
```

 Tras ejecutar este comando de Docker para crear la imagen, debería ver el resultado a medida que Docker cree la imagen en función de cada línea de su `Dockerfile`. Cuando termine, debería ver algo similar a lo siguiente. 

```
Successfully built abcdef123456
Successfully tagged my-inference-image:latest
```

#### Ejecutar localmente
<a name="ml-run-locally-2"></a>

 Una vez completada la compilación, puede probar la imagen localmente. 

```
sudo docker run \
  --rm \
  --publish 8080:8080/tcp \
  --volume '<path_to_model>:/opt/ml/model:ro' \
  --detach \
  --name my-inference-container \
  my-inference-image \
  serve
```

 A continuación se muestran los detalles del comando: 
+  `--rm`: eliminar automáticamente el contenedor una vez que se detenga. 
+  `--publish 8080:8080/tcp`— Exponga el puerto 8080 para simular el puerto al que AI envía las solicitudes HTTP. SageMaker 
+  `--volume '<path_to_model>:/opt/ml/model:ro'`: monta de forma vinculada la ruta donde se almacenan los artefactos del modelo de prueba en la máquina host como de solo lectura para que estén disponibles en el código de inferencia en el contenedor. 
+  `--detach`: ejecuta el contenedor en segundo plano. 
+  `--name my-inference-container`: asigna un nombre a este contenedor en ejecución. 
+  `my-inference-image`: ejecuta la imagen creada. 
+  `serve`— Ejecute el mismo script que SageMaker AI ejecuta al ejecutar el contenedor. 

 Tras ejecutar este comando, Docker crea un contenedor a partir de la imagen de inferencia y lo ejecuta en segundo plano. El contenedor ejecuta el script `serve`, que inicia el servidor web con fines de prueba. 

#### Probar el ping de punto de conexión HTTP
<a name="ml-test-the-ping-http-endpoint-1"></a>

 Cuando la SageMaker IA ejecuta tu contenedor, hace ping periódicamente al punto final. Cuando el punto final devuelve una respuesta HTTP con el código de estado 200, indica a la SageMaker IA que el contenedor está listo para la inferencia. 

 Ejecute el siguiente comando para probar el punto de conexión e incluir el encabezado de respuesta. 

```
curl --include http://127.0.0.1:8080/ping
```

 Por ejemplo, en el ejemplo siguiente se muestra el resultado. 

```
HTTP/1.0 200 OK
Content-Type: text/html; charset=utf-8
Content-Length: 0
Server: MyServer/0.16.0 Python/3.6.8
Date: Mon, 21 Oct 2019 06:58:54 GMT
```

#### Probar el punto de conexión HTTP de inferencia
<a name="ml-test-the-inference-http-endpoint-1"></a>

 Cuando el contenedor indica que está listo devolviendo un código de estado 200, la SageMaker IA pasa los datos de inferencia al punto final `/invocations` HTTP mediante una `POST` solicitud. 

 Ejecute el siguiente comando para probar el punto de conexión de inferencia. 

```
curl \
  --request POST \
  --data "hello world" \
  http://127.0.0.1:8080/invocations
```

 Por ejemplo, en el ejemplo siguiente se muestra el resultado. 

```
{"prediction": "a", "text": "hello world"}
```

 Con estos dos puntos finales HTTP funcionando, la imagen de inferencia ahora es compatible con la IA. SageMaker 

**nota**  
 El modelo de su producto de algoritmo se puede implementar de dos maneras: en tiempo real y por lotes. Para ambas implementaciones, la SageMaker IA utiliza los mismos puntos de enlace HTTP mientras ejecuta el contenedor de Docker. 

 Para detener el contenedor, ejecute el siguiente comando. 

```
sudo docker container stop my-inference-container
```

 Una vez que las imágenes de entrenamiento e inferencia del producto de algoritmo estén listas y probadas, continúe con [Carga de las imágenes a Amazon Elastic Container Registry](ml-uploading-your-images.md). 

# Carga de las imágenes a Amazon Elastic Container Registry
<a name="ml-uploading-your-images"></a>

Después de crear las imágenes de inferencia y entrenamiento, puede cargarlas en Amazon Elastic Container Registry. [Amazon ECR](https://aws.amazon.com/ecr/) es un registro de Docker totalmente gestionado. Amazon SageMaker AI extrae imágenes de Amazon ECR para crear un paquete modelo para realizar inferencias o un algoritmo para tareas de formación. AWS Marketplace también recupera estas imágenes de Amazon ECR para publicar sus productos de algoritmos y paquetes de modelos. En esta sección se proporciona un tutorial para cargar las imágenes de inferencia y entrenamiento en Amazon ECR

**Topics**
+ [¿Qué imágenes debo subir?](#ml-which-images-must-i-upload)
+ [¿Qué permisos de IAM son necesarios?](#ml-what-iam-permissions-are-required)
+ [Inicie sesión en su cliente de Docker AWS](#ml-log-in-your-docker-client)
+ [Crear un repositorio y cargar la imagen](#ml-create-repository-and-upload-image)
+ [Escanea la imagen que ha cargado](#ml-scan-your-uploaded-image)

## ¿Qué imágenes debo subir?
<a name="ml-which-images-must-i-upload"></a>

 Si va a publicar un paquete modelo, suba solo una imagen de inferencia. Si va a publicar un algoritmo, cargue una imagen de inferencia y una imagen de formación. Si las imágenes de inferencia y de formación están combinadas, cargue la imagen combinada solo una vez. 

## ¿Qué permisos de IAM son necesarios?
<a name="ml-what-iam-permissions-are-required"></a>

 En los siguientes pasos se parte del supuesto de que la máquina local tiene AWS las credenciales correctas para un rol o usuario AWS Identity and Access Management (IAM) del vendedor. Cuenta de AWS El rol o el usuario deben contar con las políticas correctas tanto AWS Marketplace para Amazon ECR como para Amazon. Por ejemplo, puede usar las siguientes políticas AWS administradas: 
+  [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AWSMarketplaceSellerProductsFullAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AWSMarketplaceSellerProductsFullAccess.html)— Para acceder a AWS Marketplace 
+  [https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonEC2ContainerRegistryFullAccess.html](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonEC2ContainerRegistryFullAccess.html): para acceder a Amazon ECR 

**nota**  
Los enlaces lo llevan a la *Referencia de políticas administradas de AWS *.

## Inicie sesión en su cliente de Docker AWS
<a name="ml-log-in-your-docker-client"></a>

 Defina una variable para la Región de AWS que desee publicar (consulte[Compatible con Regiones de AWS la publicación](ml-service-restrictions-and-limits.md#ml-supported-aws-regions-for-publishing)). Para este ejemplo, use la región Este de EE. UU. (Ohio). 

```
region=us-east-2
```

 Ejecuta el siguiente comando para establecer una variable con tu Cuenta de AWS ID. En este ejemplo se supone que las credenciales actuales AWS Command Line Interface (AWS CLI) pertenecen a las del vendedor Cuenta de AWS. 

```
account=$(aws sts get-caller-identity --query Account --output text)
```

 Para autenticar su cliente CLI de Docker con el registro de Docker de Cuenta de AWS Amazon ECR de su región, ejecute el siguiente comando.

```
aws ecr get-login-password \
--region ${region} \
| sudo docker login \
--username AWS \
--password-stdin \
${account}.dkr.ecr.${region}.amazonaws.com
```

## Crear un repositorio y cargar la imagen
<a name="ml-create-repository-and-upload-image"></a>

 Establezca una variable para la etiqueta de la imagen cargada y otra variable para el nombre del repositorio de imágenes cargado. 

```
image=my-inference-image
repo=my-inference-image
```

**nota**  
 En las secciones anteriores de esta guía, en las que se crearon las imágenes de inferencia y entrenamiento, se etiquetaron como y, respectivamente. **my-inference-image**my-training-image**** Para este ejemplo, cree y cargue la imagen de inferencia en un repositorio con el mismo nombre. 

 Ejecute el siguiente comando para crear un repositorio de imágenes en Amazon ECR. 

```
aws ecr --region ${region} create-repository --repository-name "${repo}"
```

 El nombre completo de la ubicación del repositorio de Amazon ECR se compone de las siguientes partes: ` <account-id>.dkr.ecr.<region>.amazonaws.com/<image-repository-name>` 

 Para enviar la imagen al repositorio, debe etiquetarla con el nombre completo de la ubicación del repositorio. 

 Establezca una variable para el nombre completo de la ubicación del repositorio de imágenes junto con la etiqueta `latest`. 

```
fullname="${account}.dkr.ecr.${region}.amazonaws.com/${repo}:latest"
```

 Etiquete la imagen con el nombre completo. 

```
sudo docker tag ${image} ${fullname}
```

 Por último, inserte la imagen de inferencia en el repositorio de Amazon ECR. 

```
sudo docker push ${fullname}
```

 Una vez finalizada la carga, la imagen aparece en la [lista de repositorios de la consola de Amazon ECR](https://console.aws.amazon.com/ecr/repositories?region=us-east-2) en la región desde la que está publicando. En el ejemplo anterior, la imagen se envió a un repositorio en la región Este de EE. UU. (Ohio). 

## Escanea la imagen que ha cargado
<a name="ml-scan-your-uploaded-image"></a>

 En la [consola de Amazon ECR](https://console.aws.amazon.com/ecr/repositories?region=us-east-2), elija el repositorio desde el Región de AWS que va a publicar y abra el repositorio en el que se cargó la imagen. Seleccione la imagen cargada e inicie un análisis para comprobar si hay vulnerabilidades conocidas. AWS Marketplace comprueba los resultados del escaneo de Amazon ECR de las imágenes del contenedor utilizadas en tu recurso de Amazon SageMaker AI antes de publicarlo. Antes de poder crear su producto, debe corregir las imágenes de los contenedores que tengan vulnerabilidades de gravedad Crítica o Alta. 

 Una vez que las imágenes se hayan escaneado correctamente, se pueden utilizar para crear un paquete modelo o un recurso de algoritmo. 

Si cree que su producto contiene errores en el escaneo que son falsos positivos, póngase en contacto con el equipo de [operaciones de vendedores de AWS Marketplace](https://aws.amazon.com/marketplace/management/contact-us) para informar sobre el error.

 **Pasos siguientes** 
+  Consulte los límites de tamaño en [Requisitos y prácticas recomendadas para crear productos de machine learning](ml-listing-requirements-and-best-practices.md) 
+  Continuar con [Cómo crear tu recurso de Amazon SageMaker AI](ml-creating-your-amazon-sagemaker-resource.md) 

# Cómo crear tu recurso de Amazon SageMaker AI
<a name="ml-creating-your-amazon-sagemaker-resource"></a>

 Para publicar un paquete de modelos o un producto de algoritmos, debe crear el recurso de [paquete de modelo o recurso](https://docs.aws.amazon.com/marketplace/latest/userguide/ml-creating-your-amazon-sagemaker-resource.html#ml-creating-your-model-package-product) de [algoritmo](https://docs.aws.amazon.com/marketplace/latest/userguide/ml-creating-your-amazon-sagemaker-resource.html#ml-creating-your-algorithm-product) correspondiente en Amazon SageMaker AI. Al crear el recurso para un producto de AWS Marketplace , debe certificarse mediante un paso de validación. El paso de validación requiere que proporcione datos para probar el paquete de modelos o el recurso de algoritmo antes de que se pueda publicar. En las siguientes secciones, se muestra cómo crear un recurso de SageMaker IA, ya sea un recurso de paquete de modelo o un recurso de algoritmo. Esto incluye establecer las especificaciones de validación que indican a la SageMaker IA cómo realizar la validación. 

**nota**  
Si aún no ha creado las imágenes de su producto y las ha subido a Amazon Elastic Container Registry (Amazon ECR), consulte [Empaquetar su código en imágenes para productos de aprendizaje automático en AWS Marketplace](ml-packaging-your-code-into-images.md) y [Carga de las imágenes a Amazon Elastic Container Registry](ml-uploading-your-images.md) para obtener información sobre cómo hacerlo.

**Topics**
+ [Creación de su paquete de modelos](#ml-creating-your-model-package-product)
+ [Creación de un algoritmo](#ml-creating-your-algorithm-product)

## Creación de su paquete de modelos
<a name="ml-creating-your-model-package-product"></a>

 Los siguientes son requisitos para crear un paquete de modelos para AWS Marketplace: 
+  Una imagen de inferencia almacenada en [Amazon ECR](https://aws.amazon.com/ecr/) 
+  (Opcional) Artefactos del modelo, almacenados por separado en [Amazon S3](https://aws.amazon.com/s3/) 
+ Los datos de prueba utilizados para realizar inferencias y almacenados en Amazon Simple Storage Service. 

**nota**  
 A continuación, se aborda la creación de un producto de paquete de modelos. Para obtener más información sobre los paquetes de modelos en SageMaker AI, consulte [Create a Model Package Resource](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-mkt-create-model-package.html). 

### Creación de los recursos del paquete de modelos
<a name="ml-create-model-package"></a>

Los siguientes procedimientos le guiarán en la creación de los recursos del paquete de modelos.

**Paso 1: Crear los recursos del paquete de modelos**

1. Abre la [consola Amazon SageMaker AI](https://us-east-2.console.aws.amazon.com/sagemaker/home).

1. Comprueba que te encuentras en la AWS región desde la que quieres publicar consultando la parte superior derecha de la página. Para publicar, consulte la sección [Compatible con Regiones de AWS la publicación](ml-service-restrictions-and-limits.md#ml-supported-aws-regions-for-publishing). La imagen de inferencia que cargó en Amazon ECR en los pasos anteriores debe estar en la misma región. 

1. En el menú de navegación izquierdo, elija **Paquetes de modelos**.

1. Seleccione **Create model package (Crear paquete de modelos)**.

Tras crear el paquete, debe establecer las especificaciones del paquete de inferencia.

**Paso 2: Establecer las especificaciones de inferencia**

1.  Proporcione un **nombre** para el paquete modelo (por ejemplo,*my-model-package*). 

1.  En **Ubicación de la imagen de inferencia**, introduzca el URI de la imagen de inferencia que se cargó en Amazon ECR. Para recuperar el URI, busque la imagen en la [consola de Amazon ECR](https://us-east-2.console.aws.amazon.com/ecr/repositories). 

1.  Si los artefactos del modelo del entrenamiento se incluyen con la lógica en la imagen de inferencia, deje en blanco el campo **Ubicación de los artefactos de datos del modelo**. De lo contrario, especifique la ubicación completa en Amazon S3 del archivo comprimido (.tar.gz) de los artefactos del modelo. 

1.  En el cuadro desplegable, elija los tipos de instancia compatibles de la imagen de inferencia para los trabajos de inferencia en tiempo real (también denominados *puntos de conexión*) y de transformación por lotes. 

1.  Elija **Siguiente**. 

 Antes de poder crear y publicar el paquete de modelos, es necesario validarlo para garantizar que funcione según lo esperado. Esto requiere que ejecute un trabajo de transformación por lotes con los datos de prueba que proporcione para la inferencia. Las especificaciones de validación indican a SageMaker AI cómo realizar la validación. 

**Paso 3: Establecer las especificaciones de validación**

1.  Establezca **Publicar este paquete de modelos en AWS Marketplace** **Sí**. Si lo establece en **No**, no podrá publicar este paquete de modelos más adelante. **Si selecciona Sí,** [se certifica el](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModelPackage.html#sagemaker-CreateModelPackage-request-CertifyForMarketplace) paquete modelo AWS Marketplace y se requiere el paso de validación. 

1.  Si es la primera vez que completa este proceso, elija **Crear un nuevo rol** para el **rol de IAM**. Amazon SageMaker AI utiliza esta función cuando despliega su paquete de modelos. Esto incluye acciones, como extraer imágenes de Amazon ECR y artefactos de Amazon S3. Revise la configuración y elija **Crear rol**. Al crear un rol aquí, se otorgan los permisos descritos en la política de [ AmazonSageMakerFullAccess](https://console.aws.amazon.com/iam/home#/policies/arn:aws:iam::aws:policy/AmazonSageMakerFullAccess)IAM al rol que se cree. 

1.  Edita el **JSON** en el perfil de validación. Para obtener más información sobre los valores permitidos, consulte [TransformJobDefinition](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TransformJobDefinition.html). 

   1.  `TransformInput.DataSource.S3Uri`: establece el lugar donde se almacenan los datos de las pruebas para la inferencia. 

   1.  `TransformInput.ContentType`: especifique el tipo de contenido de los datos de la prueba (por ejemplo `application/json``text/plain`,`image/png `,, o cualquier otro valor). SageMaker La IA no valida los datos de entrada reales. Este valor se transfiere al punto de conexión HTTP del contenedor en el valor de encabezado `Content-type`. 

   1.  `TransformInput.CompressionType`: se establece en `None` si los datos de prueba para la inferencia en Amazon S3 no están comprimidos. 

   1.  `TransformInput.SplitType`: se establece en `None` para pasar cada objeto en Amazon S3 como un todo a efectos de inferencia. 

   1.  `TransformOutput.S3OutputPath`: se establece en la ubicación en la que se almacena el resultado de la inferencia. 

   1.  `TransformOutput.AssembleWith`: se establece en `None` para generar cada inferencia como objetos independientes en Amazon S3. 

1.  Seleccione **Create model package (Crear paquete de modelos)**. 

 SageMaker La IA extrae la imagen de inferencia de Amazon ECR, copia cualquier artefacto en el contenedor de inferencias y ejecuta un trabajo de transformación por lotes utilizando los datos de prueba para la inferencia. Una vez finalizada la validación, el estado cambia a **Completado**. 

**nota**  
 El paso de validación no evalúa la precisión del modelo con los datos de la prueba. El paso de validación comprueba si el contenedor funciona y responde según lo esperado. 

 Ha terminado de crear los recursos de su producto de modelo. Siga en [Publicar tu producto en AWS Marketplace](ml-publishing-your-product-in-aws-marketplace.md). 

## Creación de un algoritmo
<a name="ml-creating-your-algorithm-product"></a>

 Los siguientes son requisitos para crear un algoritmo para AWS Marketplace: 
+ Una imagen de inferencia almacenada en Amazon ECR 
+ Una imagen de entrenamiento almacenada en Amazon ECR 
+  Sus datos de prueba para el entrenamiento, almacenados en Amazon S3 
+ Sus datos de prueba para la inferencia, almacenados en Amazon S3 

**nota**  
 En el siguiente tutorial se crea un producto de algoritmo. Para obtener más información, consulte [Crear un recurso de algoritmo](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-mkt-create-algo.html). 

### Creación de recursos de algoritmo
<a name="ml-create-algorithm"></a>

Los siguientes procedimientos le guiarán por la creación de los recursos en su paquete de algoritmos.

**Paso 1: Crear los recursos del algoritmo**

1.  Abre la [consola Amazon SageMaker AI](https://us-east-2.console.aws.amazon.com/sagemaker/home). 

1.  Asegúrese de que se encuentra en la AWS región desde la que desea publicar consultando la parte superior derecha de la página (consulte[Compatible con Regiones de AWS la publicación](ml-service-restrictions-and-limits.md#ml-supported-aws-regions-for-publishing)). La imagen de entrenamiento e inferencia que cargó en Amazon ECR en los pasos anteriores debe estar en esta misma región. 

1.  En el panel de navegación izquierdo, elija **Algoritmos**. 

1.  Elija **Create algorithm (Crear algoritmo)**. 

Una vez creado el paquete de algoritmos, debe establecer las especificaciones para el entrenamiento y el ajuste del modelo.

**Paso 2: Configurar las especificaciones de entrenamiento y ajuste**

1.  Introduce el **nombre del** algoritmo (por ejemplo,*my-algorithm*). 

1.  En **Imagen de entrenamiento**, pegue la ubicación URI completa de la imagen de entrenamiento que se cargó en Amazon ECR. Para recuperar el URI, busque la imagen en la [consola de Amazon ECR](https://us-east-2.console.aws.amazon.com/ecr/repositories). 

1.  En el cuadro desplegable, elija los **tipos de instancias de formación compatibles** con la imagen de formación. 

1.  En la sección **Especificaciones del canal**, agregue un canal para cada conjunto de datos de entrada que admita su algoritmo, hasta 20 canales de fuentes de entrada. Para obtener más información, consulte [Configuración de datos de entrada](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-training-algo-running-container.html#your-algorithms-training-algo-running-container-inputdataconfig). 

1.  Elija **Siguiente**. 

1. Si el algoritmo admite hiperparámetros y el ajuste de hiperparámetros, debe especificar los parámetros de ajuste.

1.  Elija **Siguiente**. 

**nota**  
 Se recomienda encarecidamente que el algoritmo admita el ajuste de hiperparámetros y que permita ajustar los parámetros adecuados. Esto permite a los científicos de datos ajustar los modelos para obtener los mejores resultados. 

Una vez establecidos los parámetros de ajuste, si los hay, debe establecer las especificaciones de la imagen de inferencia.

**Paso 3: Establecer la especificación de la imagen de inferencia**

1.  En **Ubicación de la imagen de inferencia**, pegue el URI de la imagen de inferencia cargada en Amazon ECR. Para recuperar el URI, busque la imagen en la [consola de Amazon ECR](https://us-east-2.console.aws.amazon.com/ecr/repositories). 

1.  En el cuadro desplegable, elija los tipos de instancia compatibles para su imagen de inferencia, tanto para los trabajos de inferencia en tiempo real (también conocido como *punto de conexión*) como para los de transformación por lotes. 

1.  Elija **Siguiente**. 

 Antes de poder crear y publicar el algoritmo, es necesario validarlo para garantizar que funcione según lo esperado. Esto requiere que ejecute un trabajo de entrenamiento con los datos de prueba para el entrenamiento y un trabajo de transformación por lotes con los datos de prueba que proporcione para la inferencia. Las especificaciones de validación indican a SageMaker AI cómo realizar la validación. 

**Paso 4: Establecer las especificaciones de validación**

1.  Establezca **Publicar este algoritmo en AWS Marketplace** en **Sí**. Si lo establece en **No**, no podrá publicar este algoritmo más adelante. **Si selecciona Sí,** [se certifica el](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAlgorithm.html#sagemaker-CreateAlgorithm-request-CertifyForMarketplace) algoritmo AWS Marketplace y se requiere la especificación de validación.

1.  Si es la primera vez que crea un paquete de aprendizaje automático para AWS Marketplace, elija **Crear un nuevo rol para el rol** de **IAM**. Amazon SageMaker AI utiliza esta función cuando entrena el algoritmo y despliega el paquete de modelos subsiguiente. Esto incluye acciones como extraer imágenes de Amazon ECR, almacenar artefactos en Amazon S3 y copiar datos de entrenamiento de Amazon S3. Revise la configuración y elija **Crear rol**. Al crear un rol aquí, se otorgan los permisos descritos en la política de [ AmazonSageMakerFullAccess](https://console.aws.amazon.com/iam/home#/policies/arn:aws:iam::aws:policy/AmazonSageMakerFullAccess)IAM al rol que se cree. 

1.  Edite el archivo **JSON** en el perfil de validación para **Definición de trabajo de entrenamiento.** Para obtener más información sobre los valores permitidos, consulte [ TrainingJobDefinition](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TrainingJobDefinition.html). 

   1.  `InputDataConfig`: en esta matriz JSON, añada un [objeto de canal](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_Channel.html) para cada canal especificado en el paso de especificación del entrenamiento. Para cada canal, especifique dónde se almacenan los datos de las pruebas para el entrenamiento. 

   1.  `OutputDataConfig`: una vez finalizado el entrenamiento, los artefactos del modelo de la ruta del directorio del contenedor de formación `/opt/ml/model/` se comprimen y se copian en Amazon S3. Especifique la ubicación de Amazon S3 en la que se almacena el archivo comprimido (.tar.gz). 

1.  Edite el archivo JSON en el perfil de validación para **Definición de trabajo de transformación**. Para obtener más información sobre los valores permitidos, consulte [ TransformJobDefinition](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TransformJobDefinition.html). 

   1.  `TransformInput.DataSource.S3Uri`: establece el lugar donde se almacenan los datos de las pruebas para la inferencia. 

   1.  `TransformInput.ContentType`: especifique el tipo de contenido de los datos de la prueba. Por ejemplo,`application/json`, `text/plain`, `image/png` o cualquier otro valor. Amazon SageMaker AI no valida los datos de entrada reales. Este valor se transfiere al punto de conexión HTTP del contenedor en el valor de encabezado `Content-type`. 

   1.  `TransformInput.CompressionType`: se establece en `None` si los datos de prueba para la inferencia en Amazon S3 no están comprimidos. 

   1.  `TransformInput.SplitType`: elija cómo quiere dividir los objetos de S3. Por ejemplo, `None` pasa cada objeto en Amazon S3 como un todo a efectos de inferencia. Para obtener más información, consulta [ SplitType](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_TransformInput.html#sagemaker-Type-TransformInput-SplitType)la referencia de la API de Amazon SageMaker AI. 

   1.  `TransformOutput.S3OutputPath`: se establece en la ubicación donde se almacena el resultado de la inferencia. 

   1.  `TransformOutput.AssembleWith`: se establece en `None` para generar cada inferencia como objetos independientes en Amazon S3. 

1. Elija **Crear paquete de algoritmos**.

 SageMaker La IA extrae la imagen de entrenamiento de Amazon ECR, ejecuta un trabajo de entrenamiento de prueba con sus datos y almacena los artefactos del modelo en Amazon S3. Luego extrae la imagen de inferencia de Amazon ECR, copia cualquier artefacto de Amazon S3 en el contenedor de inferencias y ejecuta un trabajo de transformación por lotes utilizando los datos de prueba para la inferencia. Una vez finalizada la validación, el estado cambia a **Completado**. 

**nota**  
 El paso de validación no evalúa la precisión del entrenamiento o el modelo con los datos de la prueba. El paso de validación comprueba si los contenedores funcionan y responden según lo esperado.   
El paso de validación solo valida el procesamiento por lotes. Depende de usted validar que el procesamiento en tiempo real funcione con su producto.

 Ha terminado de crear los recursos de su producto de algoritmo. Siga en [Publicar tu producto en AWS Marketplace](ml-publishing-your-product-in-aws-marketplace.md). 

# Publicar tu producto en AWS Marketplace
<a name="ml-publishing-your-product-in-aws-marketplace"></a>

Tras empaquetar el código en imágenes de paquetes de modelos o imágenes de algoritmos, cargar las imágenes y crear los recursos de Amazon SageMaker AI, podrá publicar su producto de aprendizaje automático en él AWS Marketplace. En las siguientes secciones se explica el proceso de publicación, que incluye la creación de la publicación del producto, la prueba del producto y la aprobación para la publicación. Una vez publicado su producto, puede solicitar cambios para actualizar la publicación. Para obtener más información, consulte [Administración de sus productos de machine learning](ml-product-management.md). 

**Topics**
+ [Requisitos previos](ml-publishing-prereq.md)
+ [Paso 1: crear un nuevo listado](create-new-listing.md)
+ [Paso 2: especificación de la información del producto](provide-general-info.md)
+ [Paso 3: agregar una versión inicial del producto](add-initial-version.md)
+ [Paso 4: configuración el modelo de precios](set-pricing-model.md)
+ [Paso 5: configuración de la política de reembolso](configure-refund-policy.md)
+ [Paso 6: configuración del EULA](configure-eula.md)
+ [Paso 7: configurar la lista de permitidos](configure-allowlist.md)

# Requisitos previos
<a name="ml-publishing-prereq"></a>

Para poder publicar el paquete de modelos o el algoritmo en AWS Marketplaceél, debe disponer de lo siguiente:
+  Y Cuenta de AWS que esté registrado como AWS Marketplace vendedor. Puede hacerlo en la [AWS Marketplace Management Portal](https://aws.amazon.com/marketplace/management/). 
+  Un perfil de vendedor completo en la página de [configuración](https://aws.amazon.com/marketplace/management/seller-settings) del AWS Marketplace Management Portal. 
+  Para publicar productos de pago, debe rellenar el cuestionario fiscal y los formularios bancarios. Esto no es obligatorio para publicar productos gratuitos. Para obtener más información, consulte [Proceso de registro de vendedores](https://docs.aws.amazon.com/marketplace/latest/userguide/registration-process.html). 
+ Debe tener permisos para acceder a Amazon SageMaker AI AWS Marketplace Management Portal y a Amazon. Para obtener más información, consulte [Permisos necesarios](#ml-permissions-required).

## Permisos necesarios
<a name="ml-permissions-required"></a>

Para publicar un producto de Amazon SageMaker AI, debe especificar un ARN de rol de IAM válido que tenga una relación de confianza con AWS Marketplace el principal del servicio. Además, el usuario o rol de IAM con el que ha iniciado sesión requiere los permisos necesarios.

**Configuración de los permisos de inicio de sesión**
+  Agregue los siguientes permisos al rol de IAM: 

  1. **sagemaker: DescribeModelPackage** — Para publicar un paquete modelo 

  1.  **sagemaker: DescribeAlgorithm** — Para enumerar un algoritmo 

------
#### [ JSON ]

****  

     ```
     { 
         "Version":"2012-10-17",		 	 	 
         "Statement": [ 
             { 
                 "Effect": "Allow", 
                 "Action": [ 
                     "sagemaker:DescribeModelPackage", 
                     "sagemaker:DescribeAlgorithm"
                 ],
                 "Resource": "*"  
            }
         ] 
     }
     ```

------

**Establecer el producto de rol de IAM AddVersion/Create**

1. Siga los pasos para crear un rol con una política de confianza personalizada. Para obtener más información, consulte [Creación de un rol de IAM mediante políticas de confianza personalizadas (consola)](https://docs.aws.amazon.com//IAM/latest/UserGuide/id_roles_create_for-custom.html).

1. Introduzca lo siguiente para la declaración de la política de confianza personalizada:

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [
           {
               "Sid": "Statement1",
               "Effect": "Allow",
               "Principal": {
                   "Service": "assets.marketplace.amazonaws.com"
               },
               "Action": "sts:AssumeRole"
           }
       ]
   }
   ```

------

1. Introduzca la siguiente política de permisos:

------
#### [ JSON ]

****  

   ```
   { 
       "Version":"2012-10-17",		 	 	 
       "Statement": [ 
           { 
               "Effect": "Allow", 
               "Action": [ 
                   "sagemaker:DescribeModelPackage", 
                   "sagemaker:DescribeAlgorithm"
               ],
               "Resource": "*"  
          }
       ] 
   }
   ```

------

1. Proporcione el ARN del rol cuando se solicite. El rol debe seguir el formato: `arn:aws:iam::<account-id>:role/<role-name>`.

 Para ver los AWS Marketplace permisos necesarios o para gestionar tu cuenta de vendedor, consulta [Políticas y permisos para AWS Marketplace vendedores](https://docs.aws.amazon.com/marketplace/latest/userguide/detailed-management-portal-permissions.html). 

## Activos necesarios
<a name="ml-required-assets"></a>

Antes de crear un listado de productos de machine learning, asegúrese de contar con los siguientes recursos necesarios:
+ **Nombre del recurso de Amazon (ARN)**: proporcione el ARN del paquete del modelo o del recurso del algoritmo en el Región de AWS que va a publicar (consulte). [Compatible con Regiones de AWS la publicación](ml-service-restrictions-and-limits.md#ml-supported-aws-regions-for-publishing) 
  +  El ARN de un paquete modelo tiene esta forma: `arn:aws:sagemaker:<region>:<account-id>:model-package/<model-package-name>` 

     Para encontrar el ARN de su paquete de modelos, consulte los [paquetes de modelos de Mi marketplace](https://console.aws.amazon.com/sagemaker/home#/model-packages/my-resources). 
  +  El ARN de un algoritmo tiene esta forma: `arn:aws:sagemaker:<region>:<account-id>:algorithm/<algorithm-name>` 

     Para encontrar su ARN de recursos de algoritmo, consulte [Mis algoritmos](https://console.aws.amazon.com/sagemaker/home#/algorithms/my-resources). 
+ [Requisitos de información de uso](ml-listing-requirements-and-best-practices.md#ml-requirements-for-usage-information): proporcione detalles sobre las entradas, las salidas y los ejemplos de código. 
+  [Requisitos de entradas y salidas](ml-listing-requirements-and-best-practices.md#ml-requirements-for-inputs-and-outputs): proporcione archivos o texto. 
+ [Requisitos para el cuaderno de Jupyter](ml-listing-requirements-and-best-practices.md#ml-requirements-for-jupyter-notebook): demuestre el uso completo del producto. 

# Paso 1: crear un nuevo listado
<a name="create-new-listing"></a>

 Para empezar a usar un producto de machine learning, iniciará el proceso de publicación configurando el nombre del producto, añadiendo etiquetas de recursos opcionales para la organización y generando el identificador del producto. El ID del producto se utiliza para realizar un seguimiento del producto a lo largo de su ciclo de vida. 

**nota**  
 Antes de crear su listado, asegúrese de que dispone de los recursos necesarios especificados en [Requisitos y prácticas recomendadas para crear productos de machine learning](ml-listing-requirements-and-best-practices.md). 

1. Inicie sesión con su Cuenta de AWS de vendedor y vaya al [AWS Marketplace Management Portal](https://aws.amazon.com/marketplace/management). 

1.  En el menú superior, diríjase a **Productos** y, a continuación, seleccione **Machine learning**. 

1.  Seleccione **Crear producto de machine learning**.

1. En **Nombre del producto**, introduzca un nombre de producto único que se mostrará a los compradores en la parte superior de la página del listado de productos y en los resultados de búsqueda.

1.  (Opcional) En **Etiquetas**, introduzca las etiquetas que desee asociar al producto. Para obtener más información, consulte [Tagging AWS resources](https://docs.aws.amazon.com/tag-editor/latest/userguide/tagging.html) (Etiquetado de los recursos de ). 

1.  En **ID y código del producto**, seleccione **Generar ID y código del producto**. 

1.  Seleccione **Continuar con el asistente**. Comenzará el proceso de añadir información detallada del producto en el asistente. 

# Paso 2: especificación de la información del producto
<a name="provide-general-info"></a>

 A la hora de incluir su producto de machine learning en AWS Marketplace, es fundamental proporcionar información completa y precisa sobre el producto. Utilice el paso **Especificación de la información del producto** del asistente para recopilar los detalles esenciales de la oferta, tales como las categorías de productos y la información de soporte. 

1.  Introduzca la información relativa a su producto. 

1.  Seleccione **Siguiente** para continuar con el siguiente paso del asistente. 

# Paso 3: agregar una versión inicial del producto
<a name="add-initial-version"></a>

 En esta página, se explica cómo agregar la versión inicial del producto. Su producto puede tener varias versiones a lo largo de su ciclo de vida y cada versión se identifica mediante un ARN de IA único de SageMaker. 

1.  En **Nombres de recurso de Amazon (ARN)**: 

   1.  Introduzca el modelo o algoritmo del ARN de Amazon SageMaker AI. 
      +  Ejemplo de ARN de paquete de modelos: `arn:aws:sagemaker:<region>:<account-id>:model-package/<model-package-name>` 

         Para encontrar el ARN de su paquete de modelos, consulte los [paquetes de modelos de Mi marketplace](https://console.aws.amazon.com/sagemaker/home#/model-packages/my-resources). 
      +  Ejemplo de ARN de algoritmo: `arn:aws:sagemaker:<region>:<account-id>:algorithm/<algorithm-name>` 

         Para encontrar su ARN de recursos de algoritmo, consulte [Mis algoritmos](https://console.aws.amazon.com/sagemaker/home#/algorithms/my-resources). 

   1.  Introduzca el ARN del rol de acceso a IAM. 

       Ejemplo de ARN de IAM: `arn:aws:iam::<account-id>:role/<role-name>` 

1.  En **Información sobre la versión**, introduzca el **Nombre de la versión** y las **Notas de la versión.** 

1.  En **Detalles de entrada de modelo**, introduzca un resumen de las entradas del modelo y proporcione datos de entrada de muestra para las entradas de trabajos por lotes y en tiempo real. También tiene la posibilidad de proporcionar cualquier limitación de entrada. 

1.  (Opcional) En **Parámetros de entrada**, proporcione información detallada sobre cada parámetro de entrada compatible con su producto. Puede proporcionar el nombre del parámetro, una descripción y las restricciones, además de especificar si el parámetro es obligatorio u opcional. Puede proporcionar hasta 24 parámetros de entrada. 

1.  (Opcional) En **Atributos personalizados**, proporcione todos los parámetros de invocación personalizados compatibles con su producto. Para cada atributo, puede proporcionar un nombre, una descripción y restricciones, además de especificar si el atributo es obligatorio u opcional. 

1.  En **Detalles de salida del modelo**, introduzca un resumen de las salidas del modelo y proporcione datos de salida de muestra para las salidas de los trabajos por lotes y en tiempo real. También tiene la posibilidad de proporcionar cualquier limitación de salida. 

1.  (Opcional) En **Parámetros de salida**, proporcione información detallada sobre cada parámetro de salida compatible con su producto. Puede proporcionar el nombre del parámetro, una descripción y las restricciones, además de especificar si el parámetro es obligatorio u opcional. Puede proporcionar hasta 24 parámetros de salida. 

1.  En **Instrucciones de uso**, proporcione instrucciones claras para utilizar el modelo de forma eficaz, como las prácticas recomendadas, cómo gestionar los casos de periferia más comunes o sugerencias de optimización del rendimiento. 

1.  En los **enlaces al repositorio de Git y a cuadernos**, proporcione enlaces a cuadernos de ejemplo y al repositorio de Git. Los cuadernos de muestra deberían incluir cómo invocar su modelo. Su repositorio de Git debe incluir cuadernos, archivos de datos y otras herramientas para desarrolladores. 

1.  En **Tipos de instancias recomendados**, seleccione los tipos de instancia recomendados para su producto. 

   Para los *paquetes de modelos*, seleccionará los tipos de instancias recomendados tanto para la transformación por lotes como para la inferencia en tiempo real.

   En el caso de los *paquetes de algoritmos*, seleccionará el tipo de instancia recomendado para los trabajos de entrenamiento.
**nota**  
 Los tipos de instancias disponibles para seleccionar se limitan a los compatibles con su modelo o paquete de algoritmos. Los tipos de instancias compatibles se determinaron cuando creó sus recursos en Amazon SageMaker AI. Esto garantiza que su producto solo esté asociado a las configuraciones de hardware que puedan ejecutar eficazmente su solución de machine learning. 

1. Seleccione **Siguiente** para continuar con el siguiente paso del asistente.

# Paso 4: configuración el modelo de precios
<a name="set-pricing-model"></a>

 Al configurar el modelo de precios de su producto, puede ofrecerlo de forma gratuita o implementar precios basados en el uso. No se puede cambiar el modelo de precios una vez que haya publicado el producto. 

1.  Elija un modelo de precios. Los productos de transformación por lotes y entrenamiento de algoritmos solo pueden ser gratuitos o se pueden cobrar por un uso por hora. 
   +  Si optó por ofrecer el producto de forma gratuita, seleccione **Siguiente** y continúe con el asistente. 
   +  Si ha elegido los precios de uso, continúe con estos pasos. 

1.  Si elige cobrar en función del uso, puede introducir los costos de uso. Puede elegir introducir un precio que se aplique a todos los tipos de instancias o introducir un precio por tipo de instancia para obtener precios más detallados. 

1.  Seleccione **Sí, ofrecer una prueba gratuita** si quiere ofrecer una prueba gratuita de su producto. 

1. Seleccione **Siguiente** para continuar con el siguiente paso del asistente.

# Paso 5: configuración de la política de reembolso
<a name="configure-refund-policy"></a>

 Si bien no está obligado a ofrecer reembolsos, debe presentar una política oficial de reembolsos con AWS Marketplace. 

1. Introduzca una política de reembolsos.

1.  Seleccione **Siguiente** para continuar con el siguiente paso del asistente. 

# Paso 6: configuración del EULA
<a name="configure-eula"></a>

 En este paso, elegirá el acuerdo legal que regirá la forma en que los clientes pueden usar su producto. Puede seleccionar las condiciones contractuales estándar de AWS o cargar su propio contrato de licencia de usuario final (EULA) personalizado. 

1.  Seleccione el contrato estándar o proporcione un acuerdo de licencia de usuario final personalizado. 

1.  Seleccione **Siguiente** para continuar con el siguiente paso del asistente. 

# Paso 7: configurar la lista de permitidos
<a name="configure-allowlist"></a>

 Antes de enviar su producto, tendrá que especificar qué Cuentas de AWS pueden acceder a él. Este paso opcional controla la visibilidad inicial de su producto y limita el acceso a su propia cuenta y a cualquier Cuentas de AWS específicamente autorizada que añada a la lista de permitidos. 

1.  Introduzca los ID de Cuenta de AWS a los que desea dar acceso al producto.

1.  Seleccione **Enviar** para enviar el producto. 

    Su producto tendrá el estado **Visibilidad limitada** y solo lo podrán ver las Cuenta de AWS que crearon el producto y otras Cuentas de AWS permitidas. 

    Para obtener más información sobre los estados, consulte [Productos de machine learning](ml-product-lifecycle.md#ml-product-status). 

 Puede ver y probar su listado de productos mientras esté en **Visibilidad limitada**. Cuando desee cambiar la visibilidad de su producto, consulte [Actualizar la visibilidad del producto](ml-update-visibility.md). 

# Administración de sus productos de machine learning
<a name="ml-product-management"></a>

En AWS Marketplace Management Portal, seleccione **Solicitar cambios** para modificar un producto o una versión en AWS Marketplace. Cuando envía los cambios, el sistema los procesa. El tiempo de procesamiento varía de minutos a días en función del tipo de modificación. Puede supervisar el estado de sus cambios en AWS Marketplace Management Portal. 

**Topics**
+ [Actualización de la información del producto](ml-update-product.md)
+ [Actualizar la visibilidad del producto](ml-update-visibility.md)
+ [Actualización de la lista de permitidos](ml-update-allowlist.md)
+ [Administración de versiones de productos](ml-manage-product-version.md)
+ [Actualización de precios de productos](ml-update-public-offer.md)
+ [Actualización de su política de devoluciones](ml-update-refund-policy.md)
+ [Actualización del EULA](ml-update-eula.md)
+ [Eliminación de un producto](ml-remove-a-product.md)

**nota**  
 Además de hacer cambios a través de AWS Marketplace Management Portal, también puede hacerlos mediante [AWS Marketplace Catalog API](https://docs.aws.amazon.com/marketplace/latest/APIReference/welcome.html). 

# Actualización de la información del producto
<a name="ml-update-product"></a>

 Tras crear su producto de machine learning (ML), puede modificar cierta información del producto en AWS Marketplace, como las descripciones, los aspectos destacados, el título, el SKU, las categorías y las palabras clave. 

1.  Inicie sesión en su cuenta de vendedor en [AWS Marketplace Management Portal](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vaya a la página **Productos de machine learning** y seleccione su producto. 

1.  Seleccione **Solicitar cambios** y, después, **Actualizar la información del producto**. 

1.  Actualice los campos según sea necesario. 
**nota**  
 Para ver las especificaciones del logotipo, consulte [Requisitos y logotipo de la empresa y el producto](product-submission.md#seller-and-product-logos). 

1.  Seleccione **Enviar**. 

 Puede controlar su solicitud desde la pestaña **Solicitudes** de la página de productos de **machine learning**. Para obtener más información sobre los estados, consulte [Productos de machine learning](ml-product-lifecycle.md#ml-product-status). 

# Actualizar la visibilidad del producto
<a name="ml-update-visibility"></a>

1.  Inicie sesión en su cuenta de vendedor en [AWS Marketplace Management Portal](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vaya a la página **Producto de machine learning** y seleccione su producto. 

1.  Seleccione **Solicitar cambios**, **Actualizar la visibilidad del producto** y, a continuación, **Público** o **Restringido**. 

1.  Revise los cambios y seleccione **Enviar**. 

 Puede controlar su solicitud desde la pestaña **Solicitudes** de la página de productos de **machine learning**. Para obtener más información sobre los estados, consulte [Productos de machine learning](ml-product-lifecycle.md#ml-product-status). 

# Actualización de la lista de permitidos
<a name="ml-update-allowlist"></a>

1.  Inicie sesión en su cuenta de vendedor en [AWS Marketplace Management Portal](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vaya a la página **Producto de machine learning** y seleccione su producto. 

1.  Seleccione **Solicitar cambios** y, después, **Actualizar lista de permitidos**. 

1.  Modifique la información que necesita cambiar y seleccione **Enviar**. Para obtener más información, consulte [Paso 7: configurar la lista de permitidos](configure-allowlist.md). 

 Puede controlar su solicitud desde la pestaña **Solicitudes** de la página de productos de **machine learning**. Para obtener más información sobre los estados, consulte [Productos de machine learning](ml-product-lifecycle.md#ml-product-status). 

# Administración de versiones de productos
<a name="ml-manage-product-version"></a>

 Como vendedor, puede administrar las versiones de sus productos en AWS Marketplace si actualiza la información de las versiones existentes, añade nuevas versiones o eliminan las versiones que ya no son compatibles. Cada versión tiene un ARN de SageMaker IA único e información asociada que los compradores utilizan para evaluar e implementar su producto. 

**nota**  
 Antes de añadir versiones, cree un ID de producto y establezca los precios. Para obtener más información, consulte [Paso 1: crear un nuevo listado](create-new-listing.md). 

## Actualización de la información de la versión
<a name="ml-updating-versions"></a>

 Tras crear una versión, puede modificar la información asociada, como las notas de la versión, las instrucciones de uso y las recomendaciones de instancias. 

**nota**  
 Los nombres de las versiones y ARN no se pueden modificar. Estos cambios requieren la creación de una nueva versión. 

1.  Inicie sesión en su cuenta de vendedor en [AWS Marketplace Management Portal](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vaya a la página **Producto de machine learning** y seleccione su producto. 

1.  Seleccione **Solicitar cambios** y, después, **Actualizar la información de la versión**. 

1.  Seleccione la versión que desea actualizar. 

1.  Elija **Editar versión**. 

1.  Modifique los campos necesarios y pulse **Siguiente**. 

1.  Introduzca la información de precios y seleccione **Enviar**. Para obtener más información, consulte [Paso 4: configuración el modelo de precios](set-pricing-model.md). 

 Puede controlar su solicitud desde la pestaña **Solicitudes** de la página de productos de **machine learning**. Para obtener más información sobre los estados, consulte [Productos de machine learning](ml-product-lifecycle.md#ml-product-status). 

## Agregar nuevas versiones
<a name="ml-adding-new-versions"></a>

 Puede añadir nuevas versiones de su producto para introducir características, actualizaciones o mejoras y, al mismo tiempo, mantener el acceso a las versiones anteriores. 

1.  Inicie sesión en su cuenta de vendedor en [AWS Marketplace Management Portal](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vaya a la página **Producto de machine learning** y seleccione su producto. 

1.  Seleccione **Versiones** y, después, **Agregar nueva versión**. 

1.  Introduzca la información de la nueva versión siguiendo los pasos que se indican en [Paso 3: agregar una versión inicial del producto](add-initial-version.md). 

1.  Introduzca la información de precios y seleccione **Enviar**. Para obtener más información, consulte [Paso 4: configuración el modelo de precios](set-pricing-model.md). 

Cuando haya añadido correctamente una nueva versión, los compradores recibirán una notificación por correo electrónico informándoles de que hay una nueva versión disponible.

## Restricciones de versiones
<a name="ml-restricting-versions"></a>

 Cuando una versión quede anticuada o quiera que deje de estar disponible, puede restringir el acceso de los compradores a esa versión y, al mismo tiempo, mantener el acceso a las demás versiones. 

1.  Inicie sesión en su cuenta de vendedor en [AWS Marketplace Management Portal](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vaya a la página **Producto de machine learning** y seleccione su producto. 

1.  Seleccione **Versiones** y, después, **Restringir versiones**. 
**nota**  
 Siempre debe tener al menos una versión disponible. 

1.  Elija **Enviar**. 

 Cuando haya restringido correctamente una versión, los compradores recibirán una notificación por correo electrónico en la que se indica que la versión se ha restringido. 

# Actualización de precios de productos
<a name="ml-update-public-offer"></a>

 Puede modificar las tarifas y el periodo de prueba gratuito de su producto de machine learning en AWS Marketplace, aunque el modelo de precios en sí no se puede cambiar. Tenga en cuenta que, en el caso de los modelos de pago, los aumentos de precio entran en vigor tras un periodo de preaviso de 90 días, el primer día del mes siguiente. No se pueden hacer cambios de precio adicionales durante este periodo de notificación. 

1.  Inicie sesión en su cuenta de vendedor en [AWS Marketplace Management Portal](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vaya a la página **Producto de machine learning** y seleccione su producto. 

1.  Seleccione **Solicitar cambios**, **Actualizar oferta pública** y, a continuación, **Editar información de la oferta**. 

1.  Modifique la información que necesita cambiar y seleccione **Enviar**. 

 Puede controlar su solicitud desde la pestaña **Solicitudes** de la página de productos de **machine learning**. Para obtener más información sobre los estados, consulte [Productos de machine learning](ml-product-lifecycle.md#ml-product-status). 

# Actualización de su política de devoluciones
<a name="ml-update-refund-policy"></a>

1.  Inicie sesión en su cuenta de vendedor en [AWS Marketplace Management Portal](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vaya a la página **Producto de machine learning** y seleccione su producto. 

1.  Seleccione **Solicitar cambios**, **Actualizar oferta pública** y, a continuación, **Actualizar política de devoluciones**. 

1.  Modifique la información que necesita cambiar y seleccione **Enviar**. 

 Puede controlar su solicitud desde la pestaña **Solicitudes** de la página de productos de **machine learning**. Para obtener más información sobre los estados, consulte [Productos de machine learning](ml-product-lifecycle.md#ml-product-status). 

# Actualización del EULA
<a name="ml-update-eula"></a>

1.  Inicie sesión en su cuenta de vendedor en [AWS Marketplace Management Portal](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vaya a la página **Producto de machine learning** y seleccione su producto. 

1.  Seleccione **Solicitar cambios**, **Actualizar oferta pública** y, a continuación, **Actualizar EULA**. 

1.  Modifique la información que necesita cambiar y seleccione **Enviar**. 

 Puede controlar su solicitud desde la pestaña **Solicitudes** de la página de productos de **machine learning**. Para obtener más información sobre los estados, consulte [Productos de machine learning](ml-product-lifecycle.md#ml-product-status). 

# Eliminación de un producto
<a name="ml-remove-a-product"></a>

 Puede eliminar (anular) el producto publicado en AWS Marketplace. Una vez eliminado, los nuevos clientes no podrán suscribirse, pero debe ofrecer soporte a los clientes existentes durante al menos 90 días. 

 Las siguientes son las condiciones para retirar un producto de AWS Marketplace: 
+  El producto se eliminará de las herramientas de búsqueda y descubrimiento de AWS Marketplace. 
+  Se deshabilitará la función de suscripción. 
+  Se sigue pudiendo acceder a la página de detalles del producto a través de una URL directa. 
+  Los suscriptores actuales siguen teniendo acceso hasta que se cancele su suscripción. 
+  AWS Marketplace notifica a los compradores actuales acerca de la retirada. 

**Cómo eliminar su producto de machine learning:**

1.  Inicie sesión en su cuenta de vendedor en [AWS Marketplace Management Portal](https://aws.amazon.com/marketplace/management/tour/). 

1.  Vaya a la página **Producto de machine learning** y seleccione su producto. 

1.  Seleccione **Solicitar cambios**, **Actualizar la visibilidad del producto** y, a continuación, **Restringido**. 

1.  (Opcional) Introduzca un ID de producto de sustitución. 

1.  Revise los cambios y seleccione **Enviar**. 

 Puede controlar su solicitud desde la pestaña **Solicitudes** de la página de productos de **machine learning**. Para obtener más información sobre los estados, consulte [Productos de machine learning](ml-product-lifecycle.md#ml-product-status). 

 Una vez que el producto se haya eliminado, aparece en la lista **Productos actuales**, donde solo puede descargar hojas de cálculo de productos. Si tiene alguna pregunta acerca de la eliminación de productos, póngase en contacto con el equipo de [Operaciones de vendedores de AWS Marketplace](https://aws.amazon.com/marketplace/management/contact-us/). 

# Creación de ofertas privadas para productos de machine learning
<a name="machine-learning-private-offers"></a>

 Puede negociar y ofrecer una oferta privada directamente a los clientes para sus productos de machine learning. Para obtener más información sobre ofertas privadas, consulte [Preparar una oferta privada para tu AWS Marketplace producto](private-offers-overview.md). 

**Requisitos previos:**
+  Debes tener un anuncio de pago en AWS Marketplace. 
+  Debes tener acceso al Portal de AWS Marketplace Administración (AMMP). 

**Para crear una oferta privada para producto de machine learning:**

1.  Inicie sesión en el portal AWS Marketplace de administración. 

1. Seleccione **Ofertas** y, a continuación, **Crear oferta privada**.

1.  En la página **Crear la oferta privada**, seleccione el producto para el que quiera crear una oferta privada. Solo puede crear ofertas para los productos disponibles. 

1.  En la página **Detalles de la oferta**: 

   1.  Introduzca el nombre y la descripción de la oferta. 

   1.  Seleccione la opción de renovación. 

   1.  Establezca la fecha de vencimiento de la oferta. Las ofertas vencen a las 23:59:59 UTC de la fecha establecida. 

1. Seleccione **Next (Siguiente)** dos veces.

1.  En la página **Configuración del precio y la duración de la oferta**, especifique: 
   +  Opciones de precios

     (Para obtener más información, consulte [Ofertas privadas de productos de aprendizaje automático](https://docs.aws.amazon.com/marketplace/latest/userguide/private-offers-supported-product-types.html#ml-private-offers))
   + Uso o duración del contrato
   + Divisa de la oferta
   + Dimensiones de los precios.

     (En cuanto a los precios de uso, las tarifas basadas en el uso solo se aplican durante el plazo de la oferta. En el caso de los contratos, las tarifas basadas en el uso solo se aplican cuando vence el plazo del contrato y son perpetuas).
**nota**  
Para obtener más información sobre planes de cuotas, consulte [Planes de cuotas de ofertas privadas](installment-plans.md). 

1. Elija **Siguiente**.

1. En la página **Añadir compradores**, introduce la Cuenta de AWS IDs para tus compradores. A continuación, elija **Siguiente**. 
**importante**  
Para que las cuentas vinculadas se beneficien de una oferta privada:  
Incluye el identificador de la AWS cuenta del pagador.
La cuenta del pagador debe aceptar primero las condiciones horarias de la oferta privada.
Una vez que la cuenta del pagador las acepte, las cuentas vinculadas podrán aceptar la oferta privada.

1. En la página **Configuración de las condiciones legales y los documentos de la oferta**, añada las condiciones personalizadas y, a continuación, seleccione **Siguiente**.
**nota**  
 Puede añadir hasta cinco archivos (condiciones legales, descripción del trabajo, lista de materiales, hoja de precios o apéndices). El sistema los combina en un solo documento. 

1. En la página **Revisar y crear**, compruebe los detalles de la oferta y elija **Crear oferta**.

1. Cuando la oferta aparezca en la página **Administrar ofertas privadas**, abra el menú **Acciones**, seleccione **Copiar URL de la oferta** y envíela por correo electrónico al comprador.
**nota**  
 Es posible que las ofertas tarden un tiempo en publicarse. Puede editar las ofertas en la página **Administrar ofertas privadas** hasta que el comprador las acepte. 

# Requisitos y prácticas recomendadas para crear productos de machine learning
<a name="ml-listing-requirements-and-best-practices"></a>

Es importante que a sus compradores les resulte fácil probar sus productos de paquete de modelos y algoritmos. En las siguientes secciones se describen las prácticas recomendadas de productos de ML. Para ver un resumen completo de los requisitos y recomendaciones, consulte [Resumen de los requisitos y recomendaciones para los listados de productos de ML](#ml-summary-table-of-requirements-and-recommendations).

**nota**  
Un AWS Marketplace representante podría ponerse en contacto contigo para ayudarte a cumplir estos requisitos si los productos publicados no los cumplen.

**Topics**
+ [Prácticas recomendadas generales para productos de ML](#ml-general-best-practices)
+ [Requisitos de información de uso](#ml-requirements-for-usage-information)
+ [Requisitos de entradas y salidas](#ml-requirements-for-inputs-and-outputs)
+ [Requisitos para el cuaderno de Jupyter](#ml-requirements-for-jupyter-notebook)
+ [Resumen de los requisitos y recomendaciones para los listados de productos de ML](#ml-summary-table-of-requirements-and-recommendations)

## Prácticas recomendadas generales para productos de ML
<a name="ml-general-best-practices"></a>

 Proporcione la siguiente información para su producto de machine learning: 
+  Para las descripciones de los productos, incluya lo siguiente: 
  +  Qué hace su modelo 
  +  Quién es el cliente de destino 
  +  Cuál es el caso de uso más importante 
  +  Cómo se entrenó su modelo o la cantidad de datos que se usaron 
  +  Cuáles son las métricas de rendimiento y los datos de validación utilizados 
  +  Si es médico, si su modelo es o no para uso diagnóstico 
+ De forma predeterminada, los productos de machine learning están configurados para tener visibilidad pública. Sin embargo, puede crear un producto con visibilidad limitada. Para obtener más información, consulte [Paso 7: configurar la lista de permitidos](configure-allowlist.md).
+  (Opcional) En el caso de los productos de pago, ofrezca una prueba gratuita de 14 a 30 días para que los clientes prueben su producto. Para obtener más información, consulte [Precios de productos de aprendizaje automático para AWS Marketplace](machine-learning-pricing.md). 

## Requisitos de información de uso
<a name="ml-requirements-for-usage-information"></a>

Una información de uso clara que describa las entradas y salidas esperadas del producto (con ejemplos) es fundamental para que el comprador disfrute de una experiencia positiva. 

Con cada nueva versión de su recurso que añada a su listado de productos, debe proporcionar información de uso. 

Para editar la información de uso existente de una versión específica, consulte [Actualización de la información de la versión](ml-manage-product-version.md#ml-updating-versions).

## Requisitos de entradas y salidas
<a name="ml-requirements-for-inputs-and-outputs"></a>

Es importante una explicación clara de los parámetros de entrada admitidos y los parámetros de salida devueltos con ejemplos para ayudar a los compradores a entender y utilizar su producto. Esta comprensión ayuda a los compradores a realizar las transformaciones necesarias en los datos de entrada para obtener los mejores resultados de inferencia. 

Se te solicitará lo siguiente cuando agregues tu recurso de Amazon SageMaker AI a tu listado de productos.

### Entradas y salidas de inferencia
<a name="ml-inference-inputs-and-outputs"></a>

Para la entrada de inferencias, proporcione una descripción de los datos de entrada que espera su producto tanto para el punto de conexión en tiempo real como para el trabajo de transformación por lotes. Incluya fragmentos de código para cualquier procesamiento previo de los datos que sea necesario. Incluya limitaciones si procede. Proporcione muestras de entrada alojadas en [GitHub](https://github.com).

Para la salida de inferencias, proporcione una descripción de los datos de salida que devuelve su producto tanto para el punto de conexión en tiempo real como para el trabajo de transformación por lotes. Incluya limitaciones si procede. Proporcione muestras de salida alojadas en [GitHub](https://github.com). 

En el caso de los ejemplos, proporcione archivos de entrada que funcionen con su producto. Si su modelo realiza una clasificación multiclase, debe proporcionar al menos un archivo de entrada de muestra para cada una de las clases. 

### Entradas de formación
<a name="ml-training-inputs"></a>

En la sección **Información para entrenar un modelo**, proporcione el formato de los datos de entrada y los fragmentos de código para cualquier procesamiento previo de los datos que sea necesario. Incluya una descripción de los valores y las limitaciones si procede. Proporcione muestras de entrada alojadas en [GitHub](https://github.com). 

Explique las funciones opcionales y obligatorias que puede proporcionar el comprador y especifique si se admite el modo de entrada `PIPE`. Si [se admite la formación distribuida](https://docs.aws.amazon.com/sagemaker/latest/dg/your-algorithms-training-algo-running-container.html#your-algorithms-training-algo-running-container-dist-training) (formación con más de una CPU/GPU instancia), especifíquela. Para ajustar, indique los hiperparámetros recomendados. 

## Requisitos para el cuaderno de Jupyter
<a name="ml-requirements-for-jupyter-notebook"></a>

Cuando añadas tu recurso de SageMaker IA a tu catálogo de productos, proporciona un enlace a un ejemplo de bloc de notas de Jupyter en el [GitHub](https://github.com)que se muestre el flujo de trabajo completo sin pedir al comprador que suba ni busque ningún dato. 

Utilice la AWS SDK para Python (Boto). Un cuaderno de muestra bien desarrollado facilita que los compradores prueben y usen su listado. 

En el caso de los productos de paquetes de modelos, su cuaderno de muestra indica cómo se preparan los datos de entrada, se crea un punto de conexión para realizar inferencias en tiempo real y se realizan los trabajos de transformación por lotes. Para obtener más información, consulte la [lista de Model Package y el cuaderno de muestra](https://github.com/aws/amazon-sagemaker-examples/tree/main/aws_marketplace/curating_aws_marketplace_listing_and_sample_notebook/ModelPackage) en GitHub. Para ver un ejemplo de cuaderno, consulte [auto\$1insurance](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/aws_marketplace/using_model_packages/auto_insurance). El cuaderno funciona en su totalidad Regiones de AWS, sin introducir ningún parámetro y sin que el comprador necesite localizar los datos de la muestra.

**nota**  
Un ejemplo de cuaderno de Jupyter poco desarrollado y que no muestre las múltiples entradas posibles y los pasos de preprocesamiento de los datos podría dificultar que el comprador comprenda completamente la propuesta de valor del producto. 

Para los productos algorítmicos, el cuaderno de muestra indica el entrenamiento completo, el ajuste, la creación de modelos, la creación de un punto de conexión para la inferencia en tiempo real y el rendimiento de los trabajos de transformación por lotes. Para obtener más información, consulte la [lista de algoritmos y el cuaderno de muestra](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/aws_marketplace/curating_aws_marketplace_listing_and_sample_notebook/Algorithm) en GitHub. [Para ver ejemplos de libretas, consulta [amazon\$1demo\$1product](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/aws_marketplace/using_algorithms/amazon_demo_product) y automl on.](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/aws_marketplace/using_algorithms/automl) GitHub Estos cuadernos de muestra funcionan en todas las regiones sin introducir ningún parámetro y sin que el comprador necesite localizar los datos de muestra. 

**nota**  
La falta de datos de entrenamiento de muestra puede impedir que su comprador ejecute con éxito el cuaderno de Jupyter. Un cuaderno de muestra poco desarrollado podría impedir que los compradores usen su producto y dificultar su adopción. 

## Resumen de los requisitos y recomendaciones para los listados de productos de ML
<a name="ml-summary-table-of-requirements-and-recommendations"></a>

En la siguiente tabla se proporciona un resumen de los requisitos y recomendaciones para una página de listado de productos de machine learning.


|  **Detalles**  |  **Para listados de paquetes de modelos**  |  **Para listados de algoritmos**  | 
| --- |--- |--- |
| **Product descriptions** | 
| --- |
| Explica detalladamente qué hace el producto con los tipos de contenido compatibles (por ejemplo, «detecta X en las imágenes»).  |  Obligatorio  |  Obligatorio  | 
| Proporciona información convincente y diferenciadora sobre el producto (evita adjetivos como «el mejor» o afirmaciones sin fundamento).  |  Recomendado  |  Recomendado  | 
| Enumere los casos de uso más importantes de este producto.  |  Obligatorio  |  Obligatorio  | 
| Describa los datos (fuente y tamaño) con los que se entrenó y enumere las limitaciones conocidas.  |  Obligatorio  |  No aplicable | 
| Describa el marco básico sobre el que se creó el modelo.  |  Recomendado  |  Recomendado  | 
| Resuma la métrica de rendimiento del modelo a partir de los datos de validación (por ejemplo, «un XX y un porcentaje de precisión comparado con el conjunto de datos Z»).  |  Obligatorio  |  No aplicable | 
| Resuma las métricas de rendimiento de la and/or latencia del modelo según el tipo de instancia recomendado.  |  Obligatorio  |  No aplicable | 
| Describa la categoría del algoritmo. Por ejemplo, «Este algoritmo de regresión de bosques de decisiones se basa en un conjunto de clasificadores con estructura de árbol que se crean mediante la técnica general de agregación inicial y una selección aleatoria de características».  |  No aplicable |  Obligatorio  | 
| **Usage information** | 
| --- |
| A modo de inferencia, proporcione una descripción del formato de entrada esperado tanto para el trabajo de transformación por lotes como para el punto final en tiempo real. Incluya limitaciones si procede. Consulte [Requisitos de entradas y salidas](#ml-requirements-for-inputs-and-outputs).  |  Obligatorio  |  Obligatorio  | 
| A modo de inferencia, proporcione muestras de entrada tanto para el punto final en tiempo real como para el trabajo de transformación por lotes. Las muestras deben estar alojadas en. GitHub Consulte [Requisitos de entradas y salidas](#ml-requirements-for-inputs-and-outputs).  |  Obligatorio  |  Obligatorio  | 
| Para hacer inferencias, proporcione el nombre y la descripción de cada parámetro de entrada. Proporcione detalles sobre sus limitaciones y especifique si es obligatorio u opcional. | Recomendado | Recomendado | 
| A modo de inferencia, proporciona detalles sobre los datos de salida que devuelve tu producto, tanto para el punto final en tiempo real como para el trabajo de transformación por lotes. Incluya cualquier limitación, si procede. Consulte [Requisitos de entradas y salidas](#ml-requirements-for-inputs-and-outputs).  |  Obligatorio  |  Obligatorio  | 
| A modo de inferencia, proporcione muestras de salida tanto para el trabajo de transformación por lotes como para el punto final en tiempo real. Las muestras deben estar alojadas en. GitHub Consulte [Requisitos de entradas y salidas](#ml-requirements-for-inputs-and-outputs).  |  Obligatorio  |  Obligatorio  | 
| A modo de inferencia, proporcione un ejemplo del uso de un trabajo de transformación por lotes o de punto final. Incluye un ejemplo de código con los comandos AWS Command Line Interface (AWS CLI) o con un AWS SDK.  |  Obligatorio  |  Obligatorio  | 
| A modo de inferencia, proporciona el nombre y la descripción de cada parámetro de salida. Especifique si siempre se devuelve.  | Recomendado | Recomendado | 
| Para el entrenamiento, proporcione detalles sobre la información necesaria para entrenar el modelo, como las filas mínimas de datos requeridas. Consulte[Requisitos de entradas y salidas](#ml-requirements-for-inputs-and-outputs).  |  No aplicable |  Obligatorio  | 
| Para obtener formación, proporcione muestras de entrada alojadas en GitHub. Consulte [Requisitos de entradas y salidas](#ml-requirements-for-inputs-and-outputs).  |  No aplicable |  Obligatorio  | 
| Para la formación, proporcione un ejemplo de cómo realizar trabajos de formación. Describa los hiperparámetros admitidos, sus rangos y su impacto general. Especifique si el algoritmo admite el ajuste de hiperparámetros, el entrenamiento distribuido o las instancias de GPU. Incluya ejemplos de código, como AWS CLI comandos o el uso de un AWS SDK, por ejemplo.  |  No aplicable |  Obligatorio  | 
| Proporcione un cuaderno de Jupyter GitHub que muestre el uso completo de su producto. Consulte [Requisitos para el cuaderno de Jupyter](#ml-requirements-for-jupyter-notebook).  |  Obligatorio  |  Obligatorio  | 
| Proporcione información técnica relacionada con el uso del producto, incluidos los manuales de usuario y los datos de muestra.  |  Recomendado  |  Recomendado  | 

# Solución de problemas con los productos de machine learning
<a name="ml-troubleshooting"></a>

 En esta sección se proporciona ayuda para solucionar algunos errores comunes que se pueden producir durante el proceso de publicación de su producto de machine learning. Si su problema no aparece en la lista, póngase en contacto con el [equipo de operaciones de vendedores de AWS Marketplace](https://aws.amazon.com/marketplace/management/contact-us/). 

## General: Aparece un error 400 cuando añado el nombre de recurso de Amazon (ARN) de mi paquete de modelos o algoritmo en el AWS Marketplace Management Portal
<a name="troubleshooting_error_code_400"></a>

### Causa habitual
<a name="troubleshooting_common_cause"></a>

 Al crear tu producto de aprendizaje automático en SageMaker IA, no elegiste publicarlo en AWS Marketplaceél. 

### Resolución
<a name="troubleshooting_resolution"></a>

 Si ha utilizado la consola Amazon SageMaker AI para crear su recurso, debe elegir **Sí** en la última página del proceso para **Publicar este paquete de modelos en AWS Marketplace** o **Sí** para **Publicar este algoritmo en AWS Marketplace**. No puede elegir **No** y publicarlo más adelante. Si se selecciona **Sí** no se publica el paquete de modelos ni el algoritmo. Sin embargo, se valida el paquete de modelos o el recurso de algoritmo cuando se crea, lo cual es necesario para su uso en AWS Marketplace.

 Si utiliza el AWS SDK para [crear un paquete de modelos](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModelPackage.html#sagemaker-CreateModelPackage-request-CertifyForMarketplace) o [crear un algoritmo](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAlgorithm.html#sagemaker-CreateAlgorithm-request-CertifyForMarketplace), asegúrese de que el parámetro `CertifyForMarketplace` esté establecido en`true`. 

Después de volver a crear el paquete de modelos o el recurso de algoritmo certificados y validados, añada el nuevo ARN en AWS Marketplace Management Portal. 

## General: Recibo un error 404 cuando agrego el ARN de mi paquete o algoritmo de modelo en el AWS Marketplace Management Portal
<a name="troubleshooting_error_code_404"></a>

### Causa habitual
<a name="troubleshooting_common_cause"></a>

 Este error puede ocurrir por varias razones. 
+  Es posible que el ARN no sea válido. 
+  El paquete modelo o el recurso de algoritmo no se creó en la Cuenta de AWS misma forma que la cuenta de vendedor. 
+  El usuario o el rol que utiliza para publicar no tiene los permisos de IAM correctos para acceder al paquete modelo o al recurso del algoritmo. 

### Resolución
<a name="troubleshooting_resolution"></a>

1.  Compruebe el ARN para asegurarse de que es el ARN correcto y tiene el formato esperado: 

    En el caso de los paquetes modelo, ARNs debería tener un aspecto similar a`arn:aws:sagemaker:us-east-2:000123456789:model-package/my-model-package-name`. 

    En el caso de los algoritmos, ARNs debería tener un aspecto similar a`arn:aws:sagemaker:us-east-2:000123456789:algorithm/my-algorithm`. 

1.  Asegúrese de que todos los recursos y activos para publicar estén en la cuenta de vendedor desde la que publica. 

1.  Asegúrese de que su usuario o su rol tenga los permisos siguientes: 

    En el caso de los paquetes de modelos, se debe permitir la acción de `sagemaker:DescribeModelPackage` en el recurso del paquete de modelos. 

    En el caso de los algoritmos, se debe permitir la acción de `sagemaker:DescribeAlgorithm` en el recurso del algoritmo. 

## Amazon SageMaker AI: aparece el mensaje de error «Error de cliente: acceso denegado para el registro» al crear un paquete de modelos o un recurso de algoritmo
<a name="troubleshooting_error_sm_access_denied"></a>

### Causa habitual
<a name="troubleshooting_common_cause"></a>

Este error puede producirse cuando la imagen que se utiliza para crear el paquete de modelos o el algoritmo se almacena en un repositorio de [Amazon ECR](https://aws.amazon.com/ecr/) que pertenece a otro Cuenta de AWS. La validación del paquete o del algoritmo del modelo no admite imágenes entre cuentas.

### Resolución
<a name="troubleshooting_resolution"></a>

Copie la imagen en un repositorio de Amazon ECR propiedad del Cuenta de AWS que está utilizando para publicar. A continuación, continúe con la creación del recurso utilizando la nueva ubicación de la imagen.

## Amazon SageMaker AI: aparecen «No se ha iniciado» y «Error del cliente: no se ha programado ningún escaneo...» mensajes de error al crear un modelo, paquete o recurso de algoritmo
<a name="troubleshooting_error_sm_failure"></a>

### Causa habitual
<a name="troubleshooting_common_cause"></a>

Este error puede producirse cuando la SageMaker IA no puede iniciar un escaneo de la imagen del contenedor de Docker almacenada en Amazon ECR.

### Resolución
<a name="troubleshooting_resolution"></a>

Si esto ocurre, abra la [consola de Amazon ECR](https://console.aws.amazon.com/ecr/repositories?region=us-east-2), busque el repositorio en el que se cargó la imagen, selecciónela y, a continuación, elija **Escanear**.