

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Restricciones y cuotas de servicio para productos de aprendizaje automático en AWS Marketplace
<a name="ml-service-restrictions-and-limits"></a>

En esta sección, se describen las restricciones y las cuotas de los productos de machine learning (ML) en AWS Marketplace.

**Topics**
+ [Aislamiento de red](#ml-network-isolation)
+ [Tamaño de imagen](#ml-image-size)
+ [Tamaño del almacenamiento](#ml-storage-size)
+ [Tamaño de instancia](#ml-instance-size)
+ [Tamaño de la carga útil para realizar inferencias](#ml-payload-size-for-inference)
+ [Tiempo de procesamiento para la inferencia](#ml-processing-time-for-inference)
+ [Cuotas de servicio](#ml-service-quotas)
+ [Inferencia sin servidor](#severless-inference)
+ [Entrenamiento de spot administrado](#ml-managed-spot-training)
+ [Imágenes de Docker y Cuentas de AWS](#ml-docker-images-and-aws-accounts)
+ [Publicar paquetes de modelos a partir de algoritmos integrados o AWS Marketplace](#ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace)
+ [Compatible con Regiones de AWS la publicación](#ml-supported-aws-regions-for-publishing)

## Aislamiento de red
<a name="ml-network-isolation"></a>

Por motivos de seguridad, cuando un comprador se suscribe a su producto en contenedores, los contenedores de Docker se ejecutan en un entorno aislado sin conexión a Internet. Cuando cree sus contenedores, no confíe en que podrá realizar llamadas salientes a través de Internet, ya que fallarán. Las llamadas a también Servicios de AWS fallarán. 

## Tamaño de imagen
<a name="ml-image-size"></a>

El tamaño de las imágenes de Docker se rige por las [Service Quotas](https://docs.aws.amazon.com/AmazonECR/latest/userguide/service_limits.html) de Amazon Elastic Container Registry (Amazon ECR). El tamaño de la imagen de Docker afecta al tiempo de arranque durante los trabajos de entrenamiento, transformación por lotes y creación de puntos de conexión. Para lograr un mejor rendimiento, le recomendamos mantener un tamaño óptimo de imagen de Docker. 

## Tamaño del almacenamiento
<a name="ml-storage-size"></a>

Al crear un punto de conexión, Amazon SageMaker AI adjunta un volumen de almacenamiento de Amazon Elastic Block Store (Amazon EBS) a cada instancia de procesamiento de aprendizaje automático que aloja el punto de conexión. (Un punto final también se conoce como *inferencia en tiempo real* o *servicio de alojamiento de Amazon SageMaker AI*). El tamaño del volumen de almacenamiento depende del tipo de instancia. Para obtener más información, consulte [Volúmenes de almacenamiento de instancias hospedadas](https://docs.aws.amazon.com/sagemaker/latest/dg/host-instance-storage.html) en la *Guía para desarrolladores de Amazon SageMaker AI*. 

Para obtener información sobre la transformación por lotes, consulte [Storage in Batch Transform](https://docs.aws.amazon.com/sagemaker/latest/dg/batch-transform-storage.html) en la *Guía para desarrolladores de Amazon SageMaker AI*. 

## Tamaño de instancia
<a name="ml-instance-size"></a>

SageMaker La IA ofrece una selección de tipos de instancias optimizados para adaptarse a diferentes casos de uso del aprendizaje automático. Los tipos de instancias tienen distintos tipos de combinaciones de CPU, GPU, memoria y capacidad de red. Los tipos de instancias brindan la flexibilidad para elegir la combinación adecuada de recursos para crear, entrenar e implementar modelos de ML. Para obtener más información, consulte [Tipos de instancias de Amazon SageMaker AI ML](https://aws.amazon.com/sagemaker/pricing/instance-types/). 

## Tamaño de la carga útil para realizar inferencias
<a name="ml-payload-size-for-inference"></a>

 Para un punto final, limite el tamaño máximo de los datos de entrada por invocación a 25 MB. Este valor no se puede ajustar.

Para la transformación por lotes, el tamaño máximo de los datos de entrada por cada invocación es de 100 MB. Este valor no se puede ajustar.

## Tiempo de procesamiento para la inferencia
<a name="ml-processing-time-for-inference"></a>

Para un punto de conexión, el tiempo máximo de procesamiento por cada invocación es de 60 segundos para las respuestas normales y de 8 minutos para las respuestas de streaming. Este valor no se puede ajustar.

Para la transformación por lotes, el tiempo máximo de procesamiento por cada invocación es de 60 minutos. Este valor no se puede ajustar.

## Cuotas de servicio
<a name="ml-service-quotas"></a>

Para obtener más información sobre las cuotas relacionadas con la formación y la inferencia, consulte [Amazon SageMaker AI Service Quotas](https://docs.aws.amazon.com/general/latest/gr/sagemaker.html#limits_sagemaker). 

## Inferencia sin servidor
<a name="severless-inference"></a>

Los paquetes de modelos y los algoritmos publicados en no se AWS Marketplace pueden implementar en puntos de conexión configurados para [Amazon SageMaker AI Serverless Inference](https://docs.aws.amazon.com/sagemaker/latest/dg/serverless-endpoints.html). Para los puntos de conexión configurados para la inferencia sin servidor, los modelos deben tener conectividad de red. Todos los AWS Marketplace modelos funcionan de forma aislada en la red. Para obtener más información, consulte [Sin acceso a la red](https://docs.aws.amazon.com/marketplace/latest/userguide/ml-security-and-intellectual-property.html#ml-no-network-access).

## Entrenamiento de spot administrado
<a name="ml-managed-spot-training"></a>

Para todos los algoritmos de AWS Marketplace, el valor de `MaxWaitTimeInSeconds` se establece en 3.600 segundos (60 minutos), incluso si se implementa el punto de control para la [formación puntual gestionada](https://docs.aws.amazon.com/sagemaker/latest/dg/model-managed-spot-training.html). Este valor no se puede ajustar. 

## Imágenes de Docker y Cuentas de AWS
<a name="ml-docker-images-and-aws-accounts"></a>

Para su publicación, las imágenes deben almacenarse en los repositorios de Amazon ECR propiedad Cuenta de AWS del vendedor. No es posible publicar imágenes almacenadas en un repositorio que sea propiedad de otra persona. Cuenta de AWS

## Publicar paquetes de modelos a partir de algoritmos integrados o AWS Marketplace
<a name="ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace"></a>

Los paquetes de modelos creados a partir de trabajos de formación con un [algoritmo integrado de Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/algos.html) o un algoritmo de una AWS Marketplace suscripción no se pueden publicar. 

Puede seguir utilizando los artefactos del modelo del trabajo de entrenamiento, pero necesitará su propia imagen de inferencia para publicar paquetes de modelos. 

## Compatible con Regiones de AWS la publicación
<a name="ml-supported-aws-regions-for-publishing"></a>

AWS Marketplace admite la publicación de recursos de algoritmos y paquetes de modelos a partir de los Regiones de AWS cuales se cumple lo siguiente: 
+ Una región [compatible con Amazon SageMaker AI](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) 
+ Una [región disponible](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) inscrita de forma predeterminada (por ejemplo, [describe-regions](https://docs.aws.amazon.com/general/latest/gr/rande-manage.html#ec2-describe-regions) devuelve `"OptInStatus": "opt-in-not-required"`) 

Todos los activos necesarios para publicar un paquete de modelos o un producto de algoritmo deben almacenarse en la misma región desde la que haya decidido publicar. Esta incluye lo siguiente: 
+ Modele los recursos de paquetes y algoritmos que se crean en Amazon SageMaker AI 
+ Imágenes de inferencia y entrenamiento que se cargan en los repositorios de Amazon ECR 
+ Artefactos de modelos (si los hay) que se almacenan en Amazon Simple Storage Service y se cargan dinámicamente durante la implementación de modelos para los recursos de paquetes de modelos 
+ Datos de prueba para la validación de inferencias y entrenamiento que se almacenan en Amazon S3 

Puede desarrollar y capacitar su producto en cualquier región que cuente con el respaldo de la SageMaker IA. Sin embargo, antes de poder publicar, debe copiar todos los activos y volver a crear los recursos en una región desde la que AWS Marketplace admita publicar. 