

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Restrições de serviço e cotas para produtos de aprendizado de máquina em AWS Marketplace
<a name="ml-service-restrictions-and-limits"></a>

Esta seção descreve restrições e cotas em produtos de machine learning (ML) no AWS Marketplace.

**Topics**
+ [Isolamento de rede](#ml-network-isolation)
+ [Tamanho da imagem](#ml-image-size)
+ [Tamanho de armazenamento](#ml-storage-size)
+ [Tamanho da instância](#ml-instance-size)
+ [Tamanho da carga para inferência](#ml-payload-size-for-inference)
+ [Tempo de processamento para inferência](#ml-processing-time-for-inference)
+ [Cotas de serviço](#ml-service-quotas)
+ [Inferência sem servidor](#severless-inference)
+ [Treinamento gerenciado de spots](#ml-managed-spot-training)
+ [Imagens do Docker e Contas da AWS](#ml-docker-images-and-aws-accounts)
+ [Publicação de pacotes de modelos a partir de algoritmos integrados ou AWS Marketplace](#ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace)
+ [Regiões da AWS Compatível com publicação](#ml-supported-aws-regions-for-publishing)

## Isolamento de rede
<a name="ml-network-isolation"></a>

Quando um comprador assina seu produto em contêiner, os contêineres do Docker são executados em um ambiente isolado sem acesso à Internet. Ao criar contêineres, não dependa de chamadas de saída pela Internet, pois elas falharão. As chamadas para Serviços da AWS também falharão. 

## Tamanho da imagem
<a name="ml-image-size"></a>

O tamanho da imagem do Docker é controlado pelas [cotas de serviço](https://docs.aws.amazon.com/AmazonECR/latest/userguide/service_limits.html) do Amazon Elastic Container Registry (Amazon ECR). O tamanho da imagem do Docker afeta o tempo de inicialização durante o treinamento, os trabalhos de transformação em lotes e os trabalhos de criação de endpoints. Para obter o melhor desempenho, mantenha o tamanho da imagem do Docker ideal. 

## Tamanho de armazenamento
<a name="ml-storage-size"></a>

Quando você cria um endpoint, o Amazon SageMaker AI anexa um volume de armazenamento do Amazon Elastic Block Store (Amazon EBS) a cada instância de computação de ML que hospeda o endpoint. (Um endpoint também é conhecido como *inferência em tempo real* ou *serviço de hospedagem Amazon SageMaker AI*.) O tamanho do volume de armazenamento depende do tipo de instância. Para obter mais informações, consulte [Host Instance Storage Volumes](https://docs.aws.amazon.com/sagemaker/latest/dg/host-instance-storage.html) no *Amazon SageMaker AI Developer Guide*. 

Para transformação em lote, consulte [Storage in Batch Transform](https://docs.aws.amazon.com/sagemaker/latest/dg/batch-transform-storage.html) no *Amazon SageMaker AI Developer Guide*. 

## Tamanho da instância
<a name="ml-instance-size"></a>

SageMaker A IA fornece uma seleção de tipos de instância que são otimizados para se adequar a diferentes casos de uso de ML. Os tipos de instância incluem combinações variadas de CPU, GPU, memória e capacidade de rede. Os tipos de instância oferecem a flexibilidade de escolher a combinação de recursos adequada para criar, treinar e implantar os modelos de ML. Para obter mais informações, consulte [Tipos de instância do Amazon SageMaker AI ML](https://aws.amazon.com/sagemaker/pricing/instance-types/). 

## Tamanho da carga para inferência
<a name="ml-payload-size-for-inference"></a>

 Para um endpoint, limite o tamanho máximo dos dados de entrada por invocação a 25 MB. Esse valor não pode ser ajustado.

Para transformação em lote, o tamanho máximo dos dados de entrada por invocação é 100 MB. Esse valor não pode ser ajustado.

## Tempo de processamento para inferência
<a name="ml-processing-time-for-inference"></a>

Para um endpoint, o tempo de processamento máximo por invocação é de 60 segundos para respostas regulares e de 8 minutos para respostas de streaming. Esse valor não pode ser ajustado.

Para transformação em lote, o tempo máximo de processamento por invocação é de 60 minutos. Esse valor não pode ser ajustado.

## Cotas de serviço
<a name="ml-service-quotas"></a>

Para obter mais informações sobre cotas relacionadas a treinamento e inferência, consulte [Amazon SageMaker AI Service Quotas](https://docs.aws.amazon.com/general/latest/gr/sagemaker.html#limits_sagemaker). 

## Inferência sem servidor
<a name="severless-inference"></a>

Pacotes de modelos e algoritmos publicados em não AWS Marketplace podem ser implantados em endpoints configurados para [Amazon SageMaker AI Serverless](https://docs.aws.amazon.com/sagemaker/latest/dg/serverless-endpoints.html) Inference. Os endpoints configurados para inferência com tecnologia sem servidor exigem que os modelos tenham conectividade de rede. Todos os AWS Marketplace modelos operam em isolamento de rede. Para mais informações, consulte [Sem acesso à rede](https://docs.aws.amazon.com/marketplace/latest/userguide/ml-security-and-intellectual-property.html#ml-no-network-access).

## Treinamento gerenciado de spots
<a name="ml-managed-spot-training"></a>

Para todos os algoritmos do AWS Marketplace, o valor de `MaxWaitTimeInSeconds` é definido como 3.600 segundos (60 minutos), mesmo que o ponto de verificação para [treinamento pontual gerenciado](https://docs.aws.amazon.com/sagemaker/latest/dg/model-managed-spot-training.html) seja implementado. Esse valor não pode ser ajustado. 

## Imagens do Docker e Contas da AWS
<a name="ml-docker-images-and-aws-accounts"></a>

Para publicação, as imagens devem ser armazenadas nos repositórios Amazon ECR de propriedade Conta da AWS do vendedor. Não é possível publicar imagens armazenadas em um repositório de propriedade de outra pessoa Conta da AWS. 

## Publicação de pacotes de modelos a partir de algoritmos integrados ou AWS Marketplace
<a name="ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace"></a>

Pacotes de modelos criados a partir de trabalhos de treinamento usando um [algoritmo integrado de SageMaker IA da Amazon](https://docs.aws.amazon.com/sagemaker/latest/dg/algos.html) ou um algoritmo de uma AWS Marketplace assinatura não podem ser publicados. 

Você ainda pode usar os artefatos do modelo do trabalho de treinamento, mas sua própria imagem de inferência é necessária para publicar pacotes de modelo. 

## Regiões da AWS Compatível com publicação
<a name="ml-supported-aws-regions-for-publishing"></a>

AWS Marketplace suporta recursos de pacotes de modelos e algoritmos de publicação, nos Regiões da AWS quais o seguinte é verdadeiro: 
+ Uma região que a [Amazon SageMaker AI suporta](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) 
+ Uma [região disponível](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) que é ativada por padrão (por exemplo, [describe-regions](https://docs.aws.amazon.com/general/latest/gr/rande-manage.html#ec2-describe-regions) retorna `"OptInStatus": "opt-in-not-required"`) 

Todos os ativos necessários para publicar um pacote de modelo ou produto de algoritmo devem ser armazenados na mesma região da qual você escolhe publicar. Essa transmissão inclui o seguinte: 
+ Recursos de pacotes e algoritmos de modelos criados na Amazon SageMaker AI 
+ Imagens de inferência e treinamento que são carregadas nos repositórios do Amazon ECR 
+ Artefatos de modelo (se houver) armazenados no Amazon Simple Storage Service e carregados dinamicamente durante a implantação do modelo para recursos do pacote de modelos 
+ Dados de teste para inferência e validação de treinamento armazenados no Amazon S3 

Você pode desenvolver e treinar seu produto em qualquer região que seja suportada pela SageMaker IA. Mas, antes de publicar, você deve copiar todos os ativos e recriar recursos em uma região para a qual o AWS Marketplace ofereça suporte à publicação. 