

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Restrizioni e quote di servizio per i prodotti di machine learning in Marketplace AWS
<a name="ml-service-restrictions-and-limits"></a>

Questa sezione descrive le restrizioni e le quote sui tuoi prodotti di machine learning (ML) in. Marketplace AWS

**Topics**
+ [Isolamento della rete](#ml-network-isolation)
+ [Dimensione dell’immagine](#ml-image-size)
+ [Dimensioni dell’archiviazione](#ml-storage-size)
+ [Dimensioni istanza](#ml-instance-size)
+ [Dimensione del payload per l'inferenza](#ml-payload-size-for-inference)
+ [Tempo di elaborazione per l'inferenza](#ml-processing-time-for-inference)
+ [Service Quotas](#ml-service-quotas)
+ [Inferenza serverless](#severless-inference)
+ [Addestramento spot gestito](#ml-managed-spot-training)
+ [Immagini Docker e Account AWS](#ml-docker-images-and-aws-accounts)
+ [Pubblicazione di pacchetti di modelli da algoritmi integrati o Marketplace AWS](#ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace)
+ [Supportato per la pubblicazione Regioni AWS](#ml-supported-aws-regions-for-publishing)

## Isolamento della rete
<a name="ml-network-isolation"></a>

Per motivi di sicurezza, quando un acquirente sottoscrive un abbonamento al tuo prodotto containerizzato, i contenitori Docker vengono eseguiti in un ambiente isolato senza accesso alla rete. Quando crei i contenitori, non fare affidamento sulle chiamate in uscita su Internet perché falliranno. Anche le chiamate a Servizi AWS avranno esito negativo. 

## Dimensione dell’immagine
<a name="ml-image-size"></a>

[La dimensione dell'immagine Docker è regolata dalle quote del servizio Amazon Elastic Container Registry (Amazon ECR).](https://docs.aws.amazon.com/AmazonECR/latest/userguide/service_limits.html) La dimensione dell'immagine Docker influisce sul tempo di avvio durante i processi di formazione, i lavori di trasformazione in batch e la creazione degli endpoint. Per prestazioni migliori, mantieni una dimensione ottimale dell'immagine Docker. 

## Dimensioni dell’archiviazione
<a name="ml-storage-size"></a>

Quando crei un endpoint, Amazon SageMaker AI collega un volume di storage Amazon Elastic Block Store (Amazon EBS) a ogni istanza di calcolo ML che ospita l'endpoint. (Un endpoint è anche noto come *inferenza in tempo reale* o *servizio di hosting Amazon SageMaker AI*.) Le dimensioni del volume di storage dipendono dal tipo di istanza. Per ulteriori informazioni, consulta [Host Instance Storage Volumes](https://docs.aws.amazon.com/sagemaker/latest/dg/host-instance-storage.html) nella *Amazon SageMaker AI Developer Guide*. 

Per la trasformazione in batch, consulta [Storage in Batch Transform](https://docs.aws.amazon.com/sagemaker/latest/dg/batch-transform-storage.html) nella *Amazon SageMaker AI Developer Guide*. 

## Dimensioni istanza
<a name="ml-instance-size"></a>

SageMaker L'intelligenza artificiale offre una selezione di tipi di istanze ottimizzati per adattarsi a diversi casi d'uso del machine learning. I tipi di istanze sono costituiti da diverse combinazioni di CPU, GPU, memoria e capacità di rete. I tipi di istanze offrono la flessibilità necessaria per scegliere la combinazione appropriata di risorse per la creazione, la formazione e l'implementazione dei modelli di machine learning. Per ulteriori informazioni, consulta [Amazon SageMaker AI ML Instance Types](https://aws.amazon.com/sagemaker/pricing/instance-types/). 

## Dimensione del payload per l'inferenza
<a name="ml-payload-size-for-inference"></a>

 Per un endpoint, limita la dimensione massima dei dati di input per chiamata a 25 MB. Questo valore non può essere modificato.

Per la trasformazione in batch, la dimensione massima dei dati di input per chiamata è 100 MB. Questo valore non può essere modificato.

## Tempo di elaborazione per l'inferenza
<a name="ml-processing-time-for-inference"></a>

Per un endpoint, il tempo massimo di elaborazione per chiamata è di 60 secondi per le risposte regolari e di 8 minuti per le risposte in streaming. Questo valore non può essere modificato.

Per la trasformazione in batch, il tempo massimo di elaborazione per chiamata è di 60 minuti. Questo valore non può essere modificato.

## Service Quotas
<a name="ml-service-quotas"></a>

Per ulteriori informazioni sulle quote relative alla formazione e all'inferenza, consulta [Amazon SageMaker AI Service Quotas](https://docs.aws.amazon.com/general/latest/gr/sagemaker.html#limits_sagemaker). 

## Inferenza serverless
<a name="severless-inference"></a>

I pacchetti di modelli e gli algoritmi pubblicati in non Marketplace AWS possono essere distribuiti su endpoint configurati per [Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/serverless-endpoints.html) Serverless Inference. Gli endpoint configurati per l'inferenza senza server richiedono che i modelli dispongano di connettività di rete. Tutti i Marketplace AWS modelli funzionano in isolamento di rete. Per ulteriori informazioni, vedere [Nessun accesso alla rete](https://docs.aws.amazon.com/marketplace/latest/userguide/ml-security-and-intellectual-property.html#ml-no-network-access).

## Addestramento spot gestito
<a name="ml-managed-spot-training"></a>

Per tutti gli algoritmi di Marketplace AWS, il valore di `MaxWaitTimeInSeconds` è impostato su 3.600 secondi (60 minuti), anche se è implementato il checkpoint per l'addestramento in [loco gestito](https://docs.aws.amazon.com/sagemaker/latest/dg/model-managed-spot-training.html). Questo valore non può essere modificato. 

## Immagini Docker e Account AWS
<a name="ml-docker-images-and-aws-accounts"></a>

Per la pubblicazione, le immagini devono essere archiviate negli archivi Amazon ECR di proprietà Account AWS del venditore. Non è possibile pubblicare immagini archiviate in un repository di proprietà di un altro. Account AWS

## Pubblicazione di pacchetti di modelli da algoritmi integrati o Marketplace AWS
<a name="ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace"></a>

I pacchetti modello creati da lavori di formazione utilizzando un [algoritmo integrato di Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/algos.html) o un algoritmo da un Marketplace AWS abbonamento non possono essere pubblicati. 

Puoi comunque utilizzare gli artefatti del modello derivanti dal processo di formazione, ma per la pubblicazione dei pacchetti di modelli è necessaria la tua immagine di inferenza. 

## Supportato per la pubblicazione Regioni AWS
<a name="ml-supported-aws-regions-for-publishing"></a>

Marketplace AWS supporta il pacchetto del modello di pubblicazione e le risorse dell'algoritmo, Regioni AWS in base alle quali sono entrambi validi quanto segue: 
+ Una regione [supportata da Amazon SageMaker AI](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) 
+ Una [regione disponibile](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) che viene attivata per impostazione predefinita (ad esempio, restituisce [describe-regions](https://docs.aws.amazon.com/general/latest/gr/rande-manage.html#ec2-describe-regions)) `"OptInStatus": "opt-in-not-required"` 

Tutte le risorse necessarie per la pubblicazione di un pacchetto modello o di un prodotto algoritmico devono essere archiviate nella stessa regione da cui scegliete di pubblicare. Questo include gli output seguenti: 
+ Pacchetti di modelli e risorse di algoritmi creati in Amazon SageMaker AI 
+ Immagini di inferenza e addestramento caricate negli archivi Amazon ECR 
+ Elementi del modello (se presenti) archiviati in Amazon Simple Storage Service e caricati dinamicamente durante la distribuzione del modello per le risorse del pacchetto modello 
+ Dati di test per la convalida dell'inferenza e dell'addestramento archiviati in Amazon S3 

Puoi sviluppare e addestrare il tuo prodotto in qualsiasi regione supportata dall'intelligenza artificiale. SageMaker Tuttavia, prima di poter pubblicare, è necessario copiare tutte le risorse e ricreare le risorse in una regione da cui è Marketplace AWS supportata la pubblicazione. 