

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Servicebeschränkungen und Kontingente für Produkte für maschinelles Lernen in AWS Marketplace
<a name="ml-service-restrictions-and-limits"></a>

In diesem Abschnitt werden Einschränkungen und Kontingente für Ihre Produkte für maschinelles Lernen (ML) unter beschrieben AWS Marketplace.

**Topics**
+ [Netzwerkisolierung](#ml-network-isolation)
+ [Größe des Images](#ml-image-size)
+ [Speichergröße](#ml-storage-size)
+ [Instance-Größe](#ml-instance-size)
+ [Größe der Nutzlast für Inferenz](#ml-payload-size-for-inference)
+ [Verarbeitungszeit für Inferenz](#ml-processing-time-for-inference)
+ [Servicekontingente](#ml-service-quotas)
+ [Serverlose Inferenz](#severless-inference)
+ [Managed Spot Training](#ml-managed-spot-training)
+ [Docker-Images und AWS-Konten](#ml-docker-images-and-aws-accounts)
+ [Veröffentlichen von Modellpaketen mithilfe integrierter Algorithmen oder AWS Marketplace](#ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace)
+ [Wird AWS-Regionen für die Veröffentlichung unterstützt](#ml-supported-aws-regions-for-publishing)

## Netzwerkisolierung
<a name="ml-network-isolation"></a>

Wenn ein Käufer Ihr containerisiertes Produkt abonniert, werden die Docker-Container aus Sicherheitsgründen in einer isolierten Umgebung ohne Netzwerkzugriff ausgeführt. Verlassen Sie sich bei der Erstellung Ihrer Container nicht darauf, ausgehende Anrufe über das Internet zu tätigen, da diese sonst fehlschlagen. Aufrufe an AWS-Services werden ebenfalls fehlschlagen. 

## Größe des Images
<a name="ml-image-size"></a>

Ihre Docker-Image-Größe wird durch die [Service-Kontingente](https://docs.aws.amazon.com/AmazonECR/latest/userguide/service_limits.html) von Amazon Elastic Container Registry (Amazon ECR) geregelt. Die Docker-Image-Größe wirkt sich auf die Startzeit bei Trainingsjobs, Batch-Transform-Jobs und der Endpunkterstellung aus. Um eine bessere Leistung zu erzielen, sollten Sie eine optimale Docker-Image-Größe beibehalten. 

## Speichergröße
<a name="ml-storage-size"></a>

Wenn Sie einen Endpunkt erstellen, fügt Amazon SageMaker AI jeder ML-Compute-Instance, die den Endpunkt hostet, ein Amazon Elastic Block Store (Amazon EBS) -Speichervolume hinzu. (Ein Endpunkt wird auch als *Echtzeit-Inferenz* oder *Amazon SageMaker AI-Hosting-Service* bezeichnet.) Die Größe des Speicher-Volumes hängt vom Instance-Typ ab. Weitere Informationen finden Sie unter [Host Instance Storage Volumes](https://docs.aws.amazon.com/sagemaker/latest/dg/host-instance-storage.html) im *Amazon SageMaker AI Developer Guide*. 

Informationen zur Batch-Transformation finden Sie unter [Storage in Batch Transform](https://docs.aws.amazon.com/sagemaker/latest/dg/batch-transform-storage.html) im *Amazon SageMaker AI Developer Guide*. 

## Instance-Größe
<a name="ml-instance-size"></a>

SageMaker KI bietet eine Auswahl an Instance-Typen, die für verschiedene ML-Anwendungsfälle optimiert sind. Instanztypen bestehen aus unterschiedlichen Kombinationen von CPU, GPU, Arbeitsspeicher und Netzwerkkapazität. Instanztypen bieten Ihnen die Flexibilität, den geeigneten Ressourcenmix für die Erstellung, Schulung und Bereitstellung Ihrer ML-Modelle auszuwählen. Weitere Informationen finden Sie unter [Amazon SageMaker AI ML-Instanztypen](https://aws.amazon.com/sagemaker/pricing/instance-types/). 

## Größe der Nutzlast für Inferenz
<a name="ml-payload-size-for-inference"></a>

 Beschränken Sie für einen Endpunkt die maximale Größe der Eingabedaten pro Aufruf auf 25 MB. Dieser Wert kann nicht angepasst werden.

Bei der Batch-Transformation beträgt die maximale Größe der Eingabedaten pro Aufruf 100 MB. Dieser Wert kann nicht angepasst werden.

## Verarbeitungszeit für Inferenz
<a name="ml-processing-time-for-inference"></a>

Für einen Endpunkt beträgt die maximale Verarbeitungszeit pro Aufruf 60 Sekunden für reguläre Antworten und 8 Minuten für Streaming-Antworten. Dieser Wert kann nicht angepasst werden.

Bei der Batch-Transformation beträgt die maximale Verarbeitungszeit pro Aufruf 60 Minuten. Dieser Wert kann nicht angepasst werden.

## Servicekontingente
<a name="ml-service-quotas"></a>

Weitere Informationen zu Kontingenten im Zusammenhang mit Training und Inferenz finden Sie unter [Amazon SageMaker AI Service Quotas](https://docs.aws.amazon.com/general/latest/gr/sagemaker.html#limits_sagemaker). 

## Serverlose Inferenz
<a name="severless-inference"></a>

Modellpakete und Algorithmen, die in veröffentlicht wurden, AWS Marketplace können nicht auf Endpunkten bereitgestellt werden, die für [Amazon SageMaker AI Serverless](https://docs.aws.amazon.com/sagemaker/latest/dg/serverless-endpoints.html) Inference konfiguriert sind. Für Endpunkte, die für serverlose Inferenz konfiguriert sind, müssen Modelle über Netzwerkkonnektivität verfügen. Alle AWS Marketplace Modelle arbeiten netzwerkisoliert. Weitere Informationen finden Sie unter [Kein Netzwerkzugriff](https://docs.aws.amazon.com/marketplace/latest/userguide/ml-security-and-intellectual-property.html#ml-no-network-access).

## Managed Spot Training
<a name="ml-managed-spot-training"></a>

Für alle Algorithmen von AWS Marketplace`MaxWaitTimeInSeconds` ist der Wert von auf 3.600 Sekunden (60 Minuten) festgelegt, auch wenn der Checkpoint für [verwaltetes Spot-Training implementiert](https://docs.aws.amazon.com/sagemaker/latest/dg/model-managed-spot-training.html) ist. Dieser Wert kann nicht angepasst werden. 

## Docker-Images und AWS-Konten
<a name="ml-docker-images-and-aws-accounts"></a>

Für die Veröffentlichung müssen Bilder in Amazon ECR-Repositorys gespeichert werden, die dem Verkäufer AWS-Konto gehören. Es ist nicht möglich, Bilder zu veröffentlichen, die in einem Repository gespeichert sind, das einem anderen gehört. AWS-Konto

## Veröffentlichen von Modellpaketen mithilfe integrierter Algorithmen oder AWS Marketplace
<a name="ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace"></a>

Modellpakete, die aus Trainingsjobs mit einem in [Amazon SageMaker AI integrierten Algorithmus](https://docs.aws.amazon.com/sagemaker/latest/dg/algos.html) oder einem Algorithmus aus einem AWS Marketplace Abonnement erstellt wurden, können nicht veröffentlicht werden. 

Sie können weiterhin die Modellartefakte aus dem Trainingsjob verwenden, aber für die Veröffentlichung von Modellpaketen ist Ihr eigenes Inferenz-Image erforderlich. 

## Wird AWS-Regionen für die Veröffentlichung unterstützt
<a name="ml-supported-aws-regions-for-publishing"></a>

AWS Marketplace unterstützt das Veröffentlichen von Modellpaket- und Algorithmusressourcen, AWS-Regionen wobei Folgendes zutrifft: 
+ Eine Region, die [Amazon SageMaker AI unterstützt](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) 
+ [Eine [verfügbare Region](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/), die standardmäßig aktiviert ist (z. B. gibt describe-regions zurück)](https://docs.aws.amazon.com/general/latest/gr/rande-manage.html#ec2-describe-regions) `"OptInStatus": "opt-in-not-required"` 

Alle Ressourcen, die für die Veröffentlichung eines Modellpakets oder eines Algorithmusprodukts erforderlich sind, müssen in derselben Region gespeichert werden, aus der Sie veröffentlichen möchten. Diese umfasst die folgenden Funktionen: 
+ Modellieren Sie Paket- und Algorithmusressourcen, die in Amazon SageMaker AI erstellt wurden 
+ Inferenz- und Trainingsbilder, die in Amazon ECR-Repositorys hochgeladen werden 
+ Modellartefakte (falls vorhanden), die in Amazon Simple Storage Service gespeichert und während der Modellbereitstellung für Modellpaketressourcen dynamisch geladen werden 
+ Testdaten für Inferenz und Trainingsvalidierung, die in Amazon S3 gespeichert sind 

Sie können Ihr Produkt in jeder Region entwickeln und trainieren, die von SageMaker KI unterstützt wird. Bevor Sie jedoch veröffentlichen können, müssen Sie alle Ressourcen in eine Region kopieren und dort Ressourcen neu erstellen, in der das Publizieren AWS Marketplace unterstützt wird. 