

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# での機械学習製品のサービス制限とクォータ AWS Marketplace
<a name="ml-service-restrictions-and-limits"></a>

このセクションでは、 AWS Marketplaceの機械学習 (ML) 製品の制限とクォータについて説明します。

**Topics**
+ [ネットワークの隔離](#ml-network-isolation)
+ [イメージのサイズ](#ml-image-size)
+ [ストレージサイズ](#ml-storage-size)
+ [インスタンスサイズ](#ml-instance-size)
+ [推論のペイロードサイズ](#ml-payload-size-for-inference)
+ [推論の処理時間](#ml-processing-time-for-inference)
+ [Service Quotas](#ml-service-quotas)
+ [サーバーレス推論](#severless-inference)
+ [マネージドスポットトレーニング](#ml-managed-spot-training)
+ [Docker イメージと AWS アカウント](#ml-docker-images-and-aws-accounts)
+ [組み込みアルゴリズムまたは からのモデルパッケージの公開 AWS Marketplace](#ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace)
+ [公開 AWS リージョン でサポート](#ml-supported-aws-regions-for-publishing)

## ネットワークの隔離
<a name="ml-network-isolation"></a>

セキュリティ上の理由から、コンテナ化された製品を購入者がサブスクライブすると、Docker コンテナはネットワークアクセスのない隔離された環境で実行されます。コンテナの作成時には、インターネット経由での呼び出しに依存しないでください。その呼び出しは失敗します。への呼び出しも失敗 AWS のサービス します。

## イメージのサイズ
<a name="ml-image-size"></a>

Docker イメージのサイズは、Amazon Elastic Container Registry (Amazon ECR) の[Service Quotas](https://docs.aws.amazon.com/AmazonECR/latest/userguide/service_limits.html) によって管理されます。Docker イメージのサイズは、トレーニングジョブ、バッチ変換ジョブ、エンドポイント作成時の起動時間に影響します。パフォーマンスを向上させるため、最適な Docker イメージのサイズを維持してください。

## ストレージサイズ
<a name="ml-storage-size"></a>

エンドポイントが作成されると、Amazon SageMaker AI は、エンドポイントをホストする各 ML コンピューティングインスタンスに Amazon Elastic Block Store (Amazon EBS) ストレージボリュームをアタッチします。(エンドポイントは*リアルタイム推論*または *Amazon SageMaker AI ホスティングサービス*とも呼ばれます)。ストレージボリュームのサイズは、インスタンスタイプによって異なります。詳細については、「*Amazon SageMaker AI デベロッパーガイド*」の「[ホストインスタンスストレージボリューム](https://docs.aws.amazon.com/sagemaker/latest/dg/host-instance-storage.html)」を参照してください。 

バッチ変換については、「*Amazon SageMaker AI デベロッパーガイド*」の「[バッチ変換のストレージ](https://docs.aws.amazon.com/sagemaker/latest/dg/batch-transform-storage.html)」を参照してください。

## インスタンスサイズ
<a name="ml-instance-size"></a>

SageMaker AI では、インスタンスタイプの選択肢があり、ML のさまざまなユースケースに合わせて最適化できます。インスタンスタイプは、CPU、GPU、メモリ、およびネットワーク容量のさまざまな組み合わせで構成されます。インスタンスタイプでは、ML モデルの構築、トレーニング、デプロイに適したリソースの組み合わせを柔軟に選択できます。詳細については、「[Amazon SageMaker AI ML インスタンスタイプ](https://aws.amazon.com/sagemaker/pricing/instance-types/)」を参照してください。

## 推論のペイロードサイズ
<a name="ml-payload-size-for-inference"></a>

 エンドポイントの場合、1 回の呼び出しあたりの入力データの最大サイズが 25 MB に制限されます。この値を調整することはできません。

バッチ変換の場合、1 回の呼び出しあたりの入力データの最大サイズは 100 MB です。この値を調整することはできません。

## 推論の処理時間
<a name="ml-processing-time-for-inference"></a>

エンドポイントの場合、呼び出しあたりの最大処理時間は、通常のレスポンスの場合は 60 秒、ストリーミングレスポンスの場合は 8 分です。この値を調整することはできません。

バッチ変換の場合、1 回の呼び出しあたりの最大処理時間は 60 分です。この値を調整することはできません。

## Service Quotas
<a name="ml-service-quotas"></a>

トレーニングと推論に関連するクォータの詳細については、「[Amazon SageMaker AI Service Quotas](https://docs.aws.amazon.com/general/latest/gr/sagemaker.html#limits_sagemaker)」を参照してください。

## サーバーレス推論
<a name="severless-inference"></a>

で発行されたモデルパッケージとアルゴリズムは、Amazon AWS Marketplace SageMaker AI Serverless Inference 用に設定されたエンドポイントにデプロイできません。 [Amazon SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/serverless-endpoints.html) サーバーレス推論用に設定されたエンドポイントの場合、モデルにネットワーク接続が必要です。すべての AWS Marketplace モデルはネットワーク分離で動作します。詳細については、「[No network access](https://docs.aws.amazon.com/marketplace/latest/userguide/ml-security-and-intellectual-property.html#ml-no-network-access)」を参照してください。

## マネージドスポットトレーニング
<a name="ml-managed-spot-training"></a>

からのすべてのアルゴリズムについて AWS Marketplace、[マネージドスポットトレーニング](https://docs.aws.amazon.com/sagemaker/latest/dg/model-managed-spot-training.html) のチェックポイントが実装されている場合でも、 の値は 3,600 秒 (60 分) に`MaxWaitTimeInSeconds`設定されます。この値を調整することはできません。

## Docker イメージと AWS アカウント
<a name="ml-docker-images-and-aws-accounts"></a>

公開するには、イメージを AWS アカウント 販売者の が所有する Amazon ECR リポジトリに保存する必要があります。別の が所有するリポジトリに保存されているイメージを発行することはできません AWS アカウント。

## 組み込みアルゴリズムまたは からのモデルパッケージの公開 AWS Marketplace
<a name="ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace"></a>

[Amazon SageMaker AI 組み込みアルゴリズム](https://docs.aws.amazon.com/sagemaker/latest/dg/algos.html)または AWS Marketplace サブスクリプションのアルゴリズムを使用してトレーニングジョブから作成されたモデルパッケージは公開できません。

トレーニングジョブのモデルアーティファクトは引き続き使用できますが、モデルパッケージを公開するには独自の推論イメージが必要です。

## 公開 AWS リージョン でサポート
<a name="ml-supported-aws-regions-for-publishing"></a>

AWS Marketplace は、以下の両方 AWS リージョン が当てはまる からのモデルパッケージとアルゴリズムリソースの公開をサポートします。
+ [Amazon SageMaker AI がサポート](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)するリージョン 
+ デフォルトでオプトインされている[利用可能なリージョン](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/) (例えば、[describe-regions](https://docs.aws.amazon.com/general/latest/gr/rande-manage.html#ec2-describe-regions) が返す `"OptInStatus": "opt-in-not-required"` など) 

モデルパッケージまたはアルゴリズム製品の公開に必要なすべてのアセットは、公開元と同じリージョンに保存する必要があります。これには以下が含まれます。
+ Amazon SageMaker AI で作成されたモデルパッケージとアルゴリズムのリソース 
+ Amazon ECR リポジトリにアップロードされる推論イメージとトレーニングイメージ 
+ Amazon Simple Storage Service に保存され、モデルパッケージリソースのモデルデプロイ中に動的にロードされるモデルアーティファクト (存在する場合) 
+ Amazon S3 に保存されている推論およびトレーニング検証用のテストデータ 

SageMaker AI がサポートするどのリージョンでも、製品の開発とトレーニングを行うことができます。ただし、公開する前に、 AWS Marketplace が発行元をサポートしているリージョンにすべてのアセットをコピーして、そのリージョンでリソースを再作成する必要があります。