

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 의 기계 학습 제품에 대한 서비스 제한 및 할당량 AWS Marketplace
<a name="ml-service-restrictions-and-limits"></a>

이 섹션에서는 AWS Marketplace의 기계 학습(ML) 제품에 적용되는 제한 및 할당량을 설명합니다.

**Topics**
+ [네트워크 격리](#ml-network-isolation)
+ [이미지 크기](#ml-image-size)
+ [스토리지 크기](#ml-storage-size)
+ [인스턴스 크기](#ml-instance-size)
+ [추론의 페이로드 크기](#ml-payload-size-for-inference)
+ [추론 처리 시간](#ml-processing-time-for-inference)
+ [Service Quotas](#ml-service-quotas)
+ [서버리스 추론](#severless-inference)
+ [관리형 스팟 훈련](#ml-managed-spot-training)
+ [Docker 이미지 및 AWS 계정](#ml-docker-images-and-aws-accounts)
+ [기본 제공 알고리즘 또는에서 모델 패키지 게시 AWS Marketplace](#ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace)
+ [게시 AWS 리전 지원](#ml-supported-aws-regions-for-publishing)

## 네트워크 격리
<a name="ml-network-isolation"></a>

보안상의 이유로, 구매자가 컨테이너화된 제품을 구독하면 Docker 컨테이너는 네트워크에 연결되지 않은 격리된 환경에서 실행됩니다. 컨테이너를 생성할 때 인터넷을 통해 발신 호출을 수행하면 호출이 실패하므로 인터넷을 사용하지 마세요. 에 대한 호출도 실패 AWS 서비스 합니다.

## 이미지 크기
<a name="ml-image-size"></a>

도커 이미지 크기는 Amazon Elastic Container Registry(Amazon ECR) [서비스 할당량](https://docs.aws.amazon.com/AmazonECR/latest/userguide/service_limits.html)을 통해 관리됩니다. 도커 이미지 크기는 훈련, 배치 변환 및 엔드포인트 생성 작업 동안 시작 시간에 영향을 미칩니다. 성능을 높이려면 도커 이미지 크기를 최적으로 유지하는 것이 좋습니다.

## 스토리지 크기
<a name="ml-storage-size"></a>

엔드포인트를 생성하면 Amazon SageMaker AI는 엔드포인트를 호스팅하는 각 ML 컴퓨팅 인스턴스에 Amazon Elastic Block Store(Amazon EBS) 스토리지 볼륨을 연결합니다. (엔드포인트를 *실시간 추론* 또는 *Amazon SageMaker AI호스팅 서비스*라고도 합니다.) 스토리지 볼륨의 크기는 인스턴스 유형에 따라 다릅니다. 자세한 내용은 **Amazon SageMaker AI 개발자 안내서의 [호스트 인스턴스 스토리지 볼륨](https://docs.aws.amazon.com/sagemaker/latest/dg/host-instance-storage.html)을 참조하세요. 

배치 변환에 대한 내용은 **Amazon SageMaker AI 개발자 안내서의 [배치 변환의 스토리지](https://docs.aws.amazon.com/sagemaker/latest/dg/batch-transform-storage.html)를 참조하세요.

## 인스턴스 크기
<a name="ml-instance-size"></a>

SageMaker AI는 각 ML 사용 사례에 맞게 최적화된 다양한 인스턴스 유형을 제공합니다. 인스턴스 유형은 다양한 CPU, GPU, 메모리 및 네트워킹 용량 조합으로 구성됩니다. 인스턴스 유형은 ML 모델을 구축, 훈련, 배포하는 데 적합한 리소스 조합을 선택할 수 있는 유연성을 제공합니다. 자세한 내용은 [Amazon SageMaker AI ML 인스턴스 유형](https://aws.amazon.com/sagemaker/pricing/instance-types/)을 참조하세요.

## 추론의 페이로드 크기
<a name="ml-payload-size-for-inference"></a>

 엔드포인트의 경우 호출당 입력 데이터의 최대 크기를 25MB로 제한합니다. 이 값은 조정할 수 없습니다.

배치 변환의 경우 간접 호출당 입력 데이터의 최대 크기는 100MB입니다. 이 값은 조정할 수 없습니다.

## 추론 처리 시간
<a name="ml-processing-time-for-inference"></a>

엔드포인트의 경우 간접 호출당 최대 처리 시간은 일반 응답의 경우 60초, 스트리밍 응답의 경우 8분입니다. 이 값은 조정할 수 없습니다.

배치 변환의 경우 호출당 최대 처리 시간은 60초입니다. 이 값은 조정할 수 없습니다.

## Service Quotas
<a name="ml-service-quotas"></a>

훈련 및 추론과 관련된 할당량에 대한 자세한 내용은 [Amazon SageMaker AI Service Quotas](https://docs.aws.amazon.com/general/latest/gr/sagemaker.html#limits_sagemaker)를 참조하세요.

## 서버리스 추론
<a name="severless-inference"></a>

에 게시된 모델 패키지 및 알고리즘은 [Amazon SageMaker AI Serverless Inference](https://docs.aws.amazon.com/sagemaker/latest/dg/serverless-endpoints.html)용으로 구성된 엔드포인트에 배포할 AWS Marketplace 수 없습니다. 서버리스 추론을 위해 구성된 엔드포인트를 사용하려면 모델이 네트워크에 연결되어야 합니다. 모든 AWS Marketplace 모델은 네트워크 격리 상태에서 작동합니다. 자세한 내용은 [네트워크 액세스 없음](https://docs.aws.amazon.com/marketplace/latest/userguide/ml-security-and-intellectual-property.html#ml-no-network-access)을 참조하세요.

## 관리형 스팟 훈련
<a name="ml-managed-spot-training"></a>

의 모든 알고리즘 AWS Marketplace에 대해 [관리형 스팟 훈련](https://docs.aws.amazon.com/sagemaker/latest/dg/model-managed-spot-training.html) 체크포인트`MaxWaitTimeInSeconds`가 구현된 경우에도의 값은 3,600초(60분)로 설정됩니다. 이 값은 조정할 수 없습니다.

## Docker 이미지 및 AWS 계정
<a name="ml-docker-images-and-aws-accounts"></a>

게시하려면 이미지가 판매자 AWS 계정 의가 소유한 Amazon ECR 리포지토리에 저장되어야 합니다. 다른이 소유한 리포지토리에 저장된 이미지는 게시할 수 없습니다 AWS 계정.

## 기본 제공 알고리즘 또는에서 모델 패키지 게시 AWS Marketplace
<a name="ml-publishing-model-packages-from-built-in-algorithms-or-aws-marketplace"></a>

[Amazon SageMaker AI 기본 제공 알고리즘](https://docs.aws.amazon.com/sagemaker/latest/dg/algos.html) 또는 AWS Marketplace 구독의 알고리즘을 사용하여 훈련 작업에서 생성된 모델 패키지는 게시할 수 없습니다.

훈련 작업의 모델 아티팩트를 계속 사용해도 되지만, 모델 패키지를 게시하려면 자체 추론 이미지가 필요합니다.

## 게시 AWS 리전 지원
<a name="ml-supported-aws-regions-for-publishing"></a>

AWS Marketplace 는 다음과 같은에서 모델 패키지 및 알고리즘 리소스 게시 AWS 리전 를 지원합니다.
+ [Amazon SageMaker AI가 지원](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)하는 리전 
+ 기본적으로 옵트인되는 [사용 가능한 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)(예: [describe-regions](https://docs.aws.amazon.com/general/latest/gr/rande-manage.html#ec2-describe-regions)는 `"OptInStatus": "opt-in-not-required"`를 반환함) 

모델 패키지 또는 알고리즘 제품을 게시하는 데 필요한 모든 자산은 게시하려는 리전과 동일한 리전에 저장해야 합니다. 다음 내용이 포함됩니다: 
+ Amazon SageMaker AI에서 생성된 모델 패키지 및 알고리즘 리소스 
+ Amazon ECR 리포지토리에 업로드되는 추론 및 훈련 이미지 
+ Amazon Simple Storage Service에 저장되고 모델 패키지 리소스에 대한 모델을 배포하는 동안 동적으로 로드되는 모델 아티팩트(있는 경우) 
+ Amazon S3에 저장된 추론 및 훈련 검증을 위한 테스트 데이터 

SageMaker AI가 지원하는 모든 리전에서 제품을 개발하고 훈련할 수 있습니다. 하지만 제품을 게시하려면 먼저 AWS Marketplace 에서 지원하는 게시 소스 리전에 모든 자산을 복사하고 리소스를 다시 생성해야 합니다.