

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Amazon SageMaker AI의 모델 배포 옵션
<a name="how-it-works-deployment"></a>

기계 학습 모델을 훈련시킨 후, 사용자는 Amazon SageMaker AI를 이용해 예측을 얻을 수 있습니다. Amazon SageMaker AI는 사용 사례에 따라 모델을 배포하는 다음과 같은 방법을 지원합니다.
+ 한 번에 하나씩 예측을 수행하는 실시간 영구 엔드포인트의 경우 SageMaker AI 실시간 호스팅 서비스를 사용하세요. [실시간 추론](realtime-endpoints.md)을(를) 참조하세요.
+ 트래픽 급증 기간마다 유휴 기간이 있고 콜드 스타트를 견딜 수 있는 워크로드의 경우, 서버리스 추론을 사용하세요. [Amazon SageMaker 서버리스 추론을 사용하여 모델 배포](serverless-endpoints.md)을(를) 참조하세요.
+ 대규모 페이로드의 크기가 최대 1GB이고, 처리 시간이 길며, 실시간 근접 지연 시간 요건을 갖춘 요청의 경우 Amazon SageMaker 비동기 추론을 사용하세요. [비동기 추론](async-inference.md)을(를) 참조하세요.
+ 데이터세트 전체에 대한 예측을 얻으려면 SageMaker AI 배치 변환을 사용하세요. [Amazon SageMaker AI를 사용한 추론용 배치 변환](batch-transform.md)을(를) 참조하세요.

SageMaker AI는 리소스를 관리하고 기계 학습 모델 배포 시 추론 성능을 최적화하는 기능도 제공합니다.
+ 다양한 엣지 디바이스로 기계 학습 모델을 최적화, 보호, 모니터링 및 유지 관리할 수 있도록 엣지 디바이스로 모델을 관리하려면 [SageMaker Edge Manager로 엣지에서 모델 배포](edge.md)를 참조하세요. 이는 스마트 카메라, 로봇, PC 및 모바일 디바이스와 같은 엣지 디바이스에 적용됩니다.
+ Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments 및 Xilinx의 프로세서를 기반으로 Android, Linux 및 Windows 기기로 추론을 수행할 수 있도록 Gluon, Keras, MXNet, PyTorch, TensorFlow, TensorFlow-Lite 및 ONNX 모델을 최적화하려면 [SageMaker Neo를 사용한 모델 성능 최적화](neo.md)을 참조하세요.

모든 배포 옵션에 대한 추가 정보는 [추론 모델 배포](deploy-model.md)을 참조하세요.