기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon SageMaker AI의 모델 배포 옵션
기계 학습 모델을 훈련시킨 후, 사용자는 Amazon SageMaker AI를 이용해 예측을 얻을 수 있습니다. Amazon SageMaker AI는 사용 사례에 따라 모델을 배포하는 다음과 같은 방법을 지원합니다.
-
한 번에 하나씩 예측을 수행하는 실시간 영구 엔드포인트의 경우 SageMaker AI 실시간 호스팅 서비스를 사용하세요. 실시간 추론을(를) 참조하세요.
-
트래픽 급증 기간마다 유휴 기간이 있고 콜드 스타트를 견딜 수 있는 워크로드의 경우, 서버리스 추론을 사용하세요. Amazon SageMaker 서버리스 추론을 사용하여 모델 배포을(를) 참조하세요.
-
대규모 페이로드의 크기가 최대 1GB이고, 처리 시간이 길며, 실시간 근접 지연 시간 요건을 갖춘 요청의 경우 Amazon SageMaker 비동기 추론을 사용하세요. 비동기 추론을(를) 참조하세요.
-
데이터세트 전체에 대한 예측을 얻으려면 SageMaker AI 배치 변환을 사용하세요. Amazon SageMaker AI를 사용한 추론용 배치 변환을(를) 참조하세요.
SageMaker AI는 리소스를 관리하고 기계 학습 모델 배포 시 추론 성능을 최적화하는 기능도 제공합니다.
-
다양한 엣지 디바이스로 기계 학습 모델을 최적화, 보호, 모니터링 및 유지 관리할 수 있도록 엣지 디바이스로 모델을 관리하려면 SageMaker Edge Manager로 엣지에서 모델 배포를 참조하세요. 이는 스마트 카메라, 로봇, PC 및 모바일 디바이스와 같은 엣지 디바이스에 적용됩니다.
-
Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments 및 Xilinx의 프로세서를 기반으로 Android, Linux 및 Windows 기기로 추론을 수행할 수 있도록 Gluon, Keras, MXNet, PyTorch, TensorFlow, TensorFlow-Lite 및 ONNX 모델을 최적화하려면 SageMaker Neo를 사용한 모델 성능 최적화을 참조하세요.
모든 배포 옵션에 대한 추가 정보는 추론 모델 배포을 참조하세요.