

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Envio de trabalhos para um compartilhamento de cota
<a name="submit-job-quota-share"></a>

As filas de trabalhos de gerenciamento de cotas exigem que todos os trabalhos especifiquem um compartilhamento de cota no envio do trabalho. Para enviar trabalhos para um compartilhamento de cota, especifique a entrada`quotaShareName`. [SubmitServiceJob](https://docs.aws.amazon.com/batch/latest/APIReference/API_SubmitServiceJob.html) Opcionalmente, um A `preemptionConfiguration` pode ser fornecido para limitar o número de tentativas de preempção antes que uma tentativa de emprego entre. `FAILED` Para limitar o número de preempções que um trabalho experimenta, defina `preemptionRetriesBeforeTermination` dentro do envio do [ServiceJobPreemptionConfiguration](https://docs.aws.amazon.com/batch/latest/APIReference/API_ServiceJobPreemptionConfiguration.html)trabalho.

## Envie um trabalho usando o AWS CLI
<a name="submit-job-quota-share-cli"></a>

O exemplo a seguir usa o **submit-service-job** comando para enviar um trabalho para um compartilhamento de cota.

```
aws batch submit-service-job \
    --job-name "my-sagemaker-training-job" \
    --job-queue "my-sagemaker-job-queue" \
    --service-job-type "SAGEMAKER_TRAINING" \
    --quota-share-name "my_quota_share" \
    --timeout-config '{"attemptDurationSeconds":3600}' \
    --scheduling-priority 5 \
    --service-request-payload '{\"TrainingJobName\": \"sagemaker-training-job-example\", \"AlgorithmSpecification\": {\"TrainingImage\": \"123456789012.dkr.ecr.us-east-1.amazonaws.com/pytorch-inference:1.8.0-cpu-py3\", \"TrainingInputMode\": \"File\", \"ContainerEntrypoint\":  [\"sleep\", \"1\"]}, \"RoleArn\":\"arn:aws:iam::123456789012:role/SageMakerExecutionRole\", \"OutputDataConfig\": {\"S3OutputPath\": \"s3://example-bucket/model-output/\"}, \"ResourceConfig\": {\"InstanceType\": \"ml.m5.large\", \"InstanceCount\": 1, \"VolumeSizeInGB\": 1}}'"
```