

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Invio di lavori a una condivisione di quote
<a name="submit-job-quota-share"></a>

Le code di lavoro per la gestione delle quote richiedono che tutti i lavori specifichino una quota al momento dell'invio del lavoro. Per inviare lavori a una condivisione di quote, specifica il `quotaShareName` valore in. [SubmitServiceJob](https://docs.aws.amazon.com/batch/latest/APIReference/API_SubmitServiceJob.html) Facoltativamente, `preemptionConfiguration` può essere fornito un per limitare il numero di tentativi di priorità prima dell'inizio di un tentativo di lavoro. `FAILED` Per limitare il numero di privilegi previsti per un lavoro, `preemptionRetriesBeforeTermination` impostalo al momento dell'invio del lavoro. [ServiceJobPreemptionConfiguration](https://docs.aws.amazon.com/batch/latest/APIReference/API_ServiceJobPreemptionConfiguration.html)

## Invia un lavoro utilizzando il AWS CLI
<a name="submit-job-quota-share-cli"></a>

L'esempio seguente utilizza il **submit-service-job** comando per inviare un lavoro a una condivisione di quote.

```
aws batch submit-service-job \
    --job-name "my-sagemaker-training-job" \
    --job-queue "my-sagemaker-job-queue" \
    --service-job-type "SAGEMAKER_TRAINING" \
    --quota-share-name "my_quota_share" \
    --timeout-config '{"attemptDurationSeconds":3600}' \
    --scheduling-priority 5 \
    --service-request-payload '{\"TrainingJobName\": \"sagemaker-training-job-example\", \"AlgorithmSpecification\": {\"TrainingImage\": \"123456789012.dkr.ecr.us-east-1.amazonaws.com/pytorch-inference:1.8.0-cpu-py3\", \"TrainingInputMode\": \"File\", \"ContainerEntrypoint\":  [\"sleep\", \"1\"]}, \"RoleArn\":\"arn:aws:iam::123456789012:role/SageMakerExecutionRole\", \"OutputDataConfig\": {\"S3OutputPath\": \"s3://example-bucket/model-output/\"}, \"ResourceConfig\": {\"InstanceType\": \"ml.m5.large\", \"InstanceCount\": 1, \"VolumeSizeInGB\": 1}}'"
```