

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Soumettre une offre d'emploi dans le secteur des services AWS Batch
<a name="service-job-submit"></a>

Pour soumettre des tâches de service à AWS Batch, vous utilisez l'[SubmitServiceJob](https://docs.aws.amazon.com/batch/latest/APIReference/API_SubmitServiceJob.html)API. Vous pouvez soumettre des tâches à l'aide du AWS CLI ou du SDK.

Si vous n'avez pas encore de rôle d'exécution, vous devez en créer un avant de pouvoir soumettre votre tâche de service. Pour créer le rôle d'exécution SageMaker AI, voir [Comment utiliser les rôles d'exécution SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-roles.html) dans le *[guide SageMaker AI Developer](https://docs.aws.amazon.com/sagemaker/latest/dg/whatis.html)*.

## Flux de travail de soumission des tâches de service
<a name="service-job-submit-workflow"></a>

Lorsque vous soumettez une tâche de service, suivez AWS Batch ce flux de travail :

1. AWS Batch reçoit votre `[SubmitServiceJob](https://docs.aws.amazon.com/batch/latest/APIReference/API_SubmitServiceJob.html)` demande et valide les paramètres AWS Batch spécifiques. Le `serviceRequestPayload` est transmis sans validation.

1. La tâche entre dans l'`SUBMITTED`état et est placée dans la file d'attente de tâches spécifiée

1. AWS Batch évalue s'il existe une capacité disponible dans l'environnement de service pour les `RUNNABLE` tâches situées en tête de file

1. Si la capacité est disponible, le travail est transféré à AI `SCHEDULED` et le travail a été transmis à l' SageMaker IA

1. Lorsque la capacité a été acquise et que l' SageMaker IA a téléchargé les données de la tâche de service, l'initialisation de la tâche de service commence et la tâche est remplacée par. `STARTING` 

1. Lorsque SageMaker l'IA commence à exécuter la tâche, son statut passe à`RUNNING`.

1. Pendant que l' SageMaker IA exécute la tâche, AWS Batch surveille sa progression et fait correspondre les états du service aux états des AWS Batch tâches. Pour plus de détails sur la façon dont les états des tâches de service sont mappés, voir [Mappage AWS Batch de l'état de la tâche du service avec SageMaker le statut de](service-job-status.md)

1. Lorsque la tâche de service est terminée, elle est `SUCCEEDED` déplacée vers et toute sortie est prête à être téléchargée.

## Conditions préalables
<a name="service-job-submit-prerequisites"></a>

Avant de soumettre une demande de service, assurez-vous d'avoir :
+ **Environnement de service : environnement** de service qui définit les limites de capacité. Pour de plus amples informations, veuillez consulter [Créez un environnement de service dans AWS Batch](create-service-environments.md).
+ **SageMaker file d'attente** de SageMaker tâches : file d'attente de tâches permettant de planifier les tâches. Pour de plus amples informations, veuillez consulter [Créez une file d'attente SageMaker de tâches de formation dans AWS Batch](create-sagemaker-job-queue.md).
+ Autorisations **IAM : autorisations** permettant de créer et de gérer des files AWS Batch d'attente de travail et des environnements de service. Pour de plus amples informations, veuillez consulter [AWS Batch Politiques, rôles et autorisations IAM](IAM_policies.md).

## Soumettre une tâche de service avec la AWS CLI
<a name="service-job-submit-example"></a>

Voici comment soumettre une tâche de service à l'aide de la AWS CLI :

```
aws batch submit-service-job \
    --job-name "my-sagemaker-training-job" \
    --job-queue "my-sagemaker-job-queue" \
    --service-job-type "SAGEMAKER_TRAINING" \
    --service-request-payload '{\"TrainingJobName\": \"sagemaker-training-job-example\", \"AlgorithmSpecification\": {\"TrainingImage\": \"123456789012.dkr.ecr.us-east-1.amazonaws.com/pytorch-inference:1.8.0-cpu-py3\", \"TrainingInputMode\": \"File\", \"ContainerEntrypoint\":  [\"sleep\", \"1\"]}, \"RoleArn\":\"arn:aws:iam::123456789012:role/SageMakerExecutionRole\", \"OutputDataConfig\": {\"S3OutputPath\": \"s3://example-bucket/model-output/\"}, \"ResourceConfig\": {\"InstanceType\": \"ml.m5.large\", \"InstanceCount\": 1, \"VolumeSizeInGB\": 1}}'
    --client-token "unique-token-12345"
```

Pour plus d'informations sur les `serviceRequestPayload` paramètres, consultez[Charges utiles des tâches de maintenance dans AWS Batch](service-job-payload.md).