

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Treine um PyTorch modelo
<a name="train-models-with-hyperpod"></a>

Este tópico explica o processo de treinamento de um PyTorch modelo usando HyperPod o.

Nesse cenário, vamos treinar um PyTorch modelo usando o `hyp-pytorch-job` modelo, o que simplifica a criação de trabalhos ao expor parâmetros comumente usados. Os artefatos do modelo serão armazenados em um bucket do S3 para uso posterior na inferência. No entanto, isso é opcional e você pode escolher seu local de armazenamento preferido.

## Criar uma tarefa de treinamento
<a name="create-training-job"></a>

Você pode treinar o modelo usando a CLI ou o Python SDK.

### Usar a CLI
<a name="using-cli"></a>

Crie uma tarefa de treinamento com o seguinte comando:

```
hyp create hyp-pytorch-job \
    --version 1.0 \
    --job-name test-pytorch-job \
    --image pytorch/pytorch:latest \
    --command '["python", "train.py"]' \
    --args '["--epochs", "10", "--batch-size", "32"]' \
    --environment '{"PYTORCH_CUDA_ALLOC_CONF": "max_split_size_mb:32"}' \
    --pull-policy "IfNotPresent" \
    --instance-type ml.p4d.24xlarge \
    --tasks-per-node 8 \
    --label-selector '{"accelerator": "nvidia", "network": "efa"}' \
    --deep-health-check-passed-nodes-only true \
    --scheduler-type "kueue" \
    --queue-name "training-queue" \
    --priority "high" \
    --max-retry 3 \
    --volumes '["data-vol", "model-vol", "checkpoint-vol"]' \
    --persistent-volume-claims '["shared-data-pvc", "model-registry-pvc"]' \
    --output-s3-uri s3://my-bucket/model-artifacts
```

**Explicação dos principais parâmetros necessários**:
+ `--job-name`: identificador exclusivo para sua tarefa de treinamento.
+ `--image`: imagem do Docker contendo seu ambiente de treinamento.

Esse comando inicia uma tarefa de treinamento chamado `test-pytorch-job`. O `--output-s3-uri` especifica onde os artefatos do modelo treinado serão armazenados; por exemplo, `s3://my-bucket/model-artifacts`. Anote esse local, pois você precisará dele para implantar o modelo personalizado.

### Utilizar o Python SDK
<a name="using-python-sdk"></a>

Para controle programático, use o SDK. Crie um script Python para iniciar a mesma tarefa de treinamento.

```
from sagemaker.hyperpod import HyperPodPytorchJob
from sagemaker.hyperpod.job 
import ReplicaSpec, Template, Spec, Container, Resources, RunPolicy, Metadata

# Define job specifications
nproc_per_node = "1"  # Number of processes per node
replica_specs = 
[
    ReplicaSpec
    (
        name = "pod",  # Replica name
        template = Template
        (
            spec = Spec
            (
                containers =
                [
                    Container
                    (
                        # Container name
                        name="container-name",  
                        
                        # Training image
                        image="448049793756.dkr.ecr.us-west-2.amazonaws.com/ptjob:mnist",  
                        
                        # Always pull image
                        image_pull_policy="Always",  
                        resources=Resources\
                        (
                            # No GPUs requested
                            requests={"nvidia.com/gpu": "0"},  
                            # No GPU limit
                            limits={"nvidia.com/gpu": "0"},   
                        ),
                        # Command to run
                        command=["python", "train.py"],  
                        # Script arguments
                        args=["--epochs", "10", "--batch-size", "32"],  
                    )
                ]
            )
        ),
    )
]
# Keep pods after completion
run_policy = RunPolicy(clean_pod_policy="None")  

# Create and start the PyTorch job
pytorch_job = HyperPodPytorchJob
(
    # Job name
    metadata = Metadata(name="demo"),  
    # Processes per node
    nproc_per_node = nproc_per_node,   
    # Replica specifications
    replica_specs = replica_specs,     
    # Run policy
    run_policy = run_policy,           
    # S3 location for artifacts
    output_s3_uri="s3://my-bucket/model-artifacts"  
)
# Launch the job
pytorch_job.create()
```

## Monitorar sua tarefa de treinamento
<a name="monitor-training-job"></a>

Monitore o andamento da tarefa com estes comandos:

### Usar a CLI
<a name="monitor-cli"></a>

```
# Check job status
hyp list hyp-pytorch-job

# Get detailed information
hyp describe hyp-pytorch-job --job-name test-pytorch-job

# View logs
hyp get-logs hyp-pytorch-job \
    --pod-name test-pytorch-job-pod-0 \
    --job-name test-pytorch-job
```

**Observação**: o tempo de treinamento varia de acordo com a complexidade do modelo e o tipo de instância. Monitore os logs para acompanhar o andamento.

Esses comandos ajudam você a verificar o status do trabalho e solucionar problemas. Depois que o trabalho for concluído com êxito, os artefatos do modelo serão salvos em `s3://my-bucket/model-artifacts`.

### Utilizar o Python SDK
<a name="monitor-python-sdk"></a>

Adicione o seguinte código ao seu script Python:

```
print("List all pods created for this job:")
print(pytorch_job.list_pods())

print("Check the logs from pod0:")
print(pytorch_job.get_logs_from_pod(pod_name="demo-pod-0"))

print("List all HyperPodPytorchJobs:")
print(HyperPodPytorchJob.list())

print("Describe job:")
print(HyperPodPytorchJob.get(name="demo").model_dump())

pytorch_job.refresh()
print(pytorch_job.status.model_dump())
```

## Próximas etapas
<a name="next-steps"></a>

Após o treinamento, os artefatos do modelo são armazenados no bucket do S3 que você especificou (`s3://my-bucket/model-artifacts`). Você pode usar esses artefatos para implantar um modelo. No momento, você deve gerenciar manualmente a transição entre o treinamento e a inferência. Isso envolve:
+ **Localizar os artefatos**: verifique o bucket do S3 (`s3://my-bucket/model-artifacts`) para confirmar se os arquivos do modelo treinado estão presentes.
+ **Registrar o caminho**: observe o caminho exato do S3 (p. ex., `s3://my-bucket/model-artifacts/test-pytorch-job/model.tar.gz`) para usá-lo na configuração da inferência.
+ **Indicar o caminho na implantação**: forneça esse caminho do S3 ao configurar o endpoint personalizado para garantir que o modelo correto seja carregado.