

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Comece a usar a AWS DeepRacer
<a name="deepracer-get-started"></a>

 Para começar a usar a AWS DeepRacer, primeiro vamos percorrer as etapas de uso do DeepRacer console da AWS para configurar um agente com sensores apropriados para seus requisitos de direção autônoma, treinar um modelo de aprendizado por reforço para o agente com os sensores especificados e avaliar o modelo treinado para determinar a qualidade do modelo. Depois de treinar seu modelo, você pode iterá-lo e submetê-lo a uma corrida. 

**Topics**
+ [Treine seu primeiro DeepRacer modelo da AWS](deepracer-get-started-training-model.md)
+ [Avalie seus DeepRacer modelos da AWS em simulação](deepracer-get-started-test-in-simulator.md)

# Treine seu primeiro DeepRacer modelo da AWS
<a name="deepracer-get-started-training-model"></a>

Este passo a passo demonstra como treinar seu primeiro modelo usando o console da AWS. DeepRacer 

## Treine um modelo de aprendizado por reforço usando o console da AWS DeepRacer
<a name="deepracer-get-started-train-model-proc"></a>

Saiba onde encontrar o botão **Criar modelo** no DeepRacer console da AWS para iniciar sua jornada de treinamento de modelos.

**Para treinar um modelo de aprendizagem por reforço**

1. Se esta é a primeira vez que você usa a AWS DeepRacer, escolha **Criar modelo** na página inicial do serviço ou selecione **Começar** sob o título **Reinforcement learning** no painel de navegação principal. 

1. Na página **Conceitos básicos do aprendizado por reforço**, na **Etapa 2: Criar um modelo e corrida**, escolha **Criar modelo**.

   Ou, se preferir, escolha **Seus modelos** no título **Aprendizado por reforço** no painel de navegação principal. Na página **Your models (Seus modelos)**, selecione **Create model (Criar modelo)**.

## Especifique o nome do modelo e o ambiente
<a name="deepracer--create-model-step-one.title"></a>

Dê um nome ao seu modelo e saiba como escolher a pista de simulação certa para você.

**Para especificar o nome do modelo e o ambiente**

1. Na página **Criar modelo**, em **Detalhes do treinamento** insira um nome para seu modelo.

1. Opcionalmente, adicione uma descrição para a tarefa de treinamento.

1. Para saber mais sobre outras tags opcionais, consulte AWS DeepRacer.[Tags](deepracer-tagging.md)

1. Em **Simulação do ambiente**, escolha uma trilha para servir como ambiente de treinamento para seu DeepRacer agente da AWS. Em **Direção da pista**, escolha **Sentido horário** ou **anti-horário**. Em seguida, escolha **Próximo**.

   Para a sua primeira corrida, escolha uma pista com uma forma simples e curvas suaves. Em iterações posteriores, você pode escolher pistas mais complexas para melhorar progressivamente seus modelos. Para treinar um modelo para determinado evento de corrida, escolha a pista mais semelhante à pista do evento.

1. Na parte inferior da página, selecione **Próximo**.

## Escolha um tipo de corrida e um algoritmo de treinamento
<a name="deepracer--create-model-step-two"></a>

O DeepRacer console da AWS tem três tipos de corrida e dois algoritmos de treinamento para escolher. Saiba quais são apropriados para seu nível de habilidade e suas metas de treinamento. 

**Para escolher um tipo de corrida e um algoritmo de treinamento**

1. Na página **Criar modelo**, em **Tipo de corrida**, selecione **Contra-relógio**, **Evitar objetos** ou **H. ead-to-bot**

   Para sua primeira corrida, recomendamos escolher **Contrarrelógio**. Para obter orientação sobre como otimizar a configuração do sensor do seu agente para esse tipo de corrida, consulte [Personalize o DeepRacer treinamento da AWS para testes de contrarrelógio](deepracer-choose-race-type.md#deepracer-get-started-training-simple-time-trial).

1. Para corridas posteriores, você pode escolher **Desvio de objetos** para contornar obstáculos estacionários colocados em locais fixos ou aleatórios ao longo da pista escolhida. Para obter mais informações, consulte [Personalize o DeepRacer treinamento da AWS para corridas para evitar objetos](deepracer-choose-race-type.md#deepracer-get-started-training-object-avoidance).

   1. Escolha **Local fixo** para gerar caixas em locais fixos designados pelo usuário nas duas faixas da pista ou selecione **Local aleatório** para gerar objetos que são distribuídos aleatoriamente pelas duas faixas no início de cada episódio de sua simulação de treinamento.

   1. Em seguida, escolha um valor para o **Número de objetos em uma pista**.

   1.  Se você escolher **Localização fixa**, poderá ajustar o posicionamento de cada objeto na pista. Para **Posicionamento da faixa**, escolha entre a faixa interna e a externa. Por padrão, os objetos são distribuídos uniformemente pela pista. Para alterar a distância entre a linha de partida e a linha de chegada de um objeto, insira uma porcentagem dessa distância entre 7 e 90 no campo **Localização (%) entre o início e o fim**. 

1. Opcionalmente, para corridas mais ambiciosas, escolha **Head-to-bot correr** contra até quatro veículos robôs que se movem a uma velocidade constante. Para saber mais, consulte [Personalize o DeepRacer treinamento da AWS para corridas head-to-bot](deepracer-choose-race-type.md#deepracer-get-started-training-h2h-racing).

   1. Em **Escolha o número de veículos bot**, selecione com quantos veículos bot você deseja que seu agente treine.

   1. Em seguida, escolha a velocidade em milímetros por segundo na qual você deseja que os veículos bots percorram a pista.

   1. Outra opção é marcar a caixa **Ativar mudanças de faixa** para permitir que os veículos robôs mudem de faixa aleatoriamente a cada 1-5 segundos.

1. Em **Algoritmo de treinamento e hiperparâmetros**, escolha o algoritmo **Ator-crítica suave (SAC)** ou **Otimização de política proximal (PPO) (**. No DeepRacer console da AWS, os modelos de SAC devem ser treinados em espaços de ação contínua. Os modelos de PPO podem ser treinados em espaços de ação contínua ou discreta.

1. Em **Algoritmo e hiperparâmetros de treinamento**, use os valores de hiperparâmetros padrão como estão.

   Mais tarde, para melhorar o desempenho do treinamento, expanda **Hyperparameters (Hiperparâmetros)** e modifique os valores padrão dos hiperparâmetros da seguinte forma:

   1. Para **Gradient descent batch size (Tamanho de lote da descida de gradiente)**, escolha as [opções disponíveis](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters). 

   1. Para **Number of epochs (Número de epochs)**, defina um [valor válido](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters). 

   1. Para **Learning rate (Taxa de aprendizado)**, defina um [valor válido](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters). 

   1. Para o **valor alfa do SAC** (somente algoritmo do SAC), defina um [valor válido](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   1. Para **Entropy (Entropia)**, defina um [valor válido](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   1. Para **Discount factor (Fato de desconto**), defina um [valor válido](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   1. Para **Loss type (Tipo de perda)**, escolha as [opções disponíveis](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   1. Para **Number of experience episodes between each policy-updating iteration (Número de episódios de experiência entre cada iteração de atualização de política)**, defina um [valor válido](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   Para obter mais informações sobre hiperparâmetros, consulte [Ajustar sistematicamente os hiperparâmetros](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

1. Escolha **Próximo**.

## Defina o espaço de ação
<a name="deepracer--create-model-specify-action-space"></a>

Na página **Definir espaço de ação**, se você optou por treinar com o algoritmo Ator-crítica suave (SAC), seu espaço de ação padrão é o Espaço de ação contínuo. Se você optou por treinar com o algoritmo Otimização de Política Proximal (PPO), escolha entre **Espaço de ação contínuo** e **Espaço de ação discreta**. Para saber mais sobre como cada espaço de ação e algoritmo molda a experiência de treinamento do agente, consulte [Espaço de DeepRacer ação e função de recompensa da AWS](deepracer-how-it-works-action-space.md).

### Para definir o espaço de ação contínuo (algoritmos SAC ou PPO)
<a name="deepracer--create-model-specify-action-space"></a>

1. Em **Definir espaço de ação contínuo**, escolha os graus do intervalo do **Ângulo direção à esquerda** e do **Ângulo de direção à direita**.

   Tente inserir graus diferentes para cada intervalo de ângulo de direção e observe a visualização de sua mudança de intervalo para representar suas escolhas no **Gráfico dinâmico do setor**.  
![\[\]](http://docs.aws.amazon.com/pt_br/deepracer/latest/developerguide/images/deepracer-dynamic-sector-graph.png)

1. Em **Velocidade**, insira uma velocidade mínima e máxima para seu agente em milímetros por segundo.

   Observe como suas alterações são refletidas no **Gráfico dinâmico do setor**.

1. Opcionalmente, escolha **Redefinir para valores padrão** para limpar valores indesejados. Incentivamos testar valores diferentes no gráfico para experimentar e aprender.

1. Escolha **Próximo**.

### Para definir um espaço de ação discreto (somente algoritmo PPO)
<a name="deepracer--create-model-specify-action-space"></a>

1. Escolha um valor para a **Granularidade do ângulo de direção** na lista suspensa.

1. Escolha um valor em graus entre 1 e 30 para o **Ângulo máximo de direção** do seu agente. 

1. Selecione um valor para a **Granularidade de velocidade** na lista suspensa.

1. Escolha um valor em milímetros por segundo entre 0,1-4 para a **velocidade máxima** do seu agente. 

1. Use as configurações de ação padrão na **Lista de ações** ou, opcionalmente, ative a **Configuração avançada** para ajustar suas configurações. Ao selecionar **Anterior** ou desativar a **Configuração avançada** após ajustar os valores, as alterações serão perdidas.  
![\[\]](http://docs.aws.amazon.com/pt_br/deepracer/latest/developerguide/images/deepracer-advanced-configuration-toggle.png)

   1. Insira um valor em graus entre -30 e 30 na coluna **Ângulo de direção**.

   1. Insira um valor entre 0,1 e 4 em milímetros por segundo para até nove ações na coluna **Velocidade**.

   1. Você também pode selecionar **Adicionar uma ação** para aumentar o número de linhas na lista de ações.  
![\[\]](http://docs.aws.amazon.com/pt_br/deepracer/latest/developerguide/images/deepracer-add-an-action.png)

   1. Ou selecione **X** em uma linha para removê-la.

1. Escolha **Próximo**.

## Escolha um carro virtual
<a name="deepracer-create-model-step-four"></a>

Saiba como começar a usar carros virtuais. Ganhe novos carros personalizados, pinturas e modificações competindo na Divisão aberta todos os meses.

**Para escolher um carro virtual**

1. Na página **Escolha a carroceria do veículo e a configuração do sensor**, escolha uma carroceria que seja compatível com seu tipo de corrida e espaço de ação. Se você não tiver um carro adequado na garagem, acesse **Sua garagem** no título **Aprendizado por reforço** no painel de navegação principal para criar um.

   Para o treinamento de **contra-relógio**, a configuração padrão do sensor e a câmera de lente única do **The Original DeepRacer** são tudo o que você precisa, mas todas as outras configurações de projéteis e sensores funcionam desde que o espaço de ação corresponda. Para obter mais informações, consulte [Personalize o DeepRacer treinamento da AWS para testes de contrarrelógio](deepracer-choose-race-type.md#deepracer-get-started-training-simple-time-trial).

   Para o treinamento para **Desvio de objetos**, câmeras estéreo são úteis, mas uma única câmera também pode ser usada para desviar de obstáculos estacionários em locais fixos. Um sensor LiDAR é opcional. Consulte [Espaço de DeepRacer ação e função de recompensa da AWS](deepracer-how-it-works-action-space.md).

   Para o ead-to-bot treinamento **H**, além de uma única câmera ou câmera estéreo, uma unidade LiDAR é ideal para detectar e evitar pontos cegos ao ultrapassar outros veículos em movimento. Para saber mais, consulte [Personalize o DeepRacer treinamento da AWS para corridas head-to-bot](deepracer-choose-race-type.md#deepracer-get-started-training-h2h-racing).

1. Escolha **Próximo**.

## Personalizar sua função de recompensa
<a name="deepracer-create-model-step-five"></a>

A função de recompensa é uma parte importante do aprendizado por reforço. Aprenda a usá-la para incentivar seu carro (agente) a realizar ações específicas ao explorar a pista (ambiente). Assim como você incentivaria ou não certos comportamentos em um animal de estimação, você pode usar essa ferramenta para incentivar seu carro a terminar uma volta o mais rápido possível e evitar que ele saia da pista ou colida com objetos.

**Para personalizar sua função de recompensa**

1. Na página **Create model (Criar modelo)**, em **Reward function (Função de recompensa)**, use o exemplo de função de recompensa padrão como está para seu primeiro modelo.   
![\[\]](http://docs.aws.amazon.com/pt_br/deepracer/latest/developerguide/images/deepracer-reward-function-example-editor.png)

   Posteriormente, você pode escolher **Reward function examples (Exemplos de função de recompensa)** para selecionar outra função de exemplo e escolher **Use code (Usar código)** para aceitar a função de recompensa selecionada.

   Para começar, há três de funções de exemplo. Elas ilustram como seguir o centro da pista (padrão), como manter o agente dentro das margens da pista, como evitar a condução em ziguezague e como evitar colisão com obstáculos estacionários ou outros veículos em movimento. 

   Para saber mais sobre a função de recompensa, consulte [Referência da função de DeepRacer recompensa da AWS](deepracer-reward-function-reference.md).

1. Em **Condições de interrupção**, deixe o valor padrão de **Tempo máximo** como está ou defina um novo valor para encerrar a tarefa de treinamento, para ajudar a evitar tarefas de treinamento de longa duração (e possíveis fugitivos). 

   Ao experimentar na fase inicial do treinamento, você deve começar com um valor pequeno para esse parâmetro e treinar progressivamente para valores maiores de tempo.

1. Em **Enviar automaticamente para a AWS DeepRacer**, a opção **Enviar este modelo para a AWS DeepRacer automaticamente após a conclusão do treinamento e ter a chance de ganhar prêmios** é marcada por padrão. Você pode também deixar de inserir seu modelo selecionando a caixa de seleção.

1. Em **Requisitos da Liga**, selecione seu **País de residência** e aceite os termos e condições marcando a caixa. 

1. Selecione **Criar modelo** para começar a criar o modelo e provisionar a instância do trabalho de treinamento. 

1. Após o envio, observe seu trabalho de treinamento sendo inicializado e executado. 

   O processo de inicialização leva alguns minutos para alterar o status de **Inicializando** para **Em andamento**.

1. Veja o **Reward graph (Gráfico de recompensas)** e o **Simulation video stream (Streaming do vídeo de simulação)** para observar o progresso do seu trabalho de treinamento. Você pode selecionar o botão de atualização ao lado de **Reward graph (Gráfico de recompensas)** periodicamente para atualizar o **Reward graph (Gráfico de recompensas)** até que o trabalho de treinamento seja concluído.   
![\[\]](http://docs.aws.amazon.com/pt_br/deepracer/latest/developerguide/images/deepracer-training-in-progress.png)

O trabalho de treinamento é executado na AWS nuvem, então você não precisa manter o DeepRacer console da AWS aberto. Você pode voltar ao console para verificar seu modelo a qualquer momento enquanto o trabalho estiver em andamento. 

Se a janela** Streaming de vídeo de simulação** ou a exibição do **Gráfico de recompensas** deixar de responder, atualize a página do navegador para que o andamento do treinamento seja atualizado.

# Avalie seus DeepRacer modelos da AWS em simulação
<a name="deepracer-get-started-test-in-simulator"></a>

 Após a conclusão do trabalho de treinamento, você deve avaliar o modelo treinado para avaliar seu comportamento de convergência. A avaliação prossegue completando uma série de testes em uma pista escolhida e fazendo com que o agente se mova na pista de acordo com ações prováveis inferidas pelo modelo treinado. As métricas de desempenho incluem uma porcentagem de conclusão da pista e o tempo de execução em cada pista, do início ao fim ou fora da pista. 

Para avaliar seu modelo treinado, você pode usar o DeepRacer console da AWS. Para fazer isso, siga as etapas neste tópico. 

**Para avaliar um modelo treinado no DeepRacer console da AWS**

1. Abra o DeepRacer console da AWS em https://console.aws.amazon.com /deepracer. 

1. No painel de navegação principal, escolha **Models (Modelos)** e escolha o modelo que você acabou de treinar na lista **Models (Modelos)** para abrir a página de detalhes do modelo.

1.  Selecione a aba **Avaliação**. 

1. Em **Detalhes da avaliação**, escolha **Iniciar avaliação**.  
![\[Evaluation details section showing training complete message and option to start evaluation.\]](http://docs.aws.amazon.com/pt_br/deepracer/latest/developerguide/images/evaluation_details_start.png)

   Você pode iniciar uma avaliação depois que o status do trabalho de treinamento for alterado para **Completed (Concluído)** ou o status do modelo for alterado para **Ready (Pronto)** se o trabalho de treinamento não tiver sido concluído. 

   Um modelo estará pronto quando o treinamento for concluído. Se o treinamento não foi concluído, o modelo também poderá estar em um estado **Ready (Pronto)** se for treinado até o ponto de falha.

1. Na página **Avaliar modelo** em **Tipo de corrida**, insira um nome para a avaliação e escolha o tipo de corrida que você escolheu para treinar o modelo. 

   Para avaliação, você pode escolher um tipo de corrida diferente do tipo de corrida usado no treinamento. Por exemplo, você pode treinar um modelo para head-to-bot corridas e depois avaliá-lo para contrarrelógio. Em geral, o modelo deverá generalizar bem se o tipo de corrida de treinamento for diferente do tipo de corrida de avaliação. Para a sua primeira execução, use o mesmo tipo de corrida para avaliação e treinamento. 

1. Na página **Avaliar modelo** em **Avaliar critérios**, escolha o número de testes que deseja executar e escolha uma pista que será usada para a avaliação do modelo.  
![\[\]](http://docs.aws.amazon.com/pt_br/deepracer/latest/developerguide/images/evaluation_select_track.png)

   Normalmente, deseja-se escolher uma pista igual ou semelhante àquela usada no [treinamento do modelo](deepracer-get-started-training-model.md#deepracer-get-started-train-model-proc). Escolha qualquer pista para avaliar seu modelo, no entanto, espere o melhor desempenho em uma pista que seja bem semelhante àquela usada no treinamento. 

   Para ver se o modelo se generaliza bem, escolha uma pista de avaliação diferente da utilizada no treinamento. 

1. Na página **Evaluate model (Avaliar modelo)** em **Virtual Race Submission (Envio de corrida virtual)**, para seu primeiro modelo, desative a opção **Submit model after evaluation (Enviar modelo depois da avaliação)**. Mais tarde, se você quiser participar de um evento de corrida, deixe essa opção ativada.  
![\[Virtual race submission section with options for submitting a model for evaluation.\]](http://docs.aws.amazon.com/pt_br/deepracer/latest/developerguide/images/deepracer-get-started-evaluate-virtual-race-submit.png)

1. Na página **Evaluate model (Avaliar modelo)**, escolha **Start evaluation (Iniciar avaliação)** para começar a criar e inicializar o trabalho de avaliação. 

   Esse processo de inicialização leva cerca de 3 minutos para ser concluído. 

1. À medida que a avaliação avança, os resultados da avaliação, incluindo o tempo de teste e a taxa de conclusão da pista, são exibidos em **Detalhes da avaliação** após cada teste. Na janela **Simulation video stream (Streaming de vídeo de simulação)** você pode observar como o agente se executa na pista escolhida.

    É possível interromper um trabalho de avaliação antes de sua conclusão. Para interromper um trabalho de avaliação, escolha **Stop evaluation (Interromper avaliação)** no canto superior direito do cartão **Evaluation (Avaliação)** e confirme para interromper a avaliação. 

1. Após a conclusão do trabalho de avaliação, examine as métricas de desempenho de todos os testes em **Evaluation results (Resultados da avaliação)**. O streaming de vídeo de simulação que acompanha não está mais disponível. 

   Um histórico das avaliações do seu modelo está disponível no **Seletor de avaliação**. Para ver os detalhes de uma avaliação específica, selecione a avaliação na lista do **Seletor de avaliação** e escolha **Carregar avaliação** no canto superior direito do cartão **Seletor de avaliação**.   
![\[\]](http://docs.aws.amazon.com/pt_br/deepracer/latest/developerguide/images/evaluation_selector_complete.png)

   Para esse trabalho de avaliação específico, o modelo treinado conclui os testes com uma penalidade considerável de tempo fora da pista. Como a primeira corrida, isso não é incomum. As possíveis razões incluem que o treinamento não convergiu e o treinamento precisa de mais tempo, o espaço de ação precisa ser ampliado para dar ao agente mais espaço para reagir, ou a função de recompensa precisa ser atualizada para lidar com ambientes variados. 

    Você pode continuar a melhorar o modelo clonando um treinado anteriormente, modificando a função de recompensa, ajustando os hiperparâmetros e iterando o processo até que a recompensa total convirja e as métricas de desempenho melhorem. Para obter mais informações sobre como melhorar o treinamento, consulte [Treine e avalie os DeepRacer modelos da AWS](create-deepracer-project.md). 

 Para transferir seu modelo totalmente treinado para seu DeepRacer dispositivo da AWS para dirigir em um ambiente físico, você precisa baixar os artefatos do modelo. Para isso, escolha **Download model (Fazer download do modelo)** na página de detalhes do modelo. Se seu dispositivo DeepRacer físico da AWS não suportar novos sensores e seu modelo tiver sido treinado com os novos tipos de sensores, você receberá uma mensagem de erro ao usar o modelo em seu DeepRacer dispositivo da AWS em um ambiente real. Para obter mais informações sobre como testar um DeepRacer modelo da AWS com um dispositivo físico, consulte[Opere seu DeepRacer veículo da AWS](operate-deepracer-vehicle.md).

Depois de treinar seu modelo em uma pista idêntica ou semelhante à especificada em um evento de corrida DeepRacer da AWS League ou em uma corrida da DeepRacer comunidade da AWS, você pode enviar o modelo para as corridas virtuais no DeepRacer console da AWS. Para fazer isso, siga o **AWS circuito virtual** ou as **corridas da comunidade** no painel de navegação principal. Para obter mais informações, consulte [Participe de uma DeepRacer corrida da AWS](deepracer-racing-series.md). 



Para treinar um modelo para evitar obstáculos ou head-to-bot correr, talvez seja necessário adicionar novos sensores ao modelo e ao dispositivo físico. Para obter mais informações, consulte [Entendendo os tipos de corrida e habilitando sensores compatíveis com a AWS DeepRacer](deepracer-choose-race-type.md).