

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Comience a usar AWS DeepRacer
<a name="deepracer-get-started"></a>

 Para empezar a usar AWS DeepRacer, primero repasemos los pasos para usar la DeepRacer consola de AWS para configurar un agente con los sensores adecuados para sus requisitos de conducción autónoma, entrenar un modelo de aprendizaje reforzado para el agente con los sensores especificados y evaluar el modelo entrenado para determinar la calidad del modelo. Una vez que haya entrenado su modelo, puede iterar sobre él y presentarlo en una carrera. 

**Topics**
+ [

# Entrene su primer DeepRacer modelo de AWS
](deepracer-get-started-training-model.md)
+ [

# Evalúe sus DeepRacer modelos de AWS en una simulación
](deepracer-get-started-test-in-simulator.md)

# Entrene su primer DeepRacer modelo de AWS
<a name="deepracer-get-started-training-model"></a>

En este tutorial se muestra cómo entrenar su primer modelo con la DeepRacer consola de AWS. 

## Entrene un modelo de aprendizaje por refuerzo con la DeepRacer consola de AWS
<a name="deepracer-get-started-train-model-proc"></a>

Descubra dónde encontrar el botón **Crear modelo** en la DeepRacer consola de AWS para comenzar su viaje de formación de modelos.

**Cómo entrenar un modelo de aprendizaje por refuerzo**

1. Si es la primera vez que utiliza AWS DeepRacer, elija **Crear modelo** en la página de inicio del servicio o seleccione **Comenzar** en el encabezado **Aprendizaje reforzado** del panel de navegación principal. 

1. En la página **Introducción al aprendizaje de refuerzo** en **Paso 2: crear un modelo**, elija **Crear modelo**.

   Como alternativa, elija **Sus modelos** en el encabezado **Aprendizaje por refuerzo** del panel de navegación principal. En la página **Your models (Sus modelos)**, elija **Create model (Crear modelo)**.

## Especifique el nombre y el entorno del modelo
<a name="deepracer--create-model-step-one.title"></a>

Asigne un nombre a su modelo y aprenda a elegir la pista de simulación adecuada para usted.

**Cómo especificar el nombre y el entorno del modelo**

1. En la página **Crear modelo**, en **Detalles de entrenamiento** escriba un nombre para el modelo.

1. También puede optar por agregar una descripción de trabajo.

1. Para obtener más información acerca de las etiquetas adicionales, consulte [Etiquetado](deepracer-tagging.md).

1. En **Simulación de entorno**, elija una pista que sirva de entorno de formación para su DeepRacer agente de AWS. En **Dirección de seguimiento**, elija **Sentido horario** o **Antihorario**. A continuación, elija **Siguiente**.

   Para su primera carrera, elija una pista con una forma sencilla y curvas suaves. En iteraciones posteriores, puede elegir pistas más complejas para mejorar progresivamente sus modelos. Para entrenar un modelo para un determinado evento de carreras, elija la pista más parecida a la pista del evento.

1. En la parte inferior de la página, elija **Siguiente**.

## Elección de un tipo de carrera y un algoritmo de entrenamiento
<a name="deepracer--create-model-step-two"></a>

La DeepRacer consola AWS tiene tres tipos de carreras y dos algoritmos de entrenamiento entre los que elegir. Descubra cuáles son adecuados para su nivel de habilidad y sus objetivos de entrenamiento. 

**Cómo elegir un tipo de carrera y un algoritmo de entrenamiento**

1. En la página **Crear modelo**, en **Tipo de carrera**, selecciona **Contrarreloj**, **Evitar objetos** o **H. ead-to-bot**

   Para la primera vez que juegue, le recomendamos que elija **Contrarreloj**. Para obtener información sobre cómo optimizar la configuración de los sensores de su agente para este tipo de carrera, consulte [Personalice la DeepRacer formación de AWS para las contrarreloj](deepracer-choose-race-type.md#deepracer-get-started-training-simple-time-trial).

1. De forma opcional, para carreras posteriores, puede elegir **Esquivar objetos** para recorrer obstáculos inmóviles colocados en ubicaciones fijas o aleatorias a lo largo de la pista elegida. Para obtener más información, consulte [Adapte la DeepRacer formación de AWS para las carreras de evitación de objetos](deepracer-choose-race-type.md#deepracer-get-started-training-object-avoidance).

   1. Elija **Ubicación fija** para generar cajas en ubicaciones fijas designadas por el usuario en los dos carriles de la pista o seleccione **Ubicación aleatoria** para generar objetos que se distribuyan aleatoriamente en los dos carriles al principio de cada episodio de su simulación de entrenamiento.

   1. A continuación, elija un valor para el **número de objetos en una pista**.

   1.  Si elige **Ubicación fija**, puede ajustar la ubicación de cada objeto en la pista. Para **la ubicación del carril**, elija entre el carril interior y el carril exterior. De forma predeterminada, los objetos se distribuyen uniformemente por la vía. Para cambiar la distancia entre la línea de inicio y la meta de un objeto, introduzca un porcentaje de esa distancia entre siete y 90 en el campo **Ubicación (%) entre la salida y la meta**. 

1. Si lo prefieres, para **Head-to-bot carreras** más ambiciosas, opta por competir contra hasta cuatro vehículos robot que se muevan a una velocidad constante. Para obtener más información, consulte [Personalice el DeepRacer entrenamiento de AWS para head-to-bot las carreras](deepracer-choose-race-type.md#deepracer-get-started-training-h2h-racing).

   1. En **Eligir el número de vehículos robot**, seleccione el número de vehículos robot con el que quiere que entrene su agente.

   1. A continuación, elija la velocidad en milímetros por segundo a la que quiere que los vehículos robot viajen por la pista.

   1. Si lo prefiere, marque la casilla **Activar cambios de carril** para que los vehículos robot puedan cambiar de carril aleatoriamente cada 1 a 5 segundos.

1. En **Algoritmo de entrenamiento e hiperparámetros**, elija el algoritmo **Soft Actor Critic (SAC)** o **Proximal Policy Optimization (PPO)**. En la DeepRacer consola de AWS, los modelos SAC deben entrenarse en espacios de acción continua. Los modelos PPO se pueden entrenar en espacios de acción continuos o discretos.

1. En **Algoritmo e hiperparámetros de entrenamiento**, use los valores predeterminados de hiperparámetros tal como están.

   Más adelante, para mejorar el rendimiento del entrenamiento, expanda **Hyperparameters (Hiperparámetros)** y modifique los valores predeterminados como se indica a continuación:

   1. Para **Gradient descent batch size (Tamaño de lote de descenso de gradientes)**, elija las [opciones disponibles](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters). 

   1. Para **Number of epochs (Número de fechas de inicio)**, establezca un [valor válido](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters). 

   1. Para **Learning rate (Ritmo de aprendizaje)**, establezca un [valor válido](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters). 

   1. Para el **valor alfa del SAC** (solo para el algoritmo SAC), establezca un [valor válido](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   1. Para **Entropy (Entropía)**, establezca un [valor válido](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   1. Para **Discount factor (Factor de descuento)**, establezca un [valor válido](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   1. Para **Loss type (Tipo de pérdida)**, elija [las opciones disponibles](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   1. Para **Number of experience episodes between each policy-updating iteration (Número de episodios de experiencia entre cada iteración de actualización de política)**, establezca un [valor válido](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   Para obtener más información acerca de los hiperparámetros, consulte [Ajuste sistemático de hiperparámetros](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

1. Elija **Siguiente**.

## Defina el espacio de acción
<a name="deepracer--create-model-specify-action-space"></a>

En la página **Definir un espacio de acción**, si ha elegido entrenar con el algoritmo Soft Actor Critic (SAC), su espacio de acción predeterminado es el espacio de acción continua. Si ha elegido entrenar con el algoritmo Proximal Policy Optimization (PPO), elija entre un **espacio de acción continuo** o un **espacio de acción discreto**. Para obtener más información sobre cómo cada espacio de acción y algoritmo moldea la experiencia de entrenamiento del agente, consulte [Espacio de DeepRacer acción y función de recompensas de AWS](deepracer-how-it-works-action-space.md).

### Cómo definir el espacio de acción continua (algoritmos SAC o PPO)
<a name="deepracer--create-model-specify-action-space"></a>

1. En **Definir un espacio de acción continuo**, seleccione los grados del rango del **ángulo de giro izquierdo** y el **rango del ángulo de giro derecho**.

   Intente introducir diferentes grados para cada rango de ángulo de giro y observe cómo cambia la visualización del rango para representar sus elecciones en el **gráfico del sector dinámico**.  
![\[\]](http://docs.aws.amazon.com/es_es/deepracer/latest/developerguide/images/deepracer-dynamic-sector-graph.png)

1. En **Velocidad**, introduzca una velocidad mínima y máxima para su agente en milímetros por segundo.

   Observe cómo se reflejan sus cambios en el **Gráfico del sector dinámico**.

1. Si lo desea, elija **Restablecer los valores predeterminados** para borrar los valores no deseados. Le recomendamos que pruebe diferentes valores en la gráfica para experimentar y aprender.

1. Elija **Siguiente**.

### Cómo definir un espacio de acción discreto (solo con el algoritmo PPO)
<a name="deepracer--create-model-specify-action-space"></a>

1. Seleccione un **Valor de granularidad del ángulo de dirección** del menú desplegable.

1. Elija un valor en grados entre 1 y 30 grados para el **ángulo de giro máximo** de su agente. 

1. Seleccione un **Valor de granularidad de velocidad** del menú desplegable.

1. Elija un valor en milímetros por segundo entre 0,1 y 4 para la **Velocidad máxima** de su agente. 

1. Utilice los ajustes de acción predeterminados de la **Lista de acciones** o, si lo desea, active la **Configuración avanzada** para ajustar los ajustes. Si selecciona **Anterior** o desactiva la **Configuración avanzada** después de ajustar los valores, perderá los cambios.  
![\[\]](http://docs.aws.amazon.com/es_es/deepracer/latest/developerguide/images/deepracer-advanced-configuration-toggle.png)

   1. Introduzca un valor en grados entre −30 y 30 grados en la columna del **Ángulo de dirección**.

   1. Introduzca un valor entre 0,1 y 4 milímetros por segundo para un máximo de nueve acciones en la columna **Velocidad**.

   1. Si lo desea, seleccione **Añadir una acción** para aumentar el número de filas de la lista de acciones.  
![\[\]](http://docs.aws.amazon.com/es_es/deepracer/latest/developerguide/images/deepracer-add-an-action.png)

   1. Si lo desea, seleccione una **X** en una fila para eliminarla.

1. Elija **Siguiente**.

## Elige un vehículo virtual
<a name="deepracer-create-model-step-four"></a>

Describe cómo comenzar a utilizar vehículos virtuales. Consiga nuevos coches personalizados, trabajos de pintura y modificaciones compitiendo en la Open Division cada mes.

**Cómo elegir un coche virtual**

1. En la página **Elegir la configuración de la carrocería del vehículo y el sensor**, elija una carrocería que sea compatible con su tipo de carrera y su espacio de acción. Si no tiene un coche que coincida en su garaje, vaya a **Su garaje**, en el apartado **Aprendizaje por refuerzo** del panel de navegación principal, para crear uno.

   Para el entrenamiento **contrarreloj**, lo único que necesitas DeepRacer es la configuración predeterminada de los sensores y **la cámara de objetivo único de The Original**, pero todas las demás carcasas y configuraciones de sensores funcionan siempre y cuando el espacio de acción coincida con el de la cámara. Para obtener más información, consulte [Personalice la DeepRacer formación de AWS para las contrarreloj](deepracer-choose-race-type.md#deepracer-get-started-training-simple-time-trial).

   Para el entrenamiento para **Esquivar objetos**, las cámaras estéreo son útiles, pero también se puede usar una sola cámara para evitar obstáculos estacionarios en ubicaciones fijas. El sensor LiDAR es opcional. Consulte [Espacio de DeepRacer acción y función de recompensas de AWS](deepracer-how-it-works-action-space.md).

   Para el ead-to-bot entrenamiento **H**, además de una sola cámara o una cámara estéreo, una unidad LiDAR es óptima para detectar y evitar puntos ciegos al rebasar a otros vehículos en movimiento. Para obtener más información, consulte [Personalice el DeepRacer entrenamiento de AWS para head-to-bot las carreras](deepracer-choose-race-type.md#deepracer-get-started-training-h2h-racing).

1. Elija **Siguiente**.

## Personalice su función de recompensa
<a name="deepracer-create-model-step-five"></a>

La función de recompensa es una parte fundamental del aprendizaje por refuerzo. Aprenda a utilizarla para incentivar a su coche (agente) a realizar acciones específicas mientras explora la pista (entorno). Al igual que fomentar y desalentar ciertos comportamientos en una mascota, puede usar esta herramienta para animar a su vehículo a completar una vuelta lo más rápido posible y evitar que se salga de la pista o choque con objetos.

**Cómo personalizar su función de recompensa**

1. En la página **Create model (Crear modelo)** en **Reward function (Función de recompensa)**, utilice el ejemplo de función de recompensa predeterminado sin modificar para su primer modelo.   
![\[\]](http://docs.aws.amazon.com/es_es/deepracer/latest/developerguide/images/deepracer-reward-function-example-editor.png)

   Más adelante, puede elegir **ejemplos de funciones de recompensa** para seleccionar otra función de ejemplo y, a continuación, seleccionar **Usar código** para aceptar la función de recompensa seleccionada.

   Tiene a su disposición cuatro funciones de ejemplo con las que puede comenzar. Ilustran cómo seguir el centro de la pista (valor predeterminado), cómo mantener al agente dentro de los límites de la pista, cómo evitar la conducción en zigzag y cómo evitar choques con obstáculos inmóviles u otros vehículos en movimiento. 

   Para obtener más información sobre la función de recompensa, consulte [Referencia de funciones de DeepRacer recompensas de AWS](deepracer-reward-function-reference.md).

1. En **Condiciones de parada**, deje igual el valor predeterminado de **Tiempo máximo** o establezca un nuevo valor para terminar la tarea de entrenamiento, con el fin de ayudar a evitar tareas de entrenamiento de larga duración (y posibles fugas). 

   Al experimentar en la fase inicial de entrenamiento, debe comenzar con un pequeño valor para este parámetro y luego entrenar progresivamente durante mayores períodos de tiempo.

1. En **Enviar automáticamente a la AWS DeepRacer**, está marcada **la casilla Enviar este modelo a la AWS DeepRacer automáticamente después de completar la formación y tener la oportunidad de ganar premios**. Si lo desea, puede optar por no introducir su modelo seleccionando la marca de verificación.

1. En **Requisitos de la liga**, seleccione su **País de residencia** y acepte los términos y condiciones marcando la casilla. 

1. Elija **Crear modelo** para empezar a crear el modelo y aprovisionar la instancia del trabajo de entrenamiento. 

1. Cuando lo envíe, observe cómo se inicializa y ejecuta la tarea de entrenamiento. 

   El proceso de inicialización toma unos minutos en cambiar el estado de **Inicialización** a **En curso**.

1. Vea el **Reward graph (Gráfico de recompensas)** y el **Simulation video stream (Flujo de vídeo de simulación)** para observar el progreso del trabajo de entrenamiento. Puede elegir el botón de actualización junto al **Reward graph (Gráfico de recompensas)** periódicamente para actualizar el **Reward graph (Gráfico de recompensas)** hasta que se complete el trabajo de entrenamiento.   
![\[\]](http://docs.aws.amazon.com/es_es/deepracer/latest/developerguide/images/deepracer-training-in-progress.png)

El trabajo de formación se lleva a cabo en la AWS nube, por lo que no es necesario mantener abierta la DeepRacer consola de AWS. Siempre puede volver a la consola para comprobar el modelo en cualquier momento mientras el trabajo está en curso. 

Si la ventana de** Transmisión de vídeo de simulación** o la pantalla del **Gráfico de recompensas** deja de responder, actualice la página del navegador para actualizar el progreso del entrenamiento.

# Evalúe sus DeepRacer modelos de AWS en una simulación
<a name="deepracer-get-started-test-in-simulator"></a>

 Una vez completada su tarea de entrenamiento, debe evaluar el modelo entrenado para evaluar su comportamiento de convergencia. La evaluación procede completando una serie de ensayos en una pista elegida y haciendo que el agente se mueva en la pista de acuerdo con las posibles acciones inferidas por el modelo entrenado. Las métricas de rendimiento incluyen un porcentaje de finalización de la pista y el tiempo de ejecución en cada pista desde el principio hasta el final o la salida de la pista. 

Para evaluar su modelo entrenado, puede usar la DeepRacer consola de AWS. Para ello, siga los pasos de este tema. 

**Para evaluar un modelo entrenado en la DeepRacer consola de AWS**

1. Abra la DeepRacer consola de AWS en https://console.aws.amazon.com /deepracer. 

1. En el panel de navegación principal, elija **Models (Modelos)** y, a continuación, elija el modelo que acaba de entrenar en la lista **Models (Modelos)** para abrir la página de detalles del modelo.

1.  Seleccione la pestaña **Evaluación**. 

1. En **Evaluación**, elija **Comenzar la evaluación**.  
![\[Evaluation details section showing training complete message and option to start evaluation.\]](http://docs.aws.amazon.com/es_es/deepracer/latest/developerguide/images/evaluation_details_start.png)

   Puede iniciar una evaluación después de que el estado de la tarea de entrenamiento cambie a **Completed (Completado)** o el estado del modelo cambie a **Ready (Listo)** si la tarea de entrenamiento no se ha completado. 

   Un modelo está preparado cuando se completa la tarea de entrenamiento. Si el entrenamiento no se completó, el modelo también puede estar en estado **Ready (Listo)** si está entrenado hasta el punto de falla.

1. En la página **Evaluar modelo** dentro de **Tipo de carrera**, elija el tipo de carrera que eligió para entrenar al modelo. 

   Para la evaluación se puede elegir un tipo de carrera diferente al tipo de carrera utilizado en el entrenamiento. Por ejemplo, puede entrenar un modelo para head-to-bot las carreras y luego evaluarlo para las contrarreloj. En general, el modelo debe generalizarse bien si el tipo de carrera del entrenamiento difiere del tipo de carrera de la evaluación. Para su primera ejecución, debe usar el mismo tipo de carrera tanto para la evaluación como para el entrenamiento. 

1. En la página **Evaluar modelo**, dentro de **Evaluar criterios**, elija el número de pruebas que desea utilizar para evaluar el modelo.  
![\[\]](http://docs.aws.amazon.com/es_es/deepracer/latest/developerguide/images/evaluation_select_track.png)

   Por norma general, es conveniente que elija una pista que sea igual o similar a la que utilizó en el [entrenamiento del modelo](deepracer-get-started-training-model.md#deepracer-get-started-train-model-proc). Puede elegir cualquier pista para evaluar su modelo, sin embargo, que puede esperar el mejor rendimiento en la pista más parecida a la utilizada en el entrenamiento. 

   Para ver si su modelo generaliza bien, elija una pista de evaluación diferente a la utilizada en el entrenamiento. 

1. En la página **Evaluate model (Evaluar modelo)** en **Virtual Race Submission (Envío de carrera virtual)**, en el primer modelo, desactive la opción **Submit model after evaluation (Enviar modelo después de la evaluación)** . Más tarde, si quiere participar en un evento de carreras, deje esta opción encendida.  
![\[Virtual race submission section with options for submitting a model for evaluation.\]](http://docs.aws.amazon.com/es_es/deepracer/latest/developerguide/images/deepracer-get-started-evaluate-virtual-race-submit.png)

1. En la página **Evaluar modelo** elija **Iniciar evaluación** para empezar a crear e inicializar la tarea de evaluación. 

   El proceso de inicialización tarda 3 minutos en completarse. 

1. A medida que avanza la evaluación, los resultados de la evaluación, incluido el tiempo de prueba y la tasa de finalización del seguimiento, se muestran en **Detalles de evaluación** después de cada prueba. En la ventana **Simulation video stream (Secuencia de vídeo de la simulación)** puede ver cómo funciona el agente en la pista elegida.

    Puede detener una tarea de evaluación antes de que se complete. Para detener una tarea de evaluación, seleccione **Stop evaluation (Detener evaluación)** en la esquina superior derecha del panel **Evaluation (Evaluación)** y, a continuación, confirme para detener la evaluación. 

1. Una vez completado la tarea de evaluación, examine las métricas de rendimiento de todos los ensayos bajo **Resultados de evaluación**. El flujo de vídeo de la simulación que lo acompaña ya no está disponible. 

   El historial de las evaluaciones de su modelo está disponible en el **Selector de evaluaciones**. Para ver los detalles de una evaluación específica, seleccione la evaluación en la lista del **selector de evaluaciones** y, a continuación, elija **Cargar evaluación** en la esquina superior derecha de la tarjeta de **Selección de evaluaciones**.   
![\[\]](http://docs.aws.amazon.com/es_es/deepracer/latest/developerguide/images/evaluation_selector_complete.png)

   Para este trabajo de evaluación en particular, el modelo entrenado completa las pruebas con una importante penalización de tiempo fuera de lo previsto. En una primera carrera, esto no es inusual. Las posibles razones incluyen que el entrenamiento no converge y que el entrenamiento necesita más tiempo, que el espacio de acción necesita ser ampliado para dar al agente más espacio para reaccionar, o que la función de recompensa necesita ser actualizada para manejar diferentes entornos. 

    Puede seguir mejorando el modelo clonando un modelo entrenado previamente, cambiando la función de recompensa, ajustando los hiperparámetros y, a continuación, mediante la iteración del proceso hasta que la recompensa total converge y las métricas de rendimiento mejoran. Para obtener más información acerca de cómo mejorar el entrenamiento, consulte [Capacite y evalúe los DeepRacer modelos de AWS](create-deepracer-project.md). 

 Para transferir su modelo completamente entrenado a su DeepRacer dispositivo de AWS para conducir en un entorno físico, debe descargar los artefactos del modelo. Para hacerlo, elija **Download model (Descargar modelo)** en la página de detalles del modelo. Si su dispositivo DeepRacer físico de AWS no admite sensores nuevos y su modelo ha sido entrenado con los nuevos tipos de sensores, recibirá un mensaje de error cuando utilice el modelo en su DeepRacer dispositivo de AWS en un entorno real. Para obtener más información sobre las pruebas de un DeepRacer modelo de AWS con un dispositivo físico, consulte[Opere su DeepRacer vehículo de AWS](operate-deepracer-vehicle.md).

Una vez que haya entrenado su modelo en una pista idéntica o similar a la especificada en un evento de carreras de DeepRacer la Liga AWS o en una carrera de la DeepRacer comunidad de AWS, puede enviar el modelo a las carreras virtuales en la DeepRacer consola de AWS. Para ello, siga **AWS Circuito virtual** o **Carreras comunitarias** en el panel de navegación principal. Para obtener más información, consulte [Únase a una DeepRacer carrera de AWS](deepracer-racing-series.md). 



Para entrenar a un modelo para evitar obstáculos o head-to-bot competir, es posible que necesite añadir nuevos sensores al modelo y al dispositivo físico. Para obtener más información, consulte [Comprender los tipos de carreras y habilitar los sensores compatibles con AWS DeepRacer](deepracer-choose-race-type.md).