

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Erste Schritte mit AWS DeepRacer
<a name="deepracer-get-started"></a>

 Um mit AWS zu beginnen DeepRacer, gehen wir zunächst die Schritte durch, um mithilfe der DeepRacer AWS-Konsole einen Agenten mit geeigneten Sensoren für Ihre Anforderungen an autonomes Fahren zu konfigurieren, ein Reinforcement-Learning-Modell für den Agenten mit den angegebenen Sensoren zu trainieren und das trainierte Modell zu bewerten, um die Qualität des Modells zu bestimmen. Sobald Sie Ihr Modell trainiert haben, können Sie es iterieren und es an einem Rennen teilnehmen lassen. 

**Topics**
+ [Trainieren Sie Ihr erstes DeepRacer AWS-Modell](deepracer-get-started-training-model.md)
+ [Evaluieren Sie Ihre DeepRacer AWS-Modelle in der Simulation](deepracer-get-started-test-in-simulator.md)

# Trainieren Sie Ihr erstes DeepRacer AWS-Modell
<a name="deepracer-get-started-training-model"></a>

Diese exemplarische Vorgehensweise zeigt, wie Sie Ihr erstes Modell mit der DeepRacer AWS-Konsole trainieren. 

## Trainieren Sie ein Reinforcement-Learning-Modell mit der DeepRacer AWS-Konsole
<a name="deepracer-get-started-train-model-proc"></a>

Erfahren Sie, wo Sie in der DeepRacer AWS-Konsole die Schaltfläche **Modell erstellen** finden, um mit dem Modelltraining zu beginnen.

**Um ein Reinforcement-Learning-Modell zu trainieren**

1. Wenn Sie AWS zum ersten Mal verwenden DeepRacer, wählen Sie auf der Service-Landingpage die Option **Modell erstellen** oder im Hauptnavigationsbereich unter der Überschrift **Reinforcement Learning** die Option **Erste Schritte** aus. 

1. Wählen Sie auf der Seite **Erste Schritte mit Reinforcement-Learning** **unter Schritt 2: Modell erstellen** die Option **Modell erstellen** aus.

   Sie können auch im Hauptnavigationsbereich unter der Überschrift **Reinforcement-Learning** die Option **Ihre Modelle** auswählen. Wählen Sie auf der Seite **Your Models (Ihre Modelle)** die Option **Create model (Modell erstellen)** aus.

## Geben Sie den Modellnamen und die Umgebung an
<a name="deepracer--create-model-step-one.title"></a>

Benennen Sie Ihr Modell und erfahren Sie, wie Sie die für Sie passende Simulationsstrecke auswählen.

**Um den Modellnamen und die Umgebung anzugeben**

1. Geben Sie auf der Seite **Modell erstellen** unter **Trainingsdetails** einen Namen für Ihr Modell ein.

1. Fügen Sie optional eine Beschreibung der Ausbildungsstelle hinzu.

1. Weitere Informationen zum Hinzufügen optionaler Tags finden Sie unter[Tagging](deepracer-tagging.md).

1. Wählen Sie unter **Umgebungssimulation** einen Kurs aus, der als Schulungsumgebung für Ihren DeepRacer AWS-Agenten dienen soll. **Wählen Sie unter **Track-Richtung** die Option Im Uhrzeigersinn oder **Gegen den Uhrzeigersinn** aus.** Wählen Sie anschließend **Weiter**.

   Wählen Sie für die erste Ausführung eine Strecke mit einer einfachen Form und sanften Kurven aus. In späteren Iterationen können Sie komplexere Strecken auswählen, um die Modelle schrittweise zu verbessern. Um ein Modell für eine bestimmte Rennveranstaltung zu trainieren, wählen Sie die Strecke aus, die der Strecke der Veranstaltung am ähnlichsten ist.

1. Wählen Sie unten auf der Seite „**Weiter**“ aus.

## Wähle einen Renntyp und einen Trainingsalgorhythmus
<a name="deepracer--create-model-step-two"></a>

Die DeepRacer AWS-Konsole bietet drei Renntypen und zwei Trainingsalgorhythmen, aus denen Sie wählen können. Erfahren Sie, welche für Ihr Qualifikationsniveau und Ihre Trainingsziele geeignet sind. 

**Um einen Renntyp und einen Trainingsalgorhythmus auszuwählen**

1. Wählen Sie auf der Seite **Modell erstellen** unter **Renntyp** die Option **Zeitfahren**, **Objektvermeidung** oder **H ead-to-bot** aus.

   Für deinen ersten Lauf empfehlen wir, **Time Trial zu** wählen. Hinweise zur Optimierung der Sensorkonfiguration Ihres Agenten für diesen Renntyp finden Sie unter[Maßgeschneiderte DeepRacer AWS-Schulungen für Zeitfahren](deepracer-choose-race-type.md#deepracer-get-started-training-simple-time-trial).

1. Wählen Sie bei späteren Läufen optional die Option „**Objektvermeidung**“, um stationäre Hindernisse zu umgehen, die an festen oder zufälligen Stellen entlang der ausgewählten Strecke platziert sind. Weitere Informationen finden Sie unter [Maßgeschneiderte DeepRacer AWS-Schulungen für Rennen zur Objektvermeidung](deepracer-choose-race-type.md#deepracer-get-started-training-object-avoidance).

   1. Wählen Sie „**Feste Position**“, um Boxen an festen, vom Benutzer festgelegten Positionen auf den beiden Spuren der Strecke zu generieren, oder wählen Sie „**Zufälliger Ort**“, um Objekte zu generieren, die zu Beginn jeder Episode Ihrer Trainingssimulation zufällig auf die beiden Spuren verteilt werden.

   1. Wählen Sie als Nächstes einen Wert für die **Anzahl der Objekte auf einer Strecke**.

   1.  Wenn Sie „**Feste Position**“ wählen, können Sie die Position der einzelnen Objekte auf der Spur anpassen. Wählen Sie für die **Platzierung der Fahrspur** zwischen der Innenspur und der Außenspur. Standardmäßig sind Objekte gleichmäßig über die Spur verteilt. Um zu ändern, wie weit sich ein Objekt zwischen Start- und Ziellinie befindet, geben Sie in das Feld **Position (%) zwischen Start und Ziel einen Prozentsatz dieser Entfernung zwischen sieben und** 90 ein. 

1. Optional kannst du für anspruchsvollere Läufe **Head-to-bot Rennen** wählen, bei denen du gegen bis zu vier Bot-Fahrzeuge antrittst, die sich mit konstanter Geschwindigkeit bewegen. Weitere Informationen hierzu finden Sie unter [Maßgeschneiderte DeepRacer AWS-Schulungen für head-to-bot Rennen](deepracer-choose-race-type.md#deepracer-get-started-training-h2h-racing).

   1. **Wähle unter Anzahl der Bot-Fahrzeuge** auswählen aus, mit wie vielen Bot-Fahrzeugen dein Agent trainieren soll.

   1. Wählen Sie als Nächstes die Geschwindigkeit in Millimetern pro Sekunde aus, mit der die Bot-Fahrzeuge auf der Strecke fahren sollen.

   1. Aktivieren Sie optional das Kontrollkästchen **Spurwechsel aktivieren**, um den Bot-Fahrzeugen die Möglichkeit zu geben, alle 1-5 Sekunden nach dem Zufallsprinzip die Spur zu wechseln.

1. Wählen Sie unter **Trainingsalgorithmus und Hyperparameter** den Algorithmus **Soft Actor Critic (SAC)** oder **Proximal Policy Optimization (PPO**) aus. In der DeepRacer AWS-Konsole müssen SAC-Modelle in kontinuierlichen Aktionsbereichen trainiert werden. PPO-Modelle können entweder in kontinuierlichen oder diskreten Aktionsräumen trainiert werden.

1. Verwenden Sie unter **Trainingsalgorithmus und Hyperparameter** die standardmäßigen Hyperparameterwerte unverändert.

   Um die Schulungsleistung zu verbessern, erweitern Sie später **Hyperparameters (Hyperparameter)** und ändern Sie die Standardwerte für Hyperparameter wie folgt:

   1. Wählen Sie für **Gradient Descent Batch Size (Gradientenabstieg-Batchgröße)** die Option [Available options (Verfügbare Optionen)](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters) aus. 

   1. Legen Sie für **Number of epochs (Anzahl der Epochen)** einen [gültigen Wert](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters) fest. 

   1. Legen Sie für **Learning rate (Lernrate)** einen [gültigen Wert](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters) fest. 

   1. [Geben Sie für den **SAC-Alphawert** (nur SAC-Algorithmus) einen gültigen Wert ein.](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters)

   1. Legen Sie für **Entropy (Entropie)** einen [gültigen Wert](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters) fest.

   1. Legen Sie für **Discount factor (Abschlagfaktor)** einen [gültigen Wert](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters) fest.

   1. Wählen Sie für **Loss type (Loss-Typ)** [verfügbare Optionen](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters) aus.

   1. Legen Sie für **Number of experience episodes between each policy-updating iteration (Anzahl der Erfahrungsepisoden zwischen den einzelnen Strategieaktualisierungs-Iterationen)** einen [gültigen Wert](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters) fest.

   Weitere Informationen zu Hyperparametern finden Sie unter [Passen Sie Hyperparameter systematisch an](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

1. Wählen Sie **Weiter** aus.

## Definieren Sie den Aktionsraum
<a name="deepracer--create-model-specify-action-space"></a>

Wenn Sie sich auf der Seite **Aktionsraum definieren** dafür entschieden haben, mit dem Soft Actor Critic (SAC) -Algorithmus zu trainieren, ist Ihr Standard-Aktionsraum der kontinuierliche Aktionsraum. Wenn Sie sich für das Training mit dem PPO-Algorithmus (Proximal Policy Optimization) entschieden haben, wählen Sie zwischen **Continuous Action Space** und **Discrete Action** Space. Weitere Informationen darüber, wie die einzelnen Aktionsbereiche und Algorithmen das Trainingserlebnis des Agenten beeinflussen, finden Sie unter[DeepRacer AWS-Aktionsraum und Belohnungsfunktion](deepracer-how-it-works-action-space.md).

### So definieren Sie einen kontinuierlichen Aktionsraum (SAC- oder PPO-Algorithmen)
<a name="deepracer--create-model-specify-action-space"></a>

1. Wählen **Sie unter Kontinuierlichen Aktionsraum definieren** die Grade Ihres **linken Lenkwinkelbereichs** und des **rechten Lenkwinkelbereichs** aus.

   Versuchen Sie, für jeden Lenkwinkelbereich unterschiedliche Grade einzugeben, und beobachten Sie, wie sich die Darstellung Ihres Bereichs ändert, um Ihre Auswahl im **dynamischen Sektordiagramm** darzustellen.  
![\[\]](http://docs.aws.amazon.com/de_de/deepracer/latest/developerguide/images/deepracer-dynamic-sector-graph.png)

1. Geben Sie unter **Geschwindigkeit** eine Mindest- und Höchstgeschwindigkeit für Ihren Agenten in Millimetern pro Sekunde ein.

   Beachten Sie, wie sich Ihre Änderungen im **dynamischen Sektordiagramm** widerspiegeln.

1. Wählen Sie optional Auf **Standardwerte zurücksetzen**, um unerwünschte Werte zu löschen. Wir empfehlen, verschiedene Werte in der Grafik auszuprobieren, um zu experimentieren und zu lernen.

1. Wählen Sie **Weiter** aus.

### Um einen diskreten Aktionsraum zu definieren (nur PPO-Algorithmus)
<a name="deepracer--create-model-specify-action-space"></a>

1. Wählen Sie einen Wert für die **Granularität des Lenkwinkels** aus der Dropdownliste aus.

1. Wählen Sie einen Wert in Grad zwischen 1 und 30 für den **maximalen** Lenkwinkel Ihres Agenten. 

1. Wählen Sie aus der Dropdownliste einen Wert für die **Granularität der Geschwindigkeit** aus.

1. **Wählen Sie für die Höchstgeschwindigkeit Ihres Agenten einen Wert in Millimetern pro Sekunde zwischen 0,1 und 4 aus.** 

1. Verwenden Sie die standardmäßigen Aktionseinstellungen in der **Aktionsliste** oder schalten Sie optional die Option **Erweiterte Konfiguration** ein, um Ihre Einstellungen zu verfeinern. Wenn Sie „**Zurück**“ wählen oder „**Erweiterte Konfiguration**“ deaktivieren, nachdem Sie die Werte angepasst haben, gehen Ihre Änderungen verloren.  
![\[\]](http://docs.aws.amazon.com/de_de/deepracer/latest/developerguide/images/deepracer-advanced-configuration-toggle.png)

   1. Geben Sie in der Spalte **Lenkwinkel** einen Wert in Grad zwischen -30 und 30 ein.

   1. Geben Sie in der Spalte **Geschwindigkeit** einen Wert zwischen 0,1 und 4 in Millimetern pro Sekunde für bis zu neun Aktionen ein.

   1. Wählen Sie **optional Aktion hinzufügen** aus, um die Anzahl der Zeilen in der Aktionsliste zu erhöhen.  
![\[\]](http://docs.aws.amazon.com/de_de/deepracer/latest/developerguide/images/deepracer-add-an-action.png)

   1. Wählen Sie optional **X** in einer Zeile aus, um sie zu entfernen.

1. Wählen Sie **Weiter** aus.

## Wählen Sie ein virtuelles Auto
<a name="deepracer-create-model-step-four"></a>

Erfahren Sie, wie Sie mit virtuellen Autos beginnen können. Verdiene dir jeden Monat neue Custom-Autos, Lackierungen und Modifikationen, indem du in der Open Division antrittst.

**Um ein virtuelles Auto auszuwählen**

1. **Wähle auf der Seite Fahrzeugschale und Sensorkonfiguration** auswählen eine Schale aus, die mit deinem Renntyp und deinem Aktionsraum kompatibel ist. Wenn Sie in Ihrer Garage kein passendes Auto haben, gehen Sie im Hauptnavigationsbereich unter der Überschrift **Reinforcement-Learning** zu **Ihrer Garage**, um eines zu erstellen.

   Für das **Zeitfahrtraining** benötigen Sie lediglich die Standard-Sensorkonfiguration und **die Einlinsen-Kamera von The Original DeepRacer**, aber alle anderen Gehäuse und Sensorkonfigurationen funktionieren, solange das Aktionsfeld passt. Weitere Informationen finden Sie unter [Maßgeschneiderte DeepRacer AWS-Schulungen für Zeitfahren](deepracer-choose-race-type.md#deepracer-get-started-training-simple-time-trial).

   Für **das Training zur Objektvermeidung** sind Stereokameras hilfreich, aber eine einzelne Kamera kann auch verwendet werden, um stationären Hindernissen an festen Orten auszuweichen. Ein LiDAR-Sensor ist optional. Siehe [DeepRacer AWS-Aktionsraum und Belohnungsfunktion](deepracer-how-it-works-action-space.md).

   Für das **ead-to-botH-Training** eignet sich neben einer Einzelkamera oder einer Stereokamera auch eine LiDAR-Einheit optimal, um tote Winkel zu erkennen und zu vermeiden, wenn Sie an anderen fahrenden Fahrzeugen vorbeifahren. Weitere Informationen hierzu finden Sie unter [Maßgeschneiderte DeepRacer AWS-Schulungen für head-to-bot Rennen](deepracer-choose-race-type.md#deepracer-get-started-training-h2h-racing).

1. Wählen Sie **Weiter** aus.

## Passen Sie Ihre Belohnungsfunktion an
<a name="deepracer-create-model-step-five"></a>

Die Belohnungsfunktion ist das Herzstück von Reinforcement Learning. Lernen Sie, sie zu nutzen, um Ihrem Auto (Agenten) Anreize zu geben, bestimmte Maßnahmen zu ergreifen, während es die Strecke (Umgebung) erkundet. Sie können dieses Tool verwenden, um Ihr Auto zu ermutigen, eine Runde so schnell wie möglich zu beenden und es davon abzuhalten, von der Strecke abzukommen oder mit Objekten zu kollidieren.

**So passen Sie Ihre Belohnungsfunktion an**

1. Verwenden Sie auf der Seite **Create model (Modell erstellen)** unter **Reward function (Belohnungsfunktion)** das Standard-Belohnungsfunktionsbeispiel für Ihr erstes Modell unverändert.   
![\[\]](http://docs.aws.amazon.com/de_de/deepracer/latest/developerguide/images/deepracer-reward-function-example-editor.png)

   Später können Sie **Reward function examples (Belohnungsfunktionsbeispiele)** wählen, um eine andere Beispielfunktion auszuwählen und dann **Use code (Code verwenden)**, um die ausgewählte Belohnungsfunktion zu akzeptieren.

   Es gibt vier Beispielfunktionen, mit denen Sie beginnen können. Sie veranschaulichen, wie man der Gleismitte folgt (Standard), wie man den Agenten innerhalb der Gleisgrenzen hält, wie man Zick-Zack-Fahrten verhindert und wie man verhindert, dass man gegen stehende Hindernisse oder andere fahrende Fahrzeuge stößt. 

   Weitere Informationen zur Belohnungsfunktion finden Sie unter [Referenz zur DeepRacer AWS-Prämienfunktion](deepracer-reward-function-reference.md).

1. Lassen Sie unter **Stoppbedingungen** den Standardwert für **maximale Zeit** unverändert, oder legen Sie einen neuen Wert fest, um den Trainingsjob zu beenden, um zu verhindern, dass lange andauernde (und möglicherweise unkontrollierte) Trainingsjobs laufen. 

   Beim Experimentieren in der frühen Phase des Trainings sollten Sie mit einem kleinen Wert für diesen Parameter beginnen und dann das Training schrittweise verlängern.

1. Unter **Automatisch an AWS** **einreichen DeepRacer, Dieses Modell nach Abschluss der Schulung DeepRacer automatisch an AWS senden und die Möglichkeit haben, Preise zu gewinnen**, ist standardmäßig aktiviert. Optional können Sie sich von der Teilnahme an Ihrem Modell abmelden, indem Sie das Häkchen anklicken.

1. Wählen Sie unter **Liga-Anforderungen** Ihr **Wohnsitzland aus** und akzeptieren Sie die Allgemeinen Geschäftsbedingungen, indem Sie das Kästchen ankreuzen. 

1. Wählen Sie **Modell erstellen**, um mit der Erstellung des Modells und der Bereitstellung der Trainingsjob-Instanz zu beginnen. 

1. Achten Sie nach der Übermittlung darauf, dass der Schulungsauftrag initialisiert und anschließend ausgeführt wird. 

   **Es dauert einige Minuten, bis der Initialisierungsvorgang von **Initialisierung** zu In Bearbeitung wechselt.**

1. In **Reward graph (Belohnungsdiagramm)** und **Simulation video stream (Simulationsvideo-Stream)** können Sie den Fortschritt der Trainingsaufgabe beobachten. Sie können regelmäßig die Aktualisierungsschaltfläche neben **Reward graph (Belohnungsdiagramm)** auswählen, um **Reward graph (Belohnungsdiagramm)** zu aktualisieren, bis die Trainingsaufgabe beendet ist.   
![\[\]](http://docs.aws.amazon.com/de_de/deepracer/latest/developerguide/images/deepracer-training-in-progress.png)

Der Trainingsjob wird in der AWS Cloud ausgeführt, sodass Sie die DeepRacer AWS-Konsole nicht geöffnet lassen müssen. Sie können jederzeit zur Konsole zurückkehren, um Ihr Modell zu überprüfen, während der Job ausgeführt wird. 

Wenn das **Simulationsvideostream-Fenster** oder die Anzeige des **Prämiendiagramms** nicht mehr reagieren, aktualisieren Sie die Browserseite, um den Trainingsfortschritt zu aktualisieren.

# Evaluieren Sie Ihre DeepRacer AWS-Modelle in der Simulation
<a name="deepracer-get-started-test-in-simulator"></a>

 Nachdem Ihr Schulungsauftrag abgeschlossen ist, sollten Sie das geschulte Modell evaluieren, um dessen Konvergenzverhalten zu bewerten. Die Evaluierung erfolgt, indem eine Reihe von Läufen auf einer ausgewählten Strecke abgeschlossen und der Agent auf der Strecke nach wahrscheinlichen Aktionen, die vom geschulten Modell abgeleitet werden, bewegt wird. Die Leistungsmetriken umfassen den Prozentsatz der vollständigen Bewältigung der Strecke und die Zeit, die auf den einzelnen Strecken vom Start bis zum Ende oder außerhalb der Strecke gefahren wird. 

Um Ihr trainiertes Modell zu evaluieren, können Sie die DeepRacer AWS-Konsole verwenden. Führen Sie hierzu die Schritte in diesem Thema aus. 

**Um ein trainiertes Modell in der DeepRacer AWS-Konsole zu evaluieren**

1. Öffnen Sie die DeepRacer AWS-Konsole unter https://console.aws.amazon.com /deepracer. 

1. Wählen Sie im Hauptnavigationsbereich **Models (Modelle)** und dann das gerade geschulte Modell aus der Liste **Models (Modelle)** aus, um die Modelldetailseite zu öffnen.

1.  **Wählen Sie die Registerkarte Evaluation aus.** 

1. Wählen Sie **unter Bewertungsdetails** die Option **Bewertung starten** aus.  
![\[Evaluation details section showing training complete message and option to start evaluation.\]](http://docs.aws.amazon.com/de_de/deepracer/latest/developerguide/images/evaluation_details_start.png)

   Sie können eine Evaluierung starten, nachdem sich der Schulungsauftragsstatus zu **Completed (Abgeschlossen)** oder der Status des Modells zu **Ready (Bereit)** geändert hat, wenn der Schulungsauftrag nicht abgeschlossen wurde. 

   Ein Modell ist bereit, wenn der Schulungsauftrag abgeschlossen ist. Wenn die Schulung nicht abgeschlossen wurde, kann sich das Modell auch im Zustand **Ready (Bereit)** befinden, wenn es bis zum Fehlerpunkt geschult wurde.

1. Geben Sie auf der Seite **Modell bewerten** unter **Renntyp** einen Namen für Ihre Bewertung ein und wählen Sie dann den Renntyp aus, den Sie für das Training des Modells ausgewählt haben. 

   Für die Evaluierung können Sie einen anderen Renntyp als den in der Schulung verwendeten Renntyp auswählen. Sie können beispielsweise ein Modell für head-to-bot Rennen trainieren und es dann für Zeitfahren auswerten. Im Allgemeinen muss das Modell gut generalisieren, wenn sich der Schulungstyp vom Renntyp für die Evaluierung unterscheidet. Für den ersten Lauf sollten Sie den gleichen Renntyp sowohl für die Evaluierung als auch für die Schulung verwenden. 

1. Wählen Sie auf der Seite **Modell evaluieren** **unter Bewertungskriterien** die Anzahl der Versuche aus, die Sie durchführen möchten, und wählen Sie dann eine Strecke aus, auf der das Modell bewertet werden soll.  
![\[\]](http://docs.aws.amazon.com/de_de/deepracer/latest/developerguide/images/evaluation_select_track.png)

   Normalerweise sollten Sie eine Strecke auswählen, die der entspricht, die Sie beim [Training des Modells](deepracer-get-started-training-model.md#deepracer-get-started-train-model-proc) verwendet haben (bzw. dieser ähnlich ist). Sie können zur Evaluierung Ihres Modells eine beliebige Strecke auswählen. Die beste Leistung ist jedoch auf einer Strecke zu erwarten, die derjenigen im Training am nächsten kommt. 

   Um zu sehen, ob Ihr Modell gut generalisiert, wählen Sie eine andere Evaluierungsstrecke als die in der Schulung verwendete Strecke aus. 

1. Deaktivieren Sie auf der Seite **Evaluate model (Modell evaluieren)** unter **Virtual Race Submission (Virtuelle Renneinreichung)** für Ihr erstes Modell die Option **Submit model after evaluation (Modell nach Evaluierung senden)**. Wenn Sie später an einer Rennveranstaltung teilnehmen möchten, lassen Sie diese Option aktiviert.  
![\[Virtual race submission section with options for submitting a model for evaluation.\]](http://docs.aws.amazon.com/de_de/deepracer/latest/developerguide/images/deepracer-get-started-evaluate-virtual-race-submit.png)

1. Wählen Sie auf der Seite **Evaluate model (Modell evaluieren)** die Option **Start evaluation (Evaluierung starten)**, um mit der Erstellung und Initialisierung des Evaluierungsauftrags zu beginnen. 

   Dieser Initialisierungsprozess dauert etwa 3 Minuten. 

1. Im Verlauf der Evaluierung werden die Bewertungsergebnisse, einschließlich der Testzeit und der Abschlussquote der Strecke, nach jedem Test unter den **Bewertungsdetails** angezeigt. Im Fenster **Simulation Video Stream (Simulationsvideostream)** können Sie sehen, wie der Agent auf der gewählten Strecke funktioniert.

    Sie können einen Evaluierungsauftrag beenden, bevor er abgeschlossen wird. Um einen Evaluierungsauftrag zu beenden, wählen Sie **Stop evaluation (Evaluierung stoppen)** in der oberen rechten Ecke der Karte **Evaluation (Evaluierung)** und bestätigen Sie dies dann, um die Evaluierung zu stoppen. 

1. Nachdem der Evaluierungsauftrag abgeschlossen ist, untersuchen Sie die Leistungsmetriken aller Läufe unter **Evaluation results (Evaluierungsergebnisse)**. Der dazugehörige Simulationsvideostream ist nicht mehr verfügbar. 

   Eine Historie der Evaluierungen Ihres Modells ist in der **Evaluationsauswahl** verfügbar. Um die Details einer bestimmten Bewertung anzuzeigen, wählen Sie die Bewertung aus der **Auswahlliste für die Bewertung** aus und klicken Sie dann in der oberen rechten Ecke der ****Bewertungsauswahlkarte** auf Bewertung laden**.   
![\[\]](http://docs.aws.amazon.com/de_de/deepracer/latest/developerguide/images/evaluation_selector_complete.png)

   Bei dieser speziellen Bewertungsaufgabe schließt das trainierte Modell die Tests ab, was zu erheblichen Zeitverzögerungen führt. Bei einem ersten Durchlauf ist dies nicht ungewöhnlich. Mögliche Gründe dafür sind, dass die Schulung nicht konvergiert hat und mehr Zeit benötigt, der Aktionsbereich vergrößert werden muss, um dem Agenten mehr Raum für Reaktionen zu geben, oder dass die Belohnungsfunktion aktualisiert werden muss, um unterschiedliche Umgebungen zu bewältigen. 

    In diesem Fall können Sie das Modell weiter verbessern, indem Sie ein zuvor geschultes Modell klonen, die Belohnungsfunktion ändern, Hyperparameter optimieren und dann den Prozess wiederholen, bis die Gesamtbelohnung konvergiert und sich die Leistungsmetriken verbessern. Weitere Informationen zur Verbesserung des Trainings finden Sie unter [DeepRacer AWS-Modelle trainieren und auswerten](create-deepracer-project.md). 

 Um Ihr vollständig trainiertes Modell für den Betrieb in einer physischen Umgebung auf Ihr DeepRacer AWS-Gerät zu übertragen, müssen Sie die Modellartefakte herunterladen. Wählen Sie dazu auf der Detailseite des Modells **Download model (Modell herunterladen)** aus. Wenn Ihr DeepRacer physisches AWS-Gerät keine neuen Sensoren unterstützt und Ihr Modell mit den neuen Sensortypen trainiert wurde, erhalten Sie eine Fehlermeldung, wenn Sie das Modell auf Ihrem DeepRacer AWS-Gerät in einer realen Umgebung verwenden. Weitere Informationen zum Testen eines DeepRacer AWS-Modells mit einem physischen Gerät finden Sie unter[Betreiben Sie Ihr DeepRacer AWS-Fahrzeug](operate-deepracer-vehicle.md).

Sobald Sie Ihr Modell auf einer Strecke trainiert haben, die mit der Strecke identisch oder ähnlich ist, die bei einer AWS DeepRacer League-Rennveranstaltung oder einem DeepRacer AWS-Community-Rennen angegeben wurde, können Sie das Modell für die virtuellen Rennen in der DeepRacer AWS-Konsole einreichen. Folgen Sie dazu im Hauptnavigationsbereich den **Rennen der **AWS virtuellen Rennstrecke** oder der Community**. Weitere Informationen finden Sie unter [Nehmen Sie an einem DeepRacer AWS-Rennen teil](deepracer-racing-series.md). 



Um ein Modell für die Vermeidung von Hindernissen oder head-to-bot Rennen zu trainieren, müssen Sie dem Modell und dem physischen Gerät möglicherweise neue Sensoren hinzufügen. Weitere Informationen finden Sie unter [Renntypen verstehen und von AWS unterstützte Sensoren aktivieren DeepRacer](deepracer-choose-race-type.md).