

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Memulai AWS DeepRacer
<a name="deepracer-get-started"></a>

 Untuk memulai AWS DeepRacer, pertama-tama mari kita telusuri langkah-langkah untuk menggunakan DeepRacer konsol AWS untuk mengonfigurasi agen dengan sensor yang sesuai untuk kebutuhan mengemudi otonom Anda, untuk melatih model pembelajaran penguatan untuk agen dengan sensor yang ditentukan, dan untuk mengevaluasi model terlatih untuk menentukan kualitas model. Setelah Anda melatih model Anda, Anda dapat mengulanginya dan mengirimkannya ke perlombaan. 

**Topics**
+ [

# Latih DeepRacer model AWS pertama Anda
](deepracer-get-started-training-model.md)
+ [

# Evaluasi DeepRacer model AWS Anda dalam simulasi
](deepracer-get-started-test-in-simulator.md)

# Latih DeepRacer model AWS pertama Anda
<a name="deepracer-get-started-training-model"></a>

Panduan ini menunjukkan cara melatih model pertama Anda menggunakan konsol AWS. DeepRacer 

## Latih model pembelajaran penguatan menggunakan DeepRacer konsol AWS
<a name="deepracer-get-started-train-model-proc"></a>

Pelajari di mana menemukan tombol **Buat model** di DeepRacer konsol AWS untuk memulai perjalanan pelatihan model Anda.

**Untuk melatih model pembelajaran penguatan**

1. Jika ini adalah pertama kalinya Anda menggunakan AWS DeepRacer, pilih **Buat model** dari halaman landing layanan atau pilih **Memulai** di bawah judul **pembelajaran Penguatan** di panel navigasi utama. 

1. Pada halaman **Memulai dengan pembelajaran penguatan**, di bawah **Langkah 2: Buat model**, pilih **Buat model**.

   Atau, pilih **Model Anda** di bawah judul **Pembelajaran penguatan** dari panel navigasi utama. Pada halaman **Model Anda**, pilih **Buat model**.

## Tentukan nama model dan lingkungan
<a name="deepracer--create-model-step-one.title"></a>

Beri nama model Anda dan pelajari cara memilih trek simulasi yang tepat untuk Anda.

**Untuk menentukan nama model dan lingkungan**

1. Pada halaman **Buat model**, di bawah **Detail pelatihan**, masukkan nama untuk model Anda.

1. Secara opsional, tambahkan deskripsi pekerjaan pelatihan.

1. Untuk mempelajari selengkapnya tentang menambahkan tag opsional, lihat[Penandaan](deepracer-tagging.md).

1. Dalam **simulasi Lingkungan**, pilih trek untuk dijadikan lingkungan pelatihan bagi DeepRacer agen AWS Anda. **Di bawah **Arah trek**, pilih Searah jarum jam atau **berlawanan arah jarum jam**.** Kemudian pilih **Selanjutnya**.

   Untuk percobaan pertama Anda, pilih lintasan dengan bentuk sederhana dan belokan yang halus. Dalam pengulangan berikutnya, Anda dapat memilih lintasan yang lebih kompleks untuk lebih meningkatkan model Anda. Untuk melatih model untuk peristiwa balap tertentu, pilih lintasan yang paling mirip dengan lintasan peristiwa.

1. Pilih **Berikutnya** di bagian bawah halaman.

## Pilih jenis balapan dan algoritma pelatihan
<a name="deepracer--create-model-step-two"></a>

 DeepRacer Konsol AWS memiliki tiga jenis balapan dan dua algoritma pelatihan untuk dipilih. Pelajari mana yang sesuai untuk tingkat keahlian dan tujuan pelatihan Anda. 

**Untuk memilih jenis balapan dan algoritma pelatihan**

1. **Pada halaman **Buat model**, di bawah **Jenis ras**, pilih **Time trial**, **Object avoidance**, atau H. ead-to-bot**

   Untuk menjalankan pertama Anda, kami sarankan memilih **Time trial**. Untuk panduan mengoptimalkan konfigurasi sensor agen Anda untuk jenis balapan ini, lihat[Sesuaikan DeepRacer pelatihan AWS untuk uji waktu](deepracer-choose-race-type.md#deepracer-get-started-training-simple-time-trial).

1. Secara opsional, pada proses selanjutnya, pilih **Penghindaran objek** untuk mengelilingi rintangan stasioner yang ditempatkan di lokasi tetap atau acak di sepanjang trek yang dipilih. Untuk informasi selengkapnya, lihat [DeepRacer Pelatihan AWS khusus untuk balapan penghindaran objek](deepracer-choose-race-type.md#deepracer-get-started-training-object-avoidance).

   1. Pilih **Lokasi tetap** untuk menghasilkan kotak di lokasi tetap yang ditunjuk pengguna di dua jalur trek atau pilih **Lokasi acak** untuk menghasilkan objek yang didistribusikan secara acak di dua jalur di awal setiap episode simulasi pelatihan Anda.

   1. Selanjutnya, pilih nilai untuk **Jumlah objek di trek**.

   1.  Jika Anda memilih **Lokasi tetap**, Anda dapat menyesuaikan penempatan setiap objek di trek. Untuk **penempatan Lane**, pilih antara jalur dalam dan jalur luar. Secara default, objek didistribusikan secara merata di seluruh trek. Untuk mengubah seberapa jauh antara garis awal dan garis akhir suatu objek, masukkan persentase jarak antara tujuh dan 90 pada **Lokasi (%) antara bidang awal dan akhir**. 

1. Secara opsional, untuk lari yang lebih ambisius, pilih **Head-to-bot balapan** untuk berpacu melawan hingga empat kendaraan bot yang bergerak dengan kecepatan konstan. Untuk mempelajari selengkapnya, lihat [DeepRacer Pelatihan AWS khusus untuk balapan head-to-bot](deepracer-choose-race-type.md#deepracer-get-started-training-h2h-racing).

   1. Di **bawah Pilih jumlah kendaraan bot**, pilih dengan berapa banyak kendaraan bot yang Anda ingin agen Anda latih.

   1. Selanjutnya, pilih kecepatan dalam milimeter per detik di mana Anda ingin kendaraan bot berkeliling trek.

   1. Secara opsional, centang kotak **Aktifkan perubahan jalur** untuk memberi kendaraan bot kemampuan untuk mengubah jalur secara acak setiap 1-5 detik.

1. Di bawah **algoritma Pelatihan dan hiperparameter**, pilih algoritma **Soft Actor Critic (SAC)** atau **Proximal Policy Optimization (**PPO). Di DeepRacer konsol AWS, model SAC harus dilatih dalam ruang aksi berkelanjutan. Model PPO dapat dilatih baik dalam ruang aksi berkelanjutan atau terpisah.

1. Di bawah **Algoritma pelatihan dan hiperparameter**, gunakan nilai hyperparameter default apa adanya.

   Kemudian, untuk meningkatkan performa pelatihan, perluas **Hyperparameter** dan modifikasi nilai default hyperparameter sebagai berikut:

   1. Untuk **Ukuran batch keturunan gradien**, pilih [opsi yang tersedia](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters). 

   1. Untuk **Jumlah epoch**, atur [nilai yang valid](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters). 

   1. Untuk **Tingkat pembelajaran**, atur [nilai yang valid](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters). 

   1. Untuk **Nilai alfa SAC** (hanya algoritme SAC), atur [nilai yang valid](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   1. Untuk **Entropi**, atur [nilai yang valid](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   1. Untuk **Faktor diskon**, atur [nilai yang valid](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   1. Untuk **Tipe kerugian**, pilih [opsi yang tersedia](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   1. Untuk **Jumlah episode pengalaman antara setiap iterasi pembaruan kebijakan**, atur [nilai yang valid](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

   Untuk informasi selengkapnya tentang hyperparameter, lihat [Secara sistematis menyetel hiperparameter](deepracer-console-train-evaluate-models.md#deepracer-iteratively-adjust-hyperparameters).

1. Pilih **Berikutnya**.

## Tentukan ruang aksi
<a name="deepracer--create-model-specify-action-space"></a>

Pada halaman **Tentukan ruang tindakan**, jika Anda memilih untuk berlatih dengan algoritma Soft Actor Critic (SAC), ruang tindakan default Anda adalah ruang tindakan berkelanjutan. Jika Anda memilih untuk berlatih dengan algoritma Proximal Policy Optimization (PPO), pilih antara **Continuous Action Space dan **Discrete** Action Space**. Untuk mempelajari lebih lanjut tentang bagaimana setiap ruang aksi dan algoritme membentuk pengalaman pelatihan agen, lihat[Ruang DeepRacer aksi AWS dan fungsi reward](deepracer-how-it-works-action-space.md).

### Untuk menentukan ruang aksi berkelanjutan (algoritma SAC atau PPO)
<a name="deepracer--create-model-specify-action-space"></a>

1. Di bawah **Tentukan ruang aksi kontinu**, pilih derajat **rentang sudut kemudi kiri dan rentang** **sudut kemudi kanan** Anda.

   Coba masukkan derajat yang berbeda untuk setiap rentang sudut kemudi dan perhatikan visualisasi perubahan rentang Anda untuk mewakili pilihan Anda pada **grafik sektor Dinamis**.  
![\[\]](http://docs.aws.amazon.com/id_id/deepracer/latest/developerguide/images/deepracer-dynamic-sector-graph.png)

1. Di bawah **Kecepatan**, masukkan kecepatan minimum dan maksimum untuk agen Anda dalam milimeter per detik.

   Perhatikan bagaimana perubahan Anda tercermin pada **grafik sektor Dinamis**.

1. Secara opsional, pilih **Reset ke nilai default untuk menghapus nilai** yang tidak diinginkan. Kami mendorong mencoba nilai yang berbeda pada grafik untuk bereksperimen dan belajar.

1. Pilih **Berikutnya**.

### Untuk menentukan ruang aksi diskrit (hanya algoritma PPO)
<a name="deepracer--create-model-specify-action-space"></a>

1. Pilih nilai untuk **granularitas sudut kemudi dari daftar** dropdown.

1. Pilih nilai dalam derajat antara 1-30 untuk **sudut kemudi Maksimum** agen Anda. 

1. Pilih nilai untuk **granularitas Kecepatan dari daftar** dropdown.

1. Pilih nilai dalam milimeter per detik antara 0,1-4 untuk kecepatan **Maksimum** agen Anda. 

1. Gunakan pengaturan tindakan default pada **daftar Tindakan** atau, secara opsional, aktifkan **Konfigurasi lanjutan** untuk menyempurnakan pengaturan Anda. Jika Anda memilih **Sebelumnya** atau menonaktifkan **Konfigurasi lanjutan** setelah menyesuaikan nilai, Anda kehilangan perubahan.  
![\[\]](http://docs.aws.amazon.com/id_id/deepracer/latest/developerguide/images/deepracer-advanced-configuration-toggle.png)

   1. Masukkan nilai dalam derajat antara -30 dan 30 di kolom **sudut kemudi**.

   1. Masukkan nilai antara 0,1 dan 4 dalam milimeter per detik hingga sembilan tindakan di kolom **Kecepatan**.

   1. Secara opsional, pilih **Tambahkan tindakan** untuk menambah jumlah baris dalam daftar tindakan.  
![\[\]](http://docs.aws.amazon.com/id_id/deepracer/latest/developerguide/images/deepracer-add-an-action.png)

   1. Secara opsional, pilih **X** pada baris untuk menghapusnya.

1. Pilih **Berikutnya**.

## Pilih mobil virtual
<a name="deepracer-create-model-step-four"></a>

Pelajari cara memulai dengan mobil virtual. Dapatkan mobil kustom baru, pekerjaan cat, dan modifikasi dengan bersaing di Divisi Terbuka setiap bulan.

**Untuk memilih mobil virtual**

1. Pada halaman **Pilih shell kendaraan dan konfigurasi sensor**, pilih shell yang kompatibel dengan jenis balapan dan ruang aksi Anda. Jika Anda tidak memiliki mobil di garasi Anda yang cocok, pergi ke **garasi Anda** di bawah judul **pembelajaran Penguatan** di panel navigasi utama untuk membuatnya.

   Untuk pelatihan **Time trial**, konfigurasi sensor default dan kamera lensa tunggal **The Original DeepRacer** adalah semua yang Anda butuhkan, tetapi semua shell dan konfigurasi sensor lainnya berfungsi selama ruang aksi cocok. Untuk informasi selengkapnya, lihat [Sesuaikan DeepRacer pelatihan AWS untuk uji waktu](deepracer-choose-race-type.md#deepracer-get-started-training-simple-time-trial).

   Untuk pelatihan **penghindaran Objek**, kamera stereo sangat membantu, tetapi satu kamera juga dapat digunakan untuk menghindari hambatan stasioner di lokasi tetap. Sensor LiDAR bersifat opsional. Lihat [Ruang DeepRacer aksi AWS dan fungsi reward](deepracer-how-it-works-action-space.md).

   Untuk ead-to-bot pelatihan **H**, selain kamera tunggal atau kamera stereo, unit LiDAR optimal untuk mendeteksi dan menghindari titik buta saat melewati kendaraan bergerak lainnya. Untuk mempelajari selengkapnya, lihat [DeepRacer Pelatihan AWS khusus untuk balapan head-to-bot](deepracer-choose-race-type.md#deepracer-get-started-training-h2h-racing).

1. Pilih **Berikutnya**.

## Sesuaikan fungsi hadiah Anda
<a name="deepracer-create-model-step-five"></a>

Fungsi penghargaan adalah inti dari pembelajaran penguatan. Belajarlah untuk menggunakannya untuk memberi insentif pada mobil Anda (agen) untuk mengambil tindakan spesifik saat menjelajahi trek (lingkungan). Seperti mendorong dan mengecilkan perilaku tertentu pada hewan peliharaan, Anda dapat menggunakan alat ini untuk mendorong mobil Anda menyelesaikan putaran secepat mungkin dan mencegahnya keluar dari trek atau bertabrakan dengan benda.

**Untuk menyesuaikan fungsi hadiah Anda**

1. Pada halaman **Buat model**, di bawah **Fungsi penghargaan**, gunakan contoh fungsi penghargaan default sebagaimana adanya untuk model pertama Anda.   
![\[\]](http://docs.aws.amazon.com/id_id/deepracer/latest/developerguide/images/deepracer-reward-function-example-editor.png)

   Nantinya, Anda bisa memilih **Contoh fungsi penghargaan** untuk memilih fungsi contoh yang lain kemudian pilih **Gunakan kode** untuk menerima fungsi penghargaan yang dipilih.

   Ada empat contoh fungsi yang dapat Anda mulai. Mereka menggambarkan bagaimana mengikuti track center (default), bagaimana menjaga agen di dalam batas trek, bagaimana mencegah mengemudi zig-zag, dan bagaimana menghindari menabrak rintangan stasioner atau kendaraan bergerak lainnya. 

   Untuk mempelajari selengkapnya tentang fungsi penghargaan, lihat [Referensi fungsi DeepRacer penghargaan AWS](deepracer-reward-function-reference.md).

1. Dalam **kondisi Stop**, biarkan nilai **waktu maksimum** default apa adanya, atau tetapkan nilai baru untuk menghentikan pekerjaan pelatihan, untuk membantu mencegah pekerjaan pelatihan yang berjalan lama (dan kemungkinan lari). 

   Saat bereksperimen pada tahap awal pelatihan, Anda harus memulai dengan nilai kecil untuk parameter ini dan kemudian secara bertahap latih untuk jumlah waktu yang lebih lama.

1. Di bawah **Kirim secara otomatis ke AWS DeepRacer**, **Kirim model ini ke AWS DeepRacer secara otomatis setelah pelatihan selesai dan mendapatkan kesempatan untuk memenangkan hadiah** diperiksa secara default. Secara opsional, Anda dapat memilih untuk tidak memasukkan model Anda dengan memilih tanda centang.

1. Di bawah **persyaratan Liga**, pilih **Negara tempat tinggal** Anda dan setujui syarat dan ketentuan dengan mencentang kotak. 

1. Pilih **Buat model** untuk mulai membuat model dan menyediakan instance pekerjaan pelatihan. 

1. Setelah pengiriman, perhatikan tugas pelatihan Anda diinisialisasi lalu kemudian jalankan. 

   **Proses inisialisasi membutuhkan waktu beberapa menit untuk berubah dari **Inisialisasi** menjadi Sedang berlangsung.**

1. Perhatikan **Grafik penghargaan** dan **Aliran video simulasi** untuk mengamati kemajuan tugas pelatihan Anda. Anda dapat menekan tombol refresh di sebelah **Grafik penghargaan** secara berkala untuk menyegarkan **Grafik penghargaan** sampai tugas pelatihan selesai.   
![\[\]](http://docs.aws.amazon.com/id_id/deepracer/latest/developerguide/images/deepracer-training-in-progress.png)

Pekerjaan pelatihan berjalan di AWS Cloud, jadi Anda tidak perlu membiarkan DeepRacer konsol AWS tetap terbuka. Anda selalu dapat kembali ke konsol untuk memeriksa model Anda kapan saja saat pekerjaan sedang berlangsung. 

Jika jendela **aliran video Simulasi** atau tampilan **grafik Reward** menjadi tidak responsif, segarkan halaman browser untuk mendapatkan kemajuan pelatihan diperbarui.

# Evaluasi DeepRacer model AWS Anda dalam simulasi
<a name="deepracer-get-started-test-in-simulator"></a>

 Setelah tugas pelatihan Anda selesai, Anda harus mengevaluasi model terlatih untuk menilai perilaku konvergennya. Evaluasi berlangsung dengan menyelesaikan sejumlah uji coba pada lintasan yang dipilih dan membuat agen bergerak di lintasan sesuai dengan kemungkinan tindakan yang disimpulkan oleh model terlatih. Metrik performa mencakup persentase penyelesaian lintasan dan waktu yang berjalan di setiap lintasan dari awal hingga akhir atau keluar jalur. 

Untuk mengevaluasi model terlatih Anda, Anda dapat menggunakan DeepRacer konsol AWS. Untuk melakukannya, ikuti langkah-langkah dalam topik ini. 

**Untuk mengevaluasi model terlatih di DeepRacer konsol AWS**

1. Buka DeepRacer konsol AWS di https://console.aws.amazon.com /deepracer. 

1. Dari panel navigasi utama, pilih **Model** lalu pilih model yang baru saja Anda latih dari daftar **Model** untuk membuka halaman detail model.

1.  Pilih tab **Evaluasi**. 

1. Dalam **detail Evaluasi**, pilih **Mulai evaluasi**.  
![\[Evaluation details section showing training complete message and option to start evaluation.\]](http://docs.aws.amazon.com/id_id/deepracer/latest/developerguide/images/evaluation_details_start.png)

   Anda dapat memulai evaluasi setelah status tugas pelatihan Anda berubah ke **Selesai** atau perubahan status model ke **Siap** jika tugas pelatihan tidak selesai. 

   Model siap saat tugas pelatihan selesai. Jika pelatihan tidak selesai, model juga dapat berada dalam status **Siap** jika model dilatih hingga ke titik gagal.

1. Pada halaman **Evaluasi model**, di bawah **Jenis ras**, masukkan nama untuk evaluasi Anda, lalu pilih jenis balap yang Anda pilih untuk melatih model. 

   Untuk evaluasi Anda dapat memilih tipe balapan yang berbeda dari tipe balapan yang digunakan dalam pelatihan. Misalnya, Anda dapat melatih model untuk head-to-bot balapan dan kemudian mengevaluasinya untuk uji waktu. Secara umum, model harus menggeneralisasi dengan baik jika tipe balapan pelatihan berbeda dari tipe balapan evaluasi. Untuk percobaan pertama Anda, Anda harus menggunakan tipe balapan yang sama untuk evaluasi dan pelatihan. 

1. Pada halaman **Evaluasi model**, di bawah **Evaluasi kriteria**, pilih jumlah uji coba yang ingin Anda jalankan, lalu pilih trek untuk mengevaluasi model.  
![\[\]](http://docs.aws.amazon.com/id_id/deepracer/latest/developerguide/images/evaluation_select_track.png)

   Biasanya, Anda ingin memilih lintasan yang sama dengan atau mirip dengan yang Anda gunakan di [melatih model](deepracer-get-started-training-model.md#deepracer-get-started-train-model-proc). Anda dapat memilih lintasan apa pun untuk mengevaluasi model Anda, namun, Anda dapat mengharapkan performa terbaik di lintasan yang paling mirip dengan yang digunakan dalam pelatihan. 

   Untuk melihat jika model Anda menggeneralisasi dengan baik, pilih lintasan evaluasi yang berbeda dari yang digunakan dalam pelatihan. 

1. Pada halaman **Evaluasi model**, di dalam **Pengiriman balapan virtual**, untuk model pertama Anda, matikan opsi **Kirim model setelah evaluasi**. Nanti, jika Anda ingin berpartisipasi dalam acara balap, biarkan opsi ini dihidupkan.  
![\[Virtual race submission section with options for submitting a model for evaluation.\]](http://docs.aws.amazon.com/id_id/deepracer/latest/developerguide/images/deepracer-get-started-evaluate-virtual-race-submit.png)

1. Pada halaman **Evaluasi model**, pilih **Mulai evaluasi** untuk mulai membuat dan menginisialisasi tugas evaluasi. 

   Proses inisialisasi ini membutuhkan waktu sekitar 3 menit untuk diselesaikan. 

1. Saat evaluasi berlangsung, hasil evaluasi, termasuk waktu uji coba dan tingkat penyelesaian trek, ditampilkan di bawah **detail evaluasi** setelah setiap percobaan. Dalam window **Pengaliran video simulasi**, Anda dapat melihat cara agen melakukanmya pada lintasan yang dipilih.

    Anda dapat menghentikan tugas evaluasi sebelum selesai. Untuk menghentikan tugas evaluasi, pilih **Hentikan evaluasi** di sudut kanan atas kartu **Evaluasi** lalu konfirmasi untuk menghentikan evaluasi. 

1. Setelah tugas evaluasi selesai, periksa metrik performa semua uji coba di dalam **Hasil evaluasi**. Aliran video simulasi yang menyertainya tidak lagi tersedia. 

   Riwayat evaluasi model Anda tersedia di **pemilih Evaluasi**. Untuk melihat detail evaluasi tertentu, pilih evaluasi dari daftar **pemilih Evaluasi**, lalu pilih **Muat evaluasi** dari sudut kanan atas kartu **pemilih Evaluasi**.   
![\[\]](http://docs.aws.amazon.com/id_id/deepracer/latest/developerguide/images/evaluation_selector_complete.png)

   Untuk pekerjaan evaluasi khusus ini, model terlatih menyelesaikan uji coba dengan penalti waktu off-track yang signifikan. Sebagai lari pertama, ini bukan hal yang aneh. Alasan yang mungkin termasuk pelatihan tidak menyatu dan pelatihan membutuhkan lebih banyak waktu, ruang tindakan perlu diperbesar untuk memberikan agen lebih banyak ruang untuk bereaksi, atau fungsi penghargaan perlu diperbarui untuk menangani berbagai lingkungan. 

    Anda dapat terus meningkatkan model dengan mengkloning model yang sebelumnya terlatih, mengubah fungsi penghargaan, menyetel hyperparameter, lalu mengulangi proses hingga total penghargaan menyatu dan metrik performa meningkat. Untuk informasi selengkapnya tentang cara meningkatkan pelatihan, lihat [Melatih dan mengevaluasi DeepRacer model AWS](create-deepracer-project.md). 

 Untuk mentransfer model Anda yang sepenuhnya terlatih ke DeepRacer perangkat AWS Anda untuk mengemudi di lingkungan fisik, Anda perlu mengunduh artefak model. Untuk melakukannya, pilih **Unduh model** pada halaman detail model. Jika perangkat DeepRacer fisik AWS Anda tidak mendukung sensor baru dan model Anda telah dilatih dengan jenis sensor baru, Anda akan mendapatkan pesan kesalahan saat menggunakan model di DeepRacer perangkat AWS Anda di lingkungan dunia nyata. Untuk informasi selengkapnya tentang menguji DeepRacer model AWS dengan perangkat fisik, lihat[Operasikan DeepRacer kendaraan AWS Anda](operate-deepracer-vehicle.md).

Setelah Anda melatih model Anda di trek yang identik atau mirip dengan yang ditentukan dalam acara balap AWS DeepRacer League atau balapan DeepRacer komunitas AWS, Anda dapat mengirimkan model ke balapan virtual di DeepRacer konsol AWS. Untuk melakukan ini, ikuti **sirkuit AWS virtual** atau **Balapan komunitas** di panel navigasi utama. Untuk informasi selengkapnya, lihat [Bergabunglah dengan DeepRacer perlombaan AWS](deepracer-racing-series.md). 



Untuk melatih model untuk menghindari rintangan atau head-to-bot balap, Anda mungkin perlu menambahkan sensor baru ke model dan perangkat fisik. Lihat informasi yang lebih lengkap di [Memahami jenis balap dan mengaktifkan sensor yang didukung oleh AWS DeepRacer](deepracer-choose-race-type.md).