

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Memahami strategi penyetelan hyperparameter yang tersedia di Amazon AI SageMaker
<a name="automatic-model-tuning-how-it-works"></a>

Ketika Anda membangun sistem pembelajaran mesin yang kompleks seperti jaringan saraf pembelajaran mendalam, menjelajahi semua kombinasi yang mungkin tidak praktis. Penyetelan hyperparameter dapat mempercepat produktivitas Anda dengan mencoba banyak variasi model. Ini mencari model terbaik secara otomatis dengan berfokus pada kombinasi nilai hyperparameter yang paling menjanjikan dalam rentang yang Anda tentukan. Untuk mendapatkan hasil yang baik, Anda harus memilih rentang yang tepat untuk dijelajahi. Halaman ini memberikan penjelasan singkat tentang berbagai strategi penyetelan hyperparameter yang dapat Anda gunakan dengan Amazon SageMaker AI.

Gunakan [panduan referensi API](https://docs.aws.amazon.com/sagemaker/latest/APIReference/Welcome.html?icmpid=docs_sagemaker_lp) untuk memahami cara berinteraksi dengan penyetelan hyperparameter. Anda dapat menggunakan strategi penyetelan yang dijelaskan di halaman ini dengan [HyperParameterTuningJobConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HyperParameterTuningJobConfig.html)dan [HyperbandStrategyConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HyperbandStrategyConfig.html) APIs.

**catatan**  
Karena algoritme itu sendiri stokastik, model tuning hyperparameter mungkin gagal menyatu pada jawaban terbaik. Ini dapat terjadi bahkan jika kombinasi nilai terbaik ada dalam rentang yang Anda pilih.

## Pencarian kisi
<a name="automatic-tuning-grid-search"></a>

 Saat menggunakan pencarian kisi, penyetelan hyperparameter memilih kombinasi nilai dari rentang nilai kategoris yang Anda tentukan saat Anda membuat pekerjaan. Hanya parameter kategoris yang didukung saat menggunakan strategi pencarian kisi. Anda tidak perlu menentukan`MaxNumberOfTrainingJobs`. Jumlah pekerjaan pelatihan yang dibuat oleh pekerjaan penyetelan secara otomatis dihitung menjadi jumlah total kombinasi kategoris yang berbeda yang mungkin. Jika ditentukan, nilai `MaxNumberOfTrainingJobs` harus sama dengan jumlah total kombinasi kategoris yang berbeda mungkin.

## Pencarian acak
<a name="automatic-tuning-random-search"></a>

Saat menggunakan pencarian acak, penyetelan hyperparameter memilih kombinasi acak nilai hyperparameter dalam rentang yang Anda tentukan untuk setiap pekerjaan pelatihan yang diluncurkan. Pilihan nilai hyperparameter tidak tergantung pada hasil pekerjaan pelatihan sebelumnya. Akibatnya, Anda dapat menjalankan jumlah maksimum pekerjaan pelatihan bersamaan tanpa mengubah kinerja penyetelan.

Untuk contoh buku catatan yang menggunakan pencarian acak, lihat [Pencarian acak dan penskalaan hiperparameter dengan SageMaker XGBoost dan notebook Penyetelan Model Otomatis](https://github.com/aws/amazon-sagemaker-examples-community/blob/215215eb25b40eadaf126d055dbb718a245d7603/training/sagemaker-automatic-model-tuning/hpo_xgboost_random_log.ipynb).

## Optimasi Bayesian
<a name="automatic-tuning-bayesian-optimization"></a>

*[Optimasi Bayesian memperlakukan penyetelan hyperparameter seperti masalah regresi.](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html#[regression])* Mengingat serangkaian fitur input (hyperparameters), tuning hyperparameter mengoptimalkan model untuk metrik yang Anda pilih. Untuk mengatasi masalah regresi, penyetelan hyperparameter membuat tebakan tentang kombinasi hyperparameter mana yang cenderung mendapatkan hasil terbaik. Kemudian menjalankan pekerjaan pelatihan untuk menguji nilai-nilai ini. Setelah menguji satu set nilai hyperparameter, tuning hyperparameter menggunakan regresi untuk memilih set nilai hyperparameter berikutnya untuk diuji.

Penyetelan hyperparameter menggunakan implementasi Amazon SageMaker AI dari optimasi Bayesian.

Saat memilih hiperparameter terbaik untuk pekerjaan pelatihan berikutnya, penyetelan hyperparameter mempertimbangkan semua yang diketahui tentang masalah ini sejauh ini. Terkadang ia memilih kombinasi nilai hiperparameter yang dekat dengan kombinasi yang menghasilkan pekerjaan pelatihan terbaik sebelumnya untuk meningkatkan kinerja secara bertahap. Hal ini memungkinkan tuning hyperparameter untuk menggunakan hasil yang paling terkenal. Di lain waktu, ia memilih satu set nilai hyperparameter yang jauh dari yang telah dicoba. Hal ini memungkinkannya untuk mengeksplorasi kisaran nilai hyperparameter untuk mencoba menemukan area baru yang belum dipahami dengan baik. Explore/exploit trade-off adalah hal biasa dalam banyak masalah pembelajaran mesin.

Untuk informasi lebih lanjut tentang optimasi Bayesian, lihat berikut ini:

**Topik Dasar tentang Optimasi Bayesian**
+ [Tutorial tentang Optimalisasi Bayesian dari Fungsi Biaya Mahal, dengan Aplikasi untuk Pemodelan Pengguna Aktif dan Pembelajaran Penguatan Hirarkis](https://arxiv.org/abs/1012.2599)
+ [Optimalisasi Bayesian Praktis dari Algoritma Machine Learning](https://arxiv.org/abs/1206.2944)
+ [Mengambil Manusia Keluar dari Lingkaran: Tinjauan Optimasi Bayesian](https://ieeexplore.ieee.org/document/7352306?reload=true)

**Mempercepat Optimasi Bayesian**
+ [Google Wazir: Layanan untuk Optimasi Black-Box](https://dl.acm.org/doi/10.1145/3097983.3098043)
+ [Prediksi Kurva Pembelajaran dengan Jaringan Saraf Bayesian](https://openreview.net/forum?id=S11KBYclx)
+ [Mempercepat optimalisasi hiperparameter otomatis jaringan saraf dalam dengan ekstrapolasi kurva pembelajaran](https://dl.acm.org/doi/10.5555/2832581.2832731)

**Pemodelan Tingkat Lanjut dan Pembelajaran Transfer**
+ [Pembelajaran Transfer Hyperparameter yang Dapat Diskalakan](https://papers.nips.cc/paper_files/paper/2018/hash/14c879f3f5d8ed93a09f6090d77c2cc3-Abstract.html)
+ [Optimasi Bayesian dengan Dependensi Terstruktur Pohon](http://proceedings.mlr.press/v70/jenatton17a.html)
+ [Optimasi Bayesian dengan Jaringan Saraf Bayesian yang Kuat](https://papers.nips.cc/paper_files/paper/2016/hash/291597a100aadd814d197af4f4bab3a7-Abstract.html)
+ [Optimasi Bayesian yang Dapat Diskalakan Menggunakan Jaringan Neural Dalam](http://proceedings.mlr.press/v37/snoek15.pdf)
+ [Input Warping untuk Optimalisasi Bayesian dari Fungsi Non-stasioner](https://arxiv.org/abs/1402.0929)

## Hyperband
<a name="automatic-tuning-hyperband"></a>

Hyperband adalah strategi tuning berbasis multi-fidelity yang secara dinamis merealokasi sumber daya. Hyperband menggunakan hasil menengah dan akhir dari pekerjaan pelatihan untuk mengalokasikan kembali zaman ke konfigurasi hyperparameter yang digunakan dengan baik dan secara otomatis menghentikan yang berkinerja buruk. Ini juga menskalakan dengan mulus untuk menggunakan banyak pekerjaan pelatihan paralel. Fitur-fitur ini dapat secara signifikan mempercepat penyetelan hyperparameter melalui pencarian acak dan strategi optimasi Bayesian.

Hyperband seharusnya hanya digunakan untuk menyetel algoritme berulang yang mempublikasikan hasil pada tingkat sumber daya yang berbeda. Misalnya, Hyperband dapat digunakan untuk menyetel jaringan saraf untuk klasifikasi gambar yang menerbitkan metrik akurasi setelah setiap zaman.

Untuk informasi lebih lanjut tentang Hyperband, lihat tautan berikut:
+ [Hyperband: Pendekatan Berbasis Bandit Baru untuk Optimasi Hyperparameter](http://arxiv.org/pdf/1603.06560)
+ [Penyetelan Hyperparameter Paralel Secara Masif](https://liamcli.com/assets/pdf/asha_arxiv.pdf)
+ [BOHB: Optimasi Hyperparameter yang Kuat dan Efisien pada Skala](http://proceedings.mlr.press/v80/falkner18a/falkner18a.pdf)
+ [Pencarian Hyperparameter Asinkron dan Arsitektur Saraf Berbasis Model](https://openreview.net/pdf?id=a2rFihIU7i)

### Hyperband dengan berhenti lebih awal
<a name="automatic-tuning-hyperband-early-stopping"></a>

Pekerjaan pelatihan dapat dihentikan lebih awal ketika mereka tidak mungkin meningkatkan metrik objektif dari pekerjaan penyetelan hiperparameter. Ini dapat membantu mengurangi waktu komputasi dan menghindari overfitting model Anda. Hyperband menggunakan mekanisme internal canggih untuk menerapkan penghentian dini. Parameter `TrainingJobEarlyStoppingType` dalam `HyperParameterTuningJobConfig` API harus disetel ke `OFF` saat menggunakan fitur penghentian awal internal Hyperband.

**catatan**  
Penyetelan hyperparameter mungkin tidak meningkatkan model Anda. Ini adalah alat canggih untuk membangun solusi mesin. Dengan demikian, harus dianggap sebagai bagian dari proses pengembangan ilmiah. 