Saya pikir jawabannya di sini sama dengan di mana-mana dalam ilmu data: itu tergantung pada data :-)
Mungkin terjadi bahwa satu metode mengungguli yang lain (di sini https://arimo.com/data-science/2016/bayesian-optimization-hyperparameter-tuning/ orang membandingkan optimasi hyperparameter Bayesian dan mencapai hasil yang lebih baik pada tantangan kekejutan kejahatan di San Francisco daripada dengan pencarian acak), namun saya ragu bahwa ada aturan umum untuk itu. Anda dapat melihat gif yang bagus di sini ( http://blog.revolutionanalytics.com/2016/06/bayesian-optimization-of-machine-learning-models.html ) di mana orang menunjukkan 'jalur' yang dilakukan optimasi Bayesian dalam lanskap dari hyperparameters, khususnya, sepertinya tidak mengungguli pencarian acak pada umumnya ...
Saya pikir alasan mengapa orang cenderung menggunakan optimisasi hyperparameter Bayesian adalah bahwa hanya dibutuhkan langkah pelatihan yang lebih sedikit untuk mencapai hasil yang sebanding dibandingkan dengan pencarian acak dengan jumlah eksperimen yang cukup tinggi.
Merangkum dalam satu kalimat:
* Ketika waktu pelatihan sangat penting, gunakan optimisasi hyperparameter Bayesian dan jika waktu tidak menjadi masalah, pilih salah satu dari keduanya ... *
Biasanya saya terlalu malas untuk mengimplementasikan hal-hal Bayesian dengan Proses Gaussian jika saya dapat mencapai hasil yang sama dengan pencarian acak ... Saya hanya melatih ansambel Gradient Bossting pada data 'sedikit', jadi bagi saya, waktu bukanlah masalah ...