Saya akan mengatakan bahwa HBM jelas "lebih Bayesian" daripada EB, karena meminggirkan adalah pendekatan yang lebih Bayesian daripada mengoptimalkan. Pada dasarnya menurut saya EB mengabaikan ketidakpastian dalam parameter-hiper, sedangkan HBM mencoba memasukkannya dalam analisis. Saya menduga HMB adalah ide bagus di mana ada sedikit data dan karenanya ketidakpastian yang signifikan dalam parameter-hiper, yang harus diperhitungkan. Di sisi lain untuk dataset besar, EB menjadi lebih menarik karena umumnya lebih murah secara komputasi dan volume data sering kali berarti hasilnya jauh kurang sensitif terhadap pengaturan parameter-hiper.
Saya telah bekerja pada pengklasifikasi proses Gaussian dan cukup sering mengoptimalkan parameter-hiper untuk memaksimalkan hasil marginal kemungkinan hasil over-fitting ML dan karenanya penurunan signifikan dalam kinerja generalisasi. Saya menduga dalam kasus-kasus itu, perawatan HBM lengkap akan lebih dapat diandalkan, tetapi juga jauh lebih mahal.