[Peringatan: sebagai anggota pembawa kartu dari Objective Bayes Section dari ISBA , pandangan saya tidak mewakili semua ahli statistik Bayesian !, justru sebaliknya ...]
Singkatnya, tidak ada yang namanya pendahuluan dengan "benar-benar tidak ada informasi".
Memang, "tidak informatif" sebelumnya sayangnya keliru. Setiap distribusi sebelumnya berisi beberapa spesifikasi yang mirip dengan sejumlah informasi. Bahkan (atau terutama) seragam sebelumnya. Memang, prior seragam hanya rata untuk satu parameterisasi masalah yang diberikan. Jika seseorang berubah ke parameterisasi lain (bahkan yang dibatasi), perubahan variabel Jacobian masuk ke dalam gambar dan kepadatan dan yang sebelumnya datar tidak lagi.
Seperti yang ditunjukkan oleh Elvis, entropi maksimum adalah satu pendekatan yang disarankan untuk memilih apa yang disebut "tidak informatif". Namun itu membutuhkan (a) informasi yang cukup tentang beberapa momen dari distribusi sebelumnya untuk menentukan batasan yang mengarah ke MaxEnt sebelum
dan (b) pilihan awal dari ukuran referensi [dalam pengaturan berkelanjutan], sebuah pilihan yang membawa perdebatan kembali ke tahap awalnya! (Selain itu, parametrisasi kendala (yaitu, pilihanπ ( ⋅ ) ∫ Θ h ( θ )h ( θ )π( ⋅ )π ∗ ( θ ) ∝ exp { λ T h ( θ ) } d μ ( θ ) h
∫Θh ( θ )d π( θ ) = h0
π∗( θ ) ∝ exp{ λTh ( θ ) }
d μ ( θ )h) memengaruhi bentuk
MaxEnt yang dihasilkan sebelumnya.)
José Bernardo telah menghasilkan teori asli tentang referensi prior di mana ia memilih prior untuk memaksimalkan informasi yang dibawa oleh data dengan memaksimalkan jarak Kullback antara prior dan posterior. Dalam kasus yang paling sederhana tanpa parameter gangguan, solusinya adalah milik Jeffreys sebelumnya. Dalam masalah yang lebih kompleks, (a) pilihan parameter minat (atau bahkan peringkat urutan kepentingan mereka) harus dibuat; (B) perhitungan dari sebelumnya adalah cukup terlibat dan membutuhkan urutan set kompak tertanam untuk menghindari masalah ketidaktepatan. (Lihat misalnya The Bayesian Choice untuk perinciannya.)
Dalam twist yang menarik, beberapa peneliti di luar perspektif Bayesian telah mengembangkan prosedur yang disebut distribusi kepercayaan yang merupakan distribusi probabilitas pada ruang parameter, dibangun oleh inversi dari prosedur berbasis frekuensi tanpa struktur sebelumnya yang eksplisit atau bahkan ukuran yang mendominasi pada ruang parameter ini. Mereka berpendapat bahwa tidak adanya prior yang terdefinisi dengan baik ini merupakan nilai tambah, meskipun hasilnya pasti tergantung pada pilihan prosedur inisialisasi berbasis frekuensi
Singkatnya, tidak ada pilihan "terbaik" (atau bahkan "lebih baik") untuk "the" "uninformative" sebelumnya. Dan saya menganggap inilah yang seharusnya terjadi karena sifat alami analisis Bayes menyiratkan bahwa pilihan distribusi sebelumnya penting. Dan tidak ada perbandingan perbandingan: yang satu tidak mungkin lebih baik dari yang lain. (Setidaknya sebelum mengamati data: setelah diamati, perbandingan prior menjadi pilihan model.) Kesimpulan José Bernardo, Jim Berger, Dongchu Sun, dan banyak orang Bayesian "obyektif" yang lain adalah bahwa ada kira-kira setara referensi priori yang dapat digunakan ketika tidak yakin tentang informasi sebelumnya seseorang atau mencari tolok ukur Bayesian, beberapa prior yang sebagian didukung oleh argumen teori informasi,