Apa itu "informasi sebelumnya"? Bisakah kita punya satu yang benar-benar tanpa informasi?


73

Terinspirasi oleh komentar dari pertanyaan ini :

Apa yang kita anggap "tidak informatif" pada prior - dan informasi apa yang masih terkandung dalam prior yang sebelumnya dianggap tidak informatif?

Saya biasanya melihat sebelumnya dalam analisis di mana itu baik analisis tipe-sering mencoba untuk meminjam beberapa bagian yang bagus dari analisis Bayesian (baik itu beberapa interpretasi lebih mudah sampai ke 'itu hal yang panas untuk dilakukan'), prior yang ditentukan adalah seragam distribusi di seluruh batas-batas efek ukuran, berpusat pada 0. Tetapi bahkan yang menegaskan suatu bentuk untuk sebelum - itu hanya kebetulan datar.

Apakah ada informasi yang lebih baik sebelum digunakan?


2
Mungkin Anda akan menikmati pandangan tentang apa yang disebut Prinsip Entropi Maksimum . Saya tidak ingin mengembangkannya dalam jawaban lengkap - artikel Wikipedia sepertinya berkualitas baik. Saya cukup yakin beberapa kontributor akan memperluas itu jauh lebih baik daripada saya.
Elvis

Jawaban:


93

[Peringatan: sebagai anggota pembawa kartu dari Objective Bayes Section dari ISBA , pandangan saya tidak mewakili semua ahli statistik Bayesian !, justru sebaliknya ...]

Singkatnya, tidak ada yang namanya pendahuluan dengan "benar-benar tidak ada informasi".

Memang, "tidak informatif" sebelumnya sayangnya keliru. Setiap distribusi sebelumnya berisi beberapa spesifikasi yang mirip dengan sejumlah informasi. Bahkan (atau terutama) seragam sebelumnya. Memang, prior seragam hanya rata untuk satu parameterisasi masalah yang diberikan. Jika seseorang berubah ke parameterisasi lain (bahkan yang dibatasi), perubahan variabel Jacobian masuk ke dalam gambar dan kepadatan dan yang sebelumnya datar tidak lagi.

Seperti yang ditunjukkan oleh Elvis, entropi maksimum adalah satu pendekatan yang disarankan untuk memilih apa yang disebut "tidak informatif". Namun itu membutuhkan (a) informasi yang cukup tentang beberapa momen dari distribusi sebelumnya untuk menentukan batasan yang mengarah ke MaxEnt sebelum dan (b) pilihan awal dari ukuran referensi [dalam pengaturan berkelanjutan], sebuah pilihan yang membawa perdebatan kembali ke tahap awalnya! (Selain itu, parametrisasi kendala (yaitu, pilihanπ ( ) Θ h ( θ )h(θ)π()π ( θ ) exp { λ T h ( θ ) } d μ ( θ ) h

Θh(θ)dπ(θ)=h0
π(θ)exp{λTh(θ)}
dμ(θ)h) memengaruhi bentuk MaxEnt yang dihasilkan sebelumnya.)

José Bernardo telah menghasilkan teori asli tentang referensi prior di mana ia memilih prior untuk memaksimalkan informasi yang dibawa oleh data dengan memaksimalkan jarak Kullback antara prior dan posterior. Dalam kasus yang paling sederhana tanpa parameter gangguan, solusinya adalah milik Jeffreys sebelumnya. Dalam masalah yang lebih kompleks, (a) pilihan parameter minat (atau bahkan peringkat urutan kepentingan mereka) harus dibuat; (B) perhitungan dari sebelumnya adalah cukup terlibat dan membutuhkan urutan set kompak tertanam untuk menghindari masalah ketidaktepatan. (Lihat misalnya The Bayesian Choice untuk perinciannya.)

Dalam twist yang menarik, beberapa peneliti di luar perspektif Bayesian telah mengembangkan prosedur yang disebut distribusi kepercayaan yang merupakan distribusi probabilitas pada ruang parameter, dibangun oleh inversi dari prosedur berbasis frekuensi tanpa struktur sebelumnya yang eksplisit atau bahkan ukuran yang mendominasi pada ruang parameter ini. Mereka berpendapat bahwa tidak adanya prior yang terdefinisi dengan baik ini merupakan nilai tambah, meskipun hasilnya pasti tergantung pada pilihan prosedur inisialisasi berbasis frekuensi

Singkatnya, tidak ada pilihan "terbaik" (atau bahkan "lebih baik") untuk "the" "uninformative" sebelumnya. Dan saya menganggap inilah yang seharusnya terjadi karena sifat alami analisis Bayes menyiratkan bahwa pilihan distribusi sebelumnya penting. Dan tidak ada perbandingan perbandingan: yang satu tidak mungkin lebih baik dari yang lain. (Setidaknya sebelum mengamati data: setelah diamati, perbandingan prior menjadi pilihan model.) Kesimpulan José Bernardo, Jim Berger, Dongchu Sun, dan banyak orang Bayesian "obyektif" yang lain adalah bahwa ada kira-kira setara referensi priori yang dapat digunakan ketika tidak yakin tentang informasi sebelumnya seseorang atau mencari tolok ukur Bayesian, beberapa prior yang sebagian didukung oleh argumen teori informasi,


14
(+1) Buku Anda? Oh sial. Saya jadi memiliki 387 pertanyaan untuk Anda :)
Elvis

4
(+1) Untuk tujuan (tidak kurang!), Jawabannya langsung.
kardinal

2
+1 Terima kasih atas ikhtisar masalah yang baik dan terinformasi.
whuber

2
Jawaban yang luar biasa. Terima kasih. Dan satu lagi buku yang masuk daftar keinginan.
Fomite

1
Hampir tidak adil. Bagaimanapun, dia adalah Christian Robert! Hanya bercanda. Jawaban yang bagus Dan saya akan senang jika @ Xi'an dapat mengembangkannya dalam posting di blog-nya, khususnya tentang bagaimana parametrization penting untuk topik "tidak informatif" prior.
Manoel Galdino

16

Properti yang menarik dari prior noninformative formal adalah "frequent-matching property": itu berarti bahwa interval kredibilitas posterior 95% juga (setidaknya, kira-kira) interval kepercayaan 95% dalam pengertian frequentist. Properti ini berlaku untuk referensi Bernardo sebelumnya walaupun dana dari prior noninformative ini tidak berorientasi pada pencapaian properti pencocokan frequentist yang baik, Jika Anda menggunakan informasi non -formatif "naif" ("flat") sebelumnya seperti distribusi seragam atau Gaussian distribusi dengan varian yang sangat besar maka tidak ada jaminan bahwa properti pencocokan frequentist berlaku. Mungkin referensi Bernardo sebelumnya tidak dapat dianggap sebagai pilihan "terbaik" dari noninformatif sebelumnya tetapi dapat dianggap sebagai yang paling sukses.


9

(-,)(0,)haldhal/hal(1-hal)π(0,1)

haldhal/hal(1-hal)


Pertama, terjemahannya bagus!

Untuk E. LHOSTE: "Le calcul des probabilités appliqué à l'artillerie", Revue d'artillerie, tome 91, mai à août 1923

Untuk A. RENYI: "Tentang teori probabilitas aksiomatik baru" Acta Mathematica, Académie des Sciences hongroises, tome VI, fasc.3-4, 1955

Saya dapat menambahkan: M. DUMAS: "Lois de probabilité a priori de Lhoste", Ilmu dan teknik de l'armement, 56, 4ème fascicule, 1982, hlm 687-715


3
Apakah mungkin bagi Anda untuk menulis ulang ini dalam bahasa Inggris, walaupun itu dilakukan dengan sangat buruk melalui layanan terjemahan otomatis seperti Google Translate? Pengguna lain, yang lebih fasih berbahasa Perancis dan Inggris, dapat membantu menyalin-mengeditnya untuk Anda.
Silverfish

3
catatanσcatatanhal/(1-hal)(0,)(0,1)(0,)(0,1)R

2
log()logit()

3

Saya setuju dengan jawaban yang bagus dari Xi'an , menunjukkan bahwa tidak ada satu pun sebelumnya yang "tidak informatif" dalam arti tidak membawa informasi. Untuk memperluas topik ini, saya ingin menunjukkan bahwa salah satu alternatif adalah melakukan analisis Bayesian dalam kerangka probabilitas yang tidak tepat (lihat esp. Walley 1991 , Walley 2000 ). Dalam kerangka kerja ini, kepercayaan sebelumnya diwakili oleh seperangkat distribusi probabilitasn

Kerangka kerja analitis ini telah diotomatiskan oleh Walley sebagai bentuk khusus dari analisis probabilistik, tetapi pada dasarnya setara dengan analisis Bayesian yang kuat menggunakan seperangkat prior, menghasilkan seperangkat posisi yang sesuai. Dalam banyak model adalah mungkin untuk menetapkan serangkaian prior "uninformative" yang memungkinkan beberapa momen (misalnya, mean sebelumnya) bervariasi pada seluruh rentang nilai yang mungkin, dan meskipun demikian ini menghasilkan hasil posterior yang berharga, di mana momen posterior dibatasi lebih erat. Bentuk analisis ini bisa dibilang memiliki klaim yang lebih baik untuk disebut "tidak informatif", paling tidak berkenaan dengan momen-momen yang dapat bervariasi pada seluruh rentang yang diizinkan.


X1,...,Xn|θIID Bern(θ)θμκ>1

π0(θ|μ,κ)=Beta(θ|μ,κ)=Beta(θ|α=μ(κ-1),β=(1-μ)(κ-1)).

E(θ)=μV(θ)=μ(1-μ)/κ

P0{Beta(μ,κ)|0μ1}.

s=saya=1nxsaya

Px={Beta(s+μ(κ-1)n+κ-1,n+κ)|0μ1}.

Kisaran nilai yang mungkin untuk harapan posterior adalah:

sn+κ-1E(θ|x)s+κ-1n+κ-1.

nθ


+1. Menarik. Apa kappa dalam persamaan terakhir? Haruskah itu menjadi bintang kappa?
Amuba kata Reinstate Monica

κ
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.