Apa yang tampaknya Anda lewatkan adalah sejarah awal. Anda dapat memeriksa kertasnya oleh Fienberg (2006) Kapan Bayesian Inference Menjadi "Bayesian"? . Pertama, ia memperhatikan bahwa Thomas Bayes adalah yang pertama menyarankan penggunaan seragam sebelumnya:
Dalam bahasa statistik saat ini, makalah Bayes memperkenalkan distribusi seragam sebelumnya pada parameter binomial, , penalaran dengan analogi dengan "tabel biliar" dan menggambar pada bentuk distribusi marjinal dari variabel acak binomial, dan tidak berdasarkan prinsip "alasan yang tidak memadai," seperti yang banyak diklaim orang lain.θ
Pierre Simon Laplace adalah orang berikutnya yang mendiskusikannya:
Laplace juga mengartikulasikan, lebih jelas daripada Bayes, argumennya untuk pemilihan distribusi yang seragam sebelumnya, dengan alasan bahwa distribusi posterior parameter harus proporsional dengan apa yang sekarang kita sebut kemungkinan data, yaitu,θ
f( θ ∣ x1, x2, ... , xn) ∝ f( x1, x2, ... , xn∣ θ )
Kami sekarang mengerti bahwa ini menyiratkan bahwa distribusi sebelumnya untuk
adalah seragam, meskipun secara umum, tentu saja, yang sebelumnya mungkin tidak ada.θ
Selain itu Carl Friedrich Gauss juga disebut menggunakan informasi sebelumnya, seperti dicatat oleh David dan Edwards (2001) dalam buku mereka Annotated Readings in the History of Statistics :
Gauss menggunakan argumen tipe Bayesian ad hoc untuk menunjukkan bahwa kepadatan posterior sebanding dengan kemungkinan (dalam terminologi modern):h
f( h | x ) ∝ f( x | h )
di mana ia mengasumsikan didistribusikan secara seragam ke . Gauss tidak menyebutkan Bayes atau Laplace, meskipun yang terakhir telah mempopulerkan pendekatan ini sejak Laplace (1774).h[ 0 , ∞ )
dan seperti yang diketahui Fienberg (2006), "probabilitas terbalik" (dan apa yang terjadi kemudian, dengan menggunakan prior uniform) populer pada pergantian abad ke-19.
[...] Dengan demikian, dalam retrospeksi, seharusnya tidak mengejutkan melihat probabilitas terbalik sebagai metode pemilihan ahli statistik Inggris yang hebat pada pergantian abad, seperti Edgeworth dan Pearson. Sebagai contoh, Edgeworth (49) memberikan salah satu derivasi paling awal dari apa yang sekarang kita kenal sebagai distribusi Student , distribusi posterior dari rata-rata dari distribusi normal yang diberikan distribusi sebelumnya yang seragam pada dan [...]tμμh = σ- 1
Sejarah awal pendekatan Bayesian juga ditinjau oleh Stigler (1986) dalam bukunya Sejarah statistik: Pengukuran ketidakpastian sebelum 1900 .
Dalam ulasan singkat Anda, Anda juga tampaknya tidak menyebutkan Ronald Aylmer Fisher (sekali lagi dikutip setelah Fienberg, 2006):
Fisher pindah dari metode terbalik dan menuju pendekatannya sendiri untuk menyimpulkan, dia menyebut "kemungkinan," sebuah konsep yang dia klaim berbeda dari probabilitas. Tetapi perkembangan Fisher dalam hal ini lambat. Stigler (164) telah menunjukkan bahwa, dalam sebuah manuskrip yang tidak diterbitkan yang berasal dari tahun 1916, Fisher tidak membedakan antara kemungkinan dan probabilitas terbalik dengan flat sebelumnya, meskipun ketika ia kemudian membuat perbedaan yang ia klaim telah memahaminya pada saat ini.
Jaynes (1986) memberikan makalah ulasan singkatnya sendiri Metode Bayesian: Latar Belakang Umum. Tutorial Pendahuluan yang bisa Anda periksa, tetapi tidak fokus pada prior yang tidak informatif. Selain itu, sebagaimana dicatat oleh AdamO , Anda harus membaca The Epic Story of Maximum Likelihood oleh Stigler (2007).
Perlu juga disebutkan bahwa tidak ada yang namanya "prior uninformative" , sehingga banyak penulis lebih suka berbicara tentang "prior samar" , atau "prior informatif mingguan" .
Tinjauan teoretis disediakan oleh Kass dan Wasserman (1996) dalam pemilihan distribusi sebelumnya oleh aturan formal , yang masuk ke detail yang lebih besar tentang pemilihan prior, dengan diskusi panjang tentang penggunaan prior uninformative.