Pertanyaan yang diberi tag «prior»

Dalam statistik Bayesian, distribusi sebelumnya memformalkan informasi atau pengetahuan (sering subyektif), tersedia sebelum sampel dilihat, dalam bentuk distribusi probabilitas. Distribusi dengan penyebaran besar digunakan ketika sedikit yang diketahui tentang parameter, sedangkan distribusi sebelumnya yang lebih sempit mewakili tingkat informasi yang lebih besar.

2
Mengapa Laplace sebelumnya memproduksi solusi jarang?
Saya melihat-lihat literatur tentang regularisasi, dan sering melihat paragraf yang menghubungkan L2 regulatization dengan Gaussian sebelumnya, dan L1 dengan Laplace berpusat pada nol. Saya tahu bagaimana rupa prior ini, tetapi saya tidak mengerti, bagaimana ini diterjemahkan menjadi, misalnya, bobot dalam model linier. Di L1, jika saya mengerti dengan benar, kami …

3
Bagaimana cara memimpin yang tidak tepat sebelumnya ke distribusi posterior yang tepat?
Kita tahu bahwa dalam hal distribusi sebelumnya yang tepat, P(θ∣X)=P(X∣θ)P(θ)P(X)P(θ∣X)=P(X∣θ)P(θ)P(X)P(\theta \mid X) = \dfrac{P(X \mid \theta)P(\theta)}{P(X)} ∝P(X∣θ)P(θ)∝P(X∣θ)P(θ) \propto P(X \mid \theta)P(\theta) . Pembenaran biasa untuk langkah ini adalah bahwa distribusi marginal , , konstan terhadap dan dengan demikian dapat diabaikan ketika menurunkan distribusi posterior.XXXP(X)P(X)P(X)θθ\theta Namun, dalam kasus prior yang tidak …

6
Posterior sangat berbeda dengan sebelum dan kemungkinan
Jika sebelumnya dan kemungkinan sangat berbeda satu sama lain, maka kadang-kadang terjadi situasi di mana posterior mirip dengan keduanya. Lihat misalnya gambar ini, yang menggunakan distribusi normal. Meskipun secara matematis ini benar, tampaknya itu tidak sesuai dengan intuisi saya - jika data tidak sesuai dengan keyakinan atau data yang saya …

4
Distribusi sebelumnya yang lemah dan informatif untuk parameter skala
Saya telah menggunakan distribusi log normal sebagai distribusi sebelumnya untuk parameter skala (untuk distribusi normal, distribusi t, dll.) Ketika saya memiliki gagasan kasar tentang apa skala seharusnya, tetapi ingin berbuat salah di sisi mengatakan saya tidak tahu banyak tentang itu. Saya menggunakannya karena penggunaan itu masuk akal bagi saya, tetapi …

2
Interpretasi alami untuk hiperparameter LDA
Adakah yang bisa menjelaskan interpretasi alami untuk hiperparameter LDA? ALPHAdan BETAmerupakan parameter dari distribusi Dirichlet untuk masing-masing topik (per dokumen) dan (per topik) kata. Namun bisakah seseorang menjelaskan apa artinya memilih nilai yang lebih besar dari hiperparameter ini dibandingkan nilai yang lebih kecil? Apakah itu berarti menempatkan kepercayaan sebelumnya dalam …

2
Mengapa sebelum varian dianggap lemah?
Latar Belakang Salah satu yang paling umum digunakan sebelum varian adalah invers-gamma dengan parameter (Gelman 2006) .α=0.001,β=0.001α=0.001,β=0.001\alpha =0.001, \beta=0.001 Namun, distribusi ini memiliki 90% CI sekitar .[3×1019,∞][3×1019,∞][3\times10^{19},\infty] library(pscl) sapply(c(0.05, 0.95), function(x) qigamma(x, 0.001, 0.001)) [1] 3.362941e+19 Inf Dari sini, saya menafsirkan bahwa memberikan probabilitas rendah bahwa varians akan sangat tinggi, …


2
Apa masalah dengan prior empiris?
Dalam literatur saya kadang-kadang menemukan komentar, bahwa memilih prior yang bergantung pada data itu sendiri (misalnya Zellners g-prior) dapat dikritik dari sudut pandang teoretis. Di mana sebenarnya masalahnya jika prior tidak dipilih independen dari data?

4
Bagaimana kerangka bayesian lebih baik dalam interpretasi ketika kita biasanya menggunakan prior tidak informatif atau subjektif?
Sering diperdebatkan bahwa kerangka bayesian memiliki keuntungan besar dalam interpretasi (lebih sering), karena ia menghitung probabilitas parameter yang diberikan data - daripada seperti pada kerangka kerja frequentist. Sejauh ini baik.p(θ|x)p(θ|x)p(\theta|x)p(x|θ)p(x|θ)p(x|\theta) Tapi, seluruh persamaan itu didasarkan pada: p(θ|x)=p(x|θ).p(θ)p(x)p(θ|x)=p(x|θ).p(θ)p(x)p(\theta|x) = {p(x|\theta) . p(\theta) \over p(x)} menurut saya sedikit mencurigakan karena 2 alasan: …

1
Apakah ada interpretasi Bayesian tentang regresi linier dengan regularisasi L1 dan L2 simultan (alias jaring elastis)?
Ini juga diketahui bahwa regresi linier dengan penalti setara dengan menemukan perkiraan MAP diberi Gaussian sebelumnya pada koefisien. Demikian pula, menggunakan l 1 penalti setara dengan menggunakan distribusi Laplace sebagai sebelumnya.l2l2l^2l1l1l^1 Tidak jarang menggunakan kombinasi tertimbang dari regularisasi dan l 2 . Bisakah kita mengatakan bahwa ini setara dengan beberapa …

2
Apa hubungan di balik Jeffreys Priors dan transformasi penstabilan varian?
Saya membaca tentang Jeffreys sebelum di wikipedia: Jeffreys Prior dan melihat bahwa setelah setiap contoh, ini menggambarkan bagaimana transformasi penstabilan varian mengubah Jeffrey sebelum menjadi seragam sebelumnya. Sebagai contoh, untuk kasus Bernoulli, menyatakan bahwa untuk koin yang kepala dengan probabilitas γ∈[0,1]γ∈[0,1]\gamma \in [0,1] , Bernoulli Model uji coba hasil bahwa …


2
Frekuensi dan prior
Robby McKilliam mengatakan dalam komentar untuk posting ini : Harus ditunjukkan bahwa, dari sudut pandang sering, tidak ada alasan bahwa Anda tidak dapat memasukkan pengetahuan sebelumnya ke dalam model. Dalam hal ini, tampilan sering lebih sederhana, Anda hanya memiliki model dan beberapa data. Tidak perlu memisahkan informasi sebelumnya dari model …


2
Distribusi sebelumnya apa yang bisa / harus digunakan untuk varians dalam model bayesisan hirarkis ketika varians rata-rata menarik?
Dalam makalahnya yang dikutip secara luas, distribusi Prior untuk parameter varians dalam model hierarkis (916 kutipan sejauh ini di Google Cendekia) Gelman mengusulkan bahwa distribusi sebelumnya yang tidak informatif untuk varian dalam model Bayesian hirarkis adalah distribusi seragam dan distribusi t setengah. Jika saya memahami hal-hal yang benar ini berfungsi …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.