Pertanyaan yang diberi tag «likelihood»

Diberikan variabel acak Xyang muncul dari distribusi parameter F(X;θ) , kemungkinan didefinisikan sebagai probabilitas data yang diamati sebagai fungsi θ:L(θ)=P(θ;X=x)

5
Contoh di mana prinsip kemungkinan * benar-benar * penting?
Adakah contoh di mana dua tes yang dapat dipertahankan yang berbeda dengan kemungkinan proporsional akan mengarahkan seseorang pada kesimpulan yang sangat berbeda (dan sama-sama dapat dipertahankan), misalnya, di mana nilai-p adalah urutan besaran yang berjauhan, tetapi kekuatan untuk alternatif serupa? Semua contoh yang saya lihat sangat konyol, membandingkan binomial dengan …

2
Jika prinsip kemungkinan bertentangan dengan probabilitas frequentist, lalu apakah kita membuang salah satunya?
Dalam sebuah komentar yang baru-baru ini diposting di sini, seorang komentator menunjuk ke sebuah blog oleh Larry Wasserman yang menunjukkan (tanpa sumber) yang sering berselisih dengan prinsip kemungkinan. Prinsip kemungkinan hanya mengatakan bahwa percobaan menghasilkan fungsi kemungkinan yang sama harus menghasilkan kesimpulan yang sama. Dua bagian dari pertanyaan ini: Bagian, …

1
Apa kerugian dari kemungkinan profil?
Pertimbangkan vektor parameter , dengan parameter yang diminati, dan sebagai parameter gangguan.θ 1 θ 2( θ1, θ2)(θ1,θ2)(\theta_1, \theta_2)θ1θ1\theta_1θ2θ2\theta_2 Jika adalah kemungkinan yang dikonstruksi dari data , kemungkinan profil untuk didefinisikan sebagai di mana adalah MLE dari untuk nilai tetap dari .x θ 1 L P ( θ 1 ; x …

5
Apa yang dimaksud "kemungkinan hanya didefinisikan hingga konstanta proporsionalitas multiplikasi" dalam praktiknya?
Saya membaca makalah di mana penulis memimpin dari diskusi estimasi kemungkinan maksimum untuk Teorema Bayes, seolah-olah sebagai pengantar untuk pemula. Sebagai contoh kemungkinan, mereka mulai dengan distribusi binomial: p(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,\theta) = \binom{n}{x}\theta^x(1-\theta)^{n-x} dan kemudian login kedua sisi ℓ(θ|x,n)=xln(θ)+(n−x)ln(1−θ)ℓ(θ|x,n)=xln⁡(θ)+(n−x)ln⁡(1−θ)\ell(\theta|x, n) = x \ln (\theta) + (n-x)\ln (1-\theta) dengan alasan bahwa: "Karena kemungkinan …

4
Motivasi teoretis untuk menggunakan log-likelihood vs likelihood
Saya mencoba memahami pada tingkat yang lebih dalam tentang keberadaan log-likelihood (dan mungkin lebih umum log-probability) dalam statistik dan teori probabilitas. Log-probabilitas muncul di semua tempat: kami biasanya bekerja dengan log-kemungkinan untuk analisis (misalnya untuk maksimalisasi), informasi Fisher didefinisikan dalam hal turunan kedua dari log-kemungkinan, entropi adalah log-probabilitas yang diharapkan …

4
Bagaimana kerangka bayesian lebih baik dalam interpretasi ketika kita biasanya menggunakan prior tidak informatif atau subjektif?
Sering diperdebatkan bahwa kerangka bayesian memiliki keuntungan besar dalam interpretasi (lebih sering), karena ia menghitung probabilitas parameter yang diberikan data - daripada seperti pada kerangka kerja frequentist. Sejauh ini baik.p(θ|x)p(θ|x)p(\theta|x)p(x|θ)p(x|θ)p(x|\theta) Tapi, seluruh persamaan itu didasarkan pada: p(θ|x)=p(x|θ).p(θ)p(x)p(θ|x)=p(x|θ).p(θ)p(x)p(\theta|x) = {p(x|\theta) . p(\theta) \over p(x)} menurut saya sedikit mencurigakan karena 2 alasan: …

1
Pertanyaan tentang Prinsip Kemungkinan
Saat ini saya mencoba memahami Prinsip Kemungkinan dan saya terus terang tidak mengerti sama sekali. Jadi, saya akan menulis semua pertanyaan saya sebagai daftar, bahkan jika itu mungkin pertanyaan yang cukup mendasar. Apa sebenarnya arti frasa "semua informasi" dalam konteks prinsip ini? (seperti dalam semua informasi dalam sampel terkandung dalam …

2
Membandingkan AIC dari model dan versi log-transformed-nya
Inti dari pertanyaan saya adalah ini: Misalkan Y∈RnY∈RnY \in \mathbb{R}^n menjadi variabel acak normal multivariat dengan mean μμ\mu dan matriks kovarian ΣΣ\Sigma . Misalkan Z:=log(Y)Z:=log⁡(Y)Z := \log(Y) , yaitu Zi=log(Yi),i∈{1,…,n}Zi=log⁡(Yi),i∈{1,…,n}Z_i = \log(Y_i), i \in \{1,\ldots,n\} . Bagaimana cara membandingkan AIC model yang sesuai dengan realisasi yang diamati dari YYY versus …

2
Apa yang akan menjadi contoh model yang benar-benar sederhana dengan kemungkinan yang sulit dipecahkan?
Perkiraan perhitungan Bayesian adalah teknik yang sangat keren untuk pemasangan pada dasarnya setiap model stokastik, yang ditujukan untuk model-model di mana kemungkinannya tidak dapat diterapkan (katakanlah, Anda dapat mengambil sampel dari model jika Anda memperbaiki parameter tetapi Anda tidak dapat menghitung kemungkinan secara numerik, algoritmik, atau analitis menghitung kemungkinan). Saat …

3
Menemukan MLE untuk proses Hawkes eksponensial univariat
Proses Hawkes eksponensial univariat adalah proses poin yang menarik sendiri dengan tingkat kedatangan peristiwa: λ(t)=μ+∑ti&lt;tαe−β(t−ti)λ(t)=μ+∑ti&lt;tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} di mana t1,..tnt1,..tn t_1,..t_n adalah kali event kedatangan. Fungsi kemungkinan log adalah −tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln(μ+αe−β(tj−ti))−tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln⁡(μ+αe−β(tj−ti)) - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum\limits_{i<j}{\ln(\mu+\alpha e^{-\beta(t_j-t_i)})} yang dapat dihitung secara rekursif: …

2
Apakah kita sering benar-benar hanya orang Bayesian implisit / tanpa disadari?
Untuk masalah inferensi yang diberikan, kita tahu bahwa pendekatan Bayesian biasanya berbeda dalam bentuk dan hasil dari pendekatan fequentist. Frequentists (biasanya termasuk saya) sering menunjukkan bahwa metode mereka tidak memerlukan prior dan karenanya lebih "didorong data" daripada "didorong penilaian". Tentu saja, Bayesian dapat menunjuk ke prior non-informatif, atau, karena pragmatis, …

2
Apa yang sering diambil dalam kisah voltmeter?
Apa yang sering diambil oleh kisah voltmeter dan variasinya? Gagasan di baliknya adalah bahwa analisis statistik yang menarik bagi peristiwa hipotetis harus direvisi jika kemudian diketahui bahwa peristiwa hipotetis itu tidak mungkin terjadi sebagaimana diasumsikan. The versi cerita di Wikipedia tersedia di bawah ini. Seorang insinyur mengambil sampel acak dari …


1
Estimasi Parameter LogLikelihood untuk Filter Linear Gaussian Kalman
Saya telah menulis beberapa kode yang dapat melakukan pemfilteran Kalman (menggunakan sejumlah filter tipe Kalman yang berbeda [Information Filter et al.]) Untuk Linear Gaussian State Space Analysis untuk vektor keadaan n-dimensi. Filter bekerja dengan baik dan saya mendapatkan beberapa output yang bagus. Namun, estimasi parameter melalui estimasi loglikelihood membingungkan saya. …

2
Proses AR (1) dengan kesalahan pengukuran heteroskedastik
1. Masalahnya Saya memiliki beberapa pengukuran variabel , di mana , di mana saya memiliki distribusi diperoleh melalui MCMC, yang untuk kesederhanaan saya akan menganggapnya sebagai gaussian rata-rata dan varians \ sigma_t ^ 2 .ytyty_tt=1,2,..,nt=1,2,..,nt=1,2,..,nfyt(yt)fyt(yt)f_{y_t}(y_t)μtμt\mu_tσ2tσt2\sigma_t^2 Saya punya model fisik untuk pengamatan itu, katakanlah g(t)g(t)g(t) , tetapi residual rt=μt−g(t)rt=μt−g(t)r_t = \mu_t-g(t) …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.