Apa yang dimaksud "kemungkinan hanya didefinisikan hingga konstanta proporsionalitas multiplikasi" dalam praktiknya?


19

Saya membaca makalah di mana penulis memimpin dari diskusi estimasi kemungkinan maksimum untuk Teorema Bayes, seolah-olah sebagai pengantar untuk pemula.

Sebagai contoh kemungkinan, mereka mulai dengan distribusi binomial:

p(x|n,θ)=(nx)θx(1θ)nx

dan kemudian login kedua sisi

(θ|x,n)=xln(θ)+(nx)ln(1θ)

dengan alasan bahwa:

"Karena kemungkinan hanya didefinisikan hingga konstanta proporsional multiplikatif (atau konstanta aditif untuk kemungkinan log), kami dapat mengubah skala ... dengan menjatuhkan koefisien binomial dan menuliskan kemungkinan log sebagai ganti kemungkinan"

Matematika masuk akal, tetapi saya tidak dapat memahami apa yang dimaksud dengan "kemungkinan hanya didefinisikan hingga konstanta proporsionalitas multiplikasi" dan bagaimana ini memungkinkan menjatuhkan koefisien binomial dan beralih dari p(x|n,θ) ke (θ|x,n) .

Terminologi serupa telah muncul dalam pertanyaan-pertanyaan lain (di sini dan di sini ), tetapi masih belum jelas apa, secara praktis, kemungkinan yang didefinisikan atau membawa informasi ke sarana konstanta multiplikatif. Apakah mungkin menjelaskan hal ini dalam istilah awam?

Jawaban:


18

Intinya adalah bahwa kadang-kadang, model yang berbeda (untuk data yang sama) dapat mengarah pada fungsi kemungkinan yang berbeda dengan konstanta multiplikasi, tetapi konten informasi harus jelas sama. Sebuah contoh:

Kami memodelkan eksperimen Bernoulli independen, yang mengarah ke data , masing-masing dengan distribusi Bernoulli dengan (probabilitas) parameter . Ini mengarah ke fungsi likelihood Atau kita dapat meringkas data dengan variabel terdistribusi secara , yang memiliki distribusi binomial, yang mengarah ke fungsi likelihood yang, sebagai fungsi dari parameter tidak diketahui , sebanding dengan fungsi likelihood sebelumnya . Dua fungsi kemungkinan jelas berisi informasi yang sama, dan harus mengarah pada kesimpulan yang sama!nX1,...,Xnhal

saya=1nhalxsaya(1-hal)1-xsaya
Y=X1+X2++Xn
(ny)py(1p)ny
p

Dan memang, menurut definisi, mereka dianggap fungsi kemungkinan yang sama.

Sudut pandang lain: amati bahwa ketika fungsi kemungkinan digunakan dalam teorema Bayes, seperti yang dibutuhkan untuk analisis bayesian, konstanta multiplikasi seperti itu dengan mudah dibatalkan! jadi mereka jelas tidak relevan dengan inferensi bayesian. Demikian juga, itu akan dibatalkan saat menghitung rasio kemungkinan, seperti yang digunakan dalam tes hipotesis optimal (Neyman-Pearson lemma.) Dan itu tidak akan mempengaruhi nilai penduga kemungkinan maksimum. Jadi kita dapat melihat bahwa dalam banyak kesimpulan sering tidak dapat berperan.

Kita masih bisa berdebat dari sudut pandang lain. Fungsi probabilitas Bernoulli (selanjutnya kami menggunakan istilah "kepadatan") di atas adalah benar-benar kepadatan sehubungan dengan ukuran penghitungan, yaitu, ukuran pada bilangan bulat non-negatif dengan massa satu untuk setiap bilangan bulat non-negatif. Tapi kita bisa mendefinisikan kepadatan sehubungan dengan beberapa ukuran yang mendominasi lainnya. Dalam contoh ini ini akan tampak (dan) buatan, tetapi dalam ruang yang lebih besar (ruang fungsi) itu sangat mendasar! Mari kita, untuk tujuan ilustrasi, menggunakan distribusi geometri spesifik, ditulis , dengan , , dan begitu seterusnya. Kemudian kepadatan distribusi Bernoulli sehubungan denganλλ(0)=1/2λ(1)=1/4λ(2)=1/8λf λ ( x ) = p x ( 1 - p ) 1 - x2 x + 1 P ( X = x ) = f λ ( x ) λdiberikan oleh berarti bahwa Dengan fungsi baru, mendominasi, ukur ini menjadi (dengan notasi dari atas) perhatikan faktor tambahan . Jadi ketika mengubah ukuran mendominasi digunakan dalam definisi fungsi kemungkinan, ada muncul sebuah konstanta perkalian baru, yang tidak tergantung pada parameter yang tidak diketahui

fλ(x)=px(1p)1x2x+1
P(X=x)=fλ(x)λ(x)
i=1npxi(1p)1xi2xi+1=py(1p)ny2y+n
2y+nhal, dan jelas tidak relevan. Itu adalah cara lain untuk melihat bagaimana konstanta multiplikasi harus tidak relevan. Argumen ini dapat digeneralisasi menggunakan turunan Radon-Nikodym (seperti argumen di atas adalah contoh.)


"konten informasi harus jelas sama" Ini hanya berlaku jika Anda percaya pada prinsip kemungkinan!
jsk

Ya, mungkin, tapi saya menunjukkan bagaimana mengikuti dari prinsip bayesian.
kjetil b halvorsen

@kjetilbhalvorsen Terima kasih atas jawaban yang bijaksana! Satu hal yang saya masih bingung adalah mengapa kemungkinan distribusi bernoulli tidak termasuk koefisien binomial. Jawaban Anda menjelaskan mengapa itu tidak penting, tetapi saya tidak mengerti mengapa hal itu ditinggalkan begitu saja.
jvans

@ jvans: Itu karena koefisien binomial tidak bergantung pada parameter yang tidak diketahui, jadi tidak dapat memengaruhi bentuk fungsi kemungkinan
kjetil b halvorsen

12

Ini pada dasarnya berarti bahwa hanya nilai relatif dari masalah PDF. Misalnya, standar normal (Gaussian) PDF adalah: , buku Anda mengatakan bahwa mereka dapat menggunakan sebagai gantinya, karena mereka tidak peduli dengan skala, yaitu .f(x)=12πex2/2g(x)=ex2/2c=12π

Ini terjadi karena mereka memaksimalkan fungsi kemungkinan, dan dan akan memiliki maksimum yang sama. Karenanya, maksimum akan sama dengan . Jadi, mereka tidak peduli tentang skalanya.cg(x)g(x)ex2/2f(x)


6

Saya tidak dapat menjelaskan arti kutipan, tetapi untuk estimasi kemungkinan maksimum , tidak masalah apakah kami memilih untuk menemukan maksimum fungsi kemungkinan L(x;θ) (dianggap sebagai fungsi atau maksimum manaθaL(x;θ) adalah beberapa konstan. Ini karena kita tidak tertarik pada nilai maksimum L ( x ; θ ) melainkan nilai θ ML di mana maksimum ini terjadi, dan keduanya L ( x ; θ ) danaL(x;θ)θMLL(x;θ) mencapai nilai maksimum pada θ ML yang sama . Jadi, konstanta multiplikasi dapat diabaikan. Demikian pula, kita dapat memilih untuk mempertimbangkan fungsi monoton g ( ) (seperti logaritma) dari fungsi kemungkinan L ( x ; θ ) , menentukan maksimum g ( L ( x ; θ ) ) , dan menyimpulkan nilai dari θ ML dari ini. Untuk logaritma, konstanta pengali aaL(x;θ)θMLg()L(x;θ)g(L(x;θ))θMLamenjadi konstanta aditif dan ini juga dapat diabaikan dalam proses menemukan lokasi maksimum: ln ( a ) + ln ( L ( x ; θ ) dimaksimalkan pada titik yang sama dengan ln ( L ( x) ; θ ) .ln(a)ln(a)+ln(L(x;θ)ln(L(x;θ)

Beralih ke estimasi maksimum probabilitas posteriori (MAP), dianggap sebagai realisasi dari variabel acak Θ dengan fungsi kepadatan priori f Θ ( θ ) , data x dianggap sebagai realisasi dari variabel acak X , dan kemungkinannya fungsi dianggap sebagai nilai dari kepadatan bersyarat f XΘ ( xΘ = θ ) dari X yang dikondisikan pada Θ = θθΘfΘ(θ)xXfXΘ(xΘ=θ)XΘ=θ; kata fungsi kepadatan bersyarat dievaluasi pada . The a posteriori kepadatan Θ adalah f Θ | X ( θ | x ) = f X | Θ ( x | Θ = θ ) f Θ ( θ )xΘ di mana kita mengenali pembilang sebagaikepadatan bersamafX,Θ(x,θ)dari data dan parameter yang diestimasi. TitikθMAPdi mana fq|X(θ|x)mencapai nilai maksimumnya adalah estimasi MAP dariθ, dan, dengan menggunakan argumen yang sama seperti dalam ayat ini, kita melihat bahwa kita dapat mengabaikan[fX(x)]-1di sisi kanan

(1)fΘX(θx)=fXΘ(xΘ=θ)fΘ(θ)fX(x)
fX,Θ(x,θ)θPETAfΘX(θx)θ[fX(x)]-1 sebagai konstanta multiplikasi sama seperti kita dapat mengabaikan konstanta multiplikasi dikedua f XΘ ( xΘ = θ ) dan di f Θ ( θ ) . Demikian pula ketika kemungkinan log digunakan, kita bisa mengabaikan konstanta aditif.(1) fXΘ(xΘ=θ)fΘ(θ)

LaLa

5

f(x)kf(x)


3
f(x)f(x)+2

Tolong, seperti yang ditulis Alecos Papadopoulos dalam jawabannya, "kemungkinan pertama adalah fungsi kepadatan probabilitas gabungan". Karena asumsi awal untuk sampel acak, bahwa fungsi bersama adalah produk dari fungsi kepadatan sederhana, sehingga faktor multiplikatif muncul, dan addend tidak.
Sergio

1
Fungsi gabungan adalah produk semacam itu jika dan hanya jika datanya independen. Tetapi MLE meluas ke variabel dependen, sehingga argumen produk tampak tidak meyakinkan.
whuber

1

argmax

Mungkin ada keadaan yang tidak biasa ketika Anda harus memaksimalkan kemungkinan tunduk pada langit-langit - dan kemudian Anda harus "ingat" untuk memasukkan konstanta dalam perhitungan nilainya.

Selain itu, Anda dapat melakukan tes pemilihan model untuk model yang tidak bersarang, menggunakan nilai kemungkinan dalam proses -dan karena model tidak bersarang, dua kemungkinan akan memiliki konstanta yang berbeda.

Terlepas dari ini, kalimatnya

"Karena kemungkinan hanya didefinisikan hingga konstanta proporsionalitas multiplikatif (atau konstanta aditif untuk kemungkinan log)"

adalah salah , karena kemungkinan adalah pertama suatu fungsi kepadatan probabilitas gabungan , bukan hanya "apa" fungsi tujuan untuk dimaksimalkan.


3
θθ

3
L(θx)=f(xθ).
11

1
@heropup Saya sudah menulis bahwa itu tidak perlu berintegrasi ke kesatuan atas ruang parameter, dan dengan demikian, segera, itu tidak dapat dianggap sebagai "fungsi kepadatan" ketika dilihat sebagai "fungsi parameter".
Alecos Papadopoulos

1
Ya saya tahu. Maksud saya adalah frasa "Fungsi kemungkinan adalah fungsi kerapatan, dipandang sebagai fungsi dari parameter" itu sendiri membingungkan. Akan lebih tepat untuk mengatakan sesuatu seperti, "Fungsi kemungkinan adalah fungsi dari parameter untuk sampel tetap, dan setara (atau sebanding) dengan kerapatan sambungan di atas ruang sampel."
heropup

1
L.(xθ)f(θ)L.f(θ)
Dilip Sarwate
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.