Divergensi Jensen-Shannon untuk distribusi normal bivariat


8

Diberi dua distribusi normal bivariat PN(μp,Σp) dan QN(μq,Σq), Saya mencoba menghitung perbedaan Jensen-Shannon di antara mereka, didefinisikan (untuk kasus diskrit) sebagai: JSD(PQ)=12(KLD(PM)+KLD(QM)) di mana adalah divergensi Kullback-Leibler, dan M = \ frac {1} {2} (P + Q) Saya telah menemukan cara untuk menghitung KLD dalam hal parameter distribusi, dan dengan demikian JSD . KLDM=12(P+Q)
KLDJSD

Keraguan saya adalah:

  1. Untuk menghitung M , saya baru saja melakukan MN(12(μp+μq),12(Σp+Σq)) . Apakah ini benar?

  2. Saya telah membaca di [ 1 ] bahwa JSD dibatasi, tetapi itu tampaknya tidak benar ketika saya menghitungnya seperti yang dijelaskan di atas untuk distribusi normal. Apakah itu berarti saya salah menghitung, melanggar asumsi, atau hal lain yang tidak saya mengerti?

Jawaban:


8

Ukuran titik tengah adalah distribusi campuran dari dua normals multivarian, sehingga tidak memiliki bentuk yang Anda berikan di pos asli. Biarkan menjadi fungsi kerapatan probabilitas dari vektor acak dan menjadi pdf dari . Maka pdf dari ukuran titik tengah adalah Mφp(x)N(μp,Σp)φq(x)N(μq,Σq)

φm(x)=12φp(x)+12φq(x).

Divergensi Jensen-Shannon adalah di mana menunjukkan (diferensial) entropi yang sesuai dengan ukuran .

JSD=12(KL(PM)+KL(QM))=h(M)12(h(P)+h(Q)),
h(P)P

Dengan demikian, perhitungan Anda berkurang untuk menghitung entropi diferensial. Untuk multivarian normal , jawabannya dikenal sebagai dan buktinya dapat ditemukan di sejumlah sumber, misalnya, Cover dan Thomas (1991), hlm. 230-231. Perlu ditunjukkan bahwa entropi dari suatu multivariat normal adalah invarian terhadap mean, seperti yang ditunjukkan oleh ungkapan di atas. Namun, ini hampir pasti tidak terbawa ke kasus campuran normal. (Pikirkan tentang memilih satu normal luas berpusat pada nol dan normal terkonsentrasi lain di mana yang terakhir didorong jauh dari asal.)N(μ,Σ)

12log2((2πe)n|Σ|)

Untuk ukuran titik tengah, segalanya tampak lebih rumit. Yang saya tahu, tidak ada ekspresi bentuk-tertutup untuk entropi diferensial . Pencarian di Google menghasilkan beberapa klik potensial, tetapi yang teratas tampaknya tidak memberikan formulir tertutup dalam kasus umum. Anda mungkin terjebak dengan perkiraan jumlah ini dalam beberapa cara.h(M)

Perhatikan juga bahwa kertas yang Anda rujuk tidak membatasi perlakuan hanya pada distribusi diskrit. Mereka memperlakukan kasus secara umum sehingga masalah Anda termasuk dalam kerangka kerja mereka. Lihat bagian tengah kolom dua di halaman 1859. Di sinilah juga ditunjukkan bahwa divergensi dibatasi. Ini berlaku untuk kasus dua langkah umum dan tidak terbatas pada kasus dua distribusi diskrit.

Divergensi Jensen-Shannon telah muncul beberapa kali baru-baru ini dalam pertanyaan lain di situs ini. Lihat di sini dan di sini .


Tambahan : Perhatikan bahwa campuran normals tidak sama dengan kombinasi linear normals. Cara paling sederhana untuk melihat ini adalah dengan mempertimbangkan kasus satu dimensi. Biarkan dan dan biarkan mereka independen satu sama lain. Kemudian campuran dari dua normals menggunakan bobot untuk memiliki distribusi X1N(μ,1)X2N(μ,1)(α,1α)α(0,1)

φm(x)=α12πe(x+μ)22+(1α)12πe(xμ)22.

Distribusi dari kombinasi linear dari dan menggunakan bobot yang sama seperti sebelumnya adalah, melalui stabil properti dari distribusi normal adalah mana .X1X2

φ(x)=12πσ2e(x(12α)μ)22σ2,
σ2=α2+(1α)2

Kedua distribusi ini sangat berbeda, meskipun mereka memiliki rata-rata yang sama. Ini bukan kecelakaan dan mengikuti dari linearitas harapan.

Untuk memahami distribusi campuran, bayangkan Anda harus pergi ke konsultan statistik sehingga dia bisa menghasilkan nilai dari distribusi ini untuk Anda. Dia memegang satu realisasi di satu telapak tangan dan satu realisasi di telapak lainnya (meskipun Anda tidak tahu di mana dari kedua telapak tangan masing-masing). Sekarang, asistennya membalik koin bias dengan probabilitas keluar dari pandangan Anda dan kemudian datang dan membisikkan hasilnya ke telinga ahli statistik. Dia membuka salah satu telapak tangannya dan menunjukkan realisasinya, tetapi tidak memberi tahu Anda hasil dari flip koin. Proses ini menghasilkan distribusi campuran.X1X2α

Di sisi lain, kombinasi linear dapat dipahami dalam konteks yang sama. Konsultan statistik hanya mengambil realisasi, mengalikan yang pertama dengan dan yang kedua dengan , menambahkan hasilnya dan menunjukkannya kepada Anda.α(1α)


Terima kasih atas jawaban anda. Jadi, masalah saya terletak pada (bagaimana saya menghitung) distribusi titik tengah. Maafkan ketidaktahuan saya jika saya mengajukan pertanyaan yang jelas, tetapi bagaimana distribusi titik tengah berbeda dengan jumlah variabel acak yang didistribusikan secara normal ? Apakah itu karena kita berada dalam kasus bi-variate?
jorges

2
@ jorges Jumlahnya akan normal dan karena itu simetris tentang satu mode. Ketika dua cara terpisah cukup jauh (dibandingkan dengan SD mereka), distribusi campuran adalah bimodal . Dalam keadaan tidak ada campuran normal kecuali dalam kasus degenerasi (sarana yang sama dan SD yang sama). Ini juga terlihat dari rumus untuk : rata-rata eksponensial ini tidak dapat ditulis sebagai eksponensial dari bentuk kuadratik. φm
Whuber

@whuber dan kardinal: Walaupun secara intuitif saya mengerti apa yang Anda katakan, saya tampaknya memiliki masalah serius dengan konsep. Saya bukan benar-benar ahli statistik, dan saya pikir saya mencampur "jumlah variabel acak" dengan "distribusi campuran". Saya tidak benar-benar mempermasalahkan apa yang Anda dan kardinal merespons, tetapi mencoba memahami perbedaan dan kapan menggunakannya, karena saya mungkin membuat kesalahan serupa di tempat lain. Saya akan kembali untuk membaca dan melihat apakah saya dapat menjernihkan diri. Terima kasih atas jawaban anda
jorges

2

Jawaban kardinal benar. Anda mencoba untuk mendapatkan solusi bentuk tertutup untuk divergensi dua Gaussians Jensen-Shannon; tidak ada solusi semacam itu.

Namun, Anda dapat menghitung Jensen-Shannon dengan presisi sewenang-wenang dengan menggunakan Monte Carlo sampling. Yang Anda butuhkan adalah cara untuk menghitung , dan dengan ekstensi . Divergensi Kullback-Leibler didefinisikan sebagai:KLD(P|M)KLD(Q|M)

KLD(P|M)=P(x)log(P(x)M(x))dx

Perkiraan Monte Carlo untuk hal ini adalah:

KLDapprox(P|M)=1ninlog(P(xi)M(xi))

di mana telah diambil sampelnya dari , yang mudah karena merupakan Gaussian dalam kasus Anda. Sebagai , . dapat dihitung sebagai .xiP(x)nKLDapprox(P|M)KLD(P|M)M(xi)M(xi)=12P(xi)+12Q(xi)


HI @ FrankD - Saya mencoba menerapkan saran Anda di sini: stats.stackexchange.com/questions/345915/... meskipun saya tidak berpikir itu yang Anda maksud. Pointer dipersilahkan.
Astrid
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.