Bagaimana menafsirkan entropi diferensial?


15

Saya baru-baru ini membaca artikel ini pada entropi distribusi probabilitas diskrit. Ini menjelaskan cara berpikir yang baik tentang entropi sebagai bit angka yang diharapkan (setidaknya ketika menggunakan log2 dalam definisi entropi Anda) yang diperlukan untuk menyandikan pesan ketika penyandian Anda optimal, mengingat kemungkinan distribusi kata-kata yang Anda gunakan.

Namun, ketika memperpanjang dengan kasus terus menerus seperti di sini saya percaya cara berpikir istirahat turun, karena untuk setiap distribusi probabilitas kontinu p ( x ) (perbaiki saya jika yang salah), jadi saya bertanya-tanya apakah ada cara berpikir yang baik tentang apa artinya entropi berkelanjutan, seperti halnya dengan kasus diskrit.xp(x)=p(x)


Apakah Anda mencoba membaca artikel Wikipedia tentang entropi dan entropi diferensial?
ttnphns

Distribusi kontinu tidak memiliki fungsi massa probabilitas. Analog dalam kasus kontinu adalah integral dari probabilitas kerapatan dan integral untuk seluruh rentang x sama dengan 1.
Michael R. Chernick

@MichaelChernick Saya tidak mengatakan itu memang punya satu, tetapi cara berpikir tentang kasus diskrit bergantung pada kenyataan bahwa jumlahnya sama dengan 1.
dippynark

@ttnphns no I havent, tapi saya akan memeriksanya sekarang, terima kasih.
dippynark

Lihat juga stats.stackexchange.com/questions/66186/… untuk interpretasi entropi Shannon. Beberapa ide dapat ditransfer.
kjetil b halvorsen

Jawaban:


15

Tidak ada interpretasi entropi diferensial yang akan bermakna atau bermanfaat seperti entropi. Masalah dengan variabel acak kontinu adalah bahwa nilainya biasanya memiliki probabilitas 0, dan karena itu akan membutuhkan jumlah bit yang tak terbatas untuk menyandikan.

Jika Anda melihat batas entropi diskrit dengan mengukur probabilitas interval [nε,(n+1)ε[ , Anda berakhir dengan

p(x)log2p(x)dxlog2ε

dan bukan entropi diferensial. Kuantitas ini dalam arti lebih bermakna, tetapi akan berbeda hingga tak terbatas karena kita mengambil interval yang lebih kecil dan lebih kecil. Masuk akal, karena kita akan membutuhkan lebih banyak dan lebih banyak bit untuk mengkodekan di mana dari banyak interval nilai jatuh nilai acak kita.

Kuantitas yang lebih berguna untuk melihat distribusi kontinu adalah entropi relatif (juga divergensi Kullback-Leibler). Untuk distribusi diskrit:

DKL[P||Q]=xP(x)log2P(x)Q(x).

PlogQ2(x)x

DKL[p∣∣q]=p(x)log2p(x)q(x)dx,

log2ε

p(x)λ(x)=1

p(x)log2p(x)dx=DKL[p∣∣λ].

log2nε(n+1)εp(x)dxnlogελ

Lihat ceramah Sergio Verdu untuk pengantar yang bagus untuk entropi relatif.

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.