Mengapa divergensi KL non-negatif?
Dari perspektif teori informasi, saya memiliki pemahaman yang intuitif:
Katakanlah ada dua ansambel dan yang terdiri dari himpunan elemen yang sama dengan label . dan adalah distribusi probabilitas yang berbeda atas masing-masing ensemble dan
Dari perspektif teori informasi, adalah sedikitnya jumlah bit yang diperlukan untuk merekam elemen x untuk ensemble A . Sehingga harapan Σ x ∈ e n s e m b l e - p ( x ) ln ( p ( x ) ) dapat diartikan sebagai setidaknya berapa banyak bit yang kita butuhkan untuk merekam elemen di A rata-rata.
Karena rumus ini menempatkan batas bawah pada bit yang kita butuhkan rata-rata, sehingga untuk ansambel yang berbeda yang menghasilkan distribusi probabilitas q yang berbeda ( x ) , batasan yang diberikannya untuk setiap elemen x pasti tidak akan menggigit yang diberikan oleh p ( x ) , yang berarti mengambil ekspektasi, ∑ x ∈ e n s e m b l e - p ( x ) ln ( q ( x ) )
Saya tidak menaruh≥ disini karenap(x)danq(x)berbeda.
Ini adalah pemahaman intuitif saya, apakah ada cara yang murni matematis untuk membuktikan perbedaan KL adalah non-negatif? Masalahnya dapat dinyatakan sebagai:
Diberikan dan q ( x ) keduanya positif atas garis nyata, dan ∫ + ∞ - ∞ p ( x ) d x = 1 , ∫ + ∞ - ∞ q ( x ) d x = 1 . Buktikan ∫ + ∞ - ∞ p ( x ) ln p ( x ) adalah non-negatif.
Bagaimana ini bisa dibuktikan? Atau dapatkah ini dibuktikan tanpa syarat tambahan?