Bentuk paling sederhana dari teori informasi CLT adalah sebagai berikut:
Biarkan menjadi iid dengan mean dan varians 1 . Biarkan f_n menjadi kepadatan jumlah normal \ frac {\ sum_ {i = 1} ^ n X_i} {\ sqrt {n}} dan \ phi menjadi kepadatan Gaussian standar. Maka teori informasi CLT menyatakan bahwa, jika D (f_n \ | \ phi) = \ int f_n \ log (f_n / \ phi) dx terbatas untuk beberapa n , maka D (f_n \ | \ phi) \ ke 0 sebagai n \ hingga \ infty .0 1Σ n i = 1 X i
Tentu saja konvergensi ini, dalam arti tertentu, "lebih kuat" daripada konvergensi yang baik dalam literatur, konvergensi dalam distribusi dan konvergensi dalam metrik, berkat ketidaksetaraan Pinsker . Artinya, konvergensi dalam KL-divergence menyiratkan konvergensi dalam distribusi dan konvergensi dalam jarak .
Saya ingin tahu dua hal.
Apa yang hebat tentang hasil ?
Apakah hanya karena alasan yang disebutkan dalam paragraf ketiga kita mengatakan konvergensi dalam KL-divergence ( yaitu , ) lebih kuat?
NB: Saya menanyakan pertanyaan ini beberapa waktu lalu di math.stackexchange di mana saya tidak mendapatkan jawaban.