Saya membandingkan dua distribusi dengan KL divergence yang mengembalikan saya nomor non-standar yang, menurut apa yang saya baca tentang ukuran ini, adalah jumlah informasi yang diperlukan untuk mengubah satu hipotesis menjadi yang lain. Saya punya dua pertanyaan:
a) Apakah ada cara untuk mengukur divergensi KL sehingga memiliki interpretasi yang lebih bermakna, misalnya seperti ukuran efek atau R ^ 2? Apa saja bentuk standardisasi?
b) Dalam R, ketika menggunakan KLdiv (paket flexmix) orang dapat mengatur nilai 'esp' (standar esp = 1e-4) yang menetapkan semua titik lebih kecil dari esp ke beberapa standar untuk memberikan stabilitas numerik. Saya telah bermain dengan nilai esp yang berbeda dan, untuk set data saya, saya mendapatkan perbedaan KL yang semakin besar semakin kecil jumlah yang saya pilih. Apa yang sedang terjadi? Saya berharap bahwa semakin kecil esp, semakin dapat diandalkan hasilnya seharusnya karena mereka membiarkan lebih banyak 'nilai nyata' menjadi bagian dari statistik. Tidak? Saya harus mengubah esp karena jika tidak menghitung statistik tetapi hanya muncul sebagai NA pada tabel hasil ...