Saya kesulitan membangun intuisi tentang entropi bersama. = ketidakpastian dalam distribusi bersama p ( x , y ) ; H ( X ) = ketidakpastian dalam p x ( x ) ; H ( Y ) = ketidakpastian dalam p y ( y ) .
Jika H (X) tinggi maka distribusinya lebih tidak pasti dan jika Anda mengetahui hasil distribusi tersebut maka Anda memiliki lebih banyak informasi! Jadi H (X) juga mengukur informasi.
Sekarang kita dapat menunjukkan
Tetapi jika Anda tahu Anda bisa mendapatkan p x ( x ) dan p y ( y ) sehingga dalam beberapa hal p ( x , y ) memiliki informasi lebih banyak daripada p x ( x ) dan p y ( y ) , jadi bukankah ketidakpastian yang terkait dengan p (x, y) lebih dari jumlah ketidakpastian individu?