Entropi memberi tahu Anda seberapa banyak ketidakpastian dalam sistem. Katakanlah Anda sedang mencari kucing, dan Anda tahu bahwa itu ada di suatu tempat antara rumah Anda dan tetangga, yang berjarak 1,6 km. Anak-anak Anda memberi tahu Anda bahwa kemungkinan kucing berada pada jarak dari rumah Anda digambarkan paling baik oleh distribusi beta f ( x ; 2 , 2 ) . Jadi kucing bisa di mana saja antara 0 dan 1, tetapi lebih cenderung berada di tengah, yaitu x m a x = 1 / 2 .x f(x;2,2)xmax=1/2
Mari kita tancapkan distribusi beta ke persamaan Anda, maka Anda mendapatkan .H=−0.125
Selanjutnya, Anda bertanya kepada istri Anda dan dia memberi tahu Anda bahwa distribusi terbaik untuk menggambarkan pengetahuannya tentang kucing Anda adalah distribusi yang seragam. Jika Anda tancapkan ke persamaan entropi Anda, Anda mendapatkan .H=0
Distribusi seragam dan beta memungkinkan kucing berada di antara 0 dan 1 mil dari rumah Anda, tetapi ada lebih banyak ketidakpastian dalam seragam, karena istri Anda benar-benar tidak tahu di mana kucing itu bersembunyi, sementara anak-anak punya ide , mereka pikir itu lebih kemungkinan berada di suatu tempat di tengah. Itu sebabnya entropi Beta lebih rendah dari Uniform.
Anda dapat mencoba distro lain, mungkin tetangga Anda memberitahu Anda kucing suka berada di dekat salah satu rumah, sehingga distribusi beta-nya dengan . H- nya harus lebih rendah daripada yang seragam lagi, karena Anda mendapat ide tentang di mana mencari kucing. Tebak apakah entropi informasi tetangga Anda lebih tinggi atau lebih rendah daripada anak-anak Anda? Saya akan bertaruh pada anak-anak setiap hari tentang masalah ini.α=β=1/2H
MEMPERBARUI:
Bagaimana cara kerjanya? Salah satu cara untuk memikirkan ini adalah mulai dengan distribusi yang seragam. Jika Anda setuju bahwa itu adalah yang paling tidak pasti, maka pikirkan untuk mengganggunya. Mari kita lihat kasus diskrit untuk kesederhanaan. Ambil dari satu titik dan tambahkan ke yang lain seperti berikut:
p ′ i = p - Δ p p ′ j = p + Δ pΔp
p′i=p−Δp
p′j=p+Δp
H−H′=pilnpi−piln(pi−Δp)+pjlnpj−pjln(pj+Δp)
=plnp−pln[p(1−Δp/p)]+plnp−pln[p(1+Δp/p)]
=−ln(1−Δp/p)−ln(1+Δp/p)>0
nn→∞nn=1n=13
x = 0:0.01:1;
for k=1:5
i = 1 + (k-1)*3;
idx(k) = i;
f = @(x)bates_pdf(x,i);
funb=@(x)f(x).*log(f(x));
fun = @(x)arrayfun(funb,x);
h(k) = -integral(fun,0,1);
subplot(1,5+1,k)
plot(x,arrayfun(f,x))
title(['Bates(x,' num2str(i) ')'])
ylim([0 6])
end
subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'