Karena elemen probabilitas X adalah f( x ) d x , perubahan variabel y= x σ+ μ sama dengan x = ( y- μ ) / σ, dari mana
f( x ) d x = f( y- μσ) d ( y- μσ) = 1σf( y- μσ) d y
maka densitas Y adalah
fY( y) = 1σf( y- μσ) .
Akibatnya entropi Y adalah
H( Y) = - ∫∞- ∞catatan( 1σf( y- μσ) ) 1σf( y- μσ) d y
yang, setelah mengubah variabel kembali ke x = ( y- μ ) / σ, menghasilkan
H( Y)= - ∫∞- ∞catatan( 1σf( x ) ) f( x ) d x= - ∫∞- ∞( log( 1σ) +log( f( x ) ) ) f( x ) d x= log( σ) ∫∞- ∞f( x ) d x - ∫∞- ∞catatan( f( x ) ) f( x ) d x= log( σ) + Hf.
Perhitungan ini digunakan sifat dasar logaritma, linearitas integrasi, dan fakta bahwa f( x ) d x terintegrasi untuk persatuan (Hukum Jumlah Probabilitas).
Kesimpulannya adalah
Entropi Y= Xσ+ μ adalah entropi X plus catatan( σ) .
Dalam kata-kata, menggeser variabel acak tidak mengubah entropinya (kita mungkin menganggap entropi sebagai tergantung pada nilai-nilai kepadatan probabilitas, tetapi tidak pada di mana nilai-nilai itu terjadi), sambil menskalakan variabel (yang, untuk σ≥ 1 " meregangkan "atau" mengolesi "itu keluar) meningkatkan entropinya dengan catatan(σ) . Ini mendukung intuisi bahwa distribusi entropi tinggi "lebih tersebar" daripada distribusi entropi rendah.
μσ( μ ,σ)μ = 0σ= 1.
catatan( f( x ) ) = - 12catatan( 2 π) - x2/ 2,
dari mana
H= - E[ - 12catatan( 2 π) - X2/ 2]= 12catatan( 2 π) + 12.
( μ , σ)catatanσ
H= 12catatan( 2 π) + 12+ log( σ) = 12catatan( 2 πeσ2)
seperti dilansir Wikipedia .