Entropi Renyi adalah analog, dalam arti tertentu, dengan -norm, jadi mari kita ingat mengapa norma-norma itu berguna.ℓp
Misalkan kita memiliki vektor angka . Kami ingin memiliki satu nomor yang mewakili, dalam arti, bagaimana elemen khas suatu terlihat seperti.a∈Rna
Salah satu cara untuk melakukannya adalah dengan mengambil rata-rata angka dalam , yang kira-kira sesuai dengan norma ℓ 1 : E 1 ≤ i ≤ n [ | a i | ] . Ini sering berguna, tetapi untuk beberapa aplikasi memiliki masalah berikut: Pertama, norma ℓ 1 tidak memberi kita batas atas yang baik pada elemen terbesar dari a , karena jika ada elemen besar tunggal dan banyak nol, maka ℓ 1 norma akan secara signifikan lebih kecil dari elemen terbesar. Di sisi lain, ℓ 1aℓ1E1≤i≤n[|ai|]ℓ1aℓ1ℓ1norma juga tidak memberi kita batasan yang baik tentang seberapa kecil elemen-elemen , misalnya, berapa banyak nol yang dimiliki - masalah ini terjadi dalam skenario yang persis sama seperti sebelumnya.aa
Tentu saja, ketika unsur-unsur dari memiliki banyak varian, seperti dalam skenario ekstrim seperti di atas, ada nomor tunggal dapat memberikan memecahkan kedua masalah di atas. Kami memiliki tradeoff. Misalnya, jika kita hanya ingin tahu elemen terbesar, kita dapat menggunakan norma ℓ ∞ , tetapi kemudian kita akan kehilangan semua informasi tentang elemen yang lebih kecil. Jika kita menginginkan jumlah nol, kita dapat melihat norma ℓ 0 , yang hanya merupakan ukuran dari dukungan a .aℓ∞ℓ0a
Sekarang, alasan untuk mempertimbangkan norma adalah bahwa mereka memberi kita tradeoff seluruh terus menerus antara dua ekstrem. Jika kita ingin lebih banyak informasi tentang elemen besar kita mengambil p menjadi lebih besar, dan sebaliknya.ℓpp
Hal yang sama berlaku untuk entropi Renyi: Entropi Shanon seperti norma - ia memberi tahu kita sesuatu tentang probabilitas "tipikal" suatu elemen, tetapi tidak ada tentang varians atau ekstrem. Min-entropi memberi kita informasi tentang elemen dengan probabilitas terbesar, tetapi kehilangan semua informasi tentang sisanya. Ukuran dukungan memberikan yang lain ekstrim. Entropi Renyi memberi kita tradeoff terus menerus antara dua ekstrem.ℓ1
Sebagai contoh, berkali-kali entropi Renyi-2 berguna karena di satu sisi dekat dengan entropi Shanon, dan dengan demikian berisi informasi tentang semua elemen pada distribusi, dan di sisi lain memberikan informasi lebih lanjut tentang elemen dengan yang terbesar kemungkinan. Secara khusus, diketahui bahwa batasan pada entropi Renyi-2 memberikan batasan pada entropi min, lihat, misalnya, Lampiran A di sini: http://people.seas.harvard.edu/~salil/research/conductors-prelim .ps