Pertanyaan yang diberi tag «information-theory»

Cabang matematika / statistik yang digunakan untuk menentukan daya dukung informasi suatu saluran, apakah yang digunakan untuk komunikasi atau yang didefinisikan dalam pengertian abstrak. Entropi adalah salah satu ukuran yang digunakan oleh para ahli teori informasi untuk mengukur ketidakpastian yang terlibat dalam memprediksi variabel acak.

2
Informasi Reksa sebagai probabilitas
Dapatkah informasi timbal balik melalui entropi bersama: 0≤I(X,Y)H(X,Y)≤10≤I(X,Y)H(X,Y)≤1 0 \leq \frac{I(X,Y)}{H(X,Y)} \leq 1 didefinisikan sebagai: "Peluang menyampaikan informasi dari X ke Y"? Saya minta maaf karena begitu naif, tetapi saya belum pernah mempelajari teori informasi, dan saya mencoba hanya untuk memahami beberapa konsep tentang itu.



2
Korelasi antara dua Deck kartu?
Saya telah menulis sebuah program untuk mensimulasikan kartu shuffle overhand . Setiap kartu diberi nomor, dengan setelan naik dari CLUBS, DIAMONDS, HEARTS, SPADESdan peringkat dari Dua hingga Sepuluh kemudian Jack, Ratu, Raja dan Ace. Jadi Dua Klub memiliki Jumlah 1, Tiga Klub a 2. .... Ace of Clubs adalah 13 …

2
Apa metrik yang baik untuk menilai kualitas kecocokan PCA, untuk memilih jumlah komponen?
Apa metrik yang baik untuk menilai kualitas analisis komponen utama (PCA)? Saya melakukan algoritma ini pada dataset. Tujuan saya adalah mengurangi jumlah fitur (informasinya sangat berlebihan). Saya tahu persentase varians yang disimpan adalah indikator yang baik tentang seberapa banyak informasi yang kami simpan, apakah ada metrik informasi lain yang dapat …


1
Bagaimana cara menghitung informasi timbal balik?
Saya sedikit bingung. Bisakah seseorang menjelaskan kepada saya bagaimana menghitung informasi timbal balik antara dua istilah berdasarkan matriks dokumen-jangka dengan kemunculan istilah biner sebagai bobot? Document1Document2D o c ument3′Why′111′How′101′Wh en′111′Wh e r e′100′Why′′HHaiw′′When′′Where′DHaickamument11111DHaickamument21010DHaickamument31110 \begin{matrix} & 'Why' & 'How' & 'When' & 'Where' \\ Document1 & 1 & 1 & 1 …


2
Pengujian hipotesis dan total variasi jarak vs divergensi Kullback-Leibler
Dalam penelitian saya, saya telah mengalami masalah umum berikut: Saya memiliki dua distribusi dan di domain yang sama, dan sejumlah besar sampel (tetapi terbatas) dari distribusi tersebut. Sampel didistribusikan secara independen dan identik dari salah satu dari dua distribusi ini (meskipun distribusi mungkin terkait: misalnya, mungkin campuran dan beberapa distribusi …

3
Hyperplanes secara optimal mengklasifikasikan data ketika input independen dengan kondisi - Mengapa?
Dalam makalah yang disebut Deep Learning dan Information Bottleneck Principle , penulis menyatakan di bagian II A) berikut ini: Neuron tunggal mengklasifikasikan hanya input yang dapat dipisahkan secara linear, karena mereka hanya dapat mengimplementasikan hiperplanes dalam ruang inputnya . Hyperplanes dapat secara optimal mengklasifikasikan data ketika input secara independen tergantung.u=wh+bu=wh+bu …



1
Apakah jaringan saraf menggunakan pengkodean yang efisien?
Pertanyaan saya menyangkut hubungan antara hipotesis pengkodean efisien yang diuraikan di halaman Wikipedia tentang pengkodean efisien dan algoritma pembelajaran jaringan saraf. Apa hubungan antara hipotesis pengkodean yang efisien dan jaringan saraf? Apakah ada model jaringan saraf yang secara eksplisit terinspirasi oleh hipotesis pengkodean yang efisien? Atau akan lebih adil untuk …

1
Penggunaan teori informasi dalam ilmu data terapan
Hari ini saya membaca buku "Teori Informasi: Pengantar tutorial" oleh James Stone dan berpikir sejenak tentang sejauh mana penggunaan teori informasi dalam ilmu data terapan (jika Anda tidak nyaman dengan istilah yang masih agak kabur ini, berpikir analisis data , yang ilmu data IMHO adalah versi dimuliakan). Saya menyadari penggunaan …

2
Bagaimana log (p (x, y)) menormalkan informasi mutual point-wise?
Saya mencoba memahami bentuk normal dari informasi timbal balik yang bijaksana. npmi=pmi(x,y)log(p(x,y))npmi=pmi(x,y)log(p(x,y))npmi = \frac{pmi(x,y)}{log(p(x,y))} Mengapa probabilitas log joint menormalkan informasi mutual pointwise antara [-1, 1]? Informasi timbal balik yang bijak adalah: pmi=log(p(x,y)p(x)p(y))pmi=log(p(x,y)p(x)p(y))pmi = log(\frac{p(x,y)}{p(x)p(y)}) p (x, y) dibatasi oleh [0, 1] jadi log (p (x, y)) dibatasi oleh (, 0]. …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.