Pertanyaan yang diberi tag «maximum-entropy»

entropi maksimum atau maxent adalah prinsip statistik yang diturunkan dari teori informasi. Distribusi yang memaksimalkan entropi (di bawah beberapa batasan) dianggap "tidak informatif secara maksimal" mengingat batasannya. Entropi maksimum dapat digunakan untuk berbagai tujuan, seperti pilihan sebelumnya, pilihan model pengambilan sampel, atau desain eksperimen.

6
Mengapa Entropy dimaksimalkan ketika distribusi probabilitas seragam?
Saya tahu bahwa entropi adalah ukuran keacakan dari suatu proses / variabel dan dapat didefinisikan sebagai berikut. untuk variabel acak set : - . Dalam buku tentang Entropi dan Teori Informasi oleh MacKay, ia memberikan pernyataan ini dalam Ch2X∈X∈X \inAAAH(X)=∑xi∈A−p(xi)log(p(xi))H(X)=∑xi∈A−p(xi)log⁡(p(xi))H(X)= \sum_{x_i \in A} -p(x_i) \log (p(x_i)) Entropi dimaksimalkan jika p …

3
Bantahan berbasis entropi dari Sharei Bayesian panah mundur paradoks waktu?
Dalam makalah ini , peneliti berbakat Cosma Shalizi berpendapat bahwa untuk sepenuhnya menerima pandangan Bayesian yang subjektif, kita juga harus menerima hasil yang tidak fisik bahwa panah waktu (diberikan oleh aliran entropi) harus benar-benar mundur . Ini terutama merupakan upaya untuk berdebat dengan entropi maksimum / pandangan subjektif sepenuhnya yang …

3
Interpretasi statistik dari Distribusi Entropi Maksimum
Saya telah menggunakan prinsip entropi maksimum untuk membenarkan penggunaan beberapa distribusi di berbagai pengaturan; akan tetapi, saya belum dapat merumuskan interpretasi statistik, sebagai lawan dari teori informasi, dari entropi maksimum. Dengan kata lain, apa yang memaksimumkan entropi menyiratkan tentang sifat statistik distribusi? Adakah yang bertemu atau mungkin menemukan diri Anda …

4
Distribusi sebelumnya yang lemah dan informatif untuk parameter skala
Saya telah menggunakan distribusi log normal sebagai distribusi sebelumnya untuk parameter skala (untuk distribusi normal, distribusi t, dll.) Ketika saya memiliki gagasan kasar tentang apa skala seharusnya, tetapi ingin berbuat salah di sisi mengatakan saya tidak tahu banyak tentang itu. Saya menggunakannya karena penggunaan itu masuk akal bagi saya, tetapi …



2
Apa fungsi kepadatan probabilitas entropi maksimum untuk variabel kontinu positif dari mean rata-rata dan simpangan baku?
Berapakah distribusi entropi maksimum untuk variabel kontinu positif, mengingat momen pertama dan kedua? Sebagai contoh, distribusi Gaussian adalah distribusi entropi maksimum untuk variabel yang tidak terikat, mengingat mean dan standar deviasinya, dan distribusi Gamma adalah distribusi entropi maksimum untuk variabel positif, dengan nilai rata-rata dan nilai rata-rata logaritma-nya.

1
Apakah ada kegunaan jackknifing kontemporer?
Pertanyaannya: Bootstrapping lebih unggul daripada jackknifing; Namun, saya bertanya-tanya apakah ada contoh di mana jackknifing adalah satu-satunya atau setidaknya pilihan yang layak untuk mengkarakterisasi ketidakpastian dari estimasi parameter. Juga, dalam situasi praktis bagaimana bias / tidak akurat jackknifing relatif terhadap bootstrap, dan bisakah hasil jackknife memberikan wawasan awal sebelum bootstrap …

3
Estimator kemungkinan maksimum dari distribusi gabungan yang diberikan hanya jumlah marginal
Biarkan menjadi distribusi gabungan dari dua variabel kategori , dengan . Katakanlah sampel diambil dari distribusi ini, tetapi kami hanya diberi jumlah marginal, yaitu untuk : X , Y x , y ∈ { 1 , ... , K } n j = 1 , ... , Kpx,ypx,yp_{x,y}X,YX,YX,Yx,y∈{1,…,K}x,y∈{1,…,K}x,y\in\{1,\ldots,K\}nnnj=1,…,Kj=1,…,Kj=1,\ldots,K Sj=∑i=1nδ(Xi=l),Tj=∑i=1nδ(Yi=j),Sj=∑i=1nδ(Xi=l),Tj=∑i=1nδ(Yi=j), S_j …



1
"Karena hampir gaussian, PDF-nya dapat ditulis sebagai ..."
Pertanyaan pendek: Mengapa ini benar ?? Pertanyaan panjang: Sederhananya, saya mencoba mencari tahu apa yang membenarkan persamaan pertama ini. Penulis buku yang saya baca, (konteks di sini jika Anda menginginkannya, tetapi tidak perlu), mengklaim sebagai berikut: Karena asumsi near-gaussianity, kita dapat menulis: p0(ξ)=Aϕ(ξ)exp(an+1ξ+(an+2+12)ξ2+∑i=1naiGi(ξ))p0(ξ)=Aϕ(ξ)exp(an+1ξ+(an+2+12)ξ2+∑i=1naiGi(ξ)) p_0(\xi) = A \; \phi(\xi) \; exp( …

1
Membuat model Markov entropi maksimum dari multi-input maksimum entropy classifier
Saya tertarik dengan konsep Maximum Entropy Markov Model (MEMM), dan saya berpikir untuk menggunakannya untuk tagger Part of Speech (POS). Saat ini, saya menggunakan classifier Maximum Entropy (ME) konvensional untuk menandai setiap kata. Ini menggunakan sejumlah fitur, termasuk dua tag sebelumnya. MEMM menggunakan algoritma Viterbi untuk menemukan jalur optimal melalui …

1
Apakah distribusi entropi maksimum konsisten dengan distribusi marjinal yang diberikan distribusi produk dari marjinal?
Umumnya ada banyak distribusi gabungan konsisten dengan set distribusi marginal yang diketahui .P(X1=x1,X2=x2,...,Xn=xn)P(X1=x1,X2=x2,...,Xn=xn)P(X_1 = x_1, X_2 = x_2, ..., X_n = x_n)fi(xi)=P(Xi=xi)fi(xi)=P(Xi=xi)f_i(x_i) = P(X_i = x_i) Dari distribusi gabungan ini, apakah produk dibentuk dengan mengambil produk dari marginal yang dengan entropi tertinggi?∏ifi(xi)∏ifi(xi)\prod_i f_i(x_i) Saya yakin ini benar, tetapi saya sangat …

1
Mesin dukungan vektor (SVM) adalah batas suhu nol dari regresi logistik?
Baru-baru ini saya berdiskusi singkat dengan seorang teman yang berpengetahuan luas yang menyebutkan bahwa SVM adalah batas suhu nol dari regresi logistik. Alasannya melibatkan polytopes marginal dan dualitas fenchel. Saya tidak bisa mengikuti. Apakah pernyataan tentang SVM ini sebagai batas suhu nol dari regresi logistik benar? Dan jika demikian, dapatkah …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.