Pertanyaan yang diberi tag «conjugate-prior»

Distribusi sebelumnya dalam statistik Bayes yang sedemikian rupa sehingga, jika digabungkan dengan kemungkinan, posterior yang dihasilkan berasal dari keluarga distribusi yang sama.





3
Bayesian memperbarui dengan data baru
Bagaimana cara menghitung posterior dengan N ~ (a, b) setelah mengamati n titik data? Saya berasumsi bahwa kita harus menghitung mean sampel dan varians dari titik data dan melakukan semacam perhitungan yang menggabungkan posterior dengan sebelumnya, tapi saya tidak begitu yakin seperti apa rumus kombinasi itu.



2
Apa parameter posterior Wishart-Wishart?
Ketika infering presisi matriks ΛΛ\boldsymbol{\Lambda} dari distribusi normal digunakan untuk menghasilkan NNN vektor D-dimensi x1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} \mathbf{x_i} &\sim \mathcal{N}(\boldsymbol{\mu, \Lambda^{-1}}) \\ \end{align} kita biasanya menempatkan Wishart sebelum over ΛΛ\boldsymbol{\Lambda} karena distribusi Wishart adalah konjugat sebelumnya untuk pendahuluan distribusi normal multivarian dengan rerata mean dan tidak diketahui yang diketahui: Λ∼W(υ,Λ0)Λ∼W(υ,Λ0)\begin{align} \mathbf{\Lambda} …


3
Memahami konjugat Beta sebelumnya dalam inferensi Bayesian tentang frekuensi
Berikut ini adalah kutipan dari Pengantar Bolstad untuk Statistik Bayesian . Untuk Anda yang ahli di luar sana, ini mungkin sepele tapi saya tidak mengerti bagaimana penulis menyimpulkan bahwa kami tidak perlu melakukan integrasi untuk menghitung probabilitas posterior untuk beberapa nilai . Saya mengerti ungkapan kedua yang proporsionalitas dan dari …

1
Model pembelajaran dalam mana yang dapat mengklasifikasikan kategori yang tidak eksklusif satu sama lain
Contoh: Saya memiliki kalimat dalam deskripsi pekerjaan: "Java senior engineer in UK". Saya ingin menggunakan model pembelajaran yang mendalam untuk memperkirakannya sebagai 2 kategori: English dan IT jobs. Jika saya menggunakan model klasifikasi tradisional, hanya dapat memprediksi 1 label dengan softmaxfungsi di lapisan terakhir. Dengan demikian, saya dapat menggunakan 2 …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

3
Kemungkinan Gaussian + yang sebelumnya = Gaussian Marginal?
Diberikan kemungkinan Gaussian untuk sampel seperti dengan sebagai ruang parameter dan , parameterisasi acak dari vektor rata-rata dan matriks kovarians.yyyp(y|θ)=N(y;μ(θ),Σ(θ))p(y|θ)=N(y;μ(θ),Σ(θ))p(y|\theta) = \mathcal{N}(y;\mu(\theta),\Sigma(\theta))ΘΘ\Thetaμ(θ)μ(θ)\mu(\theta)Σ(θ)Σ(θ)\Sigma(\theta) Apakah mungkin untuk menentukan kepadatan sebelumnya dan parameterisasi vektor rata-rata dan matriks kovarians sedemikian rupa sehingga kemungkinan marginal adalah kemungkinan Gaussian?p(θ)p(θ)p(\theta)μ(θ)μ(θ)\mu(\theta)Σ(θ)Σ(θ)\Sigma(\theta)p(y)=∫θ∈ΘN(y;μ(θ),Σ(θ))p(θ)dθp(y)=∫θ∈ΘN(y;μ(θ),Σ(θ))p(θ)dθp(y)=\int_{\theta\in\Theta}N(y;\mu(\theta),\Sigma(\theta))p(\theta)d\theta Saya kira tidak termasuk solusi sepele yang …


2
Mengapa campuran konjugat penting?
Saya punya pertanyaan tentang campuran prior konjugat. Saya belajar dan mengatakan campuran beberapa konjugasi beberapa kali ketika saya belajar bayesian. Saya bertanya-tanya mengapa teorema ini sangat penting, bagaimana kita akan menerapkannya ketika kita melakukan analisis Bayesian. Untuk lebih spesifik, satu teorema dari Diaconis dan Ylivisaker 1985 mengilustrasikan teorema sebagai berikut: …

1
Turunkan kepadatan posterior untuk kemungkinan lognormal dan sebelumnya Jeffreys
Fungsi likelihood dari distribusi lognormal adalah: f(x;μ,σ)∝∏ni11σxiexp(−(lnxi−μ)22σ2)f(x;μ,σ)∝∏i1n1σxiexp⁡(−(ln⁡xi−μ)22σ2)f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) dan Prioritas Jeffreys adalah: p(μ,σ)∝1σ2p(μ,σ)∝1σ2p(\mu,\sigma) \propto \frac{1}{\sigma^2} jadi menggabungkan keduanya memberi: f(μ,σ2|x)=∏ni11σxiexp(−(lnxi−μ)22σ2)⋅σ−2f(μ,σ2|x)=∏i1n1σxiexp⁡(−(ln⁡xi−μ)22σ2)⋅σ−2f(\mu,\sigma^2|x)= \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) \cdot \sigma^{-2} …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.