Pertanyaan yang diberi tag «conditional-probability»

Probabilitas bahwa suatu peristiwa A akan terjadi, ketika peristiwa lain B diketahui terjadi atau telah terjadi. Biasanya dilambangkan dengan P (A | B).

4
Apa nilai yang benar untuk presisi dan mengingat dalam kasus tepi?
Presisi didefinisikan sebagai: p = true positives / (true positives + false positives) Apakah benar bahwa, sebagai true positivesdan false positivespendekatan 0, presisi mendekati 1? Pertanyaan yang sama untuk diingat: r = true positives / (true positives + false negatives) Saat ini saya sedang menerapkan tes statistik di mana saya …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

3
Mengapa Faktor Normalisasi Diperlukan dalam Teorema Bayes?
Teorema Bayes berlaku P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Ini semua baik-baik saja Tapi, saya pernah membaca di suatu tempat: Pada dasarnya, P (data) tidak lain adalah konstanta normalisasi, yaitu konstanta yang membuat kerapatan posterior berintegrasi menjadi satu. Kita tahu bahwa dan . 0≤P(model)≤10≤P(model)≤10 \leq P(\textrm{model}) \leq 10≤P(data|model)≤10≤P(data|model)≤1 0 \leq …

3
Intuisi untuk Ekspektasi Bersyarat dari aljabar-
Misalkan ( Ω , F , μ )(Ω,F,μ)(\Omega,\mathscr{F},\mu) menjadi ruang probabilitas, diberi variabel acak ξ : Ω → Rξ:Ω→R\xi:\Omega \to \mathbb{R} dan σ-σ\sigma aljabar G ⊆ FG⊆F\mathscr{G}\subseteq \mathscr{F} kita dapat membuat variabel acak baru E [ ξ | G ]E[ξ|G]E[\xi|\mathscr{G}] , yang merupakan harapan bersyarat. Apa sebenarnya intuisi untuk berpikir …

4
Masalah dengan bukti harapan Bersyarat sebagai prediktor terbaik
Saya punya masalah dengan bukti E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] yang sangat mungkin mengungkapkan kesalahpahaman yang lebih dalam dari harapan dan harapan bersyarat. Buktinya saya tahu sebagai berikut (versi lain dari bukti ini dapat ditemukan di sini ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = &\arg \min_{g(X)} E …


3
Bisakah probabilitas posterior> 1?
Dalam formula Bayes: P(x|a)=P(a|x)P(x)P(a)P(x|a)=P(a|x)P(x)P(a)P(x|a) = \frac{P(a|x) P(x)}{P(a)} dapat probabilitas posterior melebihi 1?P(x|a)P(x|a)P(x|a) Saya pikir itu mungkin jika misalnya, dengan asumsi bahwa , dan P ( a ) < P ( x ) < 1 , dan P ( a ) / P ( x ) < P ( a | …

1
mensimulasikan sampel acak dengan MLE yang diberikan
Pertanyaan yang Divalidasi Lintas ini menanyakan tentang mensimulasikan sampel dengan syarat jumlah tetap mengingatkan saya pada masalah yang dibuat oleh George Casella . f(x|θ)f(x|θ)f(x|\theta)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θθ\thetaθ^(x1,…,xn)=argmin∑i=1nlogf(xi|θ)θ^(x1,…,xn)=arg⁡min∑i=1nlog⁡f(xi|θ)\hat{\theta}(x_1,\ldots,x_n)=\arg\min \sum_{i=1}^n \log f(x_i|\theta)θθ\theta θ (X1,...,Xn)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θ^(X1,…,Xn)θ^(X1,…,Xn)\hat{\theta}(X_1,\ldots,X_n) Misalnya, ambil distribusi , dengan parameter lokasi , yang densitasnya adalah Jika bagaimana kita bisa mensimulasikan tergantung pada \ hat {\ …


1
Penjelasan intuitif tentang kontribusi terhadap jumlah dari dua variabel acak yang terdistribusi normal
Jika saya memiliki dua variabel acak bebas terdistribusi normal XXX dan YYY dengan rata-rata μXμX\mu_X dan μYμY\mu_Y dan standar deviasi σXσX\sigma_X dan σYσY\sigma_Y dan saya menemukan bahwa X+Y=cX+Y=cX+Y=c , maka (dengan asumsi saya tidak membuat kesalahan) distribusi kondisional dari XXX dan YYY diberikan ccc juga terdistribusi normal dengan sarana μY| …

4
Mengapa P (A, B | C) / P (B | C) = P (A | B, C)?
Saya mengerti P( A ∩ B ) / P( B ) = P( A | B )P(SEBUAH∩B)/P(B)=P(SEBUAH|B)P(A\cap B)/P(B) = P(A|B) . Yang bersyarat adalah persimpangan A dan B dibagi dengan seluruh area B. Tetapi mengapa P(A∩B|C)/P(B|C)=P(A|B∩C)P(SEBUAH∩B|C)/P(B|C)=P(SEBUAH|B∩C)P(A\cap B|C)/P(B|C) = P(A|B \cap C) ? Bisakah Anda memberi intuisi? Bukankah seharusnya: ?P(A∩B∩C)/P(B,C)=P(A|B∩C)P(SEBUAH∩B∩C)/P(B,C)=P(SEBUAH|B∩C)P(A\cap B …


3
Jika adalah IID, maka hitung , di mana
Pertanyaan Jika adalah IID, maka hitung , di mana .X1,⋯,Xn∼N(μ,1)X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)E(X1∣T)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right)T=∑iXiT=∑iXiT = \sum_i X_i Coba : Silakan periksa apakah di bawah ini benar. Katakanlah, kita mengambil penjumlahan dari harapan bersyarat itu sehingga, Ini berarti bahwa setiap sejak X_1, \ ldots, X_n adalah IID.∑iE(Xi∣T)=E(∑iXi∣T)=T.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i …

6
Statistik yang lebih penting: '90 persen dari semua perempuan selamat 'atau '90 persen dari semua yang selamat adalah perempuan'?
Pertimbangkan pernyataan berikut tentang Titanic: Asumsi 1: Hanya pria dan wanita yang ada di kapal Asumsi 2: Ada banyak pria dan wanita Pernyataan 1: 90 persen dari semua wanita selamat Pernyataan 2: 90 persen dari semua yang selamat, adalah perempuan Yang pertama menunjukkan bahwa menyelamatkan perempuan mungkin dari prioritas tinggi …

1
Teorema Bayes dengan berbagai kondisi
Saya tidak mengerti bagaimana persamaan ini diturunkan. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} Persamaan ini berasal dari makalah "Trial by Probability" di mana kasus OJ Simpson diberikan sebagai contoh masalah. Terdakwa sedang diadili karena pembunuhan ganda dan dua bukti diajukan terhadapnya. M1M1M_{1} adalah peristiwa darah terdakwa cocok dengan setetes darah yang …

3
Peluang bersyarat dari variabel kontinu
Misalkan variabel acak mengikuti distribusi Seragam kontinu dengan parameter 0 dan 10 (yaitu )U ∼ U ( 0 , 10 )UUUU∼U(0,10)U∼U(0,10)U \sim \rm{U}(0,10) Sekarang mari kita menandakan A peristiwa bahwa = 5 dan B peristiwa bahwa sama dengan atau 6. Menurut pemahaman saya, kedua peristiwa memiliki probabilitas nol untuk terjadi.U …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.