Pertanyaan yang diberi tag «likelihood»

Diberikan variabel acak Xyang muncul dari distribusi parameter F(X;θ) , kemungkinan didefinisikan sebagai probabilitas data yang diamati sebagai fungsi θ:L(θ)=P(θ;X=x)

10
Apa perbedaan antara "kemungkinan" dan "probabilitas"?
The halaman wikipedia mengklaim bahwa kemungkinan dan probabilitas adalah konsep-konsep yang berbeda. Dalam bahasa non-teknis, "kemungkinan" biasanya merupakan sinonim untuk "probabilitas," tetapi dalam penggunaan statistik ada perbedaan yang jelas dalam perspektif: jumlah yang merupakan probabilitas dari beberapa hasil yang diamati mengingat seperangkat nilai parameter dianggap sebagai kemungkinan himpunan nilai parameter …

3
Contoh: regresi LASSO menggunakan glmnet untuk hasil biner
Saya mulai mencoba-coba penggunaan glmnetdengan LASSO Regression di mana hasil yang saya minati menjadi dikotomis. Saya telah membuat bingkai data mock kecil di bawah ini: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, …
78 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


4
Mengapa kita meminimalkan kemungkinan negatif jika itu setara dengan memaksimalkan kemungkinan?
Pertanyaan ini sudah lama membuat saya bingung. Saya mengerti penggunaan 'log' dalam memaksimalkan kemungkinan jadi saya tidak bertanya tentang 'log'. Pertanyaan saya adalah, karena memaksimalkan kemungkinan log sama dengan meminimalkan "negative log likelihood" (NLL), mengapa kami menciptakan NLL ini? Mengapa kita tidak menggunakan "kemungkinan positif" sepanjang waktu? Dalam keadaan apa …

7
Mengapa seseorang menggunakan pendekatan Bayesian dengan cara 'noninformatif' yang tidak patut daripada pendekatan klasik?
Jika bunga hanya memperkirakan parameter model (estimasi pointwise dan / atau interval) dan informasi sebelumnya tidak dapat diandalkan, lemah, (saya tahu ini agak kabur tetapi saya mencoba untuk membangun skenario di mana pilihan suatu sebelumnya sulit) ... Mengapa seseorang memilih untuk menggunakan pendekatan Bayesian dengan prior yang tidak tepat 'bukan …

9
Mengapa orang menggunakan nilai-p alih-alih menghitung kemungkinan model dari data yang diberikan?
Secara kasar, nilai-p memberikan probabilitas hasil yang diamati dari eksperimen yang diberikan hipotesis (model). Dengan probabilitas ini (nilai-p) kami ingin menilai hipotesis kami (seberapa besar kemungkinannya). Tetapi bukankah lebih alami untuk menghitung probabilitas hipotesis mengingat hasil yang diamati? Lebih detail. Kami punya koin. Kami membalikkannya 20 kali dan kami mendapatkan …


3
Informasi apa yang dimaksud dengan informasi Fisher?
Misalkan kita memiliki variabel acak X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta) . Jika θ0θ0\theta_0 adalah parameter sebenarnya, fungsi kemungkinan harus dimaksimalkan dan turunannya sama dengan nol. Ini adalah prinsip dasar di balik estimator kemungkinan maksimum. Seperti yang saya pahami, informasi Fisher didefinisikan sebagai I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) = \Bbb E \Bigg[\left(\frac{\partial}{\partial \theta}f(X|\theta)\right)^2\Bigg ] Jadi, jika θ0θ0\theta_0 …

3
Apa saja aplikasi ilustratif dari kemungkinan empiris?
Saya telah mendengar tentang kemungkinan empiris Owen, tetapi sampai saat ini tidak menghiraukannya sampai saya menemukannya di kertas yang menarik ( Mengersen et al. 2012 ). Dalam upaya saya untuk memahaminya, saya telah mengumpulkan bahwa kemungkinan data yang diamati diwakili sebagai L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L = \prod_i p_i = \prod_i P(X_i=x) = \prod_i …

5
Entri Wikipedia tentang kemungkinan nampak ambigu
Saya punya pertanyaan sederhana tentang "probabilitas bersyarat" dan "Kemungkinan". (Saya sudah mensurvei pertanyaan ini di sini tetapi tidak berhasil.) Itu dimulai dari halaman Wikipedia tentang kemungkinan . Mereka mengatakan ini: The kemungkinan dari seperangkat nilai-nilai parameter, , mengingat hasil , sama dengan probabilitas yang hasil yang diamati diberikan nilai-nilai parameter, …


5
Intuisi Teorema Bayes
Saya telah mencoba untuk mengembangkan pemahaman berbasis intuisi teorema Bayes dalam hal sebelumnya , posterior , kemungkinan dan probabilitas marjinal . Untuk itu saya menggunakan persamaan berikut: P( B | A ) = P( A | B ) P( B )P( A )P(B|SEBUAH)=P(SEBUAH|B)P(B)P(SEBUAH)P(B|A) = \frac{P(A|B)P(B)}{P(A)} manaSEBUAHSEBUAHAmewakili hipotesis atau keyakinan danBBBmewakili …

3
Apakah ada perbedaan antara Frequentist dan Bayesian pada definisi Kemungkinan?
Beberapa sumber mengatakan fungsi kemungkinan bukan probabilitas kondisional, beberapa mengatakan itu. Ini sangat membingungkan saya. Menurut sebagian besar sumber yang saya lihat, kemungkinan distribusi dengan parameter θθ\theta , harus merupakan produk dari fungsi massa probabilitas yang diberikansampel:x innnxsayaxsayax_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) Misalnya dalam Regresi Logistik, kami menggunakan …

6
Posterior sangat berbeda dengan sebelum dan kemungkinan
Jika sebelumnya dan kemungkinan sangat berbeda satu sama lain, maka kadang-kadang terjadi situasi di mana posterior mirip dengan keduanya. Lihat misalnya gambar ini, yang menggunakan distribusi normal. Meskipun secara matematis ini benar, tampaknya itu tidak sesuai dengan intuisi saya - jika data tidak sesuai dengan keyakinan atau data yang saya …

1
Konversi (normalisasi) sangat kecil nilai kemungkinan menjadi probabilitas
Saya menulis sebuah algoritma di mana, diberikan model, saya menghitung kemungkinan untuk daftar dataset dan kemudian perlu menormalkan (untuk probabilitas) masing-masing kemungkinan. Jadi sesuatu seperti [0,00043, 0,00004, 0,00321] mungkin dikonversi menjadi seperti [0,2, 0,03, 0,77]. Masalah saya adalah kemungkinan log, saya bekerja dengan, cukup kecil (misalnya, dalam ruang log, nilainya …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.