Dengan probabilitas berapa satu koin lebih baik dari yang lain?


8

Katakanlah kita memiliki dua koin bias C1dan C2keduanya memiliki kemungkinan berbeda untuk berbalik.

Kita membuang C1 n1waktu dan mendapatkan H1kepala, C2 n2waktu dan mendapatkan H2kepala. Dan kami menemukan bahwa rasio kepala untuk satu koin lebih tinggi daripada yang lain.

Berapa probabilitas yang dapat kita katakan bahwa satu koin lebih baik daripada yang lain? (lebih baik di sini berarti kemungkinan yang lebih tinggi untuk berbalik).


2
Bukankah ini masalah pengujian hipotesis di mana Anda harus menguji apakah perkiraan kemungkinan kepala untuk koin berbeda.
naif

3
Jika Anda menginginkan probabilitas bahwa satu koin lebih baik daripada yang lain, Anda dapat melakukannya dengan pendekatan Bayesian; yang Anda butuhkan adalah distribusi sebelumnya pada probabilitas. Ini perhitungan yang cukup mudah.
Glen_b -Reinstate Monica

2
Tidak ada cara data ini akan memberi Anda kemungkinan bahwa satu koin lebih baik dari yang lain . Anda memerlukan info / asumsi tambahan tentang distribusi sebelumnya untuk cara koin didistribusikan. Katakanlah dalam pendekatan Bayesian maka hasilnya akan berbeda banyak berdasarkan asumsi sebelumnya Anda. Sebagai contoh jika koin-koin itu adalah koin biasa dari pada (apriori) sangat mungkin sama dan Anda akan memerlukan sejumlah besar percobaan untuk menemukan probabilitas yang layak bahwa yang satu 'lebih baik' dari yang lain (karena probabilitasnya tinggi sehingga Anda mendapat dua koin serupa yang secara tidak sengaja menguji berbeda)
Sextus Empiricus

1
@katosh, setepat yang sebelumnya. Katakanlah Anda memiliki koin antara p = 0,49 dan p = 0,51. Jika dalam kasus seperti itu Anda menggunakan asumsi bahwa koin didistribusikan secara seragam antara 0 dan 1, maka probabilitas yang Anda tetapkan lebih seperti asumsi buruk yang diperbarui daripada probabilitas yang diperbarui. Anda akan terlalu sering menetapkan probabilitas tinggi untuk menjadi 'lebih baik' untuk koin yang salah. Akan salah untuk menganggap hasilnya sebagai 'kemungkinan' untuk koin menjadi 'lebih baik' daripada yang lain. Data buruk di = hasil buruk keluar. Dalam masalah ini kita seharusnya tidak bekerja memecahkan matematika tetapi menyelesaikan pengetahuan.
Sextus Empiricus

1
Dengan cara itu dinyatakan dengan benar. Ini adalah 'kepercayaan' dan ini tidak mudah disamakan dengan 'probabilitas'.
Sextus Empiricus

Jawaban:


7

Mudah untuk menghitung probabilitas untuk melakukan pengamatan itu, mengingat fakta bahwa kedua koin itu sama. Ini dapat dilakukan dengan uji eksak Fishers . Diberikan pengamatan ini

coin 1coin 2headsH1H2tailsn1H1n2H2

probabilitas untuk mengamati angka-angka ini sementara koin-koinnya sama mengingat jumlah percobaan , dan jumlah total kepala adalah n1n2H1+H2

p(H1,H2|n1,n2,H1+H2)=(H1+H2)!(n1+n2H1H2)!n1!n2!H1!H2!(n1H1)!(n2H2)!(n1+n2)!.

Tetapi yang Anda minta adalah probabilitas bahwa satu koin lebih baik. Karena kami berdebat tentang kepercayaan tentang seberapa bias koin kita, kita harus menggunakan pendekatan Bayesian untuk menghitung hasilnya. Harap dicatat, bahwa dalam kesimpulan Bayesian istilah kepercayaan dimodelkan sebagai probabilitas dan kedua istilah tersebut digunakan secara bergantian ( probabilitas Bayesian ). Kami menyebut probabilitas bahwa koin melempar kepala . Distribusi posterior setelah pengamatan, untuk ini diberikan oleh teorema Bayes : The fungsi kepadatan probabilitas (pdf)ipipi

f(pi|Hi,ni)=f(Hi|pi,ni)f(pi)f(ni,Hi)
f(Hi|pi,ni)diberikan oleh probabilitas Binomial, karena percobaan individu adalah eksperimen Bernoulli: Saya berasumsi pengetahuan sebelumnya tentang adalah bahwa bisa terletak di antara dan dengan probabilitas yang sama, maka . Jadi nominatornya adalah .
f(Hi|pi,ni)=(niHi)piHi(1pi)niHi
f(pi)pi01f(pi)=1f(Hi|pi,ni)f(pi)=f(Hi|pi,ni)

Untuk menghitung kami menggunakan fakta bahwa integral dari pdf harus satu . Jadi penyebut akan menjadi faktor konstan untuk mencapai hal itu. Ada pdf yang dikenal yang berbeda dari nominator hanya dengan faktor konstan, yang merupakan distribusi beta . Karenanya f(ni,Hi)01f(p|Hi,ni)dp=1

f(pi|Hi,ni)=1B(Hi+1,niHi+1)piHi(1pi)niHi.

Pdf untuk pasangan probabilitas koin independen adalah

f(p1,p2|H1,n1,H2,n2)=f(p1|H1,n1)f(p2|H2,n2).

Sekarang kita perlu mengintegrasikan ini pada kasus di mana untuk mengetahui bagaimana kemungkinan koin lebih baik daripada koin : p1>p212

P(p1>p2)=010p1f(p1,p2|H1,n1,H2,n2)dp2dp1=01B(p1;H2+1,n2H2+1)B(H2+1,n2H2+1)f(p1|H1,n1)dp1

Saya tidak bisa menyelesaikan integral terakhir ini secara analitis tetapi orang dapat menyelesaikannya secara numerik dengan komputer setelah menghubungkan angka-angka. adalah fungsi beta dan adalah fungsi beta tidak lengkap. Perhatikan bahwa karena adalah variabel dan tidak pernah persis sama dengan .B(,)B(;,)P(p1=p2)=0p1p2


Mengenai asumsi sebelumnya pada dan komentar tentang itu: Alternatif yang baik untuk memodelkan banyak orang percaya adalah dengan menggunakan beta distribusi . Ini akan mengarah pada probabilitas akhir Dengan begitu orang bisa memodelkan bias yang kuat terhadap koin biasa dengan besar tapi sama , . Itu akan sama dengan melempar koin kali tambahan dan menerima kepala karenanya sama dengan hanya memiliki lebih banyak data. adalah jumlah lemparan yang tidak harus kita lakukanf(pi)Beta(ai+1,bi+1)

P(p1>p2)=01B(p1;H2+1+a2,n2H2+1+b2)B(H2+1+a2,n2H2+1+b2)f(p1|H1+a1,n1+a1+b1)dp1.
aibiai+biaiai+bi jika kita memasukkan ini sebelumnya.

OP menyatakan bahwa kedua koin itu bias ke tingkat yang tidak diketahui. Jadi saya mengerti semua pengetahuan harus disimpulkan dari pengamatan. Inilah sebabnya mengapa saya memilih untuk informasi sebelum dosis yang tidak bias hasilnya misalnya terhadap koin biasa.

Semua informasi dapat disampaikan dalam bentuk per koin. Tidak adanya informasi sebelumnya hanya berarti diperlukan lebih banyak pengamatan untuk memutuskan koin mana yang lebih baik dengan probabilitas tinggi.(Hi,ni)


Berikut adalah kode dalam R yang menyediakan fungsi menggunakan seragam sebelumnya : P(n1, H1, n2, H2) =P(p1>p2)f(pi)=1

mp <- function(p1, n1, H1, n2, H2) {
    f1 <- pbeta(p1, H2 + 1, n2 - H2 + 1)
    f2 <- dbeta(p1, H1 + 1, n1 - H1 + 1)
    return(f1 * f2)
}

P <- function(n1, H1, n2, H2) {
    return(integrate(mp, 0, 1, n1, H1, n2, H2))
}

Anda dapat menggambar untuk hasil eksperimen yang berbeda dan memperbaiki , misalnya dengan kode ini diambil:P(p1>p2)n1n2n1=n2=4

library(lattice)
n1 <- 4
n2 <- 4
heads <- expand.grid(H1 = 0:n1, H2 = 0:n2)
heads$P <- apply(heads, 1, function(H) P(n1, H[1], n2, H[2])$value)
levelplot(P ~ H1 + H2, heads, main = "P(p1 > p2)")

P (p1> p2) untuk n1 = n2 = 4

Anda mungkin perlu install.packages("lattice")terlebih dahulu.

Orang dapat melihat, bahwa bahkan dengan seragam sebelumnya dan ukuran sampel yang kecil, probabilitas atau keyakinan bahwa satu koin lebih baik dapat menjadi cukup solid, ketika dan cukup berbeda. Perbedaan relatif lebih kecil diperlukan jika dan bahkan lebih besar. Ini adalah plot untuk dan :H1H2n1n2n1=100n2=200

masukkan deskripsi gambar di sini


Martijn Weterings menyarankan untuk menghitung distribusi probabilitas posterior untuk perbedaan antara dan . Ini dapat dilakukan dengan mengintegrasikan pdf dari pasangan ke set : p1p2S(d)={(p1,p2)[0,1]2|d=|p1p2|}

f(d|H1,n1,H2,n2)=S(d)f(p1,p2|H1,n1,H2,n2)dγ=01df(p,p+d|H1,n1,H2,n2)dp+d1f(p,pd|H1,n1,H2,n2)dp

Sekali lagi, bukan integral yang bisa saya pecahkan secara analitis tetapi kode R adalah:

d1 <- function(p, d, n1, H1, n2, H2) {
    f1 <- dbeta(p, H1 + 1, n1 - H1 + 1)
    f2 <- dbeta(p + d, H2 + 1, n2 - H2 + 1)
    return(f1 * f2)
}

d2 <- function(p, d, n1, H1, n2, H2) {
    f1 <- dbeta(p, H1 + 1, n1 - H1 + 1)
    f2 <- dbeta(p - d, H2 + 1, n2 - H2 + 1)
    return(f1 * f2)
}

fd <- function(d, n1, H1, n2, H2) {
    if (d==1) return(0)
    s1 <- integrate(d1, 0, 1-d, d, n1, H1, n2, H2)
    s2 <- integrate(d2, d, 1, d, n1, H1, n2, H2)
    return(s1$value + s2$value)
}

Saya merencanakan untuk , , dan semua nilai :f(d|n1,H1,n2,H2)n1=4H1=3n2=4H2

n1 <- 4
n2 <- 4
H1 <- 3
d <- seq(0, 1, length = 500)

get_f <- function(H2) sapply(d, fd, n1, H1, n2, H2)
dat <- sapply(0:n2, get_f)

matplot(d, dat, type = "l", ylab = "Density",
        main = "f(d | 4, 3, 4, H2)")
legend("topright", legend = paste("H2 =", 0:n2),
       col = 1:(n2 + 1), pch = "-")

masukkan deskripsi gambar di sini

Anda dapat menghitung probabilitasberada di atas nilai oleh . Pikiran bahwa aplikasi ganda integral numerik dilengkapi dengan beberapa kesalahan numerik. Misalnya harus selalu sama dengan karena selalu mengambil nilai antara dan . Tetapi hasilnya sering sedikit menyimpang.|p1p2|dintegrate(fd, d, 1, n1, H1, n2, H2)integrate(fd, 0, 1, n1, H1, n2, H2)1d01


Saya tidak tahu nilai sebenarnya dari p1
Thirupathi Thangavel

1
Saya minta maaf untuk notasi buruk saya 😅 tetapi Anda tidak perlu memasukkan nilai tetap untuk . The (sekarang berubah) di integral adalah variabel yang Anda integrasikan. Sama seperti Anda dapat mengintegrasikan tanpa memiliki nilai tetap untuk . p1p101x2dxx
katosh

1
Uji eksak Fisher lebih spesifik tentang hipotesis bahwa koin memiliki probabilitas yang sama dan total marginal tetap . Ini tidak terjadi dalam masalah koin ini. Jika Anda melakukan tes lagi maka Anda dapat mengamati sejumlah total kepala lainnya.
Sextus Empiricus

@ MartijnWeterings dalam kasus saya, kemungkinan memutar kepala untuk koin selalu diperbaiki. Bukankah itu cukup?
Thirupathi Thangavel

1
@ThirupathiThangavel masalah dengan tes Fisher adalah tentang total marginal yang tidak tetap. Model pengujian yang tepat mengasumsikan bahwa probabilitas kepala adalah sama dan tetap, tetapi juga marjinal diperbaiki sebelum percobaan. Bagian kedua bukan itu masalahnya. Ini memberikan probabilitas bersyarat yang berbeda untuk nilai ekstrem. Secara keseluruhan tes Fisher akan konservatif. Probabilitas hasil yang diberikan hipotesis BENAR (mis. Probabilitas tetap dan serupa untuk kepala, tetapi tidak harus total marginal tetap) lebih kecil dari yang dihitung (Anda mendapatkan nilai p lebih tinggi).
Sextus Empiricus

2

Saya telah membuat simulasi numerik R, mungkin Anda sedang mencari jawaban analitis, tetapi saya pikir ini bisa menarik untuk dibagikan.

set.seed(123)
# coin 1
N1 = 20
theta1 = 0.7

toss1 <- rbinom(n = N1, size = 1, prob = theta1)

# coin 2
N2 = 25
theta2 = 0.5

toss2 <- rbinom(n = N2, size = 1, prob = theta2)

# frequency
sum(toss1)/N1 # [1] 0.65
sum(toss2)/N2 # [1] 0.52

Dalam kode pertama ini, saya hanya mensimulasikan dua lemparan koin. Di sini Anda dapat melihat tentu saja itu theta1 > theta2, maka tentu saja frekuensinya H1akan lebih tinggi dari H2. Catatan yang berbeda N1, N2ukuran.

Mari kita lihat apa yang bisa kita lakukan dengan yang berbeda thetas. Perhatikan kodenya tidak optimal. Sama sekali.

simulation <- function(N1, N2, theta1, theta2, nsim = 100) {
  count1 <- count2 <- 0

  for (i in 1:nsim) {
    toss1 <- rbinom(n = N1, size = 1, prob = theta1)
    toss2 <- rbinom(n = N2, size = 1, prob = theta2)

    if (sum(toss1)/N1 > sum(toss2)/N2) {count1 = count1 + 1} 
    #if (sum(toss1)/N1 < sum(toss2)/N2) {count2 = count2 + 1} 
  }

  count1/nsim

}
set.seed(123)
simulation(20, 25, 0.7, 0.5, 100)
#[1] 0.93

Jadi 0,93 adalah frekuensi kali (dari 100) bahwa koin pertama memiliki lebih banyak kepala. Ini sepertinya ok, melihat theta1dan theta2menggunakan.

Mari kita lihat dengan dua vektor thetas.

theta1_v <- seq(from = 0.1, to = 0.9, by = 0.1)
theta2_v <- seq(from = 0.9, to = 0.1, by = -0.1)

res_v <- c()
for (i in 1:length(theta1_v)) {

  res <- simulation(1000, 1500, theta1_v[i], theta2_v[i], 100)
  res_v[i] <- res

}

plot(theta1_v, res_v, type = "l")

Ingat itu res_vadalah frekuensi di mana H1 > H2, dari 100 simulasi.

masukkan deskripsi gambar di sini

Jadi dengan theta1meningkatnya, maka kemungkinan H1menjadi lebih tinggi meningkat, tentu saja.

Saya sudah melakukan beberapa simulasi lain dan sepertinya ukurannya N1, N2kurang penting.

Jika Anda terbiasa, RAnda dapat menggunakan kode ini untuk menjelaskan masalah ini. Saya sadar ini bukan analisis lengkap, dan ini bisa diperbaiki.


2
Menarik bagaimana res_vperubahan terus menerus ketika thetas bertemu. Saya memahami pertanyaan itu ketika menanyakan tentang bias intrinsik koin setelah melakukan pengamatan tunggal. Anda tampaknya menjawab pengamatan apa yang akan dilakukan seseorang setelah mengetahui bias.
katosh
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.