Ya, ada beberapa hubungan sederhana antara perbandingan interval kepercayaan dan tes hipotesis dalam berbagai pengaturan praktis. Namun, selain memverifikasi prosedur CI dan uji-t sesuai untuk data kami, kami harus memeriksa bahwa ukuran sampel tidak terlalu berbeda dan bahwa dua set memiliki standar deviasi yang serupa. Kita juga seharusnya tidak berusaha untuk mendapatkan nilai-p yang sangat tepat dari membandingkan dua interval kepercayaan, tetapi harus senang untuk mengembangkan perkiraan yang efektif.
Dalam mencoba mendamaikan dua balasan yang sudah diberikan (oleh @John dan @Brett), akan membantu untuk menjadi eksplisit secara matematis. Rumus untuk interval kepercayaan dua sisi simetris yang sesuai untuk pengaturan pertanyaan ini adalah
CI=m±tα(n)sn−−√
di mana m adalah rata-rata sampel dari n pengamatan independen, s adalah standar deviasi sampel, 2α adalah ukuran tes yang diinginkan (maksimum false positive rate), dan tα(n) adalah persentil 1−α atas dari distribusi t Student dengan n−1 derajat kebebasan. (Penyimpangan kecil dari notasi konvensional ini menyederhanakan eksposisi dengan meniadakan kebutuhan untuk meributkan perbedaan n vs n−1 , yang bagaimanapun juga tidak akan berpengaruh.)
Menggunakan subskrip 1 dan 2 untuk membedakan dua set data independen untuk perbandingan, dengan 1 sesuai dengan yang lebih besar dari dua cara, non- tumpang tindih interval kepercayaan diekspresikan oleh ketidaksetaraan (batas kepercayaan bawah 1) > (batas kepercayaan atas 2 ); yaitu ,
m1−tα(n1)s1n1−−√>m2+tα(n2)s2n2−−√.
Ini dapat dibuat agar terlihat seperti t-statistik dari uji hipotesis yang sesuai (untuk membandingkan dua cara) dengan manipulasi aljabar sederhana, menghasilkan
m1−m2s21/n1+s22/n2−−−−−−−−−−−√>s1n2−−√tα(n1)+s2n1−−√tα(n2)n1s22+n2s21−−−−−−−−−√.
Sisi kiri adalah statistik yang digunakan dalam uji hipotesis; biasanya dibandingkan dengan persentil dari distribusi t Student dengan n1+n2 derajat kebebasan: yaitu, untuk tα(n1+n2) . Sisi kanan adalah rata-rata tertimbang yang bias dari persentil distribusi t asli.
Analisis sejauh ini membenarkan jawaban oleh @ Brett: tampaknya tidak ada hubungan sederhana yang tersedia. Namun, mari selidiki lebih lanjut. Saya terinspirasi untuk melakukannya karena, secara intuitif, interval kepercayaan yang tidak tumpang tindih harus mengatakan sesuatu!
Pertama, perhatikan bahwa bentuk tes hipotesis ini hanya valid ketika kita mengharapkan s1 dan s2 setidaknya kira-kira sama. (Jika tidak kami menghadapi terkenal masalah Behrens-Fisher dan kompleksitas.) Setelah memeriksa kesetaraan perkiraan si , kita kemudian bisa menciptakan penyederhanaan perkiraan dalam bentuk
m1−m2s1/n1+1/n2−−−−−−−−−−√>n2−−√tα(n1)+n1−−√tα(n2)n1+n2−−−−−−√.
Di sini, s≈s1≈s2 . Secara realistis, kita seharusnya tidak mengharapkan perbandingan informal dari batas kepercayaan ini memiliki ukuran yang sama dengan α . Pertanyaan kita kemudian adalah apakah terdapat α′ sehingga sisi kanan (setidaknya kira-kira) sama dengan statistik t yang benar. Yaitu, untuk apa α′ itu kasusnya itu
tα′(n1+n2)=n2−−√tα(n1)+n1−−√tα(n2)n1+n2−−−−−−√?
Ternyata untuk ukuran sampel yang sama, α dan α′ dihubungkan (ke akurasi yang cukup tinggi) oleh hukum daya. Sebagai contoh, berikut adalah plot log-log dari keduanya untuk case n1=n2=2 (garis biru terendah), n1=n2=5 (garis merah tengah), n1=n2=∞ ( garis emas tertinggi). Garis putus-putus hijau tengah adalah perkiraan yang dijelaskan di bawah ini. Kelurusan kurva-kurva ini memungkiri suatu hukum kekuatan. Bervariasi dengan n=n1=n2, but not much.
The answer does depend on the set {n1,n2}, but it is natural to wonder how much it really varies with changes in the sample sizes. In particular, we could hope that for moderate to large sample sizes (maybe n1≥10,n2≥10 or thereabouts) the sample size makes little difference. In this case, we could develop a quantitative way to relate α′ to α.
This approach turns out to work provided the sample sizes are not too different from each other. In the spirit of simplicity, I will report an omnibus formula for computing the test size α′ corresponding to the confidence interval size α. It is
α′≈eα1.91;
that is,
α′≈exp(1+1.91log(α)).
This formula works reasonably well in these common situations:
Both sample sizes are close to each other, n1≈n2, and α is not too extreme (α>.001 or so).
One sample size is within about three times the other and the smallest isn't too small (roughly, greater than 10) and again α is not too extreme.
One sample size is within three times the other and α>.02 or so.
The relative error (correct value divided by the approximation) in the first situation is plotted here, with the lower (blue) line showing the case n1=n2=2, the middle (red) line the case n1=n2=5, and the upper (gold) line the case n1=n2=∞. Interpolating between the latter two, we see that the approximation is excellent for a wide range of practical values of α when sample sizes are moderate (around 5-50) and otherwise is reasonably good.
This is more than good enough for eyeballing a bunch of confidence intervals.
To summarize, the failure of two 2α-size confidence intervals of means to overlap is significant evidence of a difference in means at a level equal to 2eα1.91, provided the two samples have approximately equal standard deviations and are approximately the same size.
I'll end with a tabulation of the approximation for common values of 2α.
2α 2α′
0.1 0.02
0.05 0.005
0.01 0.0002
0.005 0.00006
For example, when a pair of two-sided 95% CIs (2α=.05) for samples of approximately equal sizes do not overlap, we should take the means to be significantly different, p<.005. The correct p-value (for equal sample sizes n) actually lies between .0037 (n=2) and .0056 (n=∞).
This result justifies (and I hope improves upon) the reply by @John. Thus, although the previous replies appear to be in conflict, both are (in their own ways) correct.