Tabel kontingensi: tes apa yang harus dilakukan dan kapan?


17

Saya ingin melihat ekstensi dari diskusi ini tentang uji coba chi-sq vs Fisher yang sudah tua, memperluas cakupan sedikit. Ada banyak banyak tes untuk interaksi dalam tabel kontingensi, cukup untuk membuat kepala saya berputar. Saya berharap mendapatkan penjelasan tentang tes apa yang harus saya gunakan dan kapan, dan tentu saja penjelasan mengapa satu tes lebih disukai daripada yang lain.

Masalah saya saat ini adalah klasik kasus, tetapi jawaban mengenai dimensi yang lebih tinggi dipersilahkan, seperti tips untuk menerapkan berbagai solusi dalam R, setidaknya, dalam kasus di mana itu adalah non-jelas bagaimana untuk melanjutkan.n×m

Di bawah ini saya telah mendaftarkan semua tes yang saya ketahui; Saya berharap dengan memaparkan kesalahan saya itu bisa diperbaiki.

  • . Siaga tua. Ada tiga opsi utama di sini:χ2

    • Koreksi dibangun ke dalam R untuk tabel 2x2: "satu setengah dikurangi dari semua perbedaan." Haruskah saya selalu melakukan ini?|HAI-E|
    • " " χ 2 Tes, tidak yakin bagaimana melakukan ini dalam R.N-1χ2
    • Simulasi Monte Carlo. Apakah ini selalu yang terbaik? Mengapa R tidak memberi saya df ketika saya melakukan ini?
  • Uji pasti Fisher .

    • Disarankan secara tradisional ketika sel mana pun diharapkan <4, tetapi tampaknya beberapa membantah saran ini.
    • Apakah asumsi (biasanya salah) bahwa marjinal diperbaiki benar-benar masalah terbesar dengan tes ini?
  • Tes tepat Barnard

    • Tes tepat lainnya, kecuali saya belum pernah mendengarnya.
  • Regresi Poisson

    • Satu hal yang selalu membingungkan saya tentang glms adalah bagaimana melakukan tes signifikan ini, jadi bantu hal itu akan dihargai. Apakah yang terbaik untuk melakukan perbandingan model bersarang? Bagaimana dengan tes Wald untuk prediktor tertentu?
    • Haruskah saya benar-benar selalu melakukan regresi Poisson? Apa perbedaan praktis antara tes ini dan tes ?χ2

Jawaban:


13

Ini pertanyaan yang bagus, tapi pertanyaan besar. Saya tidak berpikir saya bisa memberikan jawaban yang lengkap, tetapi saya akan membuang beberapa makanan untuk dipikirkan.

Pertama, di bawah poin utama Anda, koreksi yang Anda maksud dikenal sebagai koreksi Yates 'untuk kontinuitas . Masalahnya adalah kita menghitung statistik inferensial diskrit :
(Ini diskrit karena, dengan hanya sejumlah terbatas contoh yang diwakili dalam tabel kontingensi, ada sejumlah terbatas nilai realisasi yang dapat diambil oleh statistik ini.) Terlepas dari kenyataan ini, ini dibandingkan dengandistribusi referensiberkelanjutan(yaitu.,distribusiχ2dengan derajat kebebasan(r-1)(c-1)). Ini tentu mengarah pada ketidakcocokan pada tingkat tertentu. Dengan kumpulan data yang sangat kecil, dan jika beberapa sel memiliki nilai yang diharapkan kurang dari 5, ada kemungkinan bahwa nilai-p mungkin terlalu kecil. Koreksi Yates menyesuaikan untuk ini.

χ2=(OE)2E

χ2 (r1)(c1)

Ironisnya, masalah mendasar yang sama (discrete-continuous mismatch) dapat menyebabkan nilai-p yang terlalu tinggi . Secara khusus, nilai-p didefinisikan secara konvensional sebagai kemungkinan mendapatkan data yang ekstrem atau lebihdari data yang diamati. Dengan data kontinu, dapat dipahami bahwa probabilitas mendapatkan nilai yang pasti semakin kecil, dan dengan demikian kami benar-benar memiliki probabilitas data yang lebih ekstrem. Namun, dengan data diskrit, ada kemungkinan terbatas untuk mendapatkan data seperti milik Anda. Hanya dengan menghitung probabilitas mendapatkan data yang lebih ekstrem daripada nilai Anda, menghasilkan nilai-p nominal yang terlalu rendah (mengarah ke kesalahan tipe I yang meningkat), tetapi termasuk kemungkinan mendapatkan data yang sama seperti milik Anda mengarah pada nilai-p nominal yang terlalu tinggi (yang akan menyebabkan peningkatan kesalahan tipe II). Fakta-fakta ini mendorong gagasan nilai tengah p . Di bawah pendekatan ini, nilai-p adalah probabilitas data yang lebih ekstrem daripada Anda ditambah setengahnya probabilitas data sama seperti milik Anda.

Seperti yang Anda tunjukkan, ada banyak kemungkinan untuk menguji data tabel kontingensi. Perlakuan paling pro dan kontra dari berbagai pendekatan ada di sini . Makalah itu khusus untuk tabel 2x2, tetapi Anda masih bisa belajar banyak tentang opsi untuk data tabel kontingensi dengan membacanya.

Saya juga berpikir ada baiknya mempertimbangkan model dengan serius. Tes yang lebih tua seperti chi-squared cepat, mudah, dan dipahami oleh banyak orang, tetapi jangan meninggalkan Anda dengan pemahaman yang komprehensif tentang data Anda seperti yang Anda dapatkan dari membangun model yang tepat. Jika masuk akal untuk memikirkan baris [kolom] dari tabel kontingensi Anda sebagai variabel respons, dan kolom [baris] sebagai variabel penjelas / prediktor, pendekatan pemodelan akan mengikuti dengan mudah. Misalnya, jika Anda hanya memiliki dua baris, Anda dapat membangun model regresi logistik ; jika ada beberapa kolom, Anda bisa menggunakan pengkodean sel referensi (pengkodean dummy) untuk membangun model tipe ANOVA. Di sisi lain, jika Anda memiliki lebih dari dua baris, regresi logistik multinomialdapat digunakan dengan cara yang sama. Jika baris Anda memiliki urutan intrinsik, regresi logistik ordinal akan menghasilkan kinerja yang unggul untuk multinomial. Model log-linear (regresi Poisson) mungkin kurang relevan kecuali Anda memiliki tabel kontingensi dengan lebih dari dua dimensi, menurut saya.

Untuk perawatan yang komprehensif dari topik-topik seperti ini, sumber terbaik adalah buku-buku karya Agresti: baik perawatan skala penuh (lebih ketat), buku intro- nya (lebih mudah tetapi masih komprehensif dan sangat baik), atau mungkin juga buku ordinalnya .

G2-test

G2=Oln(OE)


1
Itu penjelasan yang bagus tentang masalah yang mendasarinya, terima kasih! Juga saya telah diberitahu sebelumnya bahwa teks Agresti adalah sumber yang bagus jadi saya akan memeriksanya.
JVMcDonnell

4

Saya akan mencoba menjawab beberapa pertanyaan Anda sebaik mungkin dari sudut pandang saya. Pertama, Tes Fisher-Irwin hanyalah nama lain untuk tes pasti Fisher. Kecuali kenyataan bahwa kadang-kadang intens secara komputasi saya biasanya lebih suka menggunakan tes Fisher. Jika ada masalah dengan tes ini, itu mengkondisikan pada total marjinal. Keindahan dari tes ini adalah bahwa di bawah hipotesis nol seperangkat tabel kontingensi dengan total marginal yang sama dengan tabel yang diamati memiliki distribusi hipergeometrik. Beberapa orang berpendapat bahwa mereka tidak melihat alasan untuk membatasi pertimbangan pada tabel dengan total marginal yang sama.

Uji chi-square Pearson sangat umum digunakan untuk menguji hubungan dalam tabel kontingensi. Seperti banyak tes lainnya, perkiraan dan tingkat signifikansi tidak selalu akurat. Cochran menunjukkan bahwa dalam sampel kecil ketika beberapa sel sangat jarang (misalnya mengandung kurang dari 5 kasus dalam beberapa sel) perkiraannya akan buruk.

Ada banyak tes perkiraan lainnya. Biasanya ketika menerapkan tes Fisher menggunakan SAS saya mendapatkan hasil dari semua tes ini dan mereka biasanya memberikan hasil yang hampir sama. Tetapi tes Fisher selalu bersyarat tepat pada total marjinal.

Mengenai regresi Poisson, itu adalah model yang menghubungkan variabel kategori dengan total sel. Seperti model apa pun, itu tergantung pada serangkaian asumsi. Yang paling penting adalah bahwa jumlah sel mengikuti distribusi Poisson yang berarti bahwa jumlah rata-rata jumlah sama dengan variansnya. Ini umumnya tidak berlaku untuk distribusi jumlah sel. Dalam kasus penyebaran berlebihan (varians lebih besar dari rata-rata) model binomial negatif mungkin lebih tepat.


"Tes Fisher-Irwin hanyalah nama lain untuk tes pasti Fisher" ... aha, ini membuat komentar ini kurang membingungkan bagiku, terima kasih!
JVMcDonnell

3
Jawaban Anda belum benar-benar mengurangi kebingungan saya tentang kapan harus melakukan hal-hal ini. Saya kira salah satu hal yang saya harapkan untuk didengar adalah sejauh mana masalah dengan chi 2 diselesaikan dengan simulasi atau koreksi monte carlo, dll; atau sejauh mana itu dapat digantikan oleh cahaya. Jadi saya hanya akan membiarkan ini terbuka sedikit untuk melihat apakah saya bisa mendapatkan lebih banyak gigitan. Tetapi jika tidak ada yang menimbang setelah sedikit saya akan menerima jawaban Anda.
JVMcDonnell

Untuk Fisher dan Chi-square, saya pikir saya katakan kapan Anda bisa menggunakan chi square. Jika Anda menerima gagasan Fisher bahwa Anda harus selalu mengkondisikan pada total marjinal, tes Fisher selalu berlaku. Tetapi jika Anda tidak menerimanya maka saya kira Anda harus memilih tes tanpa syarat. Adapun baterai tes lain yang tersedia saya tidak tahu apa-apa tentang properti mereka dan karenanya tidak bisa memberi tahu Anda kapan harus menggunakannya. Bentuk pengalaman Saya telah melihat kasus-kasus di mana itu penting karena hasilnya biasanya dalam persetujuan dekat.
Michael R. Chernick

Benarkah Fisher berpikir bahwa "Anda harus selalu mengkondisikan total marginal"? Asumsi ini hanya valid ketika total marginal diperbaiki. Dalam contoh mencicipi teh wanita, wanita tahu bahwa 5 adalah susu pertama dan 5 adalah susu terakhir. Tapi itu lebih umum dalam percobaan bahwa tidak ada kekuatan yang menegakkan marginal. Pertimbangkan kasus membalik dua koin masing-masing 10 kali. Ketika 5 kepala berguling-guling koin tidak mulai memberikan ekor untuk menjaga marginal. Dalam kasus seperti itu telah didokumentasikan bahwa Fisher sangat konservatif. Itu sebabnya saya tertarik dengan alternatifnya.
JVMcDonnell

Iya. Ini adalah pemahaman saya bahwa Fisher percaya dalam memilih distribusi referensi yang menggunakan informasi dari data yang diberikan. Jadi dia akan berpikir bahwa tidak peduli bagaimana total mariginal mengenai data Anda yang diamati hanya harus dibandingkan dengan data yang akan terjadi di bawah hipotesis nol yang mengikuti kendala pada data yaitu total marjinal yang diberikan. Seperti halnya gagasan lain yang dimiliki Fisher, hal ini kontroversial.
Michael R. Chernick
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.