Bagaimana cara menghitung ukuran sampel untuk simulasi untuk menegaskan beberapa tingkat kebaikan dalam hasil saya?


8

Saya seorang pemula statistik, jadi minta maaf sebelumnya jika saya mengajukan pertanyaan braindead. Saya telah mencari jawaban untuk pertanyaan saya, tetapi saya menemukan bahwa banyak topik terlalu spesifik, atau dengan cepat melampaui apa yang saya pahami saat ini.

Saya memiliki beberapa pekerjaan simulasi yang mencakup kumpulan data besar yang menjadi tidak layak untuk disimulasikan secara mendalam. Untuk kumpulan data terkecil saya, rangkaian lengkap menyajikan distribusi hasil berikut dari total 9180900 tes.

Hasil / Frekuensi:

  • 0 7183804
  • 1 1887089
  • 2 105296
  • 3 4571
  • 4 140

Apa artinya angka-angka itu tidak masalah; yang penting adalah bahwa kumpulan data yang lebih besar yang saya miliki dapat mencapai miliaran tes, dan menjadi terlalu memakan waktu untuk dijalankan. Saya perlu membatasi beban kerja.

Saya merasa saya harus dapat mengambil sampel dari set lengkap tes untuk mendapatkan distribusi untuk sampel, dan menyimpulkan (dalam beberapa batasan) bahwa hasil simulasi lengkap akan menunjukkan kurang lebih distribusi yang sama. Tidak ada bias yang melekat dalam tes yang dijalankan, sehingga secara acak memilih input yang seharusnya memberikan sampel yang valid.

Yang belum saya mengerti adalah bagaimana saya harus memilih ukuran sampel saya. Khususnya, distribusinya memperlihatkan ekor yang aneh, dan saya khawatir pengambilan sampel yang terlalu kecil akan kehilangan frekuensi yang lebih rendah. (The 140 kejadian '4' akun hanya 0,0015% dari populasi!)

Jadi, pertanyaan saya adalah, apa cara terbaik untuk menghitung ukuran sampel yang dengannya saya dapat menyatakan beberapa tingkat kebaikan dalam hasil saya?

Atau, apakah saya mengajukan pertanyaan yang salah?

Jawaban:


6

Saya pikir jawaban untuk pertanyaan Anda adalah beberapa pertanyaan lain: seberapa jarang hasil tes yang diberikan harus sebelum Anda tidak peduli? Seberapa yakin Anda ingin bahwa Anda akan benar-benar menemukan setidaknya tes yang keluar seperti itu jika itu terjadi tepat di ambang di mana Anda sudah berhenti peduli tentang hal itu. Dengan nilai-nilai itu, Anda dapat melakukan analisis kekuatan. Saya tidak 100% yakin apakah Anda perlu melakukan analisis kekuatan multinomial (melibatkan lebih dari satu hasil) atau tidak, saya kira yang binomial (baik tes langka atau tidak) akan berfungsi dengan baik, misalnya http: / /statpages.org/proppowr.html . Alpha = .05, Daya = 80%, Grup pada proporsi 0, Grup 1 proporsi .0015. Ukuran sampel relatif, 1; total - tepat di sebelah selatan dari 13.000 tes. Di mana jumlah tes yang diharapkan adalah ~ 20.

Itu akan membantu Anda menemukan jumlah tes yang Anda perlukan untuk mendeteksi salah satu hasil yang jarang terjadi. Namun jika yang Anda pedulikan adalah frekuensi relatif, masalahnya lebih sulit. Saya menduga bahwa jika Anda hanya mengalikan N yang dihasilkan dari analisis daya dengan 20 atau 30 Anda akan menemukan tebakan yang masuk akal.

Dalam praktiknya, jika Anda tidak benar-benar perlu memutuskan jumlah tes sebelumnya, Anda dapat mempertimbangkan menjalankan tes sampai Anda mendapatkan 20 atau 30 hasil 4s. Pada saat Anda sudah mendapatkan banyak 4s Anda harus mulai memiliki perkiraan yang masuk akal meskipun tidak absolut dari frekuensi relatif IMO mereka.

Pada akhirnya - ada pertukaran antara jumlah tes yang dijalankan dan akurasi. Anda perlu tahu seberapa tepat perkiraan yang Anda inginkan sebelum benar-benar dapat menentukan berapa banyak yang "cukup".


Benar, analisis kekuatan. Saya pikir mungkin saya memang peduli dengan frekuensi relatif. Saya akan mencoba membaca sekitar itu juga. Tanpa jumlah tes yang jelas untuk dijalankan, saya telah menjalankan 2% dari tes, dipilih secara acak secara acak, pada masing-masing set data. 2% sewenang-wenang, tetapi juga dapat digunakan pada dataset yang lebih besar. Ini berarti ukuran sampel saya meningkat sehubungan dengan populasi tes pada dataset, yang dapat menyebabkan lebih banyak tes daripada yang saya butuhkan pada set data yang lebih besar ...
Stephen

2

Saya pikir analisis kekuatan terlalu rumit untuk apa yang Anda coba lakukan, dan mungkin mengecewakan Anda.

Dengan ukuran sampel utara 9 juta, saya pikir perkiraan Anda p = Pr(X > 3) = 0.000015cukup akurat. Jadi Anda dapat menggunakannya dalam model binomial (n, p) sederhana untuk memperkirakan ukuran sampel.

Katakanlah tujuan Anda adalah untuk mengamati setidaknya satu peristiwa "Besar" dengan probabilitas 99,9%. Kemudian Pr(L > 0) = 1 - Pr(L = 0) = 1 - 0.999985^n = 0.999dan ukuran sampel yang Anda inginkan adalah n = ln(0.001)/ln(0.999985) = 460514.

Tentu saja, jika Anda merasa beruntung dan bersedia mengambil risiko 10% untuk melewatkan acara Besar, Anda hanya perlu ukuran sampel n = 153505. Melipatgandakan ukuran sampel mengurangi peluang Anda untuk melewatkan acara Besar dengan faktor 100, jadi saya akan pergi untuk 460.000.

TAPI ... jika Anda mencari LIMA, probabilitasnya di sebelah selatan 1/9180902 dan untuk mengamati setidaknya satu dari MEREKA dengan probabilitas 99,9%, Anda akan membutuhkan ukuran sampel sekitar 63,4 juta!

Patuhi saran DrKNexus tentang memperbarui perkiraan probabilitas untuk acara besar, karena mungkin tidak konstan di semua set data Anda.


Pr (X> 3) yang Anda berikan berbeda dari penanya, 0,0015, Anda mungkin ingin merevisinya.
russellpierce
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.