Mengapa kita menstabilkan varians?


15

Saya menemukan transformasi penstabil varian ketika membaca metode Kaggle Essay Eval . Mereka menggunakan transformasi stabilisasi varian untuk mengubah nilai-nilai kappa sebelum mengambil rata-rata mereka dan kemudian mengubahnya kembali. Bahkan setelah membaca wiki pada transformasi penstabilan varian saya tidak bisa mengerti, mengapa kita sebenarnya menstabilkan varian? Apa manfaatnya dengan ini?


6
Biasanya tujuannya adalah untuk membuat varians (asimptotik) tidak tergantung pada parameter yang diinginkan. Ini sangat penting dalam kesimpulan di mana kita perlu mengetahui distribusi referensi untuk menghitung jumlah bunga terkait.
kardinal

Jawaban:


13

Inilah satu jawaban: biasanya, cara paling efisien untuk melakukan inferensi statistik adalah ketika data Anda benar. Jika tidak, Anda mendapatkan jumlah informasi yang berbeda dari pengamatan yang berbeda, dan itu kurang efisien. Cara lain untuk melihat itu adalah dengan mengatakan bahwa jika Anda dapat menambahkan informasi tambahan ke inferensi Anda (yaitu, bentuk fungsional varians, melalui transformasi penstabilan varians), Anda biasanya akan meningkatkan akurasi perkiraan Anda, setidaknya tanpa gejala. Dalam sampel yang sangat kecil, mengganggu pemodelan varians dapat meningkatkan bias sampel kecil Anda. Ini adalah semacam argumen tipe GMM ekonometrik: jika Anda menambahkan momen tambahan, varians asimptotik Anda tidak dapat naik; dan bias sampel terbatas Anda meningkat dengan derajat kebebasan yang teridentifikasi secara berlebihan.

Jawaban lain diberikan oleh kardinal: jika Anda memiliki varian yang tidak diketahui berkeliaran dalam ekspresi varian asimptotik Anda, konvergensi ke distribusi asimptotik akan lebih lambat, dan Anda harus memperkirakan varian itu entah bagaimana. Pra-pivot data Anda atau statistik Anda biasanya membantu meningkatkan keakuratan perkiraan asimptotik.


Saya rasa saya mengerti kalimat pertama dalam jawaban Anda dan itu menarik bagi saya secara intuitif. Apakah ada nama untuk pengamatan ini yang bisa saya google? Saya ingin menemukan beberapa eksperimen pemikiran atau contoh yang menunjukkan apa yang terjadi ketika Anda memiliki jumlah informasi berbeda dalam pengamatan berbeda dan bagaimana itu tidak efisien
Pushpendre

Korn & Graubard (1999) teks tentang statistik survei membahas itu.
Tugas

Tetapi di sini transformasi digunakan untuk menghitung suatu mean oleh f-1(1nsayaf(κsaya)). Saya benar-benar tidak mengerti intinya. Bagi saya, ini akan menjadi cara untuk pergi untuk estimasi interval kepercayaan, tetapi untuk estimasi titik itu hanya menimbulkan bias.
Elvis

@PushpendreRastogi Anda mungkin ingin membaca artikel wikipedia tentang transformasi ini. Ini diperkenalkan oleh Fisher untuk menstabilkan varians dari koefisien korelasi empiris (antara variabel normal). Dalam hal itu, variabel yang ditransformasikan akan mendekati normal, dengan varians hanya bergantung pada ukuran sampel, dan bukan pada koefisien korelasi yang tidak diketahui (inilah sebabnya ini "menstabilkan" varians).
Elvis

@ Elvis, saya memberikan contoh korelasi dalam artikel wikipedia pada statistik penting ( en.wikipedia.org/wiki/Pivotal_statistic ). [Bagaimana kamu memberikan tautan yang bagus di komentar? Saya mencoba href, itu terlihat jelek.]
StasK
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.