Inferensi prediktif non-Bayesian (terlepas dari kasus SLR) adalah bidang yang relatif baru. Di bawah judul "non-Bayesian" kita dapat membagi pendekatan menjadi pendekatan yang "klasik" dan yang berbasis "kemungkinan".
Prediksi Frekuensi Klasik
αβ
Sekarang, saya secara umum memiliki masalah dengan bagaimana PI klasik disajikan dan diajarkan di sebagian besar kursus statistik, karena kecenderungan yang luar biasa adalah untuk menafsirkan ini sebagai interval prediksi posterior Bayesian, yang mereka jelas tidak. Yang paling mendasar, mereka berbicara tentang probabilitas yang berbeda! Bayesian tidak mengklaim kinerja sampling berulang jumlah mereka (jika tidak, mereka akan sering). Kedua, PI Bayesian sebenarnya mencapai sesuatu yang lebih mirip dalam semangat untuk Interval Toleransi Klasik daripada Interval Prediksi Klasik.
Untuk referensi: Interval Toleransi perlu ditentukan oleh dua probabilitas: Kepercayaan dan cakupan. Kepercayaan memberi tahu kita seberapa sering itu benar dalam sampel berulang. Cakupan memberitahu kita ukuran probabilitas minimum interval di bawah distribusi yang benar (sebagai lawan dari PI, yang memberikan ukuran probabilitas yang diharapkan ... sekali lagi di bawah pengambilan sampel berulang). Ini pada dasarnya adalah apa yang coba dilakukan oleh Bayesian PI, tetapi tanpa klaim pengambilan sampel berulang.
Jadi, logika dasar dari Stats 101 Simple Linear Regression adalah untuk memperoleh sifat-sifat pengambilan sampel berulang PI dengan asumsi normalitas. Ini adalah pendekatan + Gaussian yang sering digunakan dan biasanya dianggap "klasik" dan diajarkan di kelas-kelas statistik intro. Ini didasarkan pada kesederhanaan hasil perhitungan (lihat Wikipedia untuk ikhtisar yang bagus).
Distribusi probabilitas non-gaussian umumnya bermasalah karena mereka dapat kekurangan jumlah penting yang dapat dibalik dengan rapi untuk mendapatkan interval. Oleh karena itu, tidak ada metode "tepat" untuk distribusi ini, sering kali karena properti interval bergantung pada parameter mendasar yang sebenarnya.
Mengakui ketidakmampuan ini, kelas prediksi lain muncul (dan inferensi dan estimasi) dengan pendekatan kemungkinan.
Inferensi berbasis kemungkinan
Pendekatan berbasis kemungkinan, seperti banyak konsep statistik modern, dapat ditelusuri kembali ke Ronald Fisher. Gagasan dasar dari sekolah ini adalah bahwa, kecuali untuk kasus-kasus khusus, kesimpulan statistik kami berada di tanah yang secara logis lebih lemah daripada ketika kami berurusan dengan kesimpulan dari distribusi normal (yang estimasi parameternya ortogonal ), di mana kita dapat membuat pernyataan probabilitas yang tepat. Dalam pandangan inferensi ini, seseorang harus benar-benar menghindari pernyataan tentang probabilitas kecuali dalam kasus yang tepat, jika tidak, ia harus membuat pernyataan tentang kemungkinan dan mengakui bahwa ia tidak mengetahui probabilitas kesalahan yang tepat (dalam arti yang sering terjadi).
Oleh karena itu, kita dapat melihat kemungkinan sebagai mirip dengan probabilitas Bayesian, tetapi tanpa persyaratan keterpaduan atau kemungkinan kebingungan dengan probabilitas frequentist. Interpretasinya sepenuhnya subyektif ... meskipun rasio kemungkinan 0,15 sering direkomendasikan untuk inferensi parameter tunggal.
Namun, orang tidak sering melihat makalah yang secara eksplisit memberikan "interval kemungkinan". Mengapa? Tampaknya ini sebagian besar adalah masalah sosiologi, karena kita semua sudah terbiasa dengan pernyataan kepercayaan berbasis probabilitas. Alih-alih, yang sering Anda lihat adalah penulis yang merujuk ke interval kepercayaan "perkiraan" atau "asimptotik" dari ini dan itu. Interval ini sebagian besar berasal dari metode kemungkinan, di mana kami mengandalkan distribusi Chi-squared asimptotik dari rasio kemungkinan dalam cara yang sama kita mengandalkan normalitas asimptotik dari rata-rata sampel.
Dengan "perbaikan" ini, kita sekarang dapat membangun "perkiraan" 95% Wilayah Keyakinan dengan konsistensi logis yang hampir sama dengan Bayesia.
Dari CI ke PI dalam Kerangka Kerja Kemungkinan
Keberhasilan dan kemudahan pendekatan kemungkinan di atas menghasilkan gagasan tentang bagaimana memperluasnya ke prediksi. Artikel survei yang sangat bagus tentang ini diberikan di sini (saya tidak akan mereproduksi cakupan yang sangat baik). Ini dapat ditelusuri kembali ke David Hinkley pada akhir 1970-an (lihat JSTOR ), yang menciptakan istilah. Dia menerapkannya pada " Masalah Prediksi Binomial Pearson " yang abadi . Saya akan meringkas logika dasar.
yyy
Aturan dasar untuk menghilangkan parameter "gangguan" untuk mendapatkan kemungkinan prediktif adalah sebagai berikut:
- μ , σ
- Jika suatu parameter acak (mis., Data yang tidak teramati lainnya atau "efek acak"), maka Anda mengintegrasikannya (seperti dalam pendekatan Bayesian).
Perbedaan antara parameter tetap dan acak adalah unik untuk kemungkinan kesimpulan, tetapi memiliki koneksi ke model efek campuran, di mana tampaknya bahwa kerangka kerja Bayesian, sering, dan kemungkinan kemungkinan bertabrakan.
Semoga ini menjawab pertanyaan Anda tentang wilayah luas prediksi "non-Bayesian" (dan kesimpulannya). Karena hyperlink dapat berubah, saya juga akan membuat plug untuk buku "In All Likelihood: Statistik Modeling dan Inference using Likelihood" yang membahas kerangka kemungkinan modern di kedalaman, termasuk sejumlah masalah epistemologis dari kemungkinan vs Bayesian vs frequentist kesimpulan dan prediksi.
Referensi
- Interval Prediksi: Metode non-parametrik . Wikipedia. Diakses pada 9/13/2015.
- Bjornstad, Jan F. Kemungkinan Prediktif: Ulasan. Statist. Sci. 5 (1990), no. 2, 242--254. doi: 10.1214 / ss / 1177012175.
http://projecteuclid.org/euclid.ss/1177012175 .
- David Hinkley. Kemungkinan Prediktif . The Annals of Statistics Vol. 7, No. 4 (Jul., 1979), hlm. 718-728 Diterbitkan oleh: Institute of Mathematical Statistics Stable URL: http://www.jstor.org/stable/2958920
- Yudi Pawitan. Dalam Semua Kemungkinan: Pemodelan Statistik dan Inferensi Menggunakan Kemungkinan. Oxford University Press; 1 edisi (30 Agustus 2001). ISBN-10: 0198507658, ISBN-13: 978-0198507659. Terutama Bab 5.5-5.9, 10, dan 16.