Penyimpangan istilah statistik dilemparkan sekitar terlalu banyak. Sebagian besar waktu, program mengembalikan penyimpangan
mana adalah perkiraan parameter Anda dari model fitting dan adalah beberapa kejadian yang berpotensi diamati / diamati dari kuantitas acak yang bersangkutan.D ( y) =- 2 log{p ( y|θ^) } ,
θ^y
Penyimpangan yang lebih umum yang Anda rujuk akan memperlakukan penyimpangan di atas sebagai fungsi dari dua variabel, baik data dan parameter yang dipasang:
dan jadi jika Anda memiliki satu nilai tetapi dua nilai parameter yang saling bersaing, dan , maka Anda akan mendapatkan penyimpangan yang Anda sebutkan dari
Anda dapat membaca tentang fungsi Matlab yang Anda sebutkan , ditautkan di sini . Diskusi tentang penyimpangan yang lebih bermanfaat, meskipun lebih singkat, terkait di sini .D ( y,θ^) = - 2 log{ p ( y|θ^) }
yθ^1θ^2- 2 ( log{ p ( y|θ^1) } -log{ p ( y|θ^2) } ).
glmfit()
Statistik penyimpangan secara implisit mengasumsikan dua model: yang pertama adalah model pas Anda, dikembalikan oleh glmfit()
, panggil vektor parameter ini . Yang kedua adalah "model penuh" (juga disebut "model jenuh"), yang merupakan model di mana ada variabel bebas untuk setiap titik data, sebut vektor parameter ini . Memiliki begitu banyak variabel bebas jelas merupakan hal yang bodoh untuk dilakukan, tetapi hal itu memungkinkan Anda untuk mencocokkan data itu dengan tepat.θ^1θ^s
Jadi, statistik penyimpangan dihitung sebagai perbedaan antara kemungkinan log dihitung pada model pas dan model jenuh. Biarkan menjadi kumpulan titik data N. Kemudian:Y= {y1,y2, ⋯ ,yN}
D EV(θ^1, Y) = - 2 [ logp ( Y|θ^1) -logp ( Y|θ^s) ] .
Istilah di atas akan diperluas menjadi penjumlahan atas masing-masing poin data dengan asumsi independensi. Jika Anda ingin menggunakan perhitungan ini untuk menghitung log-likelihood dari model, maka Anda harus terlebih dahulu menghitung log-likelihood dari model jenuh. Berikut adalah tautan yang menjelaskan beberapa ide untuk menghitung ini ... tetapi masalahnya adalah bahwa dalam hal apa pun, Anda harus menuliskan fungsi yang menghitung kemungkinan log untuk tipe data Anda, dan dalam hal ini mungkin lebih baik untuk membuat fungsi Anda sendiri yang menghitung log-likelihood Anda sendiri, daripada mundur dari perhitungan penyimpangan.ysaya
Lihat Bab 6 dari Analisis Data Bayesian untuk beberapa diskusi yang baik tentang penyimpangan.
Adapun poin kedua Anda tentang statistik uji kemungkinan, ya sepertinya Anda pada dasarnya tahu hal yang benar untuk dilakukan. Tetapi dalam banyak kasus, Anda akan menganggap hipotesis nol sebagai sesuatu yang ahli, pengetahuan eksternal memungkinkan Anda menebak sebelumnya (seperti beberapa koefisien sama dengan nol). Ini belum tentu sesuatu yang datang sebagai hasil dari melakukan pemasangan model.