Biarkan LL = kemungkinan loglikel
Berikut ini ringkasan singkat dari apa yang Anda lihat dari output ringkasan (glm.fit),
Null Deviance = 2 (LL (Model Jenuh) - LL (Model Null)) pada df = df_Sat - df_Null
Residual Deviance = 2 (LL (Model Jenuh) - LL (Model yang Diusulkan)) df = df_Sat - df_Proposed
The Jenuh Model adalah model yang mengasumsikan setiap titik data memiliki parameter sendiri (yang berarti Anda harus n parameter untuk memperkirakan.)
The Null Model mengasumsikan tepat "berlawanan", di yang mengasumsikan satu parameter untuk semua titik data, yang berarti Anda hanya memperkirakan 1 parameter.
The Model Usulan mengasumsikan Anda bisa menjelaskan titik data Anda dengan parameter p + istilah intercept, sehingga Anda memiliki p + 1 parameter.
Jika Null Deviance Anda benar-benar kecil, itu berarti bahwa Null Model menjelaskan data dengan cukup baik. Begitupun dengan Residual Deviance Anda .
Apa artinya sangat kecil? Jika model Anda "bagus" maka Deviance Anda kira-kira adalah ^ 2 dengan derajat kebebasan (df_sat - df_model).
Jika Anda ingin membandingkan model Null Anda dengan model Usulan Anda, maka Anda dapat melihatnya
(Null Deviance - Residual Deviance) kira-kira Chi ^ 2 dengan df Diusulkan - df Null = (n- (p + 1)) - (n-1) = p
Apakah hasil yang Anda berikan langsung dari R? Tampaknya agak aneh, karena umumnya Anda akan melihat bahwa derajat kebebasan yang dilaporkan di Null selalu lebih tinggi daripada tingkat kebebasan yang dilaporkan pada Residual. Itu karena lagi, Null Deviance df = Saturasi df - Null df = n-1 Penyimpangan residual df = Saturasi df - Usulan df = n- (p + 1)
GLM
?