Cukup sulit untuk menjawab pertanyaan Anda secara tepat, tetapi menurut saya Anda membandingkan dua kriteria (kriteria informasi dan nilai-p) yang tidak memberikan informasi yang sama. Untuk semua kriteria informasi (kriteria AIC, atau Schwarz), semakin kecil mereka semakin cocok model Anda (dari perspektif statistik) karena mencerminkan trade-off antara kurangnya kecocokan dan jumlah parameter dalam model ; misalnya, kriteria Akaike bertuliskan , di mana- 2 log( ℓ ) + 2 kkadalah jumlah parameter. Namun, tidak seperti AIC, SC konsisten: probabilitas memilih salah model yang lebih besar konvergen ke 0 ketika ukuran sampel meningkat. Mereka digunakan untuk membandingkan model, tetapi Anda dapat mengamati model dengan prediktor signifikan yang memberikan kecocokan yang buruk (penyimpangan residual besar). Jika Anda dapat mencapai model yang berbeda dengan AIC yang lebih rendah, ini menunjukkan model yang buruk. Dan, jika ukuran sampel Anda besar, nilai masih rendah yang tidak memberikan banyak informasi tentang kesesuaian model. Setidaknya, lihat apakah AIC menunjukkan penurunan yang signifikan ketika membandingkan model dengan intersep saja dan model dengan kovariat. Namun, jika minat Anda terletak pada menemukan subset prediktor terbaik, Anda harus melihat metode untuk pemilihan variabel.hal
Saya akan menyarankan untuk melihat regresi yang dihukum , yang memungkinkan untuk melakukan pemilihan variabel untuk menghindari masalah overfitting. Ini dibahas dalam Strategi Pemodelan Regresi Frank Harrell (hal. 207 dst.), Atau Moons et al., Dugaan kemungkinan maksimum yang dihukum untuk secara langsung menyesuaikan model prediksi diagnostik dan prognostik untuk optimisme berlebihan : contoh klinis , J Clin Epid (2004) 57 ( 12).
Lihat juga paket Desain ( lrm
) dan stepPlr ( step.plr
) R, atau paket yang dikenakan sanksi . Anda dapat menelusuri pertanyaan terkait pada pemilihan variabel pada SE ini.