Ketika menggunakan k-fold CV untuk memilih di antara model regresi, saya biasanya menghitung kesalahan CV secara terpisah untuk masing-masing model, bersama dengan kesalahan standar SE, dan saya memilih model paling sederhana dalam 1 SE dari model dengan kesalahan CV terendah (1 aturan kesalahan standar, lihat misalnya di sini ). Namun, saya baru-baru ini diberitahu bahwa dengan cara ini saya melebih-lebihkan variabilitas, dan bahwa dalam kasus tertentu memilih antara dua model A dan B, saya harus benar-benar melanjutkan dengan cara yang berbeda:
- untuk setiap kali lipat panjang N K , menghitung perbedaan pointwise antara dua model predictions.Then menghitung mean perbedaan persegi untuk lipat M S D K = √
- rata-rata di lipatan seperti biasa, dan gunakan kesalahan perbedaan CV ini (bersama-sama dengan kesalahan standar) sebagai penduga untuk kesalahan generalisasi.
Pertanyaan:
- Apakah ini masuk akal bagi Anda? Saya tahu ada alasan teoritis di balik penggunaan kesalahan CV sebagai penaksir kesalahan generalisasi (saya tidak tahu yang merupakan alasan ini, tapi saya tahu mereka ada!). Saya tidak tahu apakah ada alasan teoritis di balik penggunaan kesalahan CV "perbedaan" ini.
- Saya tidak tahu apakah ini dapat digeneralisasi dengan perbandingan lebih dari dua model. Menghitung perbedaan untuk semua pasangan model tampaknya berisiko (beberapa perbandingan?): Apa yang akan Anda lakukan jika Anda memiliki lebih dari dua model?
EDIT: rumus saya benar-benar salah, metrik yang benar dijelaskan di sini dan itu jauh lebih rumit. Yah, saya senang saya bertanya di sini sebelum menerapkan formula! Saya berterima kasih kepada @Bay karena telah membantu saya memahami dengan jawabannya yang mencerahkan. Ukuran yang benar dijelaskan cukup eksperimental, jadi saya akan tetap berpegang pada kuda-kerja tepercaya saya, kesalahan CV!