Tampaknya ada saran yang bertentangan di luar sana tentang bagaimana menangani membandingkan kesalahan kereta vs tes, terutama ketika ada kesenjangan antara keduanya. Tampaknya ada dua aliran pemikiran yang bagi saya, tampaknya bertentangan. Saya ingin memahami cara mendamaikan keduanya (atau memahami apa yang saya lewatkan di sini).
Pemikiran # 1: Kesenjangan antara kereta dan kinerja set tes saja tidak menunjukkan overfitting
Pertama, (juga dibahas di sini: Bagaimana pelatihan dan pengujian perbandingan kesalahan bisa menjadi indikasi overfitting? ), Gagasan bahwa perbedaan antara kereta dan set tes saja tidak dapat menunjukkan overfitting. Ini sesuai dengan pengalaman praktis saya dengan, misalnya, metode ensemble tree, di mana bahkan setelah penyetelan parameter hyper-validation lintas, kesenjangan antara kereta dan kesalahan pengujian dapat tetap agak besar. Tapi (terlepas dari tipe model) selama kesalahan validasi Anda tidak kembali, Anda baik. Setidaknya, itulah pemikirannya.
Pemikiran # 2: Ketika Anda melihat celah antara kereta dan kinerja tes: Lakukan hal-hal yang akan memerangi overfitting
Namun, kemudian ada saran yang Anda lihat, dari sumber yang sangat baik yang menunjukkan bahwa kesenjangan antara kereta dan kesalahan tes merupakan indikasi overfitting. Berikut ini contohnya: Pembicaraan "Mur dan Baut Pembelajaran Dalam" oleh Andrew Ng (obrolan fantastis) https://www.youtube.com/watch?v=F1ka6a13S9I di mana sekitar pukul 48.00 ia menggambar bagan alur yang mengatakan "jika kesalahan set kereta Anda rendah dan set kesalahan kereta-dev Anda tinggi, Anda harus menambahkan regularisasi, mendapatkan lebih banyak data, atau mengubah arsitektur model" ... yang merupakan tindakan yang mungkin Anda ambil untuk memerangi overfitting.
Yang membawa saya ke ... : Apakah saya kehilangan sesuatu di sini? Apakah ini model aturan praktis yang spesifik (umumnya model yang lebih sederhana tampaknya memiliki sedikit kesenjangan antara kereta dan tes)? Atau apakah hanya ada dua aliran pemikiran yang berbeda?