Saya tahu bahwa untuk mengakses kinerja classifier saya harus membagi data menjadi set pelatihan / tes. Tetapi membaca ini :
Ketika mengevaluasi pengaturan yang berbeda ("hyperparameters") untuk estimator, seperti pengaturan C yang harus ditetapkan secara manual untuk SVM, masih ada risiko overfitting pada set tes karena parameter dapat di-tweak sampai estimator berkinerja optimal. Dengan cara ini, pengetahuan tentang set uji dapat "bocor" ke dalam model dan metrik evaluasi tidak lagi melaporkan kinerja generalisasi. Untuk mengatasi masalah ini, bagian lain dari dataset dapat diadakan sebagai apa yang disebut "set validasi": pelatihan berlangsung pada set pelatihan, setelah itu evaluasi dilakukan pada set validasi, dan ketika percobaan tampaknya berhasil , evaluasi akhir dapat dilakukan pada set tes.
Saya melihat bahwa set validasi (ketiga) lainnya diperkenalkan yang dibenarkan dengan overfitting set tes selama penyetelan hyperparameters.
Masalahnya adalah bahwa saya tidak bisa mengerti bagaimana overfitting ini dapat muncul dan karena itu tidak dapat memahami pembenaran set ketiga.