Saya memiliki dataset yang berisi paling banyak 150 contoh (dibagi menjadi pelatihan & tes), dengan banyak fitur (lebih dari 1000). Saya perlu membandingkan pengklasifikasi dan metode pemilihan fitur yang berkinerja baik pada data. Jadi, saya menggunakan tiga metode klasifikasi (J48, NB, SVM) dan 2 metode pemilihan fitur (CFS, WrapperSubset) dengan metode pencarian yang berbeda (Serakah, BestFirst).
Saat membandingkan, saya melihat akurasi pelatihan (cross-fold 5 kali lipat) dan akurasi tes.
Ini adalah salah satu hasil dari J48 dan CFS-BestFirst:
{"precisionTraining": 95.83, "akurasiTest": 98.21}
Banyak hasil seperti ini, dan pada SVM ada banyak hasil yang menunjukkan bahwa akurasi tes jauh lebih tinggi daripada pelatihan (pelatihan: 60%, tes: 98%)
Bagaimana saya bisa mengartikan hasil seperti ini secara bermakna? Jika lebih rendah, saya akan mengatakan itu overfitting. Apakah ada yang bisa dikatakan tentang bias dan varians dalam hal ini dengan melihat semua hasilnya? Apa yang dapat saya lakukan untuk membuat klasifikasi ini bermakna, seperti memilih kembali pelatihan dan set tes atau hanya menggunakan validasi silang pada semua data?
Saya memiliki 73 pelatihan & 58 contoh tes. Beberapa jawaban tidak memiliki info ini ketika diposkan.