Membangun set pelatihan seimbang secara artifisial masih bisa diperdebatkan, cukup kontroversial. Jika Anda melakukannya, Anda harus memverifikasi secara empiris bahwa itu benar-benar berfungsi lebih baik daripada membiarkan set pelatihan tidak seimbang. Menyeimbangkan test set secara artifisial hampir tidak pernah merupakan ide yang baik. Set tes harus mewakili titik data baru saat mereka masuk tanpa label. Anda berharap mereka tidak seimbang, jadi Anda perlu tahu apakah model Anda dapat menangani tes-set yang tidak seimbang. (Jika Anda tidak mengharapkan catatan baru tidak seimbang, mengapa semua catatan Anda yang ada tidak seimbang?)
Mengenai metrik kinerja Anda, Anda akan selalu mendapatkan apa yang Anda minta. Jika akurasi bukan yang Anda butuhkan terutama dalam set yang tidak seimbang, karena tidak hanya kelas tetapi juga biaya kesalahan klasifikasi tidak seimbang, maka jangan menggunakannya. Jika Anda telah menggunakan akurasi sebagai metrik dan melakukan semua pemilihan model dan penyetelan hyperparameter dengan selalu mengambil yang dengan akurasi terbaik, Anda mengoptimalkan akurasi.
Saya menganggap kelas minoritas sebagai kelas positif, ini adalah cara konvensional penamaan mereka. Dengan demikian ketepatan dan daya ingat seperti yang dibahas di bawah ini adalah ketepatan dan daya ingat dari kelas minoritas.
- Jika satu-satunya hal penting adalah mengidentifikasi semua catatan kelas minoritas, Anda bisa mengingat. Dengan demikian Anda menerima lebih banyak positif palsu.
- Mengoptimalkan hanya presisi akan menjadi ide yang sangat aneh. Anda akan memberi tahu classifier Anda bahwa tidak masalah untuk mendeteksi kelas minoritas. Cara termudah untuk memiliki presisi tinggi adalah menjadi terlalu berhati-hati dalam mendeklarasikan kelas minoritas.
- Jika Anda membutuhkan ketelitian dan daya ingat, Anda bisa mengambil ukuran-F. Ini adalah rata-rata harmonik antara presisi dan daya ingat dan dengan demikian menghukum hasil di mana kedua metrik berbeda.
- Jika Anda tahu biaya kesalahan klasifikasi yang konkret di kedua arah (dan keuntungan dari klasifikasi yang benar jika berbeda per kelas), Anda dapat menempatkan semua itu dalam fungsi kerugian dan mengoptimalkannya.