Metode lokal seperti K-NN masuk akal dalam beberapa situasi.
Salah satu contoh yang saya lakukan di pekerjaan sekolah harus dilakukan dengan memprediksi kekuatan tekan berbagai campuran bahan semen. Semua bahan ini relatif tidak mudah menguap sehubungan dengan respons atau satu sama lain dan KNN membuat prediksi yang dapat diandalkan. Dengan kata lain tidak ada variabel independen yang memiliki varians yang tidak proporsional besar untuk diberikan kepada model baik secara individu atau mungkin dengan interaksi timbal balik.
Ambil ini dengan sebutir garam karena saya tidak tahu teknik investigasi data yang secara meyakinkan menunjukkan hal ini tetapi secara intuitif tampaknya masuk akal bahwa jika fitur Anda memiliki beberapa varian tingkat yang proporsional, saya tidak tahu proporsi apa, Anda mungkin memiliki Calon KNN. Saya tentu ingin tahu apakah ada beberapa penelitian dan teknik yang dihasilkan dikembangkan untuk efek ini.
Jika Anda memikirkannya dari perspektif domain umum ada kelas luas aplikasi di mana 'resep' yang sama menghasilkan hasil yang serupa. Ini tentu saja menggambarkan situasi memprediksi hasil pencampuran semen. Saya akan mengatakan jika Anda memiliki data yang berperilaku sesuai dengan deskripsi ini dan sebagai tambahan ukuran jarak Anda juga alami untuk domain yang ada dan terakhir bahwa Anda memiliki data yang cukup, saya akan membayangkan bahwa Anda harus mendapatkan hasil yang bermanfaat dari KNN atau metode lokal lain .
Anda juga mendapatkan manfaat dari bias yang sangat rendah ketika Anda menggunakan metode lokal. Terkadang general aditif model (GAM) menyeimbangkan bias dan varians dengan menyesuaikan setiap variabel individu menggunakan KNN sedemikian rupa sehingga:
y^= f1( x1) + f2( x2) + ⋯ + fn( xn) + ϵ
Bagian aditif (simbol plus) melindungi terhadap varian tinggi sementara penggunaan KNN sebagai ganti melindungi terhadap bias tinggi.fn( xn)
Saya tidak akan menghapus KNN begitu cepat. Itu memiliki tempatnya.