Saya mencoba mencari argumen yang bagus tentang mengapa seseorang akan menggunakan jarak Manhattan di atas jarak Euclidean dalam Pembelajaran Mesin.
Hal terdekat yang saya temukan untuk argumen yang baik sejauh ini adalah pada kuliah MIT ini .
Pada 36:15 Anda dapat melihat pada slide pernyataan berikut:
"Biasanya menggunakan metrik Euclidean; Manhattan mungkin cocok jika dimensi yang berbeda tidak sebanding. "
Tak lama setelah profesor mengatakan bahwa, karena jumlah kaki reptil bervariasi dari 0 hingga 4 (sedangkan fitur lainnya adalah biner, hanya bervariasi dari 0 hingga 1), fitur "jumlah kaki" akan berakhir memiliki yang jauh lebih tinggi berat jika jarak Euclidean digunakan. Benar saja, itu memang benar. Tetapi orang juga akan memiliki masalah itu jika menggunakan jarak Manhattan (hanya saja masalahnya akan sedikit dikurangi karena kita tidak menguadratkan perbedaan seperti yang kita lakukan pada jarak Euclidean).
Cara yang lebih baik untuk menyelesaikan masalah di atas adalah dengan menormalkan fitur "jumlah kaki" sehingga nilainya selalu antara 0 dan 1.
Oleh karena itu, karena ada cara yang lebih baik untuk menyelesaikan masalah, rasanya seperti argumen menggunakan jarak Manhattan dalam kasus ini tidak memiliki titik yang lebih kuat, setidaknya menurut pendapat saya.
Adakah yang benar-benar tahu mengapa dan kapan seseorang akan menggunakan jarak Manhattan di atas Euclidean? Adakah yang bisa memberi saya contoh di mana menggunakan jarak Manhattan akan menghasilkan hasil yang lebih baik?