Beberapa perbedaan utama, sebelum penjelasan yang lebih panjang di bawah, adalah:
- Yang terpenting: jarak Jeffries-Matusita berlaku untuk distribusi, bukan vektor pada umumnya.
- Rumus jarak JM yang Anda kutip di atas hanya berlaku untuk vektor yang mewakili distribusi probabilitas diskrit (yaitu vektor yang berjumlah 1).
- Tidak seperti jarak Euclidean, jarak JM dapat digeneralisasi ke distribusi mana pun yang jarak Bhattacharrya dapat dirumuskan.
- Jarak JM, melalui jarak Bhattacharrya, memiliki interpretasi probabilistik.
Jarak Jeffries-Matusita, yang tampaknya sangat populer dalam literatur Penginderaan Jauh, adalah transformasi jarak Bhattacharrya (ukuran populer dari ketidaksamaan antara dua distribusi, dinyatakan di sini sebagai ) dari jangkauan ke rentang tetap :bp,q[0,inf)[0,2–√]
JMp,q=2(1−exp(−b(p,q))−−−−−−−−−−−−−−−√
Keuntungan praktis dari jarak JM, menurut makalah ini adalah bahwa ukuran ini "cenderung menekan nilai keterpisahan tinggi, sementara terlalu menekankan nilai keterpisahan rendah".
Jarak Bhattacharrya mengukur ketidaksamaan dua distribusi dan dalam pengertian berkesinambungan abstrak berikut:
Jika distribusi dan ditangkap oleh histogram, yang diwakili oleh satuan panjang vektor (di mana elemen th adalah hitungan dinormalisasi untuk th sampah) ini menjadi:
Dan akibatnya jarak JM untuk dua histogram adalah:
Yang, mencatat bahwa untuk histogram dinormalisasipq
b(p,q)=−ln∫p(x)q(x)−−−−−−−√dx
pqiiNb(p,q)=−ln∑i=1Npi⋅qi−−−−−√
JMp,q=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷
∑ipi=1, sama dengan rumus yang Anda berikan di atas:
JMp,q=∑i=1N(pi−−√−qi−−√)2−−−−−−−−−−−−−−⎷=∑i=1N(pi−2pi−−√qi−−√+qi)−−−−−−−−−−−−−−−−−−−⎷=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷