Ada banyak cara untuk mengukur seberapa mirip dua distribusi probabilitas. Di antara metode yang populer (di lingkaran yang berbeda) adalah:
jarak Kolmogorov: jarak antara fungsi distribusi;
jarak Kantorovich-Rubinstein: perbedaan maksimum antara ekspektasi dengan dua distribusi fungsi dengan konstanta Lipschitz , yang juga ternyata merupakan jarak antara fungsi distribusi;
jarak dibatasi-Lipschitz: seperti jarak KR tetapi fungsi-fungsi juga diharuskan memiliki nilai absolut paling banyak .
Ini memiliki kelebihan dan kekurangan yang berbeda. Hanya konvergensi dalam arti 3. yang sebenarnya sesuai dengan konvergensi dalam distribusi; konvergensi dalam arti 1. atau 2. sedikit lebih kuat secara umum. (Khususnya, jika dengan probabilitas , maka konvergen ke dalam distribusi, tetapi tidak dalam jarak Kolmogorov. Namun, jika distribusi batas kontinu maka patologi ini tidak terjadi. )
Dari perspektif probabilitas elementer atau teori ukuran, 1. sangat alami karena 1. membandingkan probabilitas berada di beberapa set. Di sisi lain, perspektif probabilistik yang lebih canggih cenderung lebih berfokus pada ekspektasi daripada probabilitas. Juga, dari perspektif analisis fungsional, jarak seperti 2. atau 3. berdasarkan dualitas dengan beberapa ruang fungsi sangat menarik, karena ada satu set besar alat matematika untuk bekerja dengan hal-hal seperti itu.
Namun, kesan saya (koreksi saya jika saya salah!) Adalah bahwa dalam statistik, jarak Kolmogorov adalah cara yang biasanya lebih disukai untuk mengukur kesamaan distribusi. Saya bisa menebak satu alasan: jika salah satu distribusi diskrit dengan dukungan yang terbatas - khususnya, jika itu adalah distribusi beberapa data dunia nyata - maka jarak Kolmogorov ke model distribusi mudah dihitung. (Jarak KR akan sedikit lebih sulit untuk dihitung, dan jarak BL mungkin tidak mungkin secara praktis.)
Jadi pertanyaan saya (akhirnya) adalah, adakah alasan lain, baik praktis atau teoritis, untuk mendukung jarak Kolmogorov (atau jarak lain) untuk keperluan statistik?