Ada banyak - dan apa yang paling berhasil tergantung pada data. Ada juga banyak cara untuk menipu - misalnya, Anda dapat melakukan kalibrasi probabilitas pada output dari setiap classifier yang memberikan beberapa kemiripan skor (yaitu: produk titik antara vektor bobot dan input). Contoh paling umum dari ini disebut penskalaan Platt.
Ada juga masalah bentuk model yang mendasarinya. Jika Anda memiliki interaksi polinomial dengan data Anda, maka regresi logistik vanilla tidak akan dapat memodelkannya dengan baik. Tetapi Anda bisa menggunakan versi regresi logistik agar model lebih sesuai dengan data. Ini biasanya meningkatkan "kebaikan" dari output probabilitas karena Anda juga meningkatkan akurasi classifier.
Secara umum, sebagian besar model yang memberikan probabilitas biasanya menggunakan fungsi logistik, sehingga sulit untuk membandingkan. Itu hanya cenderung bekerja dengan baik dalam praktik, jaringan Bayesian adalah alternatif. Naif Bayes hanya membuat asumsi yang terlalu sederhana untuk probabilitasnya menjadi baik - dan itu mudah diamati pada set data yang berukuran wajar.
Pada akhirnya, biasanya lebih mudah untuk meningkatkan kualitas perkiraan probabilitas Anda dengan memilih model yang dapat mewakili data dengan lebih baik. Dalam hal ini, tidak masalah bagaimana Anda mendapatkan probabilitas. Jika Anda bisa mendapatkan akurasi 70% dengan regresi logistik, dan 98% dengan SVM - maka dengan hanya memberikan probabilitas "kepercayaan penuh" saja akan membuat Anda mendapatkan hasil "lebih baik" dengan sebagian besar metode penilaian, meskipun mereka tidak benar-benar probabilitas (dan maka Anda dapat melakukan kalibrasi yang saya sebutkan sebelumnya, membuatnya lebih baik).
Pertanyaan yang sama dalam konteks ketidakmampuan untuk mendapatkan klasifikasi yang tepat lebih menarik, tapi saya tidak yakin siapa pun mempelajari / membandingkan dalam skenario seperti itu.