Sementara estimasi semata-mata bertujuan untuk menghasilkan nilai-nilai parameter yang tidak diketahui (misalnya, koefisien dalam regresi logistik, atau dalam hyperplane pemisah dalam mesin vektor dukungan), inferensi statistik mencoba untuk melampirkan ukuran ketidakpastian dan / atau pernyataan probabilitas untuk nilai-nilai parameter (kesalahan standar dan interval kepercayaan). Jika model yang diasumsikan ahli statistik kira-kira benar, maka asalkan data yang masuk baru terus sesuai dengan model itu, pernyataan ketidakpastian mungkin memiliki beberapa kebenaran di dalamnya, dan memberikan ukuran seberapa sering Anda akan membuat kesalahan dalam menggunakan model untuk membuat keputusan Anda.
Sumber pernyataan probabilitas ada dua. Kadang-kadang, seseorang dapat mengasumsikan distribusi probabilitas yang mendasari apa pun yang Anda ukur, dan dengan beberapa ilmu matematika (integrasi multivariat dari distribusi Gaussian, dll.), Memperoleh distribusi probabilitas hasil (rata-rata sampel dari data Gaussian itu sendiri Gaussian ). Konjugasi prior dalam statistik Bayesian termasuk dalam kategori santet itu. Di lain waktu, seseorang harus bergantung pada hasil asimtotik (sampel besar) yang menyatakan bahwa dalam sampel yang cukup besar, segala sesuatu terikat untuk berperilaku dengan cara tertentu (Teorema Batas Pusat: mean sampel data dari data yang sesuai dengan mean dan varians kira-kira Gaussian dengan mean dan variansσ 2 μ σ 2 / nμσ2μσ2/n terlepas dari bentuk distribusi data asli).
Yang paling dekat dengan pembelajaran mesin adalah validasi silang ketika sampel dipisah menjadi bagian pelatihan dan validasi, dengan yang terakhir secara efektif mengatakan, "jika data baru terlihat seperti data lama, tetapi sama sekali tidak terkait dengan data yang digunakan dalam mengatur model saya, maka ukuran realistis dari tingkat kesalahan adalah ini dan itu ". Ini diturunkan sepenuhnya secara empiris dengan menjalankan model yang sama pada data, daripada mencoba menyimpulkan sifat-sifat model dengan membuat asumsi statistik dan melibatkan setiap hasil matematika seperti CLT di atas. Bisa dibilang, ini lebih jujur, tetapi karena menggunakan lebih sedikit informasi, dan karenanya memerlukan ukuran sampel yang lebih besar. Juga, secara implisit mengasumsikan bahwa proses tidak berubah,
Sementara frasa "menyimpulkan posterior" mungkin masuk akal (saya bukan Bayesian, saya tidak dapat benar-benar tahu apa istilah yang diterima), saya tidak berpikir ada banyak yang terlibat dalam membuat asumsi dalam langkah inferensial itu. Semua asumsi Bayesian adalah (1) dalam model prior dan (2) dalam model yang diasumsikan, dan begitu mereka diatur, posterior mengikuti secara otomatis (setidaknya dalam teori melalui teorema Bayes; langkah-langkah praktis mungkin sangat rumit, dan Sipps Gambling ... permisi, pengambilan sampel Gibbs mungkin komponen yang relatif mudah untuk sampai ke posterior itu). Jika "menyimpulkan posterior" mengacu pada (1) + (2), maka itu adalah rasa dari kesimpulan statistik kepada saya. Jika (1) dan (2) dinyatakan secara terpisah, dan kemudian "menyimpulkan posterior" adalah sesuatu yang lain, maka saya tidak