Hampir setiap sumber atau orang yang pernah berinteraksi dengan saya kecuali sumber Wolfram yang Anda tautkan merujuk pada proses yang sesuai dengan model untuk data . Ini masuk akal, karena model adalah objek dinamis dan datanya statis (alias tetap dan konstan).
Untuk menjelaskannya, saya menyukai pendekatan Larry Wasserman untuk ini. Dalam ceritanya, model statistik adalah kumpulan distribusi. Misalnya, koleksi semua distribusi normal:
{Normal(μ,σ):μ,σ∈R,σ>0}
atau himpunan semua distribusi Poisson:
{Poisson(λ):λ∈R,λ>0}
Menyesuaikan distribusi ke data adalah algoritma apa pun yang menggabungkan model statistik dengan sekumpulan data (data tetap), dan memilih dengan tepat salah satu distribusi dari model tersebut sebagai yang "terbaik" mencerminkan data.
Modelnya adalah sesuatu yang berubah (semacam): kita menciutkannya dari seluruh kumpulan kemungkinan menjadi satu pilihan terbaik. Data hanyalah data; tidak ada yang terjadi sama sekali.