Saya ingin memberikan jawaban langsung.
Apa perbedaan utama antara estimasi kemungkinan maksimum (MLE) vs estimasi kuadrat terkecil (LSE)?
Seperti yang dikomentari @TrynnaDoStat, meminimalkan kesalahan kuadrat setara dengan memaksimalkan kemungkinan dalam kasus ini. Seperti yang dikatakan di Wikipedia ,
Dalam model linier, jika kesalahan milik distribusi normal, penduga kuadrat terkecil juga merupakan penduga kemungkinan maksimum.
mereka dapat dipandang sama dalam kasus Anda,
Biarkan saya sedikit detail. Karena kita tahu bahwa variabel respons ( )
memiliki model distribusi kesalahan normal,
fungsi kemungkinannya adalah,
Jelas memaksimalkan L sama dengan meminimalkan
Itu metode kuadrat terkecil.yYi=λ1Xi+λ2+ϵi where ϵ∼N(0,σ2)
L(Y1,…,Yn;λ1,λ2,σ2)=1(2π)n2σnexp(−12σ2(∑i=1n(Yi−λ1Xi−λ2)2))
∑i=1n(Yi−λ1Xi−λ2)2
Mengapa kita tidak bisa menggunakan MLE untuk memprediksi nilai dalam regresi linier dan sebaliknya? y
Seperti yang dijelaskan di atas, kita sebenarnya (lebih tepatnya setara) menggunakan MLE untuk memprediksi nilai . Dan jika variabel respon memiliki distribusi sewenang-wenang daripada distribusi normal, seperti distribusi Bernoulli atau siapa pun dari keluarga eksponensial, kami memetakan prediktor linier ke distribusi variabel respons menggunakan fungsi tautan (sesuai dengan distribusi respons), maka fungsi kemungkinan menjadi produk dari semua hasil (probabilitas antara 0 dan 1) setelah transformasi. Kita dapat memperlakukan fungsi tautan dalam regresi linier sebagai fungsi identitas (karena responsnya sudah menjadi probabilitas).y