Dalam konteks yang sedikit lebih umum dengan sebuah dimensi vektor pengamatan (tanggapan, atau variabel dependen), dan matriks pengamatan (kovariat, atau variabel dependen) dan parameter sedemikian sehingga maka kemungkinan minus-log-kemungkinan adalah
Dalam pertanyaan OP, adalah diagonal dengan
YnyXn×pxθ=(β1,β2,σ)Y∼N(Xβ1,Σ(β2,σ))
l(β1,β2,σ)=12(Y−Xβ1)TΣ(β2,σ)−1(Y−Xβ1)+12log|Σ(β2,σ)|
Σ(β2,σ)Σ(β2,σ)ii=σ2g(zTiβ2)2
sehingga penentu menjadi dan kemungkinan dikurangi-log-kemungkinan menjadi
Ada beberapa cara untuk mendekati minimalisasi fungsi ini (dengan asumsi tiga parameter adalah variasi independen).
σ2n∏ni=1g(zTiβ2)212σ2∑i=1n(yi−xTiβ1)2g(zTiβ2)2+nlogσ+∑i=1nlogg(zTiβ2)
- Anda dapat mencoba meminimalkan fungsi dengan algoritma pengoptimalan standar mengingat batasan yang .σ>0
- Anda dapat menghitung profil dikurangi log-kemungkinan dengan meminimalkan untuk diperbaiki , dan kemudian tancapkan fungsi yang dihasilkan ke dalam algoritma optimasi standar yang tidak dibatasi.(β1,β2)σ(β1,β2)
- Anda dapat bergantian antara mengoptimalkan masing-masing dari tiga parameter secara terpisah. Mengoptimalkan lebih dari dapat dilakukan secara analitis, mengoptimalkan lebih dari adalah masalah regresi kuadrat terkecil, dan mengoptimalkan lebih dari setara dengan menyesuaikan model linier umum gamma dengan tautan terbalik.β 1 β 2 g 2σβ1β2g2
Saran terakhir menarik bagi saya karena itu dibangun di atas solusi yang sudah saya ketahui dengan baik. Selain itu, iterasi pertama adalah sesuatu yang saya akan pertimbangkan untuk dilakukan. Yaitu, pertama hitung estimasi awal dengan kuadrat terkecil biasa yang mengabaikan potensi heteroskedastisitas, lalu paskan gamma glm ke residu kuadrat untuk mendapatkan perkiraan awal hanya untuk memeriksa apakah model yang lebih rumit tampaknya bermanfaat. Iterasi menggabungkan heteroskedastisitas ke dalam solusi kuadrat terkecil karena bobot kemudian dapat meningkat pada estimasi.β 2 -β1β2 −
Mengenai bagian kedua dari pertanyaan, saya mungkin akan mempertimbangkan menghitung interval kepercayaan untuk kombinasi linear baik dengan menggunakan asimptotik MLE standar (memeriksa dengan simulasi bahwa asimptotik bekerja) atau dengan bootstrap.wT1β1+wT2β2
Sunting: Dengan asimptotik MLE standar yang saya maksud menggunakan perkiraan normal multivariat untuk distribusi MLE dengan matriks kovarians informasi invers Fisher. Informasi Fisher adalah definisi matriks kovarians dari gradien . Secara umum tergantung pada parameter. Jika Anda dapat menemukan ekspresi analitik untuk jumlah ini, Anda dapat mencoba mencolokkan MLE. Sebagai alternatif, Anda dapat memperkirakan informasi Fisher dengan informasi Fisher yang diamati , yang merupakan Hessian dari di MLE. Parameter yang Anda minati adalah kombinasi linear dari parameter dalam dual β ( y i , x i , z i )llβ-vektor, maka dari normal multivariat aproksimasi dari MLE Anda dapat menemukan perkiraan normal dari penduga penduga seperti yang dijelaskan di sini . Ini memberi Anda perkiraan kesalahan standar dan Anda dapat menghitung interval kepercayaan. Ini dijelaskan dengan baik di banyak buku statistik (matematis), tetapi presentasi yang cukup mudah diakses yang bisa saya rekomendasikan adalah Dalam Semua Kemungkinan oleh Yudi Pawitan. Bagaimanapun, derivasi formal dari teori asimptotik cukup rumit dan bergantung pada sejumlah kondisi keteraturan, dan itu hanya memberikan asimptotik yang validdistribusi. Oleh karena itu, jika ragu saya akan selalu melakukan beberapa simulasi dengan model baru untuk memeriksa apakah saya dapat mempercayai hasil untuk parameter realistis dan ukuran sampel. Bootstrap sederhana dan non-parametrik tempat Anda mencicipi tiga kali lipat dari kumpulan data yang diamati dengan penggantian dapat menjadi alternatif yang bermanfaat jika prosedur pemasangan tidak terlalu memakan waktu.(yi,xi,zi)