Ini adalah pertanyaan yang menarik di mana saya ingin menunjukkan beberapa highlight terlebih dahulu.
- Dua estimator konsisten
- lebih efisien daripada β 2karena mencapai kurang variasiβ^1β^2
- Fungsi kerugian tidak sama
- satu metode susut diterapkan untuk satu sehingga mengurangi variasi yang dengan sendirinya menghasilkan estimator yang lebih baik
- Pertanyaan : Dengan kata lain, jika susut diterapkan secara cerdik, apakah ia
selalu bekerja lebih baik untuk penduga yang lebih efisien?
Pada dasarnya, adalah mungkin untuk meningkatkan penduga dalam kerangka kerja tertentu, seperti kelas penduga yang tidak bias. Namun, seperti yang ditunjukkan oleh Anda, fungsi kerugian yang berbeda membuat situasi menjadi sulit karena satu fungsi kerugian dapat meminimalkan kerugian kuadratik dan yang lainnya meminimalkan entropi. Selain itu, menggunakan kata "selalu" sangat sulit karena jika satu penaksir adalah yang terbaik di kelas, Anda tidak dapat mengklaim penaksir yang lebih baik, secara logis.
Sebagai contoh sederhana (dalam rangka yang sama), biarkan dua penduga, yaitu (regresi dihukum dengan Bridge penalti norma) dan Lasso (norma pertama dihukum kemungkinan) dan satu set jarang parameter yaitu β , model linear y = x β + e , normalitas istilah kesalahan, e ∼ N ( 0 , σ 2 < ∞ ) , dikenal σ , fungsi kehilangan kuadratik (kesalahan kuadrat terkecil), dan independensi kovariat dalam x . Mari pilih l p untuk p = 3lhalβy= x β+ ee ∼ N( 0 , σ2< ∞ )σxlhalp = 3untuk estimator pertama dan untuk estimator kedua. Kemudian Anda dapat meningkatkan estimator dengan memilih p → 1 yang menghasilkan estimator yang lebih baik dengan varian yang lebih rendah. Maka dalam contoh ini ada kemungkinan meningkatkan penduga.p = 2p → 1
Jadi jawaban saya untuk pertanyaan Anda adalah ya, mengingat Anda mengasumsikan keluarga estimator yang sama dan fungsi kerugian yang sama serta asumsi.