Apa saja aplikasi atau keuntungan dari regresi reduksi dimensi (PRB) atau teknik reduksi dimensionalitas terawasi (SDR) dibandingkan teknik regresi tradisional (tanpa pengurangan dimensionalitas)? Kelas teknik ini menemukan representasi dimensi rendah dari set fitur untuk masalah regresi. Contoh-contoh dari teknik-teknik tersebut termasuk Regresi Pembalikan Irisan, Petunjuk Hessian Kepala, Estimasi Varians Rata Teriris, Regresi Pembalikan Irisan Kernel, Regresi Komponen Utama, dll.
Dalam hal RMSE yang divalidasi silang, jika suatu algoritma berkinerja lebih baik pada tugas regresi tanpa pengurangan dimensionalitas, lalu apa sebenarnya penggunaan reduksi dimensionalitas untuk regresi? Saya tidak mengerti maksud dari teknik ini.
Apakah teknik ini kebetulan digunakan untuk mengurangi kompleksitas ruang dan waktu untuk regresi? Jika itu adalah keuntungan utama, beberapa sumber daya pada pengurangan kompleksitas untuk dataset dimensi tinggi ketika teknik ini digunakan akan sangat membantu. Saya memperdebatkan ini dengan fakta bahwa menjalankan teknik DRR atau SDR itu sendiri membutuhkan waktu dan ruang. Apakah SDR / DRR + Regresi ini pada dataset redup rendah lebih cepat daripada hanya regresi pada dataset redup tinggi?
Apakah pengaturan ini dipelajari hanya dari minat abstrak, dan tidak memiliki aplikasi praktis yang baik?
Sebagai pemikiran sampingan: kadang-kadang ada asumsi bahwa distribusi gabungan dari fitur dan respons terletak pada bermacam-macam. Masuk akal untuk mempelajari manifold dari sampel yang diamati dalam konteks ini untuk menyelesaikan masalah regresi.