Sebagai sarana memotivasi pertanyaan, pertimbangkan masalah regresi di mana kami berusaha memperkirakan menggunakan variabel yang diamati
Ketika melakukan regresi polinomial multivariat, saya mencoba mencari paramitisasi fungsi yang optimal
yang paling cocok dengan data dalam arti kuadrat terkecil.
Masalah dengan ini, bagaimanapun, adalah bahwa parameter tidak independen. Apakah ada cara untuk melakukan regresi pada set vektor "basis" yang berbeda yang ortogonal? Melakukan ini memiliki banyak keuntungan yang jelas
1) koefisien tidak lagi berkorelasi. 2) nilai-nilai sendiri tidak lagi tergantung pada derajat koefisien. 3) Ini juga memiliki keunggulan komputasi karena dapat menjatuhkan syarat orde lebih tinggi untuk data yang lebih kasar tetapi masih akurat.
Ini mudah dicapai dalam kasus variabel tunggal menggunakan polinomial ortogonal, menggunakan set dipelajari dengan baik seperti Chebyshev Polynomials. Namun tidak jelas (bagi saya) bagaimana menggeneralisasi ini! Terlintas dalam benak saya bahwa saya bisa berpisah secara polinomial berpasangan, tetapi saya tidak yakin apakah itu hal yang benar secara matematis untuk dilakukan.
Bantuan Anda dihargai