Untuk memberikan penilaian yang naif terhadap situasi:
umumnya: misalkan Anda memiliki dua sistem fungsi basis yang berbeda , serta untuk beberapa fungsi (hilbert-) ruang, biasa , yaitu ruang semua fungsi persegi-integrable. { ˜ p } ∞ n = 1 L 2 ( [ a , b ] ){pn}∞n=1{p~}∞n=1L2([a,b])
Ini berarti bahwa masing-masing dari dua basis dapat digunakan untuk menjelaskan setiap elemen , yaitu untuk Anda miliki untuk beberapa koefisien dan , (dalam -sense):
L2([a,b])y∈L2([a,b])θnθ~n∈Rn=1,2,…L2
∑n=1∞θ~np~n=y=∑n=1∞θnpn.
Namun, di sisi lain, jika Anda memotong kedua set fungsi basis di beberapa angka , yaitu Anda mengambil
serta rangkaian fungsi basis terpotong ini sangat mungkin menggambarkan dua "bagian yang berbeda" dari .k<∞
{pn}kn=1
{p~}kn=1,
L2([a,b])
Namun, di sini dalam kasus khusus di mana satu basis, , hanyalah dari basis lainnya, , keseluruhan prediksi akan sama untuk setiap model terpotong ( dan rekanan ortogonalnya akan menggambarkan subruang -dimensi ).{p~}∞n=1{pn}∞n=1y{p}kn=1kL2([a,b])
Tetapi masing-masing fungsi basis individu dari dua basis "berbeda" akan menghasilkan kontribusi yang berbeda untuk predcisi ini (jelas karena fungsi / prediktornya berbeda!) Menghasilkan nilai- dan koefisien yang berbeda.p
Oleh karena itu, dalam hal prediksi tidak ada (dalam hal ini).
Dari sudut pandang komputasi, model matriks yang terdiri dari fungsi-fungsi dasar ortogonal memiliki sifat numerik / komputasi yang bagus untuk estimator kuadrat terkecil. Sementara pada saat yang sama dari sudut pandang statistik, hasil orthogonalization dalam estimasi tidak berkorelasi, karena bawah asumsi standar.var(θ~^)=Iσ²
Pertanyaan alami muncul jika ada sistem basis terpotong terbaik. Namun jawaban untuk pertanyaan ini tidak sederhana atau unik dan tergantung misalnya pada definisi kata "terbaik", yaitu apa yang Anda coba arsipkan.