Jawaban:
Beberapa alasan "level usus" mengapa lebih baik bekerja dengan matriks autokorelasi daripada matriks dengan pengamatan Anda:
Sebagai contoh, mari kita pertimbangkan dua pendekatan untuk pemasangan model AR.
Kesalahan rekonstruksi kuadratik empiris pada data Anda adalah:
dimana adalah vektor koefisien AR, adalah vektor pengamatan Anda, dan matriks dengan pengamatan tertunda Anda. Anda perlu menemukan nilaiyang meminimalkan ini. Setelah derivasi dan sedikit pengocokan, solusi Anda terlihat seperti ini:
Dan Anda kacau karena Anda sama sekali tidak menjamin itu bisa dibalik. Dalam prosesnya, secara numerik, Anda harus berurusan dengan produk matriks yang cukup besar jika Anda memiliki urutan pengamatan yang panjang.
jika Anda mengadaptasi sudut "proses acak" dengan masalah, jumlah yang harus Anda kurangi (nilai kesalahan yang diharapkan) adalah:
Dan Anda berakhir dengan solusi yang lebih enak:
Dengan jaminan kuat bahwa ini akan dapat dihitung karena pasti positif!
Sepertinya masalah Anda adalah pemodelan sinusoidal (bukan pemodelan AR). Ada banyak lambaian tangan di sini, tapi apa yang saya katakan tentang pemodelan AR dan rintangan menggunakan matriks data mentah; juga berlaku untuk pemodelan sinusoidal - dengan dekomposisi nilai eigen menjadi operasi bermasalah bukannya inversi matriks.
Pertama, vektor eigen dan nilai eigen ditentukan untuk operator. Korelasi adalah operasi.
Kedua, vektor eigen dari autokorelasi sangat menarik karena mereka paling efisien menjelaskan varians sinyal dalam regresi linier. Dengan kata lain, untuk jumlah vektor tetap, pemilihan vektor eigen meminimalkan kesalahan kuadrat rata-rata di mana sinyal dimodelkan sebagai jumlah linier vektor. Teknik ini disebut sebagai analisis komponen utama .
Jika Anda dapat memperluas gagasan Anda tentang sinyal "harmonis", mungkin saya bisa berkomentar lebih lanjut.