Apakah ada metode standar (atau terbaik) untuk pengujian ketika rangkaian waktu tertentu telah stabil?
Beberapa motivasi
Saya memiliki sistem dinamis stokastik yang menghasilkan nilai pada setiap langkah waktu . Sistem ini memiliki beberapa perilaku transien sampai waktu dan kemudian stabil di sekitar beberapa nilai rata-rata dengan beberapa kesalahan. Tak satu pun dari , , atau kesalahan yang diketahui oleh saya. Saya bersedia membuat beberapa asumsi (seperti kesalahan Gaussian sekitar t ∈ N t ∗ x ∗ t ∗ x ∗ x ∗misalnya) tetapi semakin sedikit asumsi a priori yang saya butuhkan, semakin baik. Satu-satunya hal yang saya tahu pasti, adalah bahwa hanya ada satu titik stabil yang disatukan oleh sistem, dan fluktuasi di sekitar titik stabil jauh lebih kecil daripada fluktuasi selama periode transien. Prosesnya juga monotonik, saya bisa berasumsi bahwa mulai mendekati dan naik menuju (mungkin overshooting sedikit sebelum menstabilkan sekitar ). 0 x ∗ x ∗
The data akan datang dari simulasi, dan saya perlu tes stabilitas sebagai syarat berhenti untuk simulasi saya (karena saya hanya tertarik pada periode transient).
Pertanyaan yang tepat
Diberikan hanya akses ke nilai waktu untuk beberapa terbatas , adakah metode untuk mengatakan dengan akurasi yang masuk akal bahwa sistem dinamis stokastik telah stabil di sekitar titik ? Poin bonus jika tes juga mengembalikan , , dan kesalahan sekitar . Namun, ini tidak penting karena ada cara sederhana untuk mengetahui hal ini setelah simulasi selesai. T x ∗ x ∗ t ∗ x ∗
Pendekatan naif
Pendekatan naif yang pertama kali muncul di pikiran saya (yang saya lihat digunakan sebagai kondisi menang untuk beberapa jaringan saraf, misalnya) adalah memilih untuk parameter dan , maka jika untuk timesteps terakhir tidak ada dua poin dan sedemikian rupa sehingga maka kita menyimpulkan bahwa kita telah stabil. Pendekatan ini mudah, tetapi tidak terlalu ketat. Ini juga memaksa saya untuk menebak nilai dan seharusnya.E Tx ′ x ′ - x > E T E
Sepertinya harus ada pendekatan yang lebih baik yang melihat kembali sejumlah langkah di masa lalu (atau mungkin entah bagaimana diskon data lama), menghitung kesalahan standar dari data ini, dan kemudian menguji apakah untuk beberapa langkah langkah lain (atau yang lain skema diskon) deret waktu belum di luar rentang kesalahan ini. Saya memasukkan strategi yang agak kurang naif namun tetap sederhana sebagai jawaban .
Setiap bantuan, atau referensi ke teknik standar sangat dihargai.
Catatan
Saya juga mengirim pertanyaan ini apa adanya ke MetaOptimize dan dalam deskripsi yang lebih simulasi-rasa untuk Ilmu Komputasi .