Apakah AR (1) proses Markov?


13

Apakah proses AR (1) seperti yt=ρyt1+εt merupakan proses Markov?

Jika ya, maka VAR (1) adalah versi vektor dari proses Markov?

Jawaban:


18

Hasil berikut ini berlaku: Jika adalah independen mengambil nilai dalam E dan f 1 , f 2 , ... adalah fungsi f n : F × E F kemudian dengan X n didefinisikan secara rekursif sebagaiϵ1,ϵ2,Ef1,f2,fn:F×EFXn

Xn=fn(Xn1,ϵn),X0=x0F

proses dalam F adalah proses Markov mulai dari x 0 . Prosesnya homogen waktu jika ϵ terdistribusi secara identik dan semua fungsi- f adalah identik.(Xn)n0Fx0ϵf

AR (1) dan VAR (1) keduanya proses yang diberikan dalam bentuk ini dengan

fn(x,ϵ)=ρx+ϵ.

Jadi mereka adalah proses Markov yang homogen jika adalah iidϵ

Secara teknis, ruang dan F membutuhkan struktur yang dapat diukur dan fungsi- f harus dapat diukur. Sangat menarik bahwa hasil sebaliknya berlaku jika ruang F adalah ruang Borel . Untuk setiap proses Markov ( X n ) n 0 pada ruang Borel F ada variabel acak seragam iid ϵ 1 , ϵ 2 , dalam [ 0 , 1 ] dan fungsi f n : F ×EFfF(Xn)n0Fϵ1,ϵ2,[0,1] sedemikian rupa sehingga dengan probabilitas satu X n = f n ( X n - 1 , ϵ n ) . Lihat Proposisi 8.6 dalam Kallenberg,Yayasan Probabilitas Modern.fn:F×[0,1]F

Xn=fn(Xn1,ϵn).

6

Proses adalah proses AR (1) jikaXt

Xt=c+φXt-1+εt

di mana kesalahan, iid. Sebuah proses memiliki properti Markov jikaεt

P(Xt=xt|entire history of the process)=P(Xt=xt|Xt1=xt1)

Dari persamaan pertama, distribusi probabilitas jelas hanya tergantung pada X t - 1 , jadi, ya, AR (1) proses adalah proses Markov.XtXt1


3
-1, alasan yang sama dengan poster lainnya. Jawabannya menyiratkan bahwa mudah untuk memeriksa properti Markov yang dikutip. Tidak, kecuali ditunjukkan sebaliknya. Perhatikan juga bahwa proses-proses AR (1) dapat didefinisikan dengan menjadi non-iid, jadi ini juga harus ditekankan. εt
mpiktas

1
Masalah utama adalah bahwa kita dapat dengan mudah menulis dan kemudian kalimat terakhir akan berarti bahwa P ( X t = x t | seluruh sejarah ) = P ( X t = x t | X t - 2 = x t - 2 )Xt=c+ϕc+ϕ2Xt2+ϕεt1+εtP(Xt=xt|entire history)=P(Xt=xt|Xt2=xt2).
mpiktas

Nah, proses markov bergantung pada ketika Anda belum juga mengkondisikan pada X t - 1 . Saya kira argumen yang lebih formal akan menganggap Anda mengkondisikan secara berurutan (yaitu Anda tidak memasukkan X t - 2 kecuali Anda sudah mengkondisikan pada X t - 1 ). Xt2Xt1Xt2Xt1
Makro

dan apa yang Anda tulis di sana sebenarnya tergantung pada dan X t - 1 (melalui istilah kesalahan ε t - 1 ). Intinya adalah bahwa kemungkinan bersama dapat ditulis dengan mudah sebagai produk dari kemungkinan bersyarat yang hanya memerlukan pengkondisian pada titik waktu sebelumnya. Melalui redudansi parameter Anda dapat membuatnya terlihat seperti distribusi X t tergantung pada X t - 2 tetapi, setelah Anda dikondisikan pada X t - 1Xt2Xt1εt1XtXt2Xt1, jelas tidak. (ps Saya menggunakan definisi standar proses AR (1) per buku seri waktu Shumway dan Stoeffer)
Makro

Catatan saya tidak mengatakan bahwa jawabannya salah. Saya hanya tertarik pada detail, yaitu bahwa kesetaraan kedua secara intuitif terbukti, tetapi jika Anda ingin membuktikannya secara formal itu tidak mudah, IMHO.
mpiktas

2

Apa itu proses Markov? (Longgar speeking) Proses stokastik adalah proses Markov urutan pertama jika kondisi

P[X(t)=x(t)|X(0)=x(0),...,X(t1)=x(t1)]=P[X(t)=x(t)|X(t1)=x(t1)]

AR(1)

Hal yang sama berlaku untuk VAR (1) menjadi proses Markov multivariat urutan pertama.


Hm, jika εt are not iid, I do not think it holds. Also you did not give a proof, only cited the Markov property.
mpiktas

I thought that Markov Process refers to the continuous case. Usual AR time series are discrete, so it should correspond to a Markov Chain instead of a Markov Process.
joint_p

So we observe state of autoregressive process, Xt. The past history is Xt1,Xt2,.... This does not supply any additional information?
mpiktas

@joint_p, the terminology is not completely consistent in the literature. Historically, as I see it, the usage of "chain" instead of "process" was typically a reference to the state space of the process being discrete but occasionally also time being discrete. Today many use "chain" to refer to discrete time but allowing for a general state space, as in Markov Chain Monte Carlo. However, using "process" is also correct.
NRH

1
-1, since the proof of Markovian property is not given. Also the hand waving argument is not consistent with formula given. current state = t, past means t1,t2,..., next means t+1, but the formula does not involve t+1.
mpiktas
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.