Apa fungsi Q dan apa fungsi V dalam pembelajaran penguatan?


30

Sepertinya saya bahwa fungsi dapat dengan mudah diekspresikan oleh fungsi dan dengan demikian fungsi tampaknya berlebihan bagi saya. Namun, saya baru belajar penguatan, jadi saya kira ada yang salah.VQV

Definisi

Pembelajaran Q dan V berada dalam konteks Proses Keputusan Markov . Sebuah MDP adalah 5-tuple dengan(S,A,P,R,γ)

  • S adalah seperangkat status (biasanya terbatas)
  • A adalah serangkaian tindakan (biasanya terbatas)
  • s s aP(s,s,a)=P(st+1=s|st=s,at=a) adalah probabilitas untuk dari keadaan ke keadaan dengan tindakan .ssa
  • s s a s R(s,s,a)R adalah hadiah langsung setelah beralih dari keadaan ke keadaan dengan tindakan . (Sepertinya saya yang biasanya hanya hal-hal).ssas
  • γ[0,1] disebut faktor diskon dan menentukan apakah seseorang berfokus pada hadiah langsung ( ), total hadiah ( ) atau trade-off.γ=0γ=1

Sebuah kebijakanπ , menurut Penguatan Belajar: Sebuah Pengantar oleh Sutton dan Barto adalah fungsi (ini bisa menjadi probabilistik).π:SA

Menurut slide Mario Martins , fungsi adalah dan fungsi Q adalah V

Vπ(s)=Eπ{Rt|st=s}=Eπ{k=0γkrt+k+1|st=s}
Qπ(s,a)=Eπ{Rt|st=s,at=a}=Eπ{k=0γkrt+k+1|st=s,at=a}

Pikiran saya

Fungsi menyatakan apa nilai keseluruhan yang diharapkan (bukan imbalan!) Dari negara bagian bawah kebijakan .Vsπ

The -negara fungsi apa nilai dari negara dan tindakan di bawah kebijakan adalah.Qsaπ

Ini berarti,

Qπ(s,π(s))=Vπ(s)

Kanan? Jadi mengapa kita memiliki fungsi nilai sama sekali? (Saya kira saya mencampur sesuatu)

Jawaban:


15

Nilai-Q adalah cara yang bagus untuk membuat tindakan eksplisit sehingga Anda dapat menangani masalah di mana fungsi transisi tidak tersedia (bebas model). Namun, ketika ruang tindakan Anda besar, hal-hal tidak begitu baik dan nilai-Q tidak begitu nyaman. Pikirkan sejumlah besar tindakan atau bahkan ruang tindakan berkelanjutan.

Dari perspektif pengambilan sampel, dimensi lebih tinggi dari sehingga mungkin semakin sulit untuk mendapatkan cukup sampel dibandingkan dengan . Jika Anda memiliki akses ke fungsi transisi, kadang-kadang baik.Q(s,a)V(s)(s,a)(s)V

Ada juga kegunaan lain di mana keduanya digabungkan. Misalnya, fungsi keunggulan di mana . Jika Anda tertarik, Anda dapat menemukan contoh terbaru menggunakan fungsi keunggulan di sini:A(s,a)=Q(s,a)V(s)

Arsitektur Jaringan Duel untuk Pembelajaran Penguatan Dalam

oleh Ziyu Wang, Tom Schaul, Matteo Hessel, Hado van Hasselt, Marc Lanctot dan Nando de Freitas.


19

Vπ(s) adalah fungsi nilai-negara MDP (Markov Decision Process). Ini hasil yang diharapkan mulai dari negara mengikuti kebijakan .sπ

Dalam ekspresi

Vπ(s)=Eπ{Gt|st=s}

Gt adalah total hadiah DISCOUNT dari langkah waktu , sebagai lawan dari yang merupakan pengembalian langsung. Di sini Anda mengambil ekspektasi dari SEMUA tindakan sesuai dengan kebijakan .tRtπ

Qπ(s,a) adalah fungsi nilai tindakan. Ini adalah pengembalian yang diharapkan mulai dari negara , mengikuti kebijakan , mengambil tindakan . Ini berfokus pada tindakan tertentu di negara tertentu.sπa

Qπ(s,a)=Eπ{Gt|st=s,at=a}

Hubungan antara dan (nilai berada di negara itu) adalahQπVπ

Vπ(s)=aAπ(a|s)Qπ(a,s)

Anda menjumlahkan setiap nilai tindakan dikalikan dengan probabilitas untuk mengambil tindakan itu (kebijakan ).π(a|s)

Jika Anda memikirkan contoh dunia kisi, Anda mengalikan probabilitas (atas / bawah / kanan / kiri) dengan nilai status satu langkah di depan (atas / bawah / kanan / kiri).


5
Ini adalah jawaban yang paling ringkas.
Brett

Saya memiliki sumber yang menyatakan bahwa . Bagaimana Anda menghubungkan persamaan ini dengan yang Anda berikan dalam jawaban Anda, ? Dalam persamaan Anda, Anda mendefinisikan dalam hal jumlah nilai tertimbang . Ini berbeda dari definisi yang saya miliki, yang mendefinisikan sebagai tertinggi . Vπ(s)=maxaAQπ(s,a)Vπ(s)=aAπ(as)Qπ(a,s)VQVQ
Nbro

@nbro Saya percaya ini tergantung pada kebijakan apa yang Anda ikuti. Dalam kebijakan rakus murni Anda benar. Tetapi jika itu adalah kebijakan yang lebih eksploratif, yang dibangun untuk secara stokastik memutuskan tindakan, maka hal di atas akan benar
deltaskelta

7

Anda benar, fungsi memberi Anda nilai kondisi, dan memberi Anda nilai tindakan dalam kondisi (mengikuti kebijakan ). Saya menemukan penjelasan paling jelas tentang Q-learning dan cara kerjanya dalam buku Tom Mitchell "Machine Learning" (1997), ch. 13, yang dapat diunduh. didefinisikan sebagai jumlah dari deret tak hingga tetapi tidak penting di sini. Yang penting adalah fungsi didefinisikan sebagaiVQπVQ

Q(s,a)=r(s,a)+γV(δ(s,a))
mana V * adalah nilai terbaik suatu negara jika Anda dapat mengikuti kebijakan optimal yang Anda tidak tahu Namun memiliki karakterisasi yang bagus dalam hal Komputasi dilakukan dengan mengganti dalam persamaan pertama untuk memberikan Q
V(s)=maxaQ(s,a)
QV
Q(s,a)=r(s,a)+γmaxaQ(δ(s,a),a)

Ini mungkin tampak rekursi aneh pada awalnya karena ini menyatakan nilai Q suatu tindakan dalam kondisi saat ini dalam hal nilai Q terbaik dari negara penerus , tetapi masuk akal ketika Anda melihat bagaimana proses pencadangan menggunakannya: Eksplorasi proses berhenti ketika mencapai keadaan tujuan dan mengumpulkan hadiah, yang menjadi nilai Q transisi akhir itu. Sekarang dalam episode pelatihan berikutnya, ketika proses eksplorasi mencapai keadaan pendahulunya, proses pencadangan menggunakan persamaan di atas untuk memperbarui nilai Q saat ini dari kondisi pendahulunya. Berikutnya waktu yangpendahulunya dikunjungi bahwa nilai Q negara diperbarui, dan seterusnya kembali ke jalur (buku Mitchell menjelaskan cara yang lebih efisien untuk melakukan ini dengan menyimpan semua perhitungan dan mengulanginya nanti). Asalkan setiap negara dikunjungi tanpa batas sering proses ini pada akhirnya menghitung Q optimal

Kadang-kadang Anda akan melihat laju pembelajaran diterapkan untuk mengontrol seberapa banyak Q sebenarnya diperbarui: Perhatikan sekarang bahwa update ke nilai Q tidak tergantung pada nilai Q saat ini. Buku Mitchell juga menjelaskan mengapa itu dan mengapa Anda perlu : ini untuk stokastik stokastik. Tanpa , setiap kali keadaan, pasangan tindakan dicoba akan ada hadiah yang berbeda sehingga fungsi Q ^ akan terpental di semua tempat dan tidak bertemu. ada sehingga sebagai pengetahuan baru hanya diterima sebagian.α

Q(s,a)=(1α)Q(s,a)+α(r(s,a)+γmaxaQ(s,a))
=Q(s,a)+α(r(s,a)+γmaxaQ(s,a)Q(s,a))
ααααdiatur tinggi sehingga arus (kebanyakan nilai acak) dari Q kurang berpengaruh. berkurang saat pelatihan berlangsung, sehingga pembaruan baru memiliki pengaruh yang semakin sedikit, dan sekarang pembelajaran Q menyatuα


0

Berikut adalah penjelasan yang lebih rinci tentang hubungan antara nilai keadaan dan nilai tindakan dalam jawaban Harun. Pertama mari kita lihat definisi fungsi nilai dan fungsi nilai tindakan di bawah kebijakan : mana adalah return at time . Hubungan antara kedua fungsi nilai ini dapat diturunkan sebagai π

vπ(s)=E[Gt|St=s]qπ(s,a)=E[Gt|St=s,At=a]
Gt=k=0γkRt+k+1t
vπ(s)=E[Gt|St=s]=gtp(gt|St=s)gt=gtap(gt,a|St=s)gt=ap(a|St=s)gtp(gt|St=s,At=a)gt=ap(a|St=s)E[Gt|St=s,At=a]=ap(a|St=s)qπ(s,a)
Persamaan di atas adalah penting. Ini menggambarkan hubungan antara dua fungsi nilai mendasar dalam pembelajaran penguatan. Ini berlaku untuk semua kebijakan. Selain itu, jika kita memiliki kebijakan deterministik , maka . Semoga ini bermanfaat bagi Anda. (untuk melihat lebih lanjut tentang persamaan optimalitas Bellman https: //stats.stackexchange.vπ(s)=qπ(s,π(s)))


0

Fungsi nilai adalah formulasi utilitas abstrak. Dan fungsi-Q digunakan untuk algoritma pembelajaran-Q.


Untuk konteks pertanyaan ini, dan berbeda. VQ
Siong Thye Goh
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.