Dua bit untuk jawaban ini;
Pertama, kelas bahasa yang dikenali oleh Turing Machines tidak peka terhadap konteks , tetapi bisa dihitung ulang secara berulang (peka konteks adalah kelas bahasa yang Anda dapatkan dari automata terikat linier ).
Bagian kedua, dengan asumsi kita menyesuaikan pertanyaan, adalah bahwa ya, PDA dua-stack sama kuatnya dengan TM. Agak lebih sederhana untuk mengasumsikan bahwa kita menggunakan model TM yang memiliki pita yang tak terbatas dalam satu arah saja (meskipun kedua arah tidak jauh lebih sulit, dan setara).
Untuk melihat kesetaraan, anggap tumpukan pertama sebagai isi kaset di sebelah kiri posisi saat ini, dan yang kedua sebagai isi di sebelah kanan. Anda memulai seperti ini:
- Tekan spidol "bawah tumpukan" yang normal pada kedua tumpukan.
- Dorong input ke tumpukan kiri (gunakan non-determinisme untuk "menebak" akhir input).
- Pindahkan semuanya ke tumpukan yang tepat (untuk menjaga semuanya tetap dalam urutan yang tepat).
Sekarang Anda dapat mengabaikan input dan melakukan segalanya pada isi tumpukan (yang mensimulasikan rekaman itu). Anda muncul untuk membaca dan mendorong untuk menulis (sehingga Anda dapat mengubah "rekaman" dengan mendorong sesuatu yang berbeda dengan apa yang Anda baca). Kemudian kita dapat mensimulasikan TM dengan muncul dari tumpukan kanan dan mendorong ke kiri untuk bergerak ke kanan, dan sebaliknya untuk bergerak ke kiri. Jika kami menekan bagian bawah tumpukan kiri kami berperilaku sesuai (berhenti dan tolak, atau tetap di tempat Anda, tergantung pada model), jika kami menekan bagian bawah tumpukan kanan, kami hanya mendorong simbol kosong ke kiri.
Untuk bukti formal lengkap, lihat jawaban untuk pertanyaan lain .
Hubungan dengan cara lain harus lebih jelas, yaitu kita dapat mensimulasikan PDA dua-tumpukan dengan TM.