Saya melihat ini pembacaan MIT pada kompleksitas komputasi dan sebentar 15:00 embarks Erik Demaine pada demonstrasi untuk menunjukkan apa yang dinyatakan dalam judul pertanyaan ini. Namun saya tidak dapat mengikuti alasannya, dalam praktiknya apa yang dia katakan adalah ini:
kita dapat menyatakan masalah keputusan sebagai string dan yang dalam praktiknya adalah tabel kebenaran fungsi.
Dia melanjutkan dengan mengatakan bahwa masalah keputusan adalah string bit tanpa batas sementara program adalah string bit terbatas dan hingga di sini tidak ada masalah. Apa yang saya tidak mengerti adalah kelanjutan dari bukti dari titik ini pada: Masalah keputusan ada di
karena Anda dapat menempatkan titik desimal sebelum string yang mewakili masalah, sehingga mendapatkan bagian desimal dari yang nyata
for example if you have 0111011010101010101... it could become x.0111011010101010101...
Suatu program "hanya" bilangan bulat di karena itu adalah rangkaian bit yang terbatas. Poin yang saya gagal pahami adalah bagaimana mungkin bahwa masalah keputusan sebanding dengan bilangan real, bukan bilangan bulat ... Maksud saya, jika kita menggunakan argumen "meletakkan titik di depan angka" tidak bisa alasan yang sama juga diterapkan pada jumlah kemungkinan algoritma yang dapat dihasilkan?