(Bagaimana) Bisakah kita menemukan / menganalisis masalah NP tanpa adanya model komputasi Turing?


15

Dari sudut pandang matematika / komputasi murni abstrak, (bagaimana) seseorang dapat menemukan atau alasan tentang masalah seperti 3-SAT, Subset Sum, Travelling Salesman dll.,? Apakah kita bahkan dapat menalarinya dengan cara yang bermakna hanya dengan sudut pandang fungsional ? Apakah itu mungkin?

Saya telah merenungkan pertanyaan ini murni dari sudut penyelidikan sendiri sebagai bagian dari pembelajaran model perhitungan kalkulus lambda. Saya mengerti bahwa ini "tidak intuitif" dan itulah mengapa Godel lebih menyukai model Turing. Namun, saya hanya ingin tahu apa saja keterbatasan teoretis yang diketahui dari gaya komputasi fungsional ini dan berapa banyak penghalang untuk menganalisis kelas masalah NP?


Ini bukan pertanyaan tingkat penelitian untuk seseorang yang melakukan teori bahasa pemrograman secara profesional, tapi saya masih berpikir bahwa qustion tidak pantas menerima semua downvotes. Bisakah para downvoters memberi tahu kami apa yang mengganggu mereka? Mungkin pertanyaannya bisa diperbaiki.
Andrej Bauer

2
@AndrejBauer: Saya downvoted karena (1) Saya pikir bahwa kesetaraan (polinomial) antara mesin Turing dan kalkulus lambda cukup terkenal, dan (2) posting memiliki banyak bulu yang menutupi itu sebagai pertanyaan inti. Namun, jawaban Anda menunjukkan bahwa ada lebih banyak hal yang terjadi daripada yang saya kira, jadi saya dapat membalikkan suara saya.
Huck Bennett

Saya setuju bahwa bulu itu milik Discovery Channel.
Andrej Bauer

2
@AndrejBauer, HuckBennet: Saya awalnya memutuskan untuk memposting ini di portal ilmu komputer tapi saya tidak dapat menemukan tag yang relevan dan karenanya diposting di sini. Saya menghapus bulu untuk membantu langsung dengan apa yang ingin saya ketahui. Saya telah meninggalkan "alasan" saya untuk mengajukan pertanyaan dan karenanya menandainya sebagai pertanyaan lunak. Saya benar-benar tertarik untuk mengetahui bagaimana seseorang dapat menganalisis masalah NP murni dari perspektif fungsional dan jika memang ada nilai dalam melakukan itu - dengan harapan bahwa saya memahami sesuatu yang lebih mendalam tentang kalkulus lambda
PhD

Saya pikir inti dari pertanyaan Anda adalah apakah kompleksitas dapat dikembangkan dengan menggunakan kalkulus lambda. Jawabannya adalah ya, dan ada pertanyaan lama yang menanyakan hal itu di situs iirc.
Kaveh

Jawaban:


16

Anda mungkin ingin melihat semantik biaya untuk bahasa fungsional . Ini adalah berbagai ukuran kompleksitas komputasi untuk bahasa fungsional yang tidak melewati segala jenis mesin Turing, mesin RAM, dll. Tempat yang baik untuk mulai mencari adalah posting Lambda the Ultimate ini , yang memiliki beberapa referensi lebih lanjut yang baik.

Bagian 7.4 dari Yayasan Praktis Bob Harper untuk Bahasa Pemrograman menjelaskan semantik biaya.

Makalah Pada kegunaan relatif bola api oleh Accattoli dan Coen menunjukkan bahwa -kalkulus memiliki paling banyak blowup linier sehubungan dengan model mesin RAM.λ

Singkatnya, di planet lain ini segalanya akan sama dengan NP, tetapi akan ada lebih sedikit buffer overflow, dan tidak akan ada banyak sampah yang berserakan.


Saya kira -kalkulus yang tidak diketik orang masih akan menciptakan skema (murni). Baiklah. λ
Andrej Bauer

Itu tautan yang bagus di pos LtU. Tapi ada tautan ke contoh nyata membuktikan kelas "NP" ini dengan masalah seperti 3Sat? Curios melihat "bukti" dalam kalkulus lambda
PhD

λ

@DamianoMazza - Saya setuju dengan Andrej dan percaya komentar Anda harus menjadi jawaban
PhD

@Andrej: Selesai! Saya menghapus komentar saya sebelumnya.
Damiano Mazza

14

At the request of Andrej and PhD, I am turning my comment into an answer, with apologies for self-advertising.

Saya baru-baru menulis sebuah makalah di mana saya melihat bagaimana membuktikan teorema Cook-Levin (NP-Kelengkapan SAT) menggunakan bahasa fungsional (varian dari λ-kalkulus) bukan mesin Turing. Ringkasan:

  • gagasan utamanya adalah pendekatan affine, yaitu, mendekati program arbitrer oleh affine (yang mungkin paling banyak menggunakan inputnya); intuisi adalah itu
    Boolean circuitsTuring machines=affine λ-termsλ-terms
    so affine λ-terms approximate arbitrary computations arbitrary well just like Boolean circuits;
  • the upshot is that, in the λ-calculus world, the proof is much "higher-level", it uses order theory, Scott-continuity, etc. instead of hacking Boolean circuits; in particular, the slogan "computation is local" (which is given by many as the message underlying the Cook-Levin theorem) becomes "computation is continuous", as expected;
  • however, the "natural" NP-complete problem is not CIRCUIT SAT but HO CIRCUIT SAT, a kind of "solvability" of linear λ-terms or, more precisely, linear logic proof nets (which are like higher-order Boolean circuits);
  • of course, one may then reduce HO CIRCUIT SAT to CIRCUIT SAT, thus proving the usual Cook-Levin theorem, and the gory, low-level details are all moved to building such a reduction.

So the only thing that would change "on this side of the planet" is, perhaps, that we would have considered a λ-calculus-related problem, instead of Boolean-circuit-related problem, to be the "primordial" NP-complete problem.

A side note: the above-mentioned proof could be reformulated in a variant of Accattoli's λ-calculus with linear explicit substitutions mentioned in Andrej's answer, which is perhaps more standard than the λ-calculus I use in my paper.


Later edit: my answer was just a bit more than a cut-and-paste from my comment and I realize that something more should be said concerning the heart of the question which, as I understand it, is: would it be possible to develop the theory of NP-completeness without Turing machines?

I agree with Kaveh's comment: the answer is yes, but perhaps only restrospectively. That is, when it comes to complexity (counting time and space), Turing machines are unbeatable in simplicity, the cost model is self-evident for time and almost self-evident for space. In the λ-calculus, things are far less evident: time cost models as those mentioned by Andrej and given in Harper's book are from the mid-90s, space cost models are still almost non-existing (I am aware of essentially one work published in 2008).

So, of course we can do everything using the purely functional perspective, but it is hard to imagine an alternative universe in which Hartmanis and Stearns define complexity classes using λ-terms and, 30 to 50 years later, people start adapting their work to Turing machines.

Then, as Kaveh points out, there is the "social" aspect: people were convinced that NP-completeness is important because Cook proved that a problem considered to be central in a widely studied field (theorem proving) is NP-complete (or, in more modern terminology, using Karp reductions, coNP-complete). Although the above shows that this may be done in the λ-calculus, maybe it would not be the most immediate thing to do (I have my reserves on this point but let's not make this post too long).

Last but not least, it is worth observing that, even in my work mentioned above, when I show that HO CIRCUIT SAT may be reduced to CIRCUIT SAT, I do not explicitly show a λ-term computing the reduction and prove that it always normalizes in a polynomial number of leftmost reduction steps; I just show that there is an algorithm which, intuitively, may be implemented in polynomial time, just like any complexity theorist would not explicitly build a Turing machine and prove it polytime (which, let me say it, would be even crazier than writing down a λ-term, let alone check for mistakes).

This phenomenon is pervasive in logic and computability theory, complexity theory just inherits it: formal systems and models of computation are often used only to know that one can formalize intuitions; after that, intuition alone is almost always enough (as long as used carefully). So reasoning about the difficulty of solving problems like SAT, TAUT, SUBSET SUM, GI etc., and thus developing the theory of NP-completeness, may largely be done independently of the underlying computational model, as long as a reasonable cost model is found. The λ-calculus, Turing machines or Brainfuck programs, it doesn't really matter if you know that your intuitions are sound. Turing machines gave an immediate, workable answer, and people didn't (and still do not) feel the need to go further.


2
Just a clarification many miss: Steve proved NP-completeness for TAUT, the proof for SAT is implicit there in there. The notion of Karp reduction did not exist at the time. It is also important to note that TAUT was the reason why Steve got interested in the topic and is central to automatic theorem proving, would people be as interested in solvability of linear lambda terms? The alternative development is possible, but would it happen without the foreknowledge of NP-completeness? I find that unlikely considering that the alternative development is rather recent. :)
Kaveh

1
Saya ingat pernah membaca di suatu tempat bahwa bagian dari motivasi Levin untuk mengembangkan NP-completeness adalah ketidakmampuan untuk menyelesaikan Graph Isomorphism dan Minimum Circuit Size Problem (MCSP), dan harapan untuk menunjukkan bahwa mereka (apa yang sekarang kita sebut) NP-hard. Setidaknya GI akan tetap ada di dunia lambdas ...
Joshua Grochow

1
@ Kaveh, terima kasih atas komentar Anda, saya menambahkan beberapa paragraf untuk melengkapi jawabannya.
Damiano Mazza

1
@ Astaga, begitu juga TAUT dan SAT.
Kaveh
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.