Daripada bukti empiris, dengan prinsip formal apa kita telah membuktikan bahwa komputasi kuantum akan lebih cepat daripada komputasi tradisional / klasik?
Daripada bukti empiris, dengan prinsip formal apa kita telah membuktikan bahwa komputasi kuantum akan lebih cepat daripada komputasi tradisional / klasik?
Jawaban:
Ini adalah pertanyaan yang agak sulit untuk dibongkar jika Anda tidak terbiasa dengan kompleksitas komputasi. Seperti sebagian besar bidang kompleksitas komputasi, hasil utama diyakini secara luas tetapi bersifat dugaan.
Kelas kompleksitas yang biasanya dikaitkan dengan komputasi klasik yang efisien adalah (untuk algoritma deterministik) dan B P P (untuk acak). Counterpart kuantum kelas-kelas ini adalah B Q P . Ketiga kelas adalah himpunan bagian dari P S P A C E (kelas yang sangat kuat). Namun, metode kami saat ini bukti tidak cukup kuat untuk definitif menunjukkan bahwa P tidak sama dengan P S P A C E . Jadi, kita tidak tahu bagaimana memisahkan P dari B Q P secara formal keduanya - karena , memisahkan dua kelas lebih sulit daripada tugas sudah tangguh memisahkan P dari P S P A C E . (Jika kita bisa membuktikan P ≠ B Q P , kita akan segera mendapatkan bukti bahwa P ≠ P S P A C E , jadi buktikan P ≠ B Q Pharus setidaknya sekeras masalah yang sudah sangat sulit untuk membuktikan ). Untuk alasan ini, dalam keadaan terkini, sulit untuk mendapatkan bukti matematis yang menunjukkan bahwa komputasi kuantum akan lebih cepat daripada komputasi klasik.
Dengan demikian, kami biasanya mengandalkan bukti tidak langsung untuk pemisahan kelas kompleksitas. Kami terkuat dan paling terkenal bukti algoritma Shor yang memungkinkan kita untuk faktor dalam . Sebaliknya, kami tidak tahu algoritma apa pun yang dapat menyebabkan B P P - dan kebanyakan orang percaya bahwa tidak ada; itu adalah bagian dari alasan mengapa kami menggunakan RSA untuk enkripsi, misalnya. Secara kasar, ini menyiratkan bahwa adalah mungkin bagi komputer kuantum untuk memperhitungkan secara efisien, tetapi menyarankan bahwa mungkin bagi komputer klasik tidak dapat memperhitungkan secara efisien. Untuk alasan ini, hasil Shor telah menyarankan kepada banyak orang bahwa B Q P benar-benar lebih kuat daripada B P P(dan karenanya juga lebih kuat dari ).
Saya tidak tahu ada argumen serius bahwa , kecuali dari orang-orang yang percaya pada kompleksitas kelas yang jauh lebih besar runtuh (yang merupakan minoritas komunitas). Argumen yang paling serius saya dengar terhadap kuantum komputasi datang dari sikap lebih dekat dengan fisika dan berpendapat bahwa B Q P tidak benar menangkap sifat kuantum komputasi. Argumen ini biasanya mengatakan bahwa negara-negara yang koheren makroskopik tidak mungkin untuk mempertahankan dan kontrol (misalnya, karena ada beberapa yang belum diketahui hambatan fisik fundamental), dan dengan demikian operator yang B Q P bergantung pada tidak dapat direalisasikan (bahkan pada prinsipnya) di dunia kita .
Jika kita mulai beralih ke model komputasi lain, maka model yang paling mudah untuk dikerjakan adalah kompleksitas kueri kuantum (versi klasik yang sesuai dengannya adalah kompleksitas pohon keputusan). Dalam model ini, untuk fungsi total kami dapat membuktikan bahwa (untuk beberapa masalah) algoritma kuantum dapat mencapai peningkatan kuadrat, meskipun kami juga dapat menunjukkan bahwa untuk fungsi total kami tidak dapat melakukan lebih baik daripada kecepatan power-6 dan percaya bahwa kuadrat adalah terbaik. Untuk fungsi parsial, ini adalah cerita yang sama sekali berbeda, dan kami dapat membuktikan bahwa percepatan eksponensial dapat dicapai. Sekali lagi, argumen ini bergantung pada keyakinan bahwa kita memiliki pemahaman yang layak tentang mekanika kuantum dan tidak ada beberapa penghalang teoretis yang tidak diketahui secara ajaib untuk menghentikan keadaan kuantum makroskopik agar tidak dikendalikan.
Untuk kompleksitas komputasi, tidak ada bukti bahwa komputer kuantum lebih baik daripada komputer klasik karena betapa sulitnya untuk mendapatkan batas bawah pada kekerasan masalah. Namun, ada pengaturan di mana komputer kuantum terbukti lebih baik daripada yang klasik. Yang paling terkenal dari contoh-contoh ini adalah dalam model blackbox di mana Anda memiliki akses melalui blackbox ke fungsi dan Anda ingin menemukan x unik di mana f mengevaluasi ke 1. Ukuran kompleksitas dalam hal ini adalah jumlah panggilan ke f
For further provable separations, you can look into communication complexity where we know how to prove lower bounds. There are tasks that two quantum computers communicating through a quantum channel can accomplish with less communication than two classical computers. For example computing the inner product of two strings, one of the hardest problems in communication complexity, has a speedup when using quantum computers.
Artem Kaznatcheev provides an outstanding summary of some key reasons why we expect quantum computers will be fundamentally faster than classical computers, for some tasks.
If you'd like some additional reading, you can read Scott Aaronson's lecture notes on quantum computing, which discuss the Shor algorithm and other algorithms that admit efficient quantum algorithms but do not seem to admit any efficient classical algorithm.
There is a debate about whether quantum computers can be built in practice: is BQP an accurate model of reality, or is there something that might prevent us from building a quantum computer, either for engineering reasons or because of fundamental physical barriers? You can read Scott Aaronson's lecture notes summarizing the arguments others have raised and also read his blog post with his view on that debate, but we probably won't have a definitive answer until someone actually builds a quantum computer that can do non-trivial tasks (such as factor large numbers).
The basic edifice of quantum computing is the Unitary transform, this is the primary tool for having speedup in many algortithms in the literature. Algorithms that use Unitaries use number/graph theoretic properties of problems at hand - period finding, speed ups in quantum walks, etc. Speedups in natural problems are still elusive - as pointed out. Whether factoring large numbers is the end in itself for quantum computing, is still an open question. Other open questions such QNC, its seperation from NC could still provide elusive clues about what quantum computers may do. But, if the goal of quantum computer is to factor large numbers - it may yet be feasible, in itself in some future, with scary implications (of course to personal privacy)! Whether the unitary binds the model of computation in some way or a new paradigm of physical reality is needed - is anybodies guess.
I wanted to respond to the comments of Niel de Beaudrap regarding the source for quantum speedups, but I can't comment. I don't know if I can post an answer.
In my view, all quantum speedups are due to entanglement. The only algorithm where we can do something faster than classical computers without using entangled states is Deutsch-Jozsa for computing the parity of two bits. If we discuss about asymptotic speed-ups, entanglement is necessary, and in fact a lot of it. If a quantum algorithm needs a small amount of entanglement, it can be simulated efficiently classically. I can point out the paper http://arxiv.org/abs/quant-ph/0201143, which discusses specifically the factoring algorithm and how much entanglement it requires.
this is nearly the same core question that is driving something like hundreds of millions, or possibly billions of dollars of QM computing research initiatives both public and private worldwide. the question is being attacked at the same time both experimentally and theoretically and advances on each side carry over to the other side.
the question does attempt to neatly separate the theoretical and pragmatic/ experimental aspects of this question, but an experimentalist or engineer would argue they are tightly coupled, inseparable, and that historical progress so far on the challenge is evidence/ proof of that.
the following point is certainly not going to win any popularity contests (possibly due somewhat to the well-known/ observed bias that negative results are rarely reported scientifically), but it is worth noting that there is a minority/contrarian opinion promoted by various credible, even elite researchers that QM computing may or will never materialize physically due to insurmountable implementation challenges, and there is even some theoretical justification/analysis for this (but maybe more from theoretical physics than TCS). (and note that some may have doubts but are not willing to go on record questioning the "dominant paradigm".) the main arguments are based on inherent QM noisiness, the Heisenberg uncertainty principle, and the fundamental experimental messiness of QM setups, etc.
there are now a fairly solid 2 decades of both theoretical and experimental research and the minority faction would argue that the results so far are not encouraging, lackluster, or are even now verging on a definitive negative answer.
one of the most outspoken proponents of the negative view (bordering on extreme/ scathing!) is Dyakonov but who nevertheless argues the case passionately based on all the angles:
State of the Art and Prospects for Quantum Computing / Dyakonov
Prospects for quantum computing: extremely doubtful / Dyakonov
one may accuse Dyakonov of near polemicism but it serves as a nearly symmetric counterpoint to some QM computing proponents who have a fervent belief in the opposing position (that there is nearly absolutely no question of its future/eventual/inevitable viability). another major theoretician arguing for inherent limitations in QM computing (based on noise) is Kalai. here is an extended debate between him and Harrow on the subject.
it is also natural to draw some at least loose analogy to another massive/complex physics project that so far has not achieved its ultimate goal after decades of attempts and optimistic early predictions, that of energy-generating fusion experiments.