Untuk membuatnya lebih intuitif mari kita lihat apa yang terjadi lebih abstrak!
Kami memiliki dua transformasi, satu untuk input dan satu untuk masalah. Saya akan menunjukkan keduanya dengan , itu akan menjadi jelas dari konteks ketika itu adalah yang pertama dan ketika itu adalah yang kedua.pad
Dua transformasi ini memiliki properti berikut:
I. untuk semua masalah , untuk semua input x ∈ Σ ∗ :A⊆Σ∗x∈Σ∗
iff x ∈ A ,pad(x)∈pad(A)x∈A
II jika ada di E X P ( N E X P ), maka p a d ( A ) ada di P ( N P ).AEXPNEXPpad(A)PNP
AKU AKU AKU. transformasi untuk input dalam kelas kompleksitas ,EXP
Jelas bahwa transformasi untuk bantalan memiliki sifat-sifat ini.
Sekarang, alasan bahwa kita tidak tahu bagaimana melakukan hal yang sama di arah sebaliknya adalah bahwa kita tidak memiliki transformasi seperti padding di arah sebaliknya (ketika kita bertukar dengan P dan N E X P dengan N P ). Jadi pertanyaannya adalah mengapa?EXPPNEXPNP
Saya tidak memiliki argumen formal mengapa tidak ada transformasi seperti itu pada saat ini, tetapi secara intuitif apa yang dikatakan András Salamon benar. Mudah untuk menambah ukuran input, tetapi tidak jelas bagaimana mereka dapat dikompresi?
Cara lain untuk memahaminya adalah dengan memikirkannya dengan cara berikut. Asumsikan bahwa , dan kami ingin menyelesaikan masalah N E X P = N T i m e ( 2 n O ( 1 ) ) . Kami diberi input x panjang n , kami menganggapnya sebagai input dengan panjang N = 2 n O ( 1 ) :P=NPNEXP=NTime(2nO(1))xnN=2nO(1)
NEXP(n)=NTime(2nO(1))=NTime(N)⊆NP(N)⊆P(N)=Time(NO(1))=Time(2nO(1))=EXP(n)