Keterjeratan sering dianggap sebagai unsur utama yang membuat algoritma kuantum dengan baik ... kuantum, dan ini dapat ditelusuri kembali ke status Bell yang menghancurkan gagasan fisika kuantum sebagai model probabilistik keadaan tersembunyi. Dalam teori informasi kuantum (dari pemahaman saya yang agak lemah), keterjeratan juga dapat digunakan sebagai sumber daya konkret yang membatasi kemampuan untuk melakukan jenis pengkodean tertentu.
Tetapi dari percakapan lain (saya baru-baru ini duduk di komite Ph.D seorang ahli fisika yang bekerja dalam metode kuantum) saya mengumpulkan bahwa keterjeratan sulit untuk diukur, terutama untuk keadaan kuantum campuran. Secara khusus, tampaknya sulit untuk mengatakan bahwa keadaan kuantum tertentu memiliki X unit keterjeratan di dalamnya (tesis Ph.D siswa adalah tentang mencoba untuk mengukur jumlah keterjeratan "ditambahkan" oleh operasi gerbang terkenal). Bahkan, tesis Ph.D baru-baru ini menunjukkan bahwa gagasan yang disebut "perselisihan kuantum" mungkin juga relevan (dan diperlukan) untuk mengukur "kuantum" dari suatu algoritma atau keadaan.
Jika kita ingin memperlakukan keterjeratan sebagai sumber daya seperti keacakan, wajar untuk bertanya bagaimana mengukur berapa banyak yang "diperlukan" untuk suatu algoritma. Saya tidak berbicara tentang dequantisasi total , hanya cara mengukur kuantitas.
Jadi apakah saat ini ada cara yang diterima untuk mengukur "kuantum" dari suatu negara atau operator, atau suatu algoritma secara umum?