Algoritma pendekatan hanya untuk masalah optimasi, bukan untuk masalah keputusan.
Mengapa kita tidak mendefinisikan rasio aproksimasi sebagai pecahan dari kesalahan yang dilakukan algoritma, ketika mencoba menyelesaikan beberapa masalah keputusan? Karena "rasio aproksimasi" adalah istilah dengan makna standar yang didefinisikan dengan baik, yang berarti sesuatu yang lain, dan itu akan membingungkan untuk menggunakan istilah yang sama untuk dua hal yang berbeda.
OK, bisakah kita mendefinisikan beberapa rasio lain (sebut saja itu sesuatu yang lain - misalnya, "rasio-det") yang menghitung jumlah kesalahan yang dibuat algoritma, untuk beberapa masalah keputusan? Tidak jelas bagaimana cara melakukannya. Apa yang akan menjadi penyebut untuk fraksi itu? Atau, dengan kata lain: akan ada jumlah contoh masalah yang tak terbatas, dan bagi sebagian dari mereka algoritma akan memberikan jawaban yang benar dan yang lain akan memberikan jawaban yang salah, sehingga Anda berakhir dengan rasio yang "Sesuatu dibagi dengan tak terbatas", dan yang akhirnya menjadi tidak berarti atau tidak didefinisikan.
Sebagai alternatif, kita dapat mendefinisikan sebagai fraksi kesalahan kesalahan algoritma, pada contoh masalah ukuran n . Kemudian, kita dapat menghitung batas r n sebagai n → ∞ , jika ada batas seperti itu. Ini akanrnnrnn → ∞harus didefinisikan dengan baik (jika ada batasnya). Namun, dalam kebanyakan kasus, ini mungkin tidak terlalu berguna. Secara khusus, secara implisit mengasumsikan distribusi yang seragam pada contoh masalah. Namun, di dunia nyata, distribusi aktual pada contoh masalah mungkin tidak seragam - seringkali sangat jauh dari seragam. Akibatnya, jumlah yang Anda dapatkan dengan cara ini sering kali tidak berguna seperti yang Anda harapkan: sering memberi kesan menyesatkan tentang seberapa baik algoritma tersebut.
Untuk mempelajari lebih lanjut tentang bagaimana orang-orang berurusan dengan kepraktisan (NP-hardness), lihat Menangani masalah kepraktisan: masalah lengkap NP .