Algoritma simpleks sering diperlakukan baik dalam aritmatika nyata, atau dalam dunia diskrit dengan perhitungan yang tepat. Namun, tampaknya paling sering diterapkan dengan aritmatika floating-point.
Ini mengarah pada pertanyaan apakah algoritma simpleks harus dianggap sebagai algoritma numerik, khususnya bagaimana kesalahan pembulatan mempengaruhi perhitungan. Saya tidak tertarik pada implementasi praktis, tetapi lebih pada fondasi teoritis.
Apakah Anda mengetahui adanya penelitian tentang masalah ini?