Cara saya memahami teorema NFL adalah bahwa tidak ada algoritma pembelajaran yang lebih baik daripada yang lain dalam setiap tugas. Namun ini bukan teorema dalam pengertian matematika yang jelas bahwa ia memiliki bukti, melainkan pengamatan empiris.
Mirip dengan apa yang Anda katakan untuk kNN, ada juga Universal Approximation Theorem untuk Neural Networks, yang menyatakan bahwa dengan diberi jaringan neural 2-layer, kita dapat memperkirakan fungsi apa pun dengan kesalahan sewenang-wenang.
Sekarang, bagaimana ini tidak merusak NFL? Ini pada dasarnya menyatakan bahwa Anda dapat memecahkan masalah yang mungkin terjadi dengan NN 2-layer sederhana. Alasannya adalah bahwa sementara, secara teoritis NNs dapat memperkirakan apa saja, dalam praktiknya sangat sulit untuk mengajar mereka memperkirakan apa pun. Itu sebabnya untuk beberapa tugas, algoritma lain lebih disukai.
Cara yang lebih praktis untuk menafsirkan NFL adalah sebagai berikut:
Tidak ada cara untuk menentukan a-priori algoritma mana yang akan melakukan yang terbaik untuk tugas yang diberikan.