Saya pikir Anda harus melihat metode Pembelajaran Online . The perceptron dan perceptron kernel sangat mudah untuk kode dan bekerja sangat baik dalam praktek, dan ada seluruh host metode online lainnya. Perhatikan bahwa setiap metode pembelajaran online dapat dikonversi menjadi algoritma pembelajaran batch, dalam hal ini mereka sangat mirip dengan metode keturunan gradien stokastik.
Jika Anda menggunakan Matlab ada kotak alat yang sangat bagus yang disebut DOGMA oleh Francesco Orabona, yang berisi berbagai algoritma pembelajaran online, dan Anda dapat mengevaluasi beberapa metode berbeda menggunakan itu. Saya telah menggunakan ini dalam beberapa penelitian saya dan menemukan itu sangat berguna (perhatikan bahwa sejauh yang saya ingat itu mengharapkan data sebagai [fitur x contoh] sehingga Anda mungkin harus memindahkannya).
Seperti yang disebutkan orang lain, Anda mungkin ingin mencoba pengurangan dimensionalitas. PCA mungkin bukan pilihan yang baik di sini, karena Anda harus menghitung matriks kovarians yang akan sangat mahal. Anda dapat mencoba melihat Proyeksi Acak . Teorinya sulit, tetapi prinsipnya sangat sederhana. Ini didasarkan pada Lemma Johnson-Lindenstrauss jika Anda tertarik, tetapi ide dasarnya adalah jika Anda memproyeksikan secara acak ke ruang dimensi yang lebih rendah, maka jarak antar titik dipertahankan hingga beberapa ϵ . Jika Anda menggunakan kernel RBF, maka ℓ 2 jarak semua yang Anda tertarik!ℓ2ϵℓ2