Inilah salah satu alasan mengapa formulasi ganda menarik dari sudut pandang optimasi numerik. Anda dapat menemukan detailnya di koran berikut :
Hsieh, C.-J., Chang, K.-W., Lin, C.-J., Keerthi, SS, dan Sundararajan, S., "Metode keturunan ganda koordinat untuk skala besar linear SVM", Prosiding Konferensi Internasional ke 25 tentang Pembelajaran Mesin, Helsinki, 2008.
Formulasi rangkap melibatkan satu kendala kesetaraan afin tunggal dan kendala terikat.
1. Kendala kesetaraan afin dapat "dihilangkan" dari formulasi ganda.
Ini dapat dilakukan dengan hanya melihat data Anda di R ^ (d + 1) melalui penyisipan R ^ d di R ^ (d + 1) yang memutuskan untuk menambahkan koordinat "1" tunggal ke setiap titik data, yaitu R ^ d ----> R ^ (d +1): (a1, ..., iklan) | ---> (a1, ..., iklan, 1).
Melakukan ini untuk semua poin dalam set pelatihan menampilkan kembali masalah keterpisahan linear dalam R ^ (d + 1) dan menghilangkan istilah konstan w0 dari classifier Anda, yang pada gilirannya menghilangkan kendala kesetaraan afin dari dual.
2. Pada poin 1, dual dapat dengan mudah dilemparkan sebagai masalah optimisasi kuadratik cembung yang batasannya hanya kendala terikat.
3. Masalah ganda sekarang dapat diselesaikan secara efisien, yaitu melalui algoritma penurunan koordinat ganda yang menghasilkan solusi epsilon-optimal di O (log (1 / epsilon)).
Ini dilakukan dengan mencatat bahwa memperbaiki semua alpha kecuali satu menghasilkan solusi bentuk-tertutup. Anda kemudian dapat menggilir semua huruf satu per satu (mis. Memilih satu secara acak, memperbaiki semua huruf lain, menghitung solusi bentuk tertutup). Seseorang dapat menunjukkan bahwa Anda akan mendapatkan solusi yang hampir optimal "agak cepat" (lihat Teorema 1 dalam makalah yang disebutkan sebelumnya).
Ada banyak alasan lain mengapa masalah ganda menarik dari sudut pandang optimisasi, beberapa di antaranya mengeksploitasi fakta bahwa ia hanya memiliki satu kendala kesetaraan afin (kendala yang tersisa semuanya merupakan kendala terikat) sementara yang lain mengeksploitasi pengamatan bahwa pada solusi dari masalah ganda "seringkali sebagian besar alpha" adalah nol (bukan nol nol yang sesuai dengan vektor dukungan).
Anda bisa mendapatkan gambaran umum yang baik dari pertimbangan optimasi numerik untuk SVM dari presentasi Stephen Wright di Computational Learning Workshop (2009).
PS: Saya baru di sini. Permintaan maaf karena tidak pandai menggunakan notasi matematika di situs web ini.