Mengapa pengganda Lagrange jarang untuk SVM?


8

Saya pernah membaca bahwa untuk Maximal Margin Classifier SVM, setelah menyelesaikan masalah ganda, sebagian besar pengganda lagrange berubah menjadi nol. Hanya yang sesuai dengan vektor dukungan yang berubah menjadi positif.

Mengapa demikian?


1
Artikel Wikipedia tentang Mesin Vector Support menjawab ini dengan menunjukkan bahwa pengganda Lagrange bukan nol sesuai dengan poin pada margin, yang biasanya hanya ada sedikit.
whuber

Jawaban:


4

Pengganda Lagrange dalam konteks SVM biasanya dilambangkan αsaya. Fakta bahwa seseorang sering mengamati ituαsaya=0adalah konsekuensi langsung dari kondisi saling melengkapi ganda Karush-Kuhn-Tucker (KKT) :

masukkan deskripsi gambar di sini

Sejak ysaya(wTxsaya+b)=1 iff xsaya ada di batas keputusan SVM, yaitu asumsi vektor dukungan xsaya ada di set pelatihan, dan dalam kebanyakan kasus beberapa vektor pelatihan adalah vektor pendukung, seperti yang ditunjukkan dalam komentar, itu artinya sebagian besar αsaya adalah 0 atau C.


Catatan Kuliah CS229 dari Andrew Ng tentang SVM memperkenalkan kondisi saling melengkapi ganda Karush-Kuhn-Tucker (KKT):

masukkan deskripsi gambar di sini

masukkan deskripsi gambar di sini

masukkan deskripsi gambar di sini

masukkan deskripsi gambar di sini

Perhatikan bahwa kita dapat membuat beberapa kasus di mana semua vektor dalam set pelatihan adalah vektor dukungan: mis . Lihat Pertanyaan Mesin Vektor Dukungan ini .

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.