Jumlah varian semua komponen PLS biasanya kurang dari 100%.
Ada banyak varian partial least square (PLS). Apa yang Anda gunakan di sini, adalah regresi PLS dari variabel respons univariat ke beberapa variabel ; Algoritma ini secara tradisional dikenal sebagai PLS1 (sebagai lawan dari varian lain, lihat Rosipal & Kramer, 2006, Tinjauan Umum dan Kemajuan-kemajuan Terkini di dalam Kotak Kuantitatif Sebagian untuk gambaran singkat yang ringkas). PLS1 kemudian terbukti setara dengan formulasi yang lebih elegan yang disebut SIMPLS (lihat referensi ke paywalled Jong 1988 di Rosipal & Kramer). Tampilan yang disediakan oleh SIMPLS membantu untuk memahami apa yang sedang terjadi di PLS1.yX
Ternyata yang dilakukan PLS1 adalah menemukan urutan proyeksi linear , sedemikian rupa sehingga:ti=Xwi
- Kesesuaian antara dan maksimal;yti
- Semua vektor berat memiliki panjang satuan, ;∥wi∥=1
- Dua komponen PLS (alias vektor skor) dan tidak berkorelasi.titj
Perhatikan bahwa vektor bobot tidak harus (dan tidak) ortogonal.
Ini berarti bahwa jika terdiri dari variabel dan Anda menemukan komponen PLS, maka Anda menemukan basis non-ortogonal dengan proyeksi tidak berkorelasi pada vektor basis. Satu matematis dapat membuktikan bahwa dalam situasi seperti jumlah varians dari semua proyeksi ini akan kurang maka varians total . Mereka akan sama jika vektor bobotnya ortogonal (seperti misalnya dalam PCA), tetapi dalam PLS ini tidak demikian.Xk=1010X
Saya tidak tahu ada buku teks atau kertas yang secara eksplisit membahas masalah ini, tetapi saya sebelumnya telah menjelaskannya dalam konteks analisis diskriminan linier (LDA) yang juga menghasilkan sejumlah proyeksi tidak berkorelasi pada vektor bobot unit non-ortogonal, lihat di sini : Proporsi varian yang dijelaskan dalam PCA dan LDA .