|S∗|=∣∣{j:β∗j≠0}∣∣β∗|S∗|2p|S∗|(p|S∗|) model, yang jauh lebih sedikit.
Teori laso bergantung pada parameter regularisasi yang cukup besar sehingga membuat model yang dipilih cukup jarang. Bisa jadi 10 fitur Anda terlalu banyak atau terlalu sedikit, karena tidak sepele untuk mengubah batas bawah pada menjadi batas atas pada.λ | S ∗ |λλ|S∗|
Biarkan menjadi taksiran data-driven kami untuk , dan beri . Lalu, mungkin Anda mencoba memastikan bahwa sehingga Anda telah memulihkan setidaknya fitur yang relevan? Atau mungkin Anda mencoba membuktikan bahwa sehingga Anda tahu bahwa fitur yang Anda temukan semuanya berharga? Dalam kasus ini, prosedur Anda akan lebih dibenarkan jika Anda memiliki informasi sebelumnya tentang ukuran relatif . ß * S ={jβ^β∗S* ⊆ S S ⊆S*S*S^={j:β^j≠0}S∗⊆S^S^⊆S∗S∗
Juga, perhatikan, Anda dapat membiarkan beberapa koefisien tidak dilabeli ketika melakukan laso, misalnya glmnet,.