Ukuran aksiomatis dari sparsity adalah apa yang disebut dengan count, yang menghitung jumlah entri tidak nol dalam vektor. Dengan ukuran ini, vektor dan memiliki sparsity yang sama. Dan sama sekali tidak norma sama . Dan (sangat jarang) memiliki norma sama dengan , vektor yang sangat datar, tidak jarang. Dan sama sekali tidak dihitung sama .ℓ0(1,0,0,0)(0,21,0,0)ℓ2(1,0,0,0)ℓ2(14,14,14,14)ℓ0
Fungsi ini, baik norma maupun quasinorm, tidak sederhana dan non-cembung. Bergantung pada domain, namanya legiun, misalnya: fungsi kardinalitas, ukuran angka, atau hanya kekikiran atau sparsitas. Ini sering dianggap sebagai tidak praktis untuk tujuan praktis karena penggunaannya menyebabkan masalah sulit NP .
Sementara jarak atau norma standar (seperti jarak Euclidian ) lebih dapat ditelusuri, salah satu masalah mereka adalah homogenitasnya:untuk . Ini dapat dilihat sebagai non-intuitif, karena produk skalar tidak mengubah proporsi entri nol dalam data ( adalah -homogeneneous).ℓ21
∥a.x∥=|a|∥x∥
a≠0ℓ00
Jadi dalam praktiknya, beberapa ressort ke kombinasi ( ), seperti laso, ridge, atau regularisasi jaring elastis. The norma (Manhattan atau jarak Taksi), atau avatar merapikan nya, ini sangat berguna. Karena karya-karya E. Candès dan yang lainnya, orang dapat menjelaskan Mengapa Adalah Perkiraan yang Baik untuk : Penjelasan Geometris . Yang lain telah membuat dalam , dengan harga masalah tidak konveks.ℓp(x)p≥1ℓ1ℓ1ℓ0p<1ℓp(x)
Jalan lain yang menarik adalah untuk kembali aksioma gagasan sparsity. Salah satu karya terkenal baru-baru ini adalah Membandingkan Ukuran dari Sparsity , oleh N. Hurley et al., Yang berhubungan dengan sparsitas distribusi. Dari enam aksioma (dengan nama-nama lucu seperti Robin Hood, Scaling, Rising Tide, Kloning, Bill Gates, dan Bayi), beberapa indeks sparsity muncul: satu berdasarkan pada indeks Gini, satu lagi pada rasio norma, terutama satu-over- dua rasio-normal, ditunjukkan di bawah:ℓ1ℓ2
Meskipun tidak cembung, beberapa bukti konvergensi dan beberapa referensi historis dirinci dalam Euclid di Taxicab: Dekonvolusi Buta Jarang dengan Smoothed Regularisasiℓ1ℓ2 .