Berapakah probabilitas bahwa


24

Diberikan titik data, masing-masing dengan fitur , diberi label sebagai , yang lain dilabeli sebagai . Setiap fitur mengambil nilai dari secara acak (distribusi seragam). Berapa probabilitas bahwa ada hyperplane yang dapat membagi dua kelas?ndn/20n/21[0,1]

Mari kita perhatikan kasus yang paling mudah, yaitu .d=1


3
Ini pertanyaan yang sangat menarik. Saya pikir ini mungkin dapat dirumuskan kembali dalam hal apakah cembung lambung dari dua kelas titik berpotongan atau tidak - meskipun saya tidak tahu apakah itu membuat masalah lebih mudah atau tidak.
Don Walpola

Ini jelas akan menjadi fungsi dari besaran relatif &ndd=1n=21limn  Pr(linearly separable)0

Anda juga harus mengklarifikasi apakah hyperplane perlu 'rata' (atau jika bisa, misalnya, parabola dalam situasi tipe- ). Tampak bagi saya bahwa pertanyaan tersebut sangat menyiratkan kerataan, tetapi ini mungkin harus dinyatakan secara eksplisit. 2d
gung - Reinstate Monica

4
@ung saya pikir kata "hyperplane" jelas menyiratkan "kerataan", itu sebabnya saya mengedit judul untuk mengatakan "terpisah secara linear". Jelas setiap dataset tanpa duplikat pada prinsipnya dapat dipisahkan secara nonlinier.
Amoeba berkata Reinstate Monica

1
@gung IMHO "flat hyperplane" adalah pleonasm. Jika Anda berpendapat bahwa "hyperplane" dapat melengkung, maka "flat" juga dapat melengkung (dalam metrik yang sesuai).
Amoeba berkata Reinstate Monica

Jawaban:


4

Dengan asumsi tidak ada duplikat dalam data.

Jika , probabilitasnya adalah .nd+1Pr=1

Untuk kombinasi lain dari , lihat plot berikut:(n,d)

masukkan deskripsi gambar di sini

Saya membuat plot ini mensimulasikan data input dan output seperti yang ditentukan dalam OP. Separabilitas linier didefinisikan sebagai kegagalan konvergensi dalam model regresi logistik, karena efek Hauck-Donner .

Kita dapat melihat probabilitas menurun untuk meningkatkan . Faktanya, kita dapat memasukkan model yang berhubungan dengan ke , dan inilah hasilnya:nn,dp

P(n,d)=11+e(5.829444.58261×n+1.37271×d0.0235785×n×d)

masukkan deskripsi gambar di sini


Kode untuk plot (dalam Julia):

using GLM

ds = 10; #number of dimensions to be investigated
ns = 100 #number of examples to be investigated
niter = 1000; #number of iterations per d per n
P = niter * ones(Int64, ds, ns); #starting the number of successes

for d in 1:ds
    for n in (d+1):ns
        p = 0 #0 hits
        for i in 1:niter
            println("Dimensions: $d; Samples: $n; Iteration: $i;")
            try #we will try to catch errors in the logistic glm, these are due to perfect separability
                X = hcat(rand((n,d)), ones(n)); #sampling from uniform plus intercept
                Y = sample(0:1, n)  #sampling a binary outcome
                glm(X, Y, Binomial(), LogitLink())
            catch
                p = p+1 #if we catch an error, increase the count
            end
        end
        P[d,n] = p
    end
end

using Plots

gui(heatmap(P./niter, xlabel = "Number of Samples", ylabel = "Number of Dimensions", title = "Probability of linear separability"))

Kode untuk model yang berkaitan dengan (dalam Julia):(n,d)p

probs = P./niter
N = transpose(repmat(1:ns, 1, ds))
D = repmat(1:ds, 1, ns)

fit = glm(hcat(log.(N[:]), D[:], N[:].*D[:], ones(ds*ns)), probs[:], Binomial(), LogitLink())
coef(fit)
#4-element Array{Float64,1}:
# -4.58261
#  1.37271
# -0.0235785
#  5.82944

gui(heatmap(reshape(predict(fit), ds, ns), xlabel = "Number of Samples", ylabel = "Number of Dimensions", title = "Fit of probability of linear separability"))

+1. Mengapa log (n) dan bukan n? Batas kuning-hitam terlihat seperti garis lurus bagiku di gambar atas, tetapi tampak bengkok di gambar kedua. Apakah mungkin karena log (n)? Tidak yakin.
Amuba mengatakan Reinstate Monica

p=1p=0
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.