Saya akan mengawali ini dengan mengatakan bahwa tidak selalu jelas apa yang dimaksud dengan "nonparametric" atau "semiparametric" dll. Dalam komentar, sepertinya whuber memiliki beberapa definisi formal dalam pikiran (mungkin sesuatu seperti memilih model dari beberapa keluarga mana adalah dimensi tak terbatas), tetapi saya akan menjadi sangat informal. Beberapa mungkin berpendapat bahwa metode nonparametrik adalah metode di mana jumlah parameter efektif yang Anda gunakan meningkat dengan data. Saya pikir ada video di videolectures.net di mana (saya pikir) Peter Orbanz memberikan empat atau lima cara berbeda tentang bagaimana kita dapat mendefinisikan "nonparametrik." { M θ : θ ∈ Θ } ΘM.θ{ Mθ: θ ∈ Θ }Θ
Karena saya pikir saya tahu hal-hal apa yang ada dalam pikiran Anda, untuk kesederhanaan saya akan berasumsi bahwa Anda berbicara tentang menggunakan proses Gaussian untuk regresi, dengan cara yang khas: kami memiliki data pelatihan dan kami tertarik untuk memodelkan mean bersyarat . Kami menulis
dan mungkin kami sangat berani untuk menganggap bahwa adalah iid dan didistribusikan secara normal, . akan menjadi satu dimensi, tetapi semuanya ke dimensi yang lebih tinggi.E ( Y | X = x ) : = f ( x ) Y i = f ( X i ) + ϵ i ϵ i ϵ i ∼ i ∼ N ( 0 , σ 2 ) X i( Ysaya, Xsaya) , I = 1 , . . . , nE( Y| X= x ) : = f( x )
Ysaya= f( Xsaya) + ϵsaya
ϵsayaϵsaya∼ N( 0 , σ2)Xsaya
Jika kita dapat mengambil nilai dalam sebuah kontinum maka dapat dianggap sebagai parameter dari dimensi tak terhingga (tak terhitung). Jadi, dalam arti bahwa kami memperkirakan parameter dimensi tak terbatas , masalah kami adalah nonparametrik. Memang benar bahwa pendekatan Bayesian memiliki beberapa parameter mengambang di sana-sini. Tapi sungguh, ini disebut nonparametric karena kami memperkirakan sesuatu dengan dimensi tak terbatas. Priors GP yang kami gunakan menetapkan massa ke setiap lingkungan dari setiap fungsi kontinu, sehingga mereka dapat memperkirakan fungsi kontinu dengan sewenang-wenang. f ( ⋅ )Xsayaf( ⋅ )
Hal-hal dalam fungsi kovarians memainkan peran yang mirip dengan parameter smoothing di estimator frequentist biasa - agar masalah yang tidak benar-benar putus asa kita harus mengasumsikan bahwa ada beberapa struktur yang kita harapkan untuk melihat pameran. Bayesians mencapai ini dengan menggunakan prior pada ruang fungsi kontinu dalam bentuk proses Gaussian. Dari perspektif Bayesian, kami menyandikan kepercayaan tentang dengan mengasumsikan diambil dari seorang dokter umum dengan fungsi kovarians ini-dan-itu. Sebelumnya secara efektif menghukum estimasi karena terlalu rumit.f f fffff
Edit untuk masalah komputasi
Sebagian besar (semua?) Barang ini ada di buku Proses Gaussian oleh Rasmussen dan Williams.
Masalah komputasi rumit untuk dokter. Jika kita melanjutkan secara niavely kita akan membutuhkan memori ukuran hanya untuk menahan matriks kovarians dan (ternyata operasi untuk membalikkannya. Ada beberapa hal yang dapat kita lakukan untuk membuat semuanya lebih layak. Satu opsi adalah untuk mencatat bahwa pria yang benar-benar kita butuhkan adalah , solusi untuk mana adalah matriks kovarians. Metode gradien konjugasi memecahkan ini tepat dalam perhitungan , tetapi jika kita memuaskan diri kita dengan solusi perkiraan kita dapat mengakhiri algoritma gradien konjugat setelah langkah dan melakukannya diO ( N 3 ) v ( K + σ 2 I ) v = Y K O ( N 3 ) k O ( k N 2 ) KO ( N2)O ( N3)v( K+ σ2saya) v = YKO ( N3)kO ( k N2)perhitungan. Kita juga tidak perlu menyimpan seluruh matriks sekaligus.K
Jadi kami telah pindah dari ke , tetapi ini masih berskala empat dalam , jadi kami mungkin tidak bahagia. Hal terbaik berikutnya adalah bekerja sebagai gantinya dengan subset dari data, katakanlah ukuran mana membalikkan dan menyimpan matriks tidak terlalu buruk. Tentu saja, kami tidak ingin membuang data yang tersisa. Subset dari pendekatan regressor mencatat bahwa kita dapat menurunkan rata-rata posterior GP kita sebagai regresi data pada fungsi basis data- ditentukan oleh fungsi kovarians kita; jadi kita membuang semuanya kecuali dari perhitungan ini dan kita menuju perhitungan .O ( N3)O ( k N2)Nmm × mYNmO ( m2N)
Ada beberapa opsi potensial lainnya. Kita bisa membangun pendekatan peringkat rendah ke , dan mengatur mana adalah dan peringkat ; itu ternyata pembalik dalam hal ini dapat dilakukan dengan bukan pembalik . Pilihan lain adalah memilih fungsi kovarians menjadi jarang dan menggunakan metode gradien konjugat - jika matriks kovarians sangat jarang maka ini dapat mempercepat perhitungan secara substansial.K = Q Q T Q n × q q K + σ 2 I Q T Q + σ 2 IKK=QQTQn×qqK+σ2IQTQ+σ2I