Pertanyaan yang diberi tag «kernel-trick»

Metode kernel digunakan dalam pembelajaran mesin untuk menggeneralisasi teknik linear ke situasi nonlinear, terutama SVM, PCA, dan dokter. Jangan bingung dengan [pemulusan kernel], untuk estimasi kepadatan kernel (KDE) dan regresi kernel.



1
Kernelised k Neighbor Terdekat
Saya baru mengenal kernel dan telah mengalami kesulitan saat mencoba kernelkan kNN. Persiapan Saya menggunakan kernel polinomial: K( X , y ) = ( 1 + ⟨ x , y ⟩ )dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d KNN Euclidean khas Anda menggunakan metrik jarak berikut: d( x , y …


1
Metode Nystroem untuk Perkiraan Kernel
Saya telah membaca tentang metode Nyström untuk aproximation kernel peringkat rendah. Metode ini diimplementasikan dalam scikit-learn [1] sebagai metode untuk memproyeksikan sampel data ke pendekatan peringkat rendah dari pemetaan fitur kernel. Sepengetahuan saya, diberikan set pelatihan dan fungsi kernel, itu menghasilkan pendekatan peringkat rendah dari matriks kernel dengan menerapkan SVD …



1
Efisiensi Regresi Kernel Ridge
Regresi Ridge dapat dinyatakan sebagai mana adalah label yang diprediksi , yang mengidentifikasi matriks, obyek kita mencoba untuk menemukan label untuk, dan yang matriks benda sedemikian rupa sehingga: y akudd×dxXn×dnxi=(xi,1,...,Xi,d)∈Rdy^=(X′X+aId)−1Xxy^=(X′X+aId)−1Xx\hat{y} = (\mathbf{X'X} + a\mathbf{I}_d)^{-1}\mathbf{X}xy^y^\hat{y}IdId\mathbf{I}_dd×dd×dd \times dxx\mathbf{x}XX\mathbf{X}n × dn×dn \times dnnnxsaya= ( xsaya , 1, . . . , xsaya , …

1
Bagaimana cara kernelisasi perceptron sederhana?
Masalah klasifikasi dengan batas nonlinier tidak dapat diselesaikan dengan perceptron sederhana . Kode R berikut adalah untuk tujuan ilustrasi dan didasarkan pada contoh ini dengan Python): nonlin <- function(x, deriv = F) { if (deriv) x*(1-x) else 1/(1+exp(-x)) } X <- matrix(c(-3,1, -2,1, -1,1, 0,1, 1,1, 2,1, 3,1), ncol=2, byrow=T) …

1
Metode apa yang ada untuk tuning graph kernel SVM hyperparameters?
Saya memiliki beberapa data yang ada pada grafik . milik salah satu dari dua kelas , dan saya tertarik untuk melatih SVM untuk membedakan antara dua kelas. Salah satu kernel yang sesuai untuk ini adalah difusi kernel , mana adalah Laplacian dari dan adalah parameter tuning.G=(V,E)G=(V,E)G=(V,E)yi∈{−1,1}yi∈{−1,1}y_i\in\{-1,1\}K=exp(−βL),K=exp⁡(−βL),K=\exp(-\beta L),LLLGGGββ\beta Tuning SVM membutuhkan …

1
Di luar kernel Fisher
Untuk sementara, sepertinya Fisher Kernels mungkin menjadi populer, karena mereka tampaknya menjadi cara untuk membangun kernel dari model probabilistik. Namun, saya jarang melihat mereka digunakan dalam praktik, dan saya memiliki otoritas yang baik sehingga mereka cenderung tidak bekerja dengan baik. Mereka mengandalkan perhitungan Informasi Fisher - mengutip Wikipedia: informasi Fisher …

2
Metode kernel mana yang memberikan output probabilitas terbaik?
Baru-baru ini saya telah menggunakan penskalaan Platt untuk keluaran-SVM untuk memperkirakan probabilitas peristiwa-standar. Alternatif yang lebih langsung sepertinya adalah "Kernel logistic Regression" (KLR) dan "Import Vector Machine" terkait. Adakah yang bisa mengatakan metode kernel mana yang memberikan probabilitas-keluaran saat ini canggih? Apakah ada R-implementasi KLR? Terima kasih banyak atas bantuan …

1
Bagaimana SVMs = Pencocokan Templat?
Saya membaca tentang SVM dan mengetahui bahwa mereka menyelesaikan masalah optimisasi dan ide margin maksimum sangat masuk akal. Sekarang, menggunakan kernel mereka bahkan dapat menemukan batas pemisahan non-linear yang hebat. Sejauh ini, saya benar-benar tidak tahu bagaimana SVM (mesin kernel khusus) dan mesin kernel terkait dengan jaringan saraf? Pertimbangkan komentar …


1
Nilai variabel tersembunyi regresi linear R "bernilai"
Ini hanya contoh yang saya temui beberapa kali, jadi saya tidak punya data sampel. Menjalankan model regresi linier di R: a.lm = lm(Y ~ x1 + x2) x1adalah variabel kontinu. x2bersifat kategorikal dan memiliki tiga nilai, mis. "Rendah", "Sedang" dan "Tinggi". Namun output yang diberikan oleh R akan menjadi seperti: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.