Pertanyaan yang diberi tag «k-nearest-neighbour»

k-Nearest-Neighbor Classifier Kelas-kelas ini berbasis memori, dan tidak memerlukan model yang sesuai. Diberi poin permintaan x0, kami menemukan poin pelatihan k x (r), r = 1, ..., k paling dekat jaraknya ke x0, dan kemudian mengklasifikasikan menggunakan suara terbanyak di antara tetangga k.

1
Kernelised k Neighbor Terdekat
Saya baru mengenal kernel dan telah mengalami kesulitan saat mencoba kernelkan kNN. Persiapan Saya menggunakan kernel polinomial: K( X , y ) = ( 1 + ⟨ x , y ⟩ )dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d KNN Euclidean khas Anda menggunakan metrik jarak berikut: d( x , y …

3
Penjelasan rumus untuk median titik terdekat dengan asal sampel N dari bola satuan
Dalam Elemen Pembelajaran Statistik , masalah diperkenalkan untuk menyoroti masalah dengan k-nn dalam ruang dimensi tinggi. Ada titik data yang terdistribusi secara seragam dalam satuan bola -dimensi.pNNNppp Jarak median dari titik asal ke titik data terdekat diberikan oleh ekspresi: d(p,N)=(1−(12)1N)1pd(p,N)=(1−(12)1N)1pd(p,N) = \left(1-\left(\frac{1}{2}\right)^\frac{1}{N}\right)^\frac{1}{p} Ketika , rumus memecah menjadi setengah jari-jari bola, …


1
Pros dari jarak Jeffries Matusita
Menurut beberapa makalah yang saya baca, jarak Jeffries dan Matusita biasa digunakan. Tetapi saya tidak dapat menemukan banyak informasi tentang itu kecuali rumus di bawah ini JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Ini mirip dengan jarak Euclidean kecuali untuk akar kuadrat E (x, y) =∑(xi−yi)2−−−−−−−−−−√2∑(xi−yi)22\sqrt[2]{\sum(x_i-y_i)^2} Jarak JM diklaim lebih dapat diandalkan daripada …

4
Kutukan dimensi: pengklasifikasi kNN
Saya membaca buku Kevin Murphy: Machine Learning-A probabilistic Perspective. Dalam bab pertama penulis menjelaskan kutukan dimensi dan ada bagian yang saya tidak mengerti. Sebagai contoh, penulis menyatakan: Pertimbangkan input didistribusikan secara seragam di sepanjang unit D-dimensi cube. Misalkan kita memperkirakan kepadatan label kelas dengan menumbuhkan hiper kubus di sekitar x …

1
VC-Dimensi k-tetangga terdekat
Berapa Dimensi VC dari algoritma tetangga k-terdekat jika k sama dengan jumlah poin pelatihan yang digunakan? Konteks: Pertanyaan ini ditanyakan dalam kursus yang saya ambil dan jawaban yang diberikan adalah 0. Namun, saya tidak mengerti mengapa demikian. Intuisi saya adalah bahwa Dimensi-VC harus 1, karena harus dimungkinkan untuk memilih dua …

1
Teorema Tanpa Makan Siang dan konsistensi K-NN
Dalam pembelajaran komputasi, teorema NFL menyatakan bahwa tidak ada pelajar universal. Untuk setiap algoritma pembelajaran, ada distribusi yang menyebabkan pelajar mengeluarkan hipotesis dengan kesalahan besar, dengan probabilitas tinggi (meskipun ada hipotesis kesalahan rendah). Kesimpulannya adalah bahwa untuk belajar, kelas hipotesis atau distribusi harus dibatasi. Dalam buku mereka "Sebuah teori probabilistik …

2
K-terdekat-tetangga dengan variabel kontinu dan biner
Saya memiliki kumpulan data dengan kolom a b c(3 atribut). abersifat numerik dan kontinu sementara bdan cmasing-masing kategori dengan dua tingkat. Saya menggunakan metode Tetangga K-terdekat untuk mengklasifikasikan adan bpada c. Jadi, untuk dapat mengukur jarak saya mengubah set data saya dengan menghapus bdan menambahkan b.level1dan b.level2. Jika observasi imemiliki …

4
Mengapa KNN tidak “berbasis model”?
ESL bab 2.4 tampaknya mengklasifikasikan regresi linier sebagai "berbasis model", karena mengasumsikan , sedangkan tidak ada perkiraan serupa yang dinyatakan untuk k-tetangga terdekat. Tapi bukankah kedua metode membuat asumsi tentang ?f ( x )f( x ) ≈ x ⋅ βf(x)≈x⋅βf(x) \approx x\cdot\betaf( x )f(x)f(x) Kemudian di 2.4 bahkan dikatakan: Kuadrat …

4
Dengan rantai 10M MCMC, bagaimana saya bisa menentukan mode posteriornya di R?
Pertanyaan: Dengan rantai MCMC 10 dimensi, katakanlah saya siap memberikan Anda sebuah matriks undian: 100.000 iterasi (baris) dengan 10 parameter (kolom), bagaimana cara terbaik saya mengidentifikasi mode posterior? Saya terutama memperhatikan beberapa mode. Latar Belakang:Saya menganggap diri saya seorang ahli statistik yang mengerti secara komputasi, tetapi ketika seorang kolega bertanya …

1
Bantu memahami kNN untuk data multi-dimensi
Saya mengerti dasar dari algoritma kNN untuk data spasial. Dan saya tahu saya dapat memperluas algoritma untuk digunakan pada variabel data kontinu (atau data nominal dengan Jarak Hamming). Namun, strategi apa yang digunakan ketika berhadapan dengan data dimensi yang lebih tinggi? Misalnya, saya memiliki tabel data (x [1], x [2], …


3
KNN: 1-tetangga terdekat
Pertanyaan saya adalah tentang pengelompokan tetangga terdekat 1 dan tentang pernyataan yang dibuat dalam buku The Elements of Statistics Learning, karya Hastie, Tibshirani, dan Friedman. Pernyataannya adalah (hlm. 465, bagian 13.3): "Karena hanya menggunakan titik pelatihan yang paling dekat dengan titik kueri, bias dari estimasi tetangga 1-terdekat sering rendah, tetapi …


3
Hasil berbeda setelah pencocokan skor kecenderungan pada R
Saya telah melakukan Pencocokan Skor Prospensitas (dalam R menggunakan paket-R "Matchit"). Saya menggunakan metode pencocokan "tetangga terdekat". Setelah mencocokkan saya membandingkan pengobatan dan kelompok kontrol dalam hal variabel hasil mereka. Untuk perbandingan ini saya menggunakan uji-t. Saya menemukan bahwa setelah setiap prosedur pencocokan, hasil uji-t berubah. Untuk menguji asumsi saya …
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.