Pertanyaan yang diberi tag «dimensionality-reduction»

Mengacu pada teknik untuk mengurangi sejumlah besar variabel atau dimensi yang direntang oleh data ke sejumlah kecil dimensi sambil tetap mempertahankan sebanyak mungkin informasi tentang data tersebut. Metode yang menonjol termasuk PCA, MDS, Isomap, dll. Dua subclass utama teknik: ekstraksi fitur dan pemilihan fitur.

1
Metode Nystroem untuk Perkiraan Kernel
Saya telah membaca tentang metode Nyström untuk aproximation kernel peringkat rendah. Metode ini diimplementasikan dalam scikit-learn [1] sebagai metode untuk memproyeksikan sampel data ke pendekatan peringkat rendah dari pemetaan fitur kernel. Sepengetahuan saya, diberikan set pelatihan dan fungsi kernel, itu menghasilkan pendekatan peringkat rendah dari matriks kernel dengan menerapkan SVD …



3
Arti “kesalahan rekonstruksi” dalam PCA dan LDA
Saya menerapkan PCA, LDA, dan Naif Bayes, masing-masing untuk kompresi dan klasifikasi (menerapkan LDA untuk kompresi dan klasifikasi). Saya memiliki kode yang ditulis dan semuanya berfungsi. Apa yang perlu saya ketahui, untuk laporan ini, adalah apa definisi umum kesalahan rekonstruksi . Saya dapat menemukan banyak matematika, dan menggunakannya dalam literatur …


8
Memvisualisasikan data dimensi tinggi
Saya memiliki sampel dua kelas yang merupakan vektor dalam ruang dimensi tinggi dan saya ingin memplotnya dalam 2D ​​atau 3D. Saya tahu tentang teknik reduksi dimensi, tetapi saya membutuhkan alat yang sangat sederhana dan mudah digunakan (dalam matlab, python, atau prebuilt .exe). Juga saya bertanya-tanya apakah representasi dalam 2D ​​akan …

3
Apa asumsi analisis faktor?
Saya ingin memeriksa apakah saya benar-benar memahami analisis faktor ( klasik, linier ), terutama asumsi yang dibuat sebelum (dan mungkin setelah) FA. Beberapa data awalnya harus dikorelasikan dan ada kemungkinan hubungan linier di antara mereka. Setelah melakukan analisis faktor, data terdistribusi secara normal (distribusi bivariat untuk setiap pasangan) dan tidak …

2
Apa keuntungan dari mengurangi dimensi prediksi untuk keperluan regresi?
Apa saja aplikasi atau keuntungan dari regresi reduksi dimensi (PRB) atau teknik reduksi dimensionalitas terawasi (SDR) dibandingkan teknik regresi tradisional (tanpa pengurangan dimensionalitas)? Kelas teknik ini menemukan representasi dimensi rendah dari set fitur untuk masalah regresi. Contoh-contoh dari teknik-teknik tersebut termasuk Regresi Pembalikan Irisan, Petunjuk Hessian Kepala, Estimasi Varians Rata …

7
Teknik reduksi data untuk mengidentifikasi jenis negara
Saya mengajar kursus geografi ekonomi pengantar. Untuk membantu siswa saya mengembangkan pemahaman yang lebih baik tentang jenis negara yang ditemukan dalam ekonomi dunia kontemporer dan apresiasi teknik pengurangan data, saya ingin membangun sebuah tugas yang menciptakan tipologi berbagai jenis negara (misalnya, berpenghasilan tinggi nilai tambah, harapan umur panjang mfg, pengekspor …

2
Bagaimana cara menentukan parameter untuk t-SNE untuk mengurangi dimensi?
Saya sangat baru menggunakan kata embeddings. Saya ingin memvisualisasikan bagaimana dokumen mencari setelah belajar. Saya membaca bahwa t-SNE adalah pendekatan untuk melakukannya. Saya memiliki 100 ribu dokumen dengan 250 dimensi sebagai ukuran penyematan. Ada beberapa paket yang tersedia juga. Namun, untuk t-SNE, saya tidak tahu berapa banyak iterasi atau nilai …

3
Komponen utama pertama tidak memisahkan kelas, tetapi PC lain melakukannya; bagaimana mungkin?
Saya menjalankan PCA pada 17 variabel kuantitatif untuk mendapatkan serangkaian variabel yang lebih kecil, yaitu komponen utama, yang akan digunakan dalam pembelajaran mesin yang diawasi untuk mengklasifikasikan instance ke dalam dua kelas. Setelah PCA, PC1 menyumbang 31% dari varians dalam data, PC2 menyumbang 17%, PC3 menyumbang 10%, PC4 menyumbang 8%, …

1
Pertanyaan tentang PCA: kapan PC independen? mengapa PCA sensitif terhadap penskalaan? mengapa PC dibatasi menjadi orthogonal?
Saya mencoba memahami beberapa deskripsi PCA (dua yang pertama dari Wikipedia), penekanan ditambahkan: Komponen utama dijamin independen hanya jika kumpulan data terdistribusi secara normal . Apakah independensi komponen utama sangat penting? Bagaimana saya bisa mengerti deskripsi ini? PCA sensitif terhadap skala relatif dari variabel asli. Apa artinya 'penskalaan' di sana? …

4
Apakah "proyeksi acak" secara ketat bukan proyeksi?
Implementasi saat ini dari algoritma Proyeksi Acak mengurangi dimensi sampel data dengan memetakannya dari hingga menggunakan matriks proyeksi matriks yang entri-entrinya dari distribusi yang sesuai (misalnya dari ):RdRd\mathbb R^dRkRk\mathbb R^kd×kd×kd\times kRRRN(0,1)N(0,1)\mathcal N(0,1) x′=1k√xRx′=1kxRx^\prime = \frac{1}{\sqrt k}xR Secara mudah, ada bukti teoritis yang menunjukkan bahwa pemetaan ini kira-kira mempertahankan jarak berpasangan. …

3
Kapan Anda akan menggunakan PCA daripada LDA dalam klasifikasi?
Saya membaca artikel ini tentang perbedaan antara Analisis Komponen Utama dan Analisis Diskriminan Berganda (Analisis Diskriminan Linier), dan saya mencoba memahami mengapa Anda akan menggunakan PCA daripada MDA / LDA. Penjelasannya dirangkum sebagai berikut: secara kasar berbicara dalam PCA kami mencoba untuk menemukan sumbu dengan varian maksimum di mana data …

1
Apakah PCA skala besar bahkan mungkin?
Cara klasik analisis komponen utama '(PCA) adalah untuk melakukannya pada input data matriks yang kolom memiliki rata-rata nol (maka PCA dapat "memaksimalkan varians"). Ini dapat dicapai dengan mudah dengan memusatkan kolom. Namun, ketika matriks input jarang, matriks tengah sekarang akan lebih jarang, dan - jika matriks sangat besar - dengan …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.