Pertanyaan yang diberi tag «dimensionality-reduction»

Mengacu pada teknik untuk mengurangi sejumlah besar variabel atau dimensi yang direntang oleh data ke sejumlah kecil dimensi sambil tetap mempertahankan sebanyak mungkin informasi tentang data tersebut. Metode yang menonjol termasuk PCA, MDS, Isomap, dll. Dua subclass utama teknik: ekstraksi fitur dan pemilihan fitur.


2
Mengapa PCA memaksimalkan varian total dari proyeksi?
Christopher Bishop menulis dalam bukunya Pattern Recognition dan Machine Learning sebagai bukti, bahwa setiap komponen utama berturut-turut memaksimalkan varian proyeksi ke satu dimensi, setelah data diproyeksikan ke ruang ortogonal ke komponen yang sebelumnya dipilih. Lainnya menunjukkan bukti serupa. Namun, ini hanya membuktikan bahwa setiap komponen berturut-turut adalah proyeksi terbaik untuk …

1
Nilai variabel tersembunyi regresi linear R "bernilai"
Ini hanya contoh yang saya temui beberapa kali, jadi saya tidak punya data sampel. Menjalankan model regresi linier di R: a.lm = lm(Y ~ x1 + x2) x1adalah variabel kontinu. x2bersifat kategorikal dan memiliki tiga nilai, mis. "Rendah", "Sedang" dan "Tinggi". Namun output yang diberikan oleh R akan menjadi seperti: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

3
Clustering sebagai reduksi dimensi
Saya membaca buku "Machine learning with Spark" oleh Nick Pentreath, dan di halaman 224-225 penulis membahas tentang penggunaan K-means sebagai bentuk pengurangan dimensionalitas. Saya belum pernah melihat pengurangan dimensi seperti ini, apakah ada nama atau / dan berguna untuk bentuk data tertentu ? Saya mengutip buku yang menggambarkan algoritma: Asumsikan …

3
PCA terlalu lambat ketika keduanya n, p besar: Alternatif?
Pengaturan Masalah Saya memiliki titik data (gambar) dimensi tinggi (4096), yang saya coba visualisasikan dalam 2D. Untuk tujuan ini, saya menggunakan t-sne dengan cara yang mirip dengan kode contoh berikut oleh Karpathy . The scikit-belajar dokumentasi merekomendasikan menggunakan PCA untuk pertama menurunkan dimensi dari data: Sangat disarankan untuk menggunakan metode …

1
Apa perbedaan antara banyak pembelajaran dan pengurangan dimensi non-linear?
Apa perbedaan antara banyak pembelajaran dan pengurangan dimensi non-linear ? Saya telah melihat kedua istilah ini digunakan secara bergantian. Sebagai contoh: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : Manifold Learning (sering juga disebut sebagai pengurangan dimensi non-linear) mengejar tujuan untuk menanamkan data yang awalnya terletak di ruang dimensi tinggi di ruang dimensi yang lebih rendah, …


2
Pengurangan dimensi yang bisa diukur
Mempertimbangkan jumlah fitur yang konstan, Barnes-Hut t-SNE memiliki kompleksitas , proyeksi acak dan PCA memiliki kompleksitas menjadikannya "terjangkau" untuk set data yang sangat besar.O ( n logn )HAI(ncatatan⁡n)O(n\log n)O ( n )HAI(n)O(n) Di sisi lain, metode yang mengandalkan penskalaan multidimensi memiliki kompleksitas .O ( n2)HAI(n2)O(n^2) Apakah ada teknik pengurangan dimensi …

1
Tidak dapat membuat jaringan autoencoder ini berfungsi dengan baik (dengan lapisan convolutional dan maxpool)
Jaringan Autoencoder tampaknya jauh lebih rumit daripada jaringan MLP classifier normal. Setelah beberapa upaya menggunakan Lasagne semua yang saya dapatkan dalam output yang direkonstruksi adalah sesuatu yang menyerupai yang terbaik, rata-rata buram dari semua gambar dari database MNIST tanpa perbedaan pada apa digit input sebenarnya. Struktur jaringan yang saya pilih …

2
Bagaimana membuktikan bahwa asumsi berlipat ganda itu benar?
Dalam pembelajaran mesin, sering diasumsikan bahwa set data terletak pada manifold dimensi rendah yang halus (asumsi berlipat ganda), tetapi adakah cara untuk membuktikan bahwa dengan asumsi kondisi tertentu terpenuhi, maka set data memang (kurang-lebih) dihasilkan dari manifold halus dimensi rendah? Misalnya, diberi urutan data mana (katakanlah urutan gambar wajah dengan …

3
Apakah ICA harus menjalankan PCA terlebih dahulu?
Saya meninjau makalah berbasis aplikasi yang mengatakan bahwa menerapkan PCA sebelum menerapkan ICA (menggunakan paket fastICA). Pertanyaan saya adalah, apakah ICA (fastICA) mengharuskan PCA dijalankan terlebih dahulu? Makalah ini menyebutkan itu ... juga berpendapat bahwa pra-penerapan PCA meningkatkan kinerja ICA dengan (1) membuang nilai eigen trailing kecil sebelum memutihkan dan …

4
Teknik non-ortogonal analog dengan PCA
Misalkan saya memiliki dataset titik 2D dan saya ingin mendeteksi arah semua maxima lokal dari varians dalam data, misalnya: PCA tidak membantu dalam situasi ini karena merupakan dekomposisi ortogonal dan oleh karena itu tidak dapat mendeteksi kedua garis yang saya indikasikan dengan warna biru, tetapi outputnya mungkin terlihat seperti yang …

2
Variabel miring dalam PCA atau analisis faktor
Saya ingin melakukan analisis komponen utama (analisis faktor) pada SPSS berdasarkan 22 variabel. Namun, beberapa variabel saya sangat miring (skewness dihitung dari SPSS berkisar 2-80!). Jadi inilah pertanyaanku: Haruskah saya menjaga variabel miring seperti itu atau saya bisa mengubah variabel pada analisis komponen utama? Jika ya, bagaimana saya menafsirkan skor …


1
Bagaimana menafsirkan hasil reduksi dimensi / penskalaan multidimensi?
Saya melakukan dekomposisi SVD dan penskalaan multidimensi dari matriks data 6 dimensi, untuk mendapatkan pemahaman yang lebih baik tentang struktur data. Sayangnya, semua nilai singular memiliki urutan yang sama, menyiratkan bahwa dimensi data memang 6.. Namun, saya ingin dapat menafsirkan nilai-nilai vektor singular. Misalnya, yang pertama tampaknya kurang lebih sama …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.