Statistik dan Big Data

T&J untuk orang-orang yang tertarik dalam statistik, pembelajaran mesin, analisis data, penambangan data, dan visualisasi data


1
Apakah regresi dengan regularisasi L1 sama dengan Lasso, dan dengan regularisasi L2 sama dengan regresi ridge? Dan bagaimana cara menulis "Lasso"?
Saya seorang insinyur pembelajaran perangkat lunak mesin pembelajaran, terutama melalui kursus pembelajaran mesin Andrew Ng . Saat mempelajari regresi linier dengan regularisasi , saya menemukan istilah yang membingungkan: Regresi dengan regularisasi L1 atau regularisasi L2 LASO Regresi punggungan Jadi pertanyaan saya: Apakah regresi dengan regularisasi L1 persis sama dengan LASSO? …


3
Bagaimana Random Forests tidak peka terhadap outlier?
Saya telah membaca di beberapa sumber, termasuk yang satu ini , bahwa Random Forests tidak sensitif terhadap pencilan (dalam cara Regresi Logistik dan metode ML lainnya, misalnya). Namun, dua intuisi mengatakan sebaliknya: Setiap kali pohon keputusan dibangun, semua poin harus diklasifikasikan. Ini berarti bahwa outlier akan diklasifikasikan, dan karenanya akan …


3
Perbedaan intuitif antara model Markov tersembunyi dan bidang acak bersyarat
Saya mengerti bahwa HMM (Hidden Markov Models) adalah model generatif, dan CRF adalah model diskriminatif. Saya juga mengerti bagaimana CRF (Conditional Random Fields) dirancang dan digunakan. Apa yang saya tidak mengerti adalah bagaimana mereka berbeda dari HMM? Saya membaca bahwa dalam kasus HMM, kita hanya dapat memodelkan keadaan kita berikutnya …

2
Memahami bentuk dan perhitungan pita kepercayaan dalam regresi linier
Saya mencoba memahami asal-usul bentuk pita kepercayaan melengkung yang terkait dengan regresi linier OLS dan bagaimana hubungannya dengan interval kepercayaan parameter regresi (kemiringan dan intersep), misalnya (menggunakan R): require(visreg) fit <- lm(Ozone ~ Solar.R,data=airquality) visreg(fit) Tampak bahwa pita terkait dengan batas garis yang dihitung dengan intersep 2,5%, dan kemiringan 97,5%, …



5
Perolehan informasi, informasi timbal balik, dan tindakan terkait
Andrew More mendefinisikan perolehan informasi sebagai: IG(Y|X)=H(Y)−H(Y|X)IG(Y|X)=H(Y)−H(Y|X)IG(Y|X) = H(Y) - H(Y|X) di mana adalah entropi bersyarat . Namun, Wikipedia menyebut informasi timbal balik kuantitas di atas .H(Y|X)H(Y|X)H(Y|X) Wikipedia di sisi lain mendefinisikan perolehan informasi sebagai divergensi Kullback-Leibler (alias divergensi informasi atau entropi relatif) antara dua variabel acak: DKL(P||Q)=H(P,Q)−H(P)DKL(P||Q)=H(P,Q)−H(P)D_{KL}(P||Q) = H(P,Q) …




4
Mengapa tanh hampir selalu lebih baik daripada sigmoid sebagai fungsi aktivasi?
Dalam kursus Neural Networks dan Deep Learning Andrew Ng di Coursera ia mengatakan bahwa menggunakan tanhtanhtanh hampir selalu lebih disukai daripada menggunakan sigmoidsigmoidsigmoid . Alasan yang dia berikan adalah bahwa output menggunakan tanhtanhtanh pusat sekitar 0 daripada sigmoidsigmoidsigmoid 's 0,5, dan ini "membuat belajar untuk lapisan berikutnya sedikit lebih mudah". …

1
Apa itu cek prediksi posterior dan apa yang membuatnya berguna?
Saya mengerti apa distribusi prediktif posterior , dan saya telah membaca tentang cek prediktif posterior , meskipun belum jelas bagi saya apa yang dilakukannya. Apa sebenarnya pemeriksaan prediktif posterior? Mengapa beberapa penulis mengatakan bahwa menjalankan pemeriksaan prediktif posterior adalah "menggunakan data dua kali" dan tidak boleh disalahgunakan? (atau bahkan itu …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.