Pertanyaan yang diberi tag «optimization»

Gunakan tag ini untuk penggunaan optimasi dalam statistik.

1
Mengapa algoritma keturunan “Saddle-Free Newton” tidak digunakan dalam praktik?
Baru-baru ini saya telah membaca makalah oleh Yann Dauphin et al. Mengidentifikasi dan menyerang masalah saddle point dalam optimasi non-cembung dimensi tinggi , di mana mereka memperkenalkan algoritma keturunan yang menarik yang disebut Saddle-Free Newton , yang tampaknya dirancang khusus untuk optimalisasi jaringan saraf dan tidak boleh menderita macet di …




3
Apakah optimasi PCA cembung?
Fungsi objektif dari Principal Component Analysis (PCA) adalah meminimalkan kesalahan rekonstruksi dalam norma L2 (lihat bagian 2.12 di sini . Pandangan lain sedang mencoba untuk memaksimalkan varians pada proyeksi. Kami juga memiliki posting yang sangat baik di sini: Apa fungsi tujuan PCA ? ). Pertanyaan saya adalah apakah optimasi PCA …

2
Bagaimana mengatasi penyimpangan absolut terkecil dengan metode simpleks?
Berikut adalah masalah deviasi absolut terkecil yang terkait:. Saya tahu ini bisa diatur ulang sebagai masalah LP dengan cara berikut:argminwL(w)=∑ni=1|yi−wTx|arg⁡minwL(w)=∑i=1n|yi−wTx| \underset{\textbf{w}}{\arg\min} L(w)=\sum_{i=1}^{n}|y_{i}-\textbf{w}^T\textbf{x}| min∑ni=1uimin∑i=1nui\min \sum_{i=1}^{n}u_{i} ui≥xTw−yii=1,…,nui≥xTw−yii=1,…,nu_i \geq \textbf{x}^T\textbf{w}- y_{i} \; i = 1,\ldots,n ui≥−(xTw−yi)i=1,…,nui≥−(xTw−yi)i=1,…,nu_i \geq -\left(\textbf{x}^T\textbf{w}-y_{i}\right) \; i = 1,\ldots,n Tapi saya tidak punya ide untuk menyelesaikannya langkah demi langkah, karena …



1
RMSProp dan Adam vs SGD
Saya melakukan percobaan pada set validasi EMNIST menggunakan jaringan dengan RMSProp, Adam dan SGD. Saya mencapai akurasi 87% dengan SGD (tingkat belajar 0,1) dan dropout (0,1 dropout prob) serta regularisasi L2 (penalti 1e-05). Saat menguji konfigurasi persis yang sama dengan RMSProp dan Adam serta tingkat pembelajaran awal 0,001, saya mencapai …


2
Gunakan koefisien korelasi Pearson sebagai tujuan optimisasi dalam pembelajaran mesin
Dalam pembelajaran mesin (untuk masalah regresi), saya sering melihat mean-squared-error (MSE) atau mean-absolute-error (MAE) digunakan sebagai fungsi kesalahan untuk meminimalkan (ditambah istilah regularisasi). Saya bertanya-tanya apakah ada situasi di mana menggunakan koefisien korelasi akan lebih sesuai? jika situasi seperti itu ada, maka: Dalam situasi apa koefisien korelasi metrik lebih baik …


1

2
Mengoptimalkan Mesin Vektor Dukungan dengan Pemrograman Quadratic
Saya mencoba memahami proses pelatihan mesin vektor dukungan linear . Saya menyadari bahwa properti SMV memungkinkan mereka dioptimalkan lebih cepat daripada dengan menggunakan pemecah pemrograman kuadratik, tetapi untuk tujuan pembelajaran saya ingin melihat bagaimana ini bekerja. Data pelatihan set.seed(2015) df <- data.frame(X1=c(rnorm(5), rnorm(5)+5), X2=c(rnorm(5), rnorm(5)+3), Y=c(rep(1,5), rep(-1, 5))) df X1 …
12 r  svm  optimization 

2
Parameter kemungkinan maksimum menyimpang dari distribusi posterior
Saya memiliki fungsi kemungkinan untuk kemungkinan data saya memberikan beberapa parameter model , yang ingin saya perkirakan. Dengan asumsi prior prior pada parameter, kemungkinan proporsional dengan probabilitas posterior. Saya menggunakan metode MCMC untuk sampel probabilitas ini.L (d| θ)L(d|θ)\mathcal{L}(d | \theta)dddθ ∈ RNθ∈RN\theta \in \mathbf{R}^N Melihat rantai konvergen yang dihasilkan, saya …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.