Pertanyaan yang diberi tag «neural-network»

Jaringan saraf tiruan (JST), terdiri dari 'neuron' - konstruksi pemrograman yang meniru sifat-sifat neuron biologis. Satu set koneksi berbobot antara neuron memungkinkan informasi untuk menyebar melalui jaringan untuk memecahkan masalah kecerdasan buatan tanpa perancang jaringan memiliki model sistem yang nyata.

1
Bagaimana cara menghitung jangka waktu delta dari Lapisan Konvolusional, mengingat syarat dan berat delta dari Lapisan Konvolusional sebelumnya?
Saya mencoba untuk melatih jaringan saraf tiruan dengan dua lapisan convolutional (c1, c2) dan dua lapisan tersembunyi (c1, c2). Saya menggunakan pendekatan backpropagation standar. Dalam pass mundur saya menghitung istilah kesalahan lapisan (delta) berdasarkan kesalahan lapisan sebelumnya, bobot lapisan sebelumnya dan gradien aktivasi sehubungan dengan fungsi aktivasi lapisan saat ini. …

2
Debugging Neural Networks
Saya telah membangun jaringan saraf tiruan dalam python menggunakan fungsi optimisasi scipy.optimize.minimize (Conjugate gradient). Saya telah menerapkan pemeriksaan gradien, mengecek semuanya dll dan saya cukup yakin itu berfungsi dengan benar. Saya telah menjalankannya beberapa kali dan mencapai 'Pengoptimalan berhasil dihentikan' namun ketika saya meningkatkan jumlah lapisan tersembunyi, biaya hipotesis meningkat …

2
Apakah Normalisasi Batch masuk akal untuk fungsi aktivasi ReLU?
Normalisasi Batch dijelaskan dalam makalah ini sebagai normalisasi input ke fungsi aktivasi dengan skala dan variabel bergeserγγ\gamma dan ββ\beta. Makalah ini terutama menjelaskan menggunakan fungsi aktivasi sigmoid, yang masuk akal. Namun, bagi saya tampaknya memberi makan input dari distribusi normal yang dihasilkan oleh normalisasi batch menjadi fungsi aktivasi ReLU darim …

3
Hubungan antara belit dalam matematika dan CNN
Saya sudah membaca penjelasan konvolusi dan memahaminya sampai batas tertentu. Adakah yang bisa membantu saya memahami bagaimana operasi ini berhubungan dengan konvolusi dalam Jaring Saraf Konvolusional? Apakah fungsi seperti filter gyang menerapkan bobot?
10 machine-learning  neural-network  deep-learning  cnn  convolution  machine-learning  ensemble-modeling  machine-learning  classification  data-mining  clustering  machine-learning  feature-selection  convnet  pandas  graphs  ipython  machine-learning  apache-spark  multiclass-classification  naive-bayes-classifier  multilabel-classification  machine-learning  data-mining  dataset  data-cleaning  data  machine-learning  data-mining  statistics  correlation  machine-learning  data-mining  dataset  data-cleaning  data  beginner  career  python  r  visualization  machine-learning  data-mining  nlp  stanford-nlp  dataset  linear-regression  time-series  correlation  anomaly-detection  ensemble-modeling  data-mining  machine-learning  python  data-mining  recommender-system  machine-learning  cross-validation  model-selection  scoring  prediction  sequential-pattern-mining  categorical-data  python  tensorflow  image-recognition  statistics  machine-learning  data-mining  predictive-modeling  data-cleaning  preprocessing  classification  deep-learning  tensorflow  machine-learning  algorithms  data  keras  categorical-data  reference-request  loss-function  classification  logistic-regression  apache-spark  prediction  naive-bayes-classifier  beginner  nlp  word2vec  vector-space-models  scikit-learn  decision-trees  data  programming 


3
Konsumsi memori CNN
Saya ingin dapat memperkirakan apakah model yang diusulkan cukup kecil untuk dilatih pada GPU dengan jumlah memori tertentu Jika saya memiliki arsitektur CNN sederhana seperti ini: Input: 50x50x3 C1: 32 3x3 kernel, dengan padding (saya kira pada kenyataannya theyre sebenarnya 3x3x3 diberikan kedalaman input?) P1: 2x2 dengan langkah 2 C2: …

3

1
Bagaimana perbedaan konvolusional berbeda dari jaringan konvolusional biasa?
Saat ini saya sedang berupaya menciptakan kembali hasil dari makalah ini . Dalam makalah mereka menggambarkan metode untuk menggunakan CNN untuk ekstraksi fitur, dan memiliki model akustik yaitu Dnn-hmm dan dipra-preline menggunakan RBM. Bagian III ayat A menyatakan berbagai cara input data dapat direpresentasikan. Saya memutuskan untuk secara vertikal menumpuk …

3
Memilih metode regularisasi dalam jaringan saraf
Saat melatih jaringan saraf, setidaknya ada 4 cara untuk mengatur jaringan: Regulasi L1 Regulasi L2 Keluar Normalisasi Batch ditambah tentu saja hal-hal lain seperti pembagian berat badan dan mengurangi jumlah koneksi, yang mungkin bukan pengaturan dalam arti yang paling ketat. Tetapi bagaimana orang akan memilih metode regularisasi mana yang akan …

2
Apakah ada studi yang meneliti dropout vs regularisasi lainnya?
Apakah ada makalah yang diterbitkan yang menunjukkan perbedaan metode regularisasi untuk jaringan saraf, lebih disukai pada domain yang berbeda (atau setidaknya set data yang berbeda)? Saya bertanya karena saat ini saya merasa bahwa kebanyakan orang tampaknya hanya menggunakan dropout untuk regularisasi dalam visi komputer. Saya ingin memeriksa apakah akan ada …

2
Adakah perbedaan dalam regularisasi dalam MLP antara pembaruan batch dan individu?
Saya baru saja belajar tentang regularisasi sebagai pendekatan untuk mengontrol over-fitting, dan saya ingin memasukkan ide tersebut ke dalam implementasi sederhana backpropagation dan Multilayer perceptron (MLP) yang saya kumpulkan. Saat ini untuk menghindari pemasangan berlebihan, saya melakukan validasi silang dan menjaga jaringan dengan skor terbaik sejauh ini pada set validasi. …

2
Bagaimana autoencoder digunakan untuk pengelompokan?
Misalkan saya memiliki satu set sinyal domain waktu dengan sama sekali tidak ada label . Saya ingin mengelompokkannya dalam 2 atau 3 kelas. Autoencoder adalah jaringan tanpa pengawasan yang belajar mengompresi input. Jadi diberi input , bobot dan , bias dan , dan output , kita dapat menemukan hubungan berikut:x(i)x(i)x^{(i)}W1W1W_1W2W2W_2b1b1b_1b2b2b_2x^(i)x^(i)\hat{x}^{(i)} …



1
Memahami dropout dan gradient descent
Saya melihat bagaimana menerapkan dropout pada jaringan saraf yang dalam, dan saya menemukan sesuatu yang berlawanan secara intuitif. Dalam fase maju, topeng aktivasi putus dengan tensor acak 1s dan 0s untuk memaksa net mempelajari rata-rata bobot. Ini membantu jaring untuk menggeneralisasi dengan lebih baik. Tetapi selama fase pembaruan dari gradient …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.