Pertanyaan yang diberi tag «convolution»

Konvolusi adalah operasi bernilai fungsi pada dua fungsi dan : . Sering digunakan untuk memperoleh kepadatan sejumlah variabel acak independen. Tag ini juga harus digunakan untuk operasi kebalikan dari dekonvolusi. JANGAN gunakan tag ini untuk jaringan neural konvolusional. fg-f(τ)g(t-τ)dτ


6
Pentingnya normalisasi respons lokal di CNN
Saya telah menemukan bahwa Imagenet dan CNN besar lainnya menggunakan lapisan normalisasi respons lokal. Namun, saya tidak dapat menemukan banyak informasi tentang mereka. Seberapa penting mereka dan kapan mereka harus digunakan? Dari http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : "Lapisan normalisasi respons lokal melakukan semacam" penghambatan lateral "dengan menormalkan lebih dari daerah input lokal. Dalam …

4
Apa yang dimaksud dengan invarian terjemahan dalam visi komputer dan jaringan saraf convolutional?
Saya tidak memiliki latar belakang visi komputer, namun ketika saya membaca beberapa pemrosesan gambar dan jaringan saraf terkait artikel dan makalah, saya terus-menerus menghadapi istilah translation invariance,, atau translation invariant. Atau saya banyak membaca bahwa operasi konvolusi menyediakan translation invariance? !! Apa artinya ini? Saya sendiri selalu menerjemahkannya ke diri …

10
Mengapa penjumlahan dari dua variabel acak adalah konvolusi?
Untuk waktu yang lama saya tidak mengerti mengapa "jumlah" dari dua variabel acak adalah konvolusi mereka , sedangkan jumlah fungsi kerapatan campuran dari f(x)f(x)f(x) dan g(x)g(x)g(x) adalah pf(x)+(1−p)g(x)pf(x)+(1−p)g(x)p\,f(x)+(1-p)g(x); jumlah aritmatika dan bukan konvolusi mereka. Frasa persis "jumlah dua variabel acak" muncul di google 146.000 kali, dan berbentuk bulat panjang sebagai …

2
Jaringan saraf convolusional: Bukankah neuron sentral terlalu terwakili dalam output?
[Pertanyaan ini juga diajukan pada stack overflow] Pertanyaan singkatnya Saya sedang mempelajari jaringan saraf convolutional, dan saya percaya bahwa jaringan ini tidak memperlakukan setiap input neuron (pixel / parameter) secara setara. Bayangkan kita memiliki jaringan yang dalam (banyak lapisan) yang menerapkan konvolusi pada beberapa gambar input. Neuron di "tengah" gambar …

1
Bisakah derajat kebebasan menjadi angka non-integer?
Ketika saya menggunakan GAM, itu memberi saya sisa DF adalah (baris terakhir dalam kode). Apa artinya? Melampaui contoh GAM, Secara umum, bisakah jumlah derajat kebebasan menjadi angka yang bukan bilangan bulat?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

1
"Estimasi kepadatan kernel" adalah konvolusi dari apa?
Saya mencoba untuk mendapatkan pemahaman yang lebih baik tentang estimasi kepadatan kernel. Menggunakan definisi dari Wikipedia: https://en.wikipedia.org/wiki/Kernel_density_estimation#Definition fh^(x)=1n∑ni=1Kh(x−xi)=1nh∑ni=1K(x−xih)fh^(x)=1n∑i=1nKh(x−xi)=1nh∑i=1nK(x−xih) \hat{f_h}(x) = \frac{1}{n}\sum_{i=1}^n K_h (x - x_i) \quad = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big) Mari kita ambil K()K()K() menjadi fungsi persegi panjang yang memberikan 111 jika xxx adalah antara −0.5−0.5-0.5 dan 0.50.50.5 dan 000 …

6
Lapisan Konvolusional: Pad atau tidak pad?
Arsitektur AlexNet menggunakan zero-paddings seperti yang ditunjukkan pada gambar: Namun, tidak ada penjelasan dalam makalah mengapa padding ini diperkenalkan. Standford CS 231n tentu saja mengajarkan kita menggunakan bantalan untuk menjaga ukuran spasial: Saya bertanya-tanya apakah ini satu-satunya alasan kita perlu melapisi? Maksud saya, jika saya tidak perlu mempertahankan ukuran spasial, …

2
Pandangan sistem dinamis dari Central Limit Theorem?
(Awalnya diposting di MSE.) Saya telah melihat banyak diskusi heuristik tentang teorema limit sentral klasik yang berbicara tentang distribusi normal (atau distribusi stabil mana pun) sebagai "penarik" dalam ruang kepadatan probabilitas. Sebagai contoh, perhatikan kalimat-kalimat ini di bagian atas perawatan Wikipedia : Dalam penggunaan yang lebih umum, teorema limit pusat …

3
Apa langkah konvolusi dalam Jaringan Syaraf Tiruan Convolutional?
Saya mempelajari jaringan saraf convolutional (CNNs) karena aplikasi mereka dalam visi komputer. Saya sudah terbiasa dengan jaringan saraf feed-foward standar, jadi saya berharap beberapa orang di sini dapat membantu saya mengambil langkah ekstra dalam memahami CNN. Inilah yang saya pikirkan tentang CNN: Dalam NN feed-foward tradisional, kami memiliki data pelatihan …

2
Apakah ada alasan matematis untuk konvolusi dalam jaringan saraf di luar kemanfaatan?
Dalam convolutional neural networks (CNN), matriks bobot pada setiap langkah mendapatkan baris dan kolom terbalik untuk mendapatkan matriks kernel, sebelum melanjutkan dengan konvolusi. Ini dijelaskan pada serangkaian video oleh Hugo Larochelle di sini : Menghitung peta yang tersembunyi akan sesuai dengan melakukan konvolusi diskrit dengan saluran dari lapisan sebelumnya, menggunakan …

2
Distribusi konvolusi variabel normal kuadrat dan chi-kuadrat?
masalah berikut muncul baru-baru ini saat menganalisis data. Jika variabel acak X mengikuti distribusi normal dan Y mengikuti distribusi χ2nχn2\chi^2_n (dengan n dof), bagaimana Z=X2+Y2Z=X2+Y2Z = X^2 + Y^2 didistribusikan? Hingga sekarang saya datang dengan pdf dari : ψ 2 n ( x )Y2Y2Y^2ψ2n(x)====∂F(x−−√)∂x(∫x√0tn/2−1⋅e−t/22n/2Γ(n/2)dt)′x12n/2Γ(n/2)⋅(x−−√)n/2−1⋅e−x√/2⋅(x−−√)′x12n/2−1Γ(n/2)⋅xn/4−1⋅e−x√/2ψn2(x)=∂F(x)∂x=(∫0xtn/2−1⋅e−t/22n/2Γ(n/2)dt)x′=12n/2Γ(n/2)⋅(x)n/2−1⋅e−x/2⋅(x)x′=12n/2−1Γ(n/2)⋅xn/4−1⋅e−x/2\begin{eqnarray} \psi^2_n(x) &=& \frac{\partial F(\sqrt{x})}{\partial x} \\ …

3
Bagaimana tepatnya jaringan saraf convolutional menggunakan konvolusi menggantikan multiplikasi matriks?
Saya sedang membaca Buku Yoshua Bengio tentang pembelajaran mendalam dan dikatakan di halaman 224: Jaringan konvolusional hanyalah jaringan saraf yang menggunakan konvolusi sebagai pengganti perkalian matriks umum dalam setidaknya satu lapisannya. Namun, saya tidak 100% yakin bagaimana "mengganti perkalian matriks dengan konvolusi" dalam arti yang tepat secara matematis. Yang benar-benar …

4
Jumlah variabel acak lognormal independen muncul lognormal?
Saya mencoba memahami mengapa jumlah dua (atau lebih) variabel acak lognormal mendekati distribusi lognormal ketika Anda meningkatkan jumlah pengamatan. Saya sudah mencari online dan tidak menemukan hasil mengenai ini. Jelas jika dan adalah variabel lognormal independen, maka dengan sifat eksponen dan variabel acak gaussian, juga lognormal. Namun, tidak ada alasan …

2
Bukankah beberapa filter dalam lapisan konvolusional mempelajari parameter yang sama selama pelatihan?
Berdasarkan dari apa yang telah saya pelajari, kami menggunakan beberapa filter dalam Conv Layer CNN untuk mempelajari berbagai detektor fitur. Tetapi karena filter ini diterapkan dengan cara yang sama (yaitu digeser dan dikalikan dengan wilayah input), bukankah mereka hanya mempelajari parameter yang sama selama pelatihan? Karenanya penggunaan beberapa filter akan …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.