Mengapa filter anti-aliasing fisik masih diperlukan pada DSLR modern?


13

Saya mengerti tujuan dari filter anti-aliasing (AA) adalah untuk mencegah moire. Ketika kamera digital pertama kali muncul filter AA diperlukan untuk menciptakan cukup blur untuk mencegah pola moire. Pada saat itu kekuatan prosesor dalam kamera sangat terbatas. Tapi mengapa masih perlu menempatkan filter AA di atas sensor di kamera DSLR modern? Tidak bisakah ini dicapai dengan mudah dengan algoritma yang diterapkan ketika output dari sensor sedang didemosa?Tampaknya kekuatan pemrosesan saat ini yang tersedia dalam kamera akan memungkinkan ini sekarang lebih dari beberapa tahun yang lalu. Prosesor Digic 5+ Canon saat ini memiliki lebih dari 100 kali kekuatan pemrosesan dari prosesor Digic III, yang mengerdilkan kekuatan kamera digital paling awal. Terutama saat memotret file RAW, tidak bisakah AA dilakukan pada tahap pemrosesan pasca? Apakah ini premis dasar dari Nikon D800E, meskipun menggunakan filter kedua untuk menangkal yang pertama?


Bukan itu. Sudah ada DSLR yang tidak memiliki filter anti-alias, termasuk Pentax K-5 IIs, Nikon D800E, plus model tanpa cermin seperti Olympus PEN E-PM2 dan semua Fujis (X-E1, X-Pro1). Ditambah lagi mereka bahkan mengumumkan kamera lensa tetap tanpa filter AA (X20 dan X100S).
Itai

1
Dan semua kamera itu menunjukkan warna moire pada waktu-waktu tertentu.
Kendall Helmstetter Gelner

3
Memang begitu juga dengan kamera lainnya. Saya menduga bahwa filter anti-alias yang menghindari semua moire akan terlalu kuat, sehingga produsen menggunakan filter AA dengan kekuatan yang lebih rendah. Sebagai contoh, dalam perbandingan K-5 IIs dan K-5 II saya , moire terjadi pada kedua kamera, hanya lebih banyak dengan K-5 IIs.
Itai

1
IIRC Nikon D7100 yang baru juga tidak memiliki satu.
James Snell

1
Dan sekarang, Pentax K-3 tidak memiliki filter tetapi memiliki mode untuk menggetarkan sensor dengan sangat, sangat sedikit selama paparan untuk mensimulasikan satu. Banyak inovasi menarik di bidang ini.
Silakan Baca Profil

Jawaban:


12

Aliasing adalah hasil dari pola berulang dengan frekuensi yang hampir sama yang saling mengganggu dengan cara yang tidak diinginkan. Dalam hal fotografi, frekuensi gambar yang lebih tinggi yang diproyeksikan oleh lensa ke sensor menciptakan dan pola interferensi (moiré dalam kasus ini) dengan kisi-kisi piksel. Gangguan ini hanya terjadi ketika frekuensinya kira-kira sama, atau ketika frekuensi sampling dari sensor cocok dengan frekuensi wavelet dari gambar. Itu adalah batas Nyquist. Catatan ... itu adalah masalah analog ... moiré terjadi karena gangguan yang terjadi waktu-nyata di dunia nyata sebelum gambar benar-benar diekspos.

Setelah gambar diekspos, pola interferensi itu secara efektif "dipanggang". Anda dapat menggunakan perangkat lunak sampai tingkat tertentu untuk membersihkan pola moiré di pos, tetapi ini sangat efektif jika dibandingkan dengan filter low pass fisik (AA) di depan sensor. Hilangnya detail karena moiré juga bisa lebih besar daripada yang hilang pada filter AA, karena moiré secara efektif adalah data yang tidak masuk akal, di mana detail yang sedikit kabur masih bisa berguna.

Filter AA hanya dirancang untuk mengaburkan frekuensi tersebut di Nyquist sehingga mereka tidak membuat pola interferensi. Alasan kami masih membutuhkan filter AA adalah karena sensor gambar dan lensa masih mampu menyelesaikan ke frekuensi yang sama. Ketika sensor meningkat ke titik di mana frekuensi sampling dari sensor itu sendiri secara konsisten lebih tinggi daripada lensa terbaik pada aperture optimalnya, maka kebutuhan akan filter AA akan berkurang. Lensa itu sendiri akan secara efektif menangani pengaburan yang diperlukan bagi kita, dan pola interferensi tidak akan pernah muncul sejak awal.


Ini adalah bagian dari komentar yang diposting ke photo.stackexchange.com/questions/10755/… . Apakah Anda masih percaya itu akurat? Jika demikian, bagaimana pola dipanggang sampai data RAW telah didemosa? "Ironisnya, setidaknya dengan RAW, batas nyquist teoretis tampaknya tidak selalu menjadi batas keras, yang mungkin disebabkan oleh panjang gelombang cahaya merah, hijau, dan biru yang berbeda dan distribusi piksel RGB dalam sebuah sensor. - jrista ♦ 10 Apr '11 jam 18:50 "
Michael C

1
Saya percaya saya sedang berbicara tentang resolusi secara umum di sana, dan tidak langsung ke aliasing dalam sinyal digital yang direkam. Batas nyquist adalah jenis hal yang sulit untuk dipakukan dalam sensor bayer karena pola RGRG dan baris GBGB yang tidak rata. The resolusi spasial hijau lebih tinggi dari resolusi spasial baik merah atau biru, sehingga batas Nyquist di lampu merah atau biru pada frekuensi yang lebih rendah dari batas Nyquist di lampu hijau. Batas nyquist dalam gambar yang didemosisi agak sulit disebut, sehingga menjadi sedikit fuzzy band, daripada batas matematis yang konkret.
jrista

1
... pola itu menjadi bagian dari gambar. Bahkan jika Anda tahu karakteristik wavelet yang tepat dari gambar virtual, dan dapat menghasilkan serangkaian empatier itu, Anda harus mengubah orientasi gambar relatif terhadap konsep virtual sensor untuk menghilangkan moire "sempurna". Itu banyak pekerjaan yang sangat intens, sangat matematis ... dengan asumsi Anda tahu sifat EXACT dari sinyal gambar virtual asli dan hubungannya dengan sensor. Setelah aliasing dimasukkan ke dalam RAW, itu cukup banyak dilakukan, benar-benar tidak ada kehancuran tanpa melunakkan detail.
jrista

1
Saya tahu semua tentang perbedaan frekuensi antara merah / biru dan hijau. Adapun semua filter optik AA saat ini hanya memfilter pada nyquist, itu benar-benar tergantung pada kamera. Tidak semua filter AA dirancang sama persis, dan bahkan untuk merek yang sama, model dan jalur yang berbeda sering kali memiliki filter AA yang berperilaku berbeda. Saya tahu bahwa secara historis garis 1D dan 5D telah memungkinkan BEBERAPA frekuensi tepat di atas nyquist melalui, namun saya pikir ini masalah keseimbangan dengan resolusi lensa.
jrista

1
Pada sensor dengan piksel lebih kecil, seperti Canon 18mp APS-C, D800, D3200, piksel semakin sangat, sangat kecil. Di luar segmen kecil jika lensa benar-benar baru (seperti Canon seri II L-series generasi, dan kemudian, hanya yang dirilis dalam dua-tiga tahun terakhir) dapat menyelesaikan detail yang cukup untuk secara signifikan mengalahkan sensor dan menyebabkan aliasing pada frekuensi lebih tinggi daripada nyquist. Saring di sekitar nyquist, dan lensa itu sendiri akan mengaburkan detail di luar itu. Saya pikir itu adalah bagian dari alasan garis 5D memiliki filter AA yang terlalu kuat ... lensa lebih mudah diatasi.
jrista

11

Fisika sama sekali tidak bekerja seperti itu. Aliasing mengubah frekuensi yang tidak dapat dikembalikan melewati batas Nyquist untuk muncul sebagai frekuensi di bawah batas, meskipun "alias" itu tidak benar-benar ada. Tidak ada jumlah pemrosesan sinyal alias dapat memulihkan sinyal asli dalam kasus umum. Penjelasan matematika mewah agak panjang untuk masuk kecuali Anda sudah memiliki kelas dalam teori sampling dan pemrosesan sinyal digital. Jika Anda punya, Anda tidak akan mengajukan pertanyaan. Sayangnya, jawaban terbaik adalah "Itu bukan cara kerja fisika. Maaf, tapi Anda harus percaya padaku tentang ini." .

Untuk mencoba memberikan kesan kasar bahwa hal di atas mungkin benar, perhatikan kasus gambar dinding bata. Tanpa filter AA, akan ada pola moire (yang sebenarnya alias) membuat garis bata terlihat bergelombang. Anda belum pernah melihat bangunan asli, hanya gambar dengan garis bergelombang.

Bagaimana Anda tahu batu bata asli tidak diletakkan dalam pola bergelombang? Anda menganggap itu bukan dari pengetahuan umum Anda tentang batu bata dan pengalaman manusia melihat dinding bata. Namun, dapatkah seseorang hanya membuat suatu titik dengan sengaja membuat dinding bata sehingga terlihat dalam kehidupan nyata (bila dilihat dengan mata kepala sendiri) seperti gambar? Ya mereka bisa. Oleh karena itu, mungkinkah secara matematis untuk membedakan gambar dinding bata normal atau gambar dinding bata yang sengaja bergelombang? Tidak, bukan itu. Faktanya, Anda juga tidak dapat benar-benar membedakannya, kecuali bahwa intuisi Anda tentang apa yang mungkin digambarkan oleh gambar dapat memberi Anda kesan bahwa Anda dapat melakukannya. Sekali lagi, secara tegas Anda tidak dapat mengatakan apakah wavies adalah artefak pola moire atau asli.

Perangkat lunak tidak dapat secara ajaib menghapus wavies karena tidak tahu apa yang nyata dan apa yang tidak. Secara matematis dapat ditunjukkan bahwa ia tidak bisa tahu, setidaknya dengan hanya melihat gambar bergelombang.

Dinding bata mungkin merupakan kasus yang jelas di mana Anda bisa tahu bahwa gambar alias itu salah, tetapi ada banyak kasus yang lebih halus di mana Anda benar-benar tidak tahu, dan bahkan mungkin tidak menyadari bahwa alias sedang terjadi.

Ditambahkan dalam menanggapi komentar:

Perbedaan antara aliasing sinyal audio dan gambar hanya bahwa yang pertama adalah 1D dan yang terakhir 2D. Teori dan matematika apa pun untuk mewujudkan efek masih sama, hanya saja itu diterapkan dalam 2D ​​ketika berhadapan dengan gambar. Jika sampel berada di kotak persegi panjang biasa, seperti mereka berada di kamera digital, maka beberapa masalah menarik lainnya muncul. Misalnya, frekuensi sampel adalah sqrt (2) lebih rendah (sekitar 1,4x lebih rendah) di sepanjang arah diagonal seperti yang ditunjukkan pada arah yang selaras dengan sumbu. Namun, teori pengambilan sampel, laju Nyquist, dan alias apa sebenarnya tidak berbeda dalam sinyal 2D daripada dalam sinyal 1D. Perbedaan utama tampaknya adalah bahwa ini bisa lebih sulit bagi mereka yang tidak terbiasa berpikir dalam ruang frekuensi untuk membungkus pikiran mereka dan memproyeksikan apa artinya semua dalam hal apa yang Anda lihat dalam gambar.

Sekali lagi, tidak, Anda tidak dapat "membuat mosaik" sinyal setelah fakta, setidaknya tidak dalam kasus umum di mana Anda tidak tahu apa yang seharusnya menjadi aslinya. Pola moire yang disebabkan oleh pengambilan sampel gambar kontinu adalah alias. Matematika yang sama berlaku untuk mereka seperti halnya berlaku untuk frekuensi tinggi alias ke aliran audio dan terdengar seperti peluit latar belakang. Itu adalah hal yang sama, dengan teori yang sama untuk menjelaskannya, dan solusi yang sama untuk menghadapinya.

Solusi itu adalah untuk menghilangkan frekuensi di atas batas Nyquist sebelum pengambilan sampel. Dalam audio yang dapat dilakukan dengan filter low pass sederhana yang dapat Anda buat dari resistor dan kapasitor. Dalam pengambilan sampel gambar, Anda masih memerlukan filter lulus rendah, dalam hal ini mengambil beberapa cahaya yang hanya akan mengenai satu piksel dan menyebarkannya ke piksel tetangga. Secara visual, ini tampak seperti sedikit kabur dari gambar sebelumnyaitu adalah sampel. Konten frekuensi tinggi terlihat seperti detail halus atau tepi tajam dalam gambar. Sebaliknya, tepi yang tajam dan detail halus mengandung frekuensi tinggi. Frekuensi tinggi inilah yang dapat dikonversi menjadi alias di gambar sampel. Beberapa alias adalah apa yang kita sebut pola moire ketika aslinya memiliki beberapa konten reguler. Beberapa alias memberikan efek "langkah tangga" ke garis atau tepi, terutama ketika mereka hampir vertikal atau horizontal. Ada efek visual lain yang disebabkan oleh alias.

Hanya karena sumbu independen dalam sinyal audio adalah waktu dan sumbu independen (dua dari mereka karena sinyal 2D) dari suatu gambar adalah jarak tidak membatalkan matematika atau entah bagaimana membuatnya berbeda antara sinyal audio dan gambar. Mungkin karena teori dan aplikasi aliasing dan anti-aliasing dikembangkan pada sinyal 1D yang merupakan tegangan berbasis waktu, istilah "domain waktu" digunakan untuk kontras dengan "domain frekuensi". Dalam sebuah gambar, representasi ruang non-frekuensi secara teknis adalah "domain jarak", tetapi untuk kesederhanaan dalam pemrosesan sinyal sering disebut sebagai "domain waktu". Jangan biarkan hal itu mengalihkan perhatian Anda dari aliasing sebenarnya. Dan tidak, sama sekali bukan bukti bahwa teori itu tidak berlaku untuk gambar, hanya bahwa pilihan kata yang menyesatkan kadang-kadang digunakan untuk menggambarkan sesuatu karena alasan historis. Bahkan, jalan pintas "domain waktu" yang diterapkan ke domain bukan-frekuensi gambar sebenarnyakarena teorinya sama antara gambar dan sinyal berbasis waktu yang sebenarnya. Aliasing adalah aliasing terlepas dari apa sumbu independen (atau sumbu) terjadi.

Kecuali Anda bersedia mempelajari hal ini di tingkat beberapa mata kuliah perguruan tinggi tentang teori sampling dan pemrosesan sinyal, pada akhirnya Anda hanya akan harus memercayai mereka yang memilikinya. Beberapa hal ini tidak intuitif tanpa latar belakang teori yang signifikan.


Semua latar belakang saya dalam pengambilan sampel dan pemrosesan sinyal digital berkaitan dengan audio digital. Saya mengerti bagaimana filter low pass bertindak untuk membatasi suara di atas frekuensi tertentu agar tidak masuk ke konversi AD. Jika Anda mengambil sampel pada 44.100 hz Anda menerapkan filter yang mulai bergulir pada sekitar 20Khz dan setiap respons oleh 22Khz sudah cukup hilang. Tetapi dengan pencitraan digital itu tidak sesederhana itu, karena bahkan dengan filter AA beberapa aliasing berhasil melalui. Saya telah membaca di tempat lain bahwa filter tidak mencoba untuk memblokir segala sesuatu di atas Nyquist karena itu akan mengurangi resolusi terlalu banyak.
Michael C

1
Saya harus setuju bahwa masalah filter low-pass dalam sebuah kamera tidak sama dengan masalah filter low-pass dalam pemrosesan audio. Saya kira cara terbaik untuk mengatakannya adalah bahwa filter low-pass audio bekerja langsung dengan sinyal elektronik, di mana sebagai filter low-pass optik bekerja pada frekuensi spasial dari sinyal gambar yang dihasilkan oleh lensa. Sinyal elektronik yang Anda gunakan untuk bekerja adalah yang berbeda dari sinyal gambar.
jrista

1
@Michael: Lihat tambahan untuk jawabanku.
Olin Lathrop

1
"Pola moire yang disebabkan oleh pengambilan sampel gambar kontinu adalah alias." - Olin. Saya pikir itu adalah titik kunci di sana! Ketika Anda benar-benar mengambil eksposur, Anda tidak merekam versi murni dari gambar virtual asli ... Anda merekam alias titik data dalam gambar virtual asli itu. Data di komputer Anda berisi alias. Cara yang sangat bagus, ringkas, dan jelas. :)
jrista

1
@Michael: Apa yang Anda katakan tentang bagaimana piksel warna penuh diinterpolasi dari nilai sensor mentah adalah benar, tetapi tidak ada kaitannya dengan diskusi aliasing. Pada akhirnya gambar kontinu nyata masih disampel di titik-titik diskrit, sehingga filter anti-alising sebelum pengambilan sampel diperlukan untuk menghindari alias. Adapun komentar Anda tentang aljabar, sama sekali tidak masuk akal. Tentu saja aljabar berlaku untuk polinomial orde tinggi dan persamaan 2D, hanya saja semakin kompleks karena ada lebih banyak variabel independen.
Olin Lathrop

6

Anda tidak bisa mendapatkan efek yang sama dalam perangkat lunak. Anda dapat pergi ke suatu tempat di dekatnya, dengan asumsi tertentu. Tetapi filter AA menyebarkan cahaya sehingga ia menyerang beberapa piksel berwarna yang berbeda memberi Anda informasi yang tidak ada pada sensor filter no-AA.

Nikon D800E tidak melakukan apa-apa untuk mencoba dan mereplikasi filter AA. Jika ada pola frekuensi tinggi dalam gambar, Anda mendapatkan moire dan itu masalah Anda - Anda harus menghadapinya!

Aliasing lebih buruk ketika frekuensi detail dalam gambar sangat dekat dengan frekuensi sampling. Untuk kamera yang lebih tua dengan sensor resolusi rendah (dan karenanya sampling frekuensi rendah) moire adalah masalah serius dengan banyak jenis detail gambar sehingga filter AA kuat (tidak ada hubungannya dengan daya pemrosesan terbatas). Sekarang kami memiliki frekuensi pengambilan sampel yang jauh lebih tinggi, dibutuhkan detail gambar frekuensi yang jauh lebih tinggi untuk ditampilkan.

Akhirnya, frekuensi pengambilan sampel akan sangat tinggi sehingga detail objek frekuensi tinggi yang diperlukan tidak akan melewati penyimpangan lensa dan efek difraksi, membuat filter AA mubazir. Ini adalah sebagian alasan bahwa beberapa punggung MF tidak memiliki filter AA, resolusi super tinggi plus fotografer mode yang suka memotret di f / 32 dengan paket daya Profoto raksasa yang membuktikan pencahayaan.


Sepertinya saya interpolasi yang dilakukan dalam proses demosaicing dapat dimodifikasi untuk mencapai hal yang sama persis, karena rata-rata piksel yang berdekatan adalah apa yang dilakukan di sana. Nikon D800E memiliki dua komponen filter AA sama seperti kamera lainnya, tetapi alih-alih satu cahaya polarisasi secara horizontal dan yang lain mempolarisasinya secara vertikal yang kedua adalah 180 derajat dari yang pertama dan mengambil sinar terpolarisasi dari yang pertama dan menggabungkannya kembali menjadi satu aliran. Lihat photo.stackexchange.com/questions/22720/…
Michael C

2
@MichaelClark Tidak, Anda tidak bisa mendapatkan efek yang sama dalam proses demosaicing. Satu titik cahaya yang mengenai sensor D800E hanya akan menghasilkan muatan pada satu photosite. Tidak ada cara untuk mengetahui warna apa cahaya itu dengan melihat piksel tetangga, informasi telah hilang selamanya. Titik cahaya yang sama mengenai sensor D800 (dengan filter AA) akan menekan satu piksel dengan kuat dan piksel sekitarnya ke tingkat yang lebih rendah. Karena piksel tetangga memiliki filter warna yang berbeda dengan melihat intensitasnya, algoritma demosaicing dimungkinkan untuk memperkirakan warna cahaya.
Matt Grum

1
@MichaelClark Satu-satunya alasan D800E memiliki pengaturan ini adalah untuk menyederhanakan proses pembuatan, jauh lebih mudah untuk mengubah orientasi salah satu filter pada tahap input daripada menukar dua filter untuk elemen kaca bening - pada akhirnya filter tumpukan harus sama tingginya karena memiliki efek refraktif dan desain lensa modern memperhitungkannya. Hanya dengan tidak memasang salah satu filter pada D800E akan menimbulkan penyimpangan halus pada gambar.
Matt Grum

Tetapi pada saat yang sama titik cahaya tunggal mengenai satu situs sensor, titik cahaya yang sesuai mengenai semua situs sensor yang berdekatan dan filter AA menyebabkan semuanya menumpahkan cahaya satu sama lain. Bukankah sebagian besar algoritma demosaicing menggunakan interpolasi untuk membandingkan tingkat luminositas tidak hanya sumur piksel langsung tetapi juga sumur dekat piksel lainnya dengan sensitivitas warna yang sama? Secara efektif, bukankah mengaburkan piksel yang berdekatan satu sama lain secara matematis apa yang Anda lakukan?
Michael C

1
@MichaelClark alias tidak kabur. Ini mempengaruhi piksel yang sangat jauh satu sama lain. Misalnya Anda akan mendapatkan ketukan setiap 50 piksel, memudar di / keluar lebih dari 10. Apakah garis itu nyata atau disebabkan oleh garis-garis lebih kecil dari piksel? Kamu tidak bisa tahu
JDługosz

2

Ini semua adalah jawaban dan informasi yang bagus. Saya memiliki penjelasan yang sangat sederhana. Mari kita beralih dari 2D ke 1D (konsep yang sama berlaku).

Ketika frekuensi menyentuh sensor Anda yang lebih tinggi dari "frekuensi maksimum yang diperbolehkan", itu sebenarnya akan membuat frekuensi cermin ke sisi bawah . Setelah gambar Anda diambil sampel, Anda akan melihat sinyal yang lebih rendah ini tetapi kamera atau komputer Anda tidak tahu apakah ini adalah sinyal yang sebenarnya lebih rendah yang benar-benar ada atau apakah itu alias yang dibuat dari sinyal yang terlalu tinggi. Informasi ini hilang. Itulah alasan untuk "frekuensi maksimum yang diizinkan" atau frekuensi nyquist. Dikatakan ini adalah frekuensi tertinggi yang dapat disampel dan di atasnya informasi akan hilang.

analog ke audio: katakanlah Anda memiliki sistem Anda mengatur di mana Anda ingin rentang frekuensi dari 0 hz hingga 1000 hz. untuk meninggalkan sedikit ruang ekstra, Anda dapat mencoba 3000hz yang menjadikan niquist Anda 1500hz. Di sinilah filter aa masuk. Anda tidak ingin apa pun di atas 1500 hz untuk masuk, dalam kenyataannya cut-off Anda akan dimulai tepat setelah 1000 hz tetapi Anda memastikan bahwa pada saat Anda mencapai 1500 hz bahwa tidak ada yang tersisa.

mari kita asumsikan Anda lupa filter aa dan Anda membiarkan nada 2500 hz memasuki sensor Anda. itu akan mencerminkan tingkat sampel (3000 hz) sehingga sensor Anda akan mengambil nada pada 500 hz (3000 hz - 2500 hz). sekarang sinyal Anda disampel, Anda tidak akan tahu apakah 500hz benar-benar ada atau apakah itu alias.

btw. gambar cermin terjadi untuk semua frekuensi tetapi tidak menjadi masalah selama Anda tidak berada di atas nyquist karena Anda dapat dengan mudah menyaringnya nanti. contoh nada input adalah 300 hz. Anda akan memiliki alias di (3000 - 300 = 2700hz [dan harus benar juga 3000 + 300 = 3300hz]). Namun karena Anda tahu bahwa Anda hanya mempertimbangkan hingga 1000 hz ini akan mudah dihapus. jadi sekali lagi masalah muncul ketika gambar cermin masuk ke spektrum yang sebenarnya Anda inginkan, karena Anda tidak akan dapat membedakannya dan itulah yang mereka maksud dengan "dipanggang".

semoga ini membantu


1
Kecuali bahwa "aliasing" dalam konteks fotografi adalah 'spasial' berdasarkan pola berulang dalam gambar yang diproyeksikan ke sensor, bukan pada frekuensi cahaya tertentu yang menyentuh satu piksel dengan baik. Filter low pass optik pada sebagian besar sensor kamera tidak memfilter frekuensi "semua" di atas batas Nyquist, mereka hanya memfilter pola 'paling' berulang pada batas Nyquist dan kelipatan terkait.
Michael C

Saya menghargai komentar Anda. Saya juga tidak merujuk pada frekuensi cahaya tetapi pada tingkat perubahan intensitas dari satu piksel ke piksel berikutnya. Saya mengabaikan warnanya. Saya kira saya melihatnya sebagai 3 gambar hitam dan putih individu. Kemudian masing-masing mendapat satu warna dan overlay bersama-sama mereka membuat semua warna. Masih sulit bagi saya untuk membungkus kepalaku di sekitar frekuensi dalam gambar. Saya kira ketika Anda memiliki piksel putih tepat di sebelah piksel hitam itu mewakili frekuensi tinggi karena tingkat perubahan yang cepat dan piksel abu-abu terang di sebelah piksel abu-abu gelap adalah frekuensi yang lebih rendah.
pgibbons

Itu bukan bagaimana demosaicing dari sensor bertopeng Bayer bekerja, dan merupakan salah satu alasan mengapa saya awalnya mengajukan pertanyaan.
Michael C

Frekuensi yang lebih tinggi dalam konteks ini mengulangi pola dengan jarak sensor yang lebih sedikit di antara setiap pengulangan. Frekuensi yang lebih rendah mengulangi pola dengan jarak yang lebih jauh antara setiap pengulangan. Jika pitch pixel sensor adalah 6μm, maka pola yang mengulang setiap 3μm akan berada pada frekuensi Nyquist. Pola yang mengulangi setiap 4μm akan berada di bawah NF, dan pola yang berulang setiap 2μm akan berada di atasnya.
Michael C
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.