Mengapa sensor kamera digital tidak dapat mengekspos setiap foto secara individual?


14

Mengapa sensor kamera tidak bisa berfungsi seperti mata manusia? Yang saya maksud adalah, mengapa sebagian gambar harus over / underpose jika kita mengkompensasi masing-masing area gelap dan terang ketika mengambil foto dan memutuskan pengaturan aperture dan kecepatan rana.

Saya mengerti bahwa cahaya yang masuk tergantung pada aperture dan kecepatan rana tetapi karena DSLR adalah digital, tidak dapatkah ada teknologi yang akan memungkinkan setiap sel sensor menggunakan pengukurannya sendiri dan oleh karena itu mereka tidak semua akan dikenakan jumlah yang sama cahaya tetapi tergantung pada pengukuran, CPU kamera akan mematikan sel-sel tertentu agar tidak mengekspos mereka secara berlebihan.

Saya harap saya tidak mengatakan omong kosong. Bagi saya itu sepertinya ide yang masuk akal.


Sepertinya Anda bertanya mengapa sensor tidak dapat memiliki rentang dinamis tanpa batas? Atau mungkin jalur lain adalah "bagaimana cara kerja sensor kamera". Bagaimanapun juga, pertanyaan yang menarik.
dpollitt

Ya, Anda akan mengatakan bahwa pertanyaannya adalah tentang rentang dinamis tanpa batas tetapi sebenarnya tampak cukup aneh bagi saya bahwa karena setiap sel sensor memiliki kemampuan untuk "merekam" atau adonan mengatakan menangkap sejumlah cahaya (mengabaikan kliping putih / hitam) , mengapa tidak bisa melakukannya berdasarkan sel tunggal tetapi menangkap jumlah yang sama di seluruh sensor sebagai gantinya? Mungkin akan membutuhkan daya CPU lebih banyak dan yang lainnya, tetapi saya tertarik apakah itu bahkan dianggap oleh produsen DSLR ...

2
Terlalu banyak kabel adalah dugaanku . Anda membutuhkan sirkuit tambahan non-sepele per photosite. Yang paling dekat dengan tanggal adalah kamera yang membaca setengah piksel di tengah paparan.
Itai

Apakah Anda memiliki tautan ke artikel tersebut? Jadi satu-satunya jawaban untuk pertanyaan awal saya adalah, pada kenyataannya, ini terlalu rumit pada saat ini dalam sejarah teknologi DSLR?

1
Itu jenis pertanyaan yang agak di luar kotak. Sangat masuk akal untuk menanyakannya. Saya yakin bahwa suatu hari kamera akan bekerja dengan cara yang sangat mirip dengan saran Anda. ... Meskipun secara pribadi, saya menemukan bahwa batasan teknis memberi makan artistik.
AJ Finch

Jawaban:


19

Siapa yang memutuskan piksel mana yang mendapatkan jumlah keuntungan? Banyak hal yang terjadi dalam sistem visual manusia terjadi di korteks, bukan pada mata, dan tergantung pada apa yang kita anggap penting untuk dilihat berdasarkan kombinasi keputusan intelektual dan dorongan instingtual (yang agaknya mampu) untuk mempertahankan diri. . Meskipun dalam satu sisi kita benar-benar melihat apa yang ada di sana, namun sama benarnya dalam arti lain bahwa kita melihat apa yang ingin kita (atau perlu) lihat.

Itu akan hampirsepele untuk membuat sensor kerapatan piksel yang relatif rendah dengan photosites besar yang memungkinkan untuk rentang dinamis yang sangat besar dan (dengan asumsi teknologi tipe CCD, karena teknologi sensor CMOS saat ini tidak dapat bekerja dengan cara ini) rana elektronik per-piksel selain rana mekanik. Jadi, apa yang membuatmu begitu? Gambar datar dengan banyak kedalaman bit dan kontras lokal sangat rendah (jika seluruh kedalaman bit dikonversi apa adanya untuk tampilan atau cetak) bersama dengan sejumlah piksel yang hampir, tetapi tidak cukup, terpotong oleh saturasi sensor ( meskipun mereka, pada kenyataannya, terpotong oleh aksi pembatas shutter elektronik tepat sebelum titik saturasi). Katakanlah demi argumen, bahwa sensor ini dan komputer yang terkait dapat merekam data kliping (alasan mengapa ia berhenti merekam di sensor itu, yang bisa sesederhana merekam durasi eksposur aktual di situs itu). Itu akan memungkinkan elektronik kamera untuk merekonstruksi berapa angkanya seandainya photosite bisa tetap berada dalam permainan sampai peluit akhir. Jadi sekarang kita memiliki gambar yang lebih rata dengan kedalaman bit yang lebih besar. Dan di mana Anda menggambar garis? 32 bit? 64?

Sekarang sampai pada bagian yang sulit - mengubah data gambar yang rata dan dinamis ini menjadi foto yang menarik. Pendekatan paling sederhana adalah dengan mengambil delapan bit (atau apa pun kedalaman bit keluaran) yang mewakili gambar meteran utama dan membuang sisanya. Mungkin tidak akan jauh lebih sulit untuk mencocokkan data ke kurva S, mengompresi bayangan ekstrim dan / atau highlight - yang kurang lebih seperti yang dilakukan pengaturan rentang dinamis pada kamera baru. Tetapi hanya ada begitu banyak bit output yang tersedia per pixel, dan sebagian besar nilai highlight yang diperluas akan dibulatkan menjadi putih (atau setidaknya campuran 254 dan 255). Jadi, Anda mendapat sangat sedikit dengan menyulitkan sistem secara dramatis.

Tetapi masih ada satu opsi pemetaan area terbuka - selektif. Mengapa tidak membawa langit, katakanlah, atau hanya awan di langit itu, turun nilainya sehingga dapat mempertahankan detail, sambil mempertahankan kontras yang diinginkan di latar depan? Di sinilah masalah sulit hidup. Apa yang penting Haruskah kamera memutuskan untuk Anda? Jika kamera memutuskan, maka kita memiliki kemajuan besar dalam penglihatan mesin dan kecerdasan buatan untuk bergerak lebih dulu. Jika tidak, apakah Anda benar-benar ingin membuat tingkat pengambilan foto setelah pengambilan gambar ini untuk setiap gambar yang Anda potret? Ya, saya tahu akan ada beberapa foto-techno-weinies yang benar-benar ingin seperti itu, tetapi dapatkah kita menerima bahwa ini adalah kondisi patologis, dan bahwa para profesional tertarik pada waktu perputaran dan sebagian besar konsumen tidak seperti itu?

Jadi Anda memerlukan sensor baru, elektronik yang jauh lebih rumit di sekitar sensor, file gambar yang sangat besar untuk data mentah yang diproyeksikan (yang membutuhkan kartu yang lebih besar dan waktu menulis yang lebih lama / frame rate yang lebih lambat), semua untuk mengumpulkan data yang sebagian besar akan dibuang. waktu sehingga Anda kadang-kadang dapat mengambil gambar HDR satu-shot yang memerlukan banyak intervensi manusia dalam posting (atau lompatan besar dalam MV / AI). Anda mungkin bisa menjual beberapa di antaranya, tapi saya berharap pasar terlihat jauh lebih mirip pasar format sedang daripada pasar 35mm / APS-C yang ada. Yaitu, Anda akan menjual kepada sekelompok fotografer terpilih yang benar-benar membutuhkan kemampuan untuk alasan profesional atau untuk memenuhi visi seni rupa mereka, dan beberapa yang hanya mendapatkan tendangan yang cukup besar dari pasca pemrosesan untuk membayar pajak teknologi.


1
Ini adalah analisis yang hebat (dan saya memilihnya seperti itu). Tetapi pada akhirnya saya menemukan kesimpulan tidak meyakinkan. Lagi pula, tidak akan sulit untuk membuat matriks sensor "bodoh", beberapa di antaranya ditutupi oleh, katakanlah, filter ND enam stop. (Gunakan salah satu dari G di filter Bayer untuk ini, misalnya.) Tidak diperlukan perubahan elektronik; tidak ada apa pun tentang kamera, lensa, dll. yang akan berubah; tetapi sebagai imbalan atas hilangnya sensitivitas yang kecil Anda akan memperoleh kemampuan untuk membedakan gradasi (kasar) dalam piksel yang meledak. Itu dekat dengan apa yang diminta OP.
Whuber

2
Pendekatan sederhana yang lebih baik sudah ada di sensor EXR Fuji. Ini memiliki ukuran sensor yang berbeda; sensel kecil dan besar dipasangkan di setiap situs piksel sumber pada sensor. Meskipun hal itu dapat menyediakan rentang tangkapan yang lebih luas, namun masih terbatas dalam hal apa yang dapat dilakukannya - Anda masih dapat meledakkan highlight jika Anda ingin mendapatkan semua bayangan. (Dan implementasi Fuji saat ini menggunakan terlalu banyak piksel pada sensor yang terlalu kecil.) Asumsikan implementasi yang sempurna dengan berbagai ukuran sensor - yang masih menyisakan masalah pemrosesan — dan itu, bukan tangkapannya, adalah masalah sebenarnya.

Terima kasih untuk referensi EXR. Ini menunjukkan saran saya bukan hanya masuk akal, tetapi nyata. Sekarang bukankah perangkat lunak HDR mengatasi masalah pemrosesan? Jika Anda berhasil menangkap rentang dinamis yang luas dengan sensor terintegrasi, maka Anda sudah memiliki tumpukan HDR yang terdaftar sempurna. Keterbatasan teknologi ini adalah keterbatasan HDR.
Whuber

Sekali lagi, pemrosesan langsung akan memberikan gambar jelek jika sumbernya HDR. Keterbatasannya bukan pada penangkapan, tetapi dalam pemrosesan — berapa banyak gambar halo yang perlu Anda lihat sebelum Anda sampai pada kesimpulan bahwa pemrosesan HDR tidak sederhana? Orang yang bermaksud baik mengacaukannya secara meriah, dan mereka tahu apa yang mereka ingin gambar "katakan". Kemudian masalah kecepatan penyimpanan dan penulisan juga masih ada, dan ada lagi kompromi penggunaan. Sebuah kamera bisa menjadi segalanya bagi semua orang, tetapi berapa biayanya baik dalam harga maupun ergonomi? Pengambilan 14-bit dan kompresi DR ada di sini sekarang; 16-bit tidak akan jauh di belakang.

1
... Dan keduanya masih mendapat sorotan. Anda perlu memperluas secara substansial lebih jauh untuk menghindari masalah ini sama sekali, dan pada titik tertentu kepraktisannya rusak, setidaknya pada tingkat pasar massal. Studio shooter tidak membutuhkannya; kebanyakan konsumen tidak membutuhkannya. Saya melakukan potret lingkungan sebagian besar, dan saya tidak bisa memikirkan terlalu banyak kali saya membutuhkannya (overexposure telah membuat banyak gambar saya). Biaya overhead tidak akan sepadan bagi kebanyakan orang, jadi itu akan menciptakan produk niche yang mahal.

3

Ada satu hal yang hanya sedikit orang sebutkan, dan itu adalah adegan yang tidak akan terlihat sama jika area yang berbeda berbeda dengan area lain. Sebuah pemandangan terlihat seperti itu karena ada variasi. Ya, itu bisa menjadi cara untuk menyelamatkan highlight dan bayangan dorongan, tetapi pada akhirnya, apa yang Anda benar-benar inginkan adalah lebih besar rentang dinamis yang dapat menangkap rentang dinamis dalam adegan menggunakan salah satu pengaturan exposure.

Mata kami hebat dalam memberikan kami rentang dinamis yang jauh lebih besar daripada teknologi kamera konsumen saat ini. Saya dapat melihat sekeliling dengan cepat dan melihat detail yang akurat di daerah yang teduh dan daerah yang diterangi matahari secara bersamaan.

Salah satu cara produsen kamera mengatasi masalah ini adalah dengan menggunakan piksel sensitivitas tinggi dan rendah di satu sensor lalu menggabungkan hasilnya per piksel. Kamera bioskop digital RED yang lebih baru memiliki matriks piksel sensor normal dan sensitivitas rendah yang disebut HDRx. Pixel sensor sensitivitas kecil dan rendah digabungkan ke dalam highlight piksel cerah untuk meningkatkan rentang dinamis.


Anda benar, itu akan menghasilkan foto yang hambar tetapi jelas itu harus memiliki beberapa batasan. Saya percaya bahwa membiarkan kamera memutuskan area mana yang lebih terang dan lebih gelap akan terlalu banyak. Saya tidak berpikir benar ...

3

Pertama, rentang dinamis mata manusia tidak terlalu bagus. Tampaknya hanya lebih baik daripada kamera kelas atas saat ini, karena otak kita terus-menerus menggabungkan "foto" yang diambil menggunakan pengaturan pencahayaan yang berbeda. Mata kita tidak dapat mendaftarkan objek yang sangat terang dan sangat gelap secara bersamaan (meskipun otak bisa). Keajaiban pemrosesan gambar, tetapi hanya perangkat optik / pencitraan yang biasa-biasa saja.

Ada beberapa proposal / prototipe yang menunjukkan bagaimana rentang dinamis sensor gambar dapat sangat ditingkatkan:

  • Modulo Camera oleh MIT

    setiap fotodioda mengatur ulang keadaannya setelah mencapai biaya maksimum dan mengingat berapa kali itu terjadi

  • Sensor Gambar Quanta oleh Eric Fossum

    menggunakan piksel penghitungan foton yang jauh lebih kecil dan lebih cepat daripada wadah muatan "analog" + konverter A / D


2

Anda melewatkan beberapa fisika dasar di sini. Masalah utama adalah bahwa adegan nyata memiliki rasio kontras yang besar. Mata kita telah berevolusi untuk menghadapinya dengan merasakan tingkat cahaya secara logaritmik bukannya linier. Sayangnya, teknologi sensor saat ini secara inheren mengukur cahaya secara linear. Atau lebih tepatnya, kebisingan diperbaiki pada skala cahaya linier.

Dengan teknologi saat ini, batas kontras maksimum pada dasarnya adalah fungsi dari tingkat kebisingan. Demi argumen, mari gunakan skala cahaya 0-1000, yang berarti sensor dapat memberi tahu Anda tingkat cahaya dari 0 hingga 1000. Berapa rasio tertinggi yang bisa diukur? Itu tergantung pada tingkat kebisingan. Tingkat kebisingan pada dasarnya adalah apa yang Anda dapatkan, bukan true black, yang akan menjadi 0 dalam contoh ini. Secara kasar, jika tingkat kebisingannya 2, maka Anda mendapatkan sekitar 1000: 2 = rasio kecerahan 500: 1. Selama adegan tidak melebihi itu (hampir semua akan melakukannya, pada kenyataannya 500: 1 tidak banyak), Anda dapat melakukan pemetaan logaritmik apa pun yang Anda inginkan nanti.

Jadi strategi saat ini, mengingat bahwa sensor arus secara inheren linier, adalah mencoba untuk meningkatkan rasio sinyal terhadap noise, dan untuk menyediakan bit yang cukup sehingga noise kuantisasi berada di bawah noise acak yang melekat. Semakin rendah derau sensor, adegan rentang dinamis yang lebih luas yang dapat Anda tangkap tanpa memotong sorotan atau mengerakkan bayangan.

Ada teknologi sensor yang sama sekali berbeda yang secara inheren mengukur log kecerahan. Kadang-kadang ini disebut sensor "CMOS", karena mereka sangat mirip dengan CMOS dynamic RAM dengan penutupnya dilepas (saya terlalu menyederhanakan, tetapi tes pertama di lab sebenarnya dilakukan dengan cara ini). Anda mendapatkan tegangan yang sebanding dengan log cahaya, tetapi saat ini memiliki sinyal yang lebih rendah untuk rasio noise. Mitsubishi adalah yang pertama kali mengkomersilkan sensor-sensor ini, tetapi belum cukup baik untuk kamera kelas atas.

Tidak ada keraguan akan ada kemajuan di berbagai bidang, dan saya yakin kita akan melihat kemajuan yang stabil selama bertahun-tahun yang akan datang. Namun, ada alasan bagus mengapa keadaan seperti sekarang, bukan hanya karena tidak ada yang bisa membayangkan sesuatu yang lebih baik. Jika seseorang memiliki teknologi yang dapat mengukur rentang dinamis yang luas secara akurat dan dengan harga yang bersedia dibayar oleh orang, mereka akan menjadi kaya di luar sana.


1

Saya percaya itu terlalu rumit.

Pada dasarnya akan ada dua pendekatan yang mungkin; baik setiap fotosensor dapat melacak waktu dan mematikannya sendiri, atau CPU dapat melacak data dari fotosensor dan mematikannya.

Untuk pendekatan pertama, itu berarti setiap fotosensor akan memerlukan sinyal jam dan penghitung, sehingga dapat melacak berapa lama waktu yang diperlukan hingga foto mati sendiri. Itu lebih banyak sirkuit agar sesuai dengan chip, dan lebih banyak listrik yang diperlukan untuk menjalankannya, yang meningkatkan kebisingan sinyal. Mungkin sangat banyak sehingga rentang dinamis yang meningkat tidak ada gunanya.

Untuk pendekatan kedua, CPU perlu membaca semua data dari sensor sekitar 1/10000 detik. Itu sekitar 1000 kali lebih cepat daripada yang bisa dicapai teknologi saat ini, jadi itu dekade ke depan, jika memungkinkan.

Juga, ada komplikasi lain dengan solusi seperti itu, sehingga setiap piksel akan mendapatkan waktu pencahayaan yang berbeda. Anda akan mendapatkan artefak yang sangat aneh jika Anda memotret apapun yang bergerak.


1
Saya tidak begitu yakin bahwa "gerakan selektif blur" akan menjadi masalah besar. Saat memotret subjek bergerak, piksel yang akan terpapar paling lama adalah piksel yang tetap dalam kegelapan sepanjang waktu. Ini akan berada di sebagian besar wilayah gelap seragam, di mana beberapa blur tidak akan terlalu terlihat. Piksel pada tepi antara area gelap dan terang, dalam hal subjek bergerak, akan mendapatkan eksposur yang lebih tinggi, dan akan lebih cepat mati, menghasilkan lebih sedikit blur.
Jan Hlavacek

0

Meskipun benar bahwa DSLR adalah digital, lensa tidak. Semua sensor sel akan tunduk pada bukaan yang sama, tidak peduli seberapa pintar tubuh DSLR, karena bukaan diatur pada lensa. Jadi saya pikir memvariasikan bukaan per sel sensor, setidaknya dengan teknologi lensa saat ini.

Sejauh kecepatan rana, yang dikendalikan oleh kamera, tetapi jika kita membayangkan kamera yang dapat memvariasikan kecepatan rana pada bagian gambar yang berbeda untuk mengontrol eksposur / under exposure, Anda akan berakhir dengan blur gerakan yang tidak merata. Bagian-bagian yang lebih gelap dari adegan harus diekspos lebih lama dan akan lebih buram daripada bagian yang lebih terang. Saya pikir solusi yang mengubah kecepatan rana tidak akan berfungsi karena alasan ini.

Jadi satu-satunya yang tersisa adalah ISO. Memvariasikan ISO berarti tingkat kebisingan yang berbeda di berbagai bagian gambar. Ini kedengarannya tidak terlalu buruk, mengingat Anda akan mendapatkan rentang dinamis yang jauh lebih tinggi sebagai balasannya. Saya tidak tahu banyak tentang cara kerja sensor, tetapi saya akan membayangkan bahwa pengaturan ISO diimplementasikan dalam sensor sebagai semacam "penyetelan" menuju subset tertentu dari skala kecerahan. Kedengarannya bagi saya itu akan sangat mahal untuk memiliki pengukuran independen dan kontrol ISO di setiap sel sensor, tetapi mungkin gambar dapat dibagi dalam area, dan setiap area diukur secara terpisah. Maka kamera harus memiliki semacam algoritma untuk memadukan area yang berbeda-beda, semacam apa yang "digabungkan" dengan apa yang dilakukan saat merakit panorama di mana setiap gambar memiliki eksposur yang berbeda. Ini kedengarannya bisa dilakukan bagi saya.

Pilihan lain adalah memiliki kamera dengan banyak sensor, masing-masing dikonfigurasikan ke ISO yang berbeda. Dalam teknologi video ada 3 kamera CCD, di mana setiap CCD merekam satu merah, hijau dan biru. Saya tidak mengerti mengapa tidak ada konsep serupa untuk DSLR, di mana banyak sensor mengambil gambar pada level ISO yang berbeda, menghasilkan gambar HDR.


0

Saya tidak dapat menemukan informasi saat ini, tetapi saya sepertinya ingat membaca deskripsi dari teknologi yang sama. Idenya kira-kira begini: satu-satunya hal yang perlu dijaga adalah sorotan berlebihan. Jika Anda dapat mencegahnya, area gelap dapat diatasi dengan meningkatkan eksposur ke seluruh gambar. Jadi, untuk mencegah sorotan yang berlebihan, setiap sensor akan melacak akumulasi cahaya, dan jika mendekati maksimum, sensor akan mati. Itu dengan sendirinya tidak akan memperbaiki apa pun, itu justru akan memperburuk keadaan, alih-alih memiliki beberapa highlight putih terang yang berlebihan, seseorang akan berakhir dengan highlight yang bahkan sedikit lebih gelap. Jadi, alih-alih hanya mematikan, sel juga akan mematikan sel di beberapa lingkungan, yang akan mempertahankan beberapa detail di area terang.

Ketika saya menulis, saya tidak dapat menemukan teks sekarang, tetapi entah bagaimana itu ada dalam pikiran saya terkait dengan kamera digital HP.


Jika Anda menemukannya, silakan tautkan ke artikel. Memang ide yang menarik.

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.