Apakah memotret dengan resolusi RAW yang lebih rendah menggunakan kamera crop sensor meniru kualitas kamera full frame?


12

Saya tidak berbicara tentang perubahan panjang fokus.

Saya telah membaca banyak posting yang mengatakan dalam kamera full frame kerapatan piksel lebih rendah dibandingkan dengan kamera sensor crop dan karenanya menangkap lebih banyak cahaya dan karenanya memiliki kinerja ISO yang lebih baik dan jangkauan dinamis yang lebih besar. Jadi jika saya mengganti kamera crop sensor untuk memotret pada resolusi yang lebih rendah, akankah itu setara dengan kerapatan piksel yang lebih baik dan meniru kinerja bingkai penuh (atau format medium) atau akankah itu selalu memotret pada resolusi maksimum dan mengurangi ukuran?

--EDIT: 1--
Saya memiliki Canon 60D dan saya memiliki 3 pilihan untuk ukuran gambar RAW (RAW, M-RAW, dan S-RAW). Jika RAW hanya dump dari sensor Kamera, Bagaimana mereka bisa menjadi 3 ukuran yang berbeda? Apakah kamera juga menurunkan skala gambar RAW?


2
Vivek - baca pertanyaan ini: photo.stackexchange.com/q/3419/1024 . Menurut @whuber (dan artikel yang dia tautkan), RAW yang lebih kecil memang merupakan semacam agregasi dari masing-masing sensor, seperti yang dijelaskan Stan dalam jawabannya, hanya saja dilakukan dalam bentuk lunak bukan dalam perangkat keras.
ysap

(Halaman tautan ysap untuk mencakup bagian mraw / sraw dari pertanyaan.)
Silakan Baca Profil Saya

Saya akan memberikan dokumen dari ysap membaca dan mengomentarinya.
Viv

Jawaban:


7

Karena Anda memiliki Canon, mode RAW yang lebih rendah, mRAW dan sRAW, JANGAN MENGGUNAKAN SEMUA piksel sensor yang tersedia untuk menghasilkan hasil yang lebih kaya tanpa perlu interpolasi bayer. Format output aktual, walaupun masih terkandung dalam file gambar Canon RAW .cr2, dikodekan dalam format Y'CbCr, mirip dengan banyak format pull-down video. Ia menyimpan informasi pencahayaan untuk setiap piksel LENGKAP (2x2 kuad dari 1 piksel merah, 1 biru, dan 2 piksel hijau), dan setiap saluran krominansi berasal dari data setengah piksel (1x2 pasangan 1 merah + 1 hijau atau 1 biru + 1 hijau) .

Saya tidak tahu pasti apa yang dibaca perangkat keras tingkat rendah dan perbedaan pengkodean antara mRAW dan sRAW, namun secara umum semakin kecil format output, semakin banyak informasi input piksel sensor yang dapat Anda gunakan untuk setiap piksel output. Jumlah kecil interpolasi hadir dalam m / sRAW adalah moot, karena kedua format interpolasi jauh lebih sedikit daripada RAW asli. Juga harus dicatat bahwa mRAW atau sRAW bukanlah format "RAW" yang sebenarnya dalam arti normal ... data sensor diproses dan dikonversi menjadi sesuatu yang lain sebelum disimpan ke file .cr2.

Untuk perincian lebih lanjut tentang format yang diturunkan YUV dan Canon sRAW, lihat jawaban saya di sini: Mengapa ruang warna xvYCC tidak mengambil alih fotografi diam?

Dari "Memahami Apa yang disimpan dalam file Canon RAW .CR2":

Format sRaw (untuk "RAW kecil") diperkenalkan dengan 1D Mark III pada 2007. Ini adalah versi yang lebih kecil dari gambar RAW.

Untuk 1D Mark III, maka 1Ds Mark III dan 40D (semua dengan Digic III), ukuran sRaw persis 1/4 (seperempat) dari ukuran RAW. Dengan demikian kita dapat mengandaikan bahwa masing-masing kelompok 4 "piksel sensor" diringkas menjadi 1 "piksel" untuk sRaw.

Dengan 50D dan 5D Mark II (dengan chip Digic IV), RAW ukuran 1/4 masih ada (sRaw2), dan setengah ukuran RAW juga muncul: sRaw1. Dengan 7D, setengah ukuran mentah disebut mraw (pengkodean yang sama dengan sraw1), 1 / 4th raw disebut sraw (seperti sraw2).

sRaw lossless Jpeg selalu dikodekan dengan komponen 3 warna (nb_comp) dan 15 bit.

Kode Jpeg dari Dcraw pertama kali dimodifikasi (8,79) untuk menangani sRaw karena nilai h = 2 dari komponen pertama (latar belakang abu-abu dalam tabel). RAW normal selalu h = 1. Dimulai dengan 50D, kita memiliki v = 2 bukannya v = 1 (oranye di tabel). Dcraw 8.89 adalah versi pertama yang menangani ini dan sraw1 dari 50d dan 5D Mark II.

"h" adalah faktor pengambilan sampel horisontal dan "v" faktor pengambilan sampel vertikal. Ini menentukan berapa banyak unit data horisontal / vertikal dikodekan dalam setiap MCU (unit kode minimum). Lihat T-81, halaman 36.

3.2.1 Format sRaw dan sRaw2

h = 2 berarti bahwa data yang dikompresi akan berisi 2 nilai untuk komponen pertama, 1 untuk kolom n dan 1 untuk kolom n +1. Dengan 2 komponen lainnya, dekompresi sraw dan sraw2 (yang semuanya memiliki h = 2 & v = 1), selalu memiliki 4 nilai dasar

[y1 y2 xz] [y1 y2 xz] [y1 y2 xz] ...
(y1 dan y2 untuk komponen pertama)

Setiap "piksel" dalam gambar sRAW dan mRAW berisi empat komponen ... komponen Y 'terbelah (y1 dan y2), serta x (Chrominance Blue) dan z (Chrominance Red). Keempat komponen (dari perspektif gambar 1/2, sRAW1 / mRAW) memiliki tinggi kolom 2 (h) dan lebar 1 (v). Ini menunjukkan bahwa nilai Luminance (Y ') terdiri dari quad 2x2 LENGKAP ... atau dua kolom 2x1 piksel yang disimpan dalam y1 dan y2.

Referensi di bawah ini tampaknya tidak secara khusus menyatakan ini, jadi saya berspekulasi sedikit di sini, namun dengan sRAW2 (1/4 raw) Saya percaya informasi Luminance akan diperoleh dari blok piksel 4x4 di mana h = 4 dan v = 2. Encoding chrominance akan menjadi lebih kompleks pada ukuran gambar 1/4, karena array filter warna bayer pada sensor tidak diatur dalam kolom merah dan biru yang rapi. Saya tidak yakin apakah kolom tinggi 2x1 bolak-balik diproses untuk setiap komponen Cr dan Cb, atau jika beberapa bentuk interpolasi lain dilakukan. Satu hal yang pasti ... interpolasi data sumber selalu lebih besar dari data output, dan tidak ada tumpang tindih (seperti dalam interpolasi bayer normal) terjadi sejauh yang saya tahu.

Akhirnya, sRAW1 / mRAW dan sRAW / sRAW2 dikompres menggunakan algoritma kompresi lossless. Ini adalah perbedaan kritis antara format ini dan JPEG, yang juga menggunakan pengkodean tipe ycc. JPEG melakukan kompresi lossy, membuatnya tidak mungkin untuk mengembalikan piksel kembali ke representasi aslinya. Format s / mRAW Canon memang dapat dikembalikan ke data gambar 15-bit presisi penuh asli.

Referensi:


8

Secara teori, bisa saja jika kamera menggunakan strategi yang tepat untuk mengurangi ukuran gambar.

Seperti yang Anda catat, dengan kamera sensor pangkas saat ini, gambar mentah tetap sama tidak peduli apa pun ukuran JPEG yang telah Anda tetapkan. Gambar JPEG hanya diskalakan. Ini agak dapat mengurangi tampilan noise, tetapi pengurangannya disebabkan oleh algoritma penskalaan gambar (Anda tidak dapat memasukkan piksel bintik sebanyak mungkin ke dalam gambar yang lebih kecil seperti yang Anda dapat ke dalam versi berukuran penuh). Namun, lebih mungkin bahwa Anda akan dapat melakukan setidaknya sama baiknya, jika tidak lebih baik, jika Anda melakukan pengurangan kebisingan dan meningkatkan skala diri sendiri setelah fakta.

Ada strategi yang akan menghasilkan pengurangan kebisingan yang sebenarnya. Beberapa punggung format medium resolusi tinggi (Seperti seri Fase Satu SensorPlus) menggunakan strategi yang disebut pixel binning , di mana kelompok-kelompok sensor yang berdekatan diperlakukan sebagai satu sensor yang jauh lebih besar dan muatan kumulatifnya dibaca dari sensor. Itu berbeda dari membaca biaya individu dan rata-rata (yang Anda dibatasi dalam pemrosesan pasca-baca) - ini terjadi pada tingkat perangkat keras, dan mengubah arti "mentah". Gangguan baca memiliki peluang lebih baik untuk membatalkan, dan muatan kumulatif membuat konversi analog-ke-digital menjadi kurang ambigu (kisaran kuanta yang dikonversi lebih lebar dengan amplifikasi yang lebih sedikit).

Dalam praktiknya, ini biasanya berarti memotong resolusi dengan faktor empat (setengah lebar dan setengah tinggi). Dengan format kembali 60 atau 80MP, yang masih memberi Anda gambar 15 atau 20MP; dengan kamera sensor 16MP, Anda akan turun ke gambar mentah 4MP. Sekarang Anda mungkin tahu dan saya mungkin tahu bahwa gambar 4MP yang bersih lebih baik daripada gambar 16MP yang berisik, tetapi tidak semua orang akan membeli gagasan bahwa perlu biaya ekstra untuk menghasilkan gambar yang lebih kecil. Itu berarti tidak mungkin Anda melihat pixel binning digunakan dalam apa pun yang kurang dari kamera pro-level dalam waktu dekat. Mungkin muncul di kamera full-frame jika resolusinya terus naik, tapi saya tidak akan mencarinya di sensor krop. (Yah, mungkin Pentax mungkin akan menusuk suatu hari, karena mereka tidak melakukan full-frame.)


Maaf saya pikir saya harus mengklarifikasi tentang ukuran gambar RAW. Saya memiliki Canon 60D dan saya memiliki 3 pilihan untuk ukuran gambar RAW (RAW, M-RAW, dan S-RAW). Jika RAW hanya dump dari sensor Kamera, Bagaimana mereka bisa menjadi 3 ukuran yang berbeda? Apakah kamera juga menurunkan skala gambar RAW?
Viv

@Stan: Canon sudah melakukan persis seperti yang Anda gambarkan dengan format mRAW dan sRAW. Mereka bukan format RAW literal, mereka adalah turunan YUV (tepatnya Y'CrCb), dan mereka memang melakukan bentuk binning piksel. Lihat jawaban saya untuk lebih jelasnya.
jrista

Re the future: Keterbatasan sebenarnya adalah area sensor. Jika ukuran sensor tetap sama dan resolusinya naik (dengan mengecilkan piksel), maka tidak akan ada perolehan bersih dari pixel binning. Ini hanya masalah menggunakan lebih banyak sensor untuk membaca area fisik yang sama dari sensor. Apa yang dapat kita harapkan adalah peningkatan sensitivitas masing-masing sensor, sehingga lebih banyak cahaya dan lebih sedikit noise terdaftar dalam bagian kecil dari sensor tersebut.
whuber

1
@jrista: itu bukan binning, itu rata-rata post-read. Binning harus menghasilkan pengurangan integral dalam resolusi linier, dan data photosite individu tidak tersedia untuk diproses karena pembacaan kumulatif (tidak terpisah, kemudian dirata-rata, dibaca) dilakukan melalui beberapa sensor. (Dalam sistem Bayer-quad, itu berarti 1/4, 1/16, 1/64, dll., Dari resolusi penuh yang dinyatakan sebagai area atau piksel.) Rata-rata pasca-baca tidak berbeda, secara teknis, dari penskalaan; itu hanya bekerja di ruang data yang berbeda.

1

Jika noise tinggi adalah masalah utama Anda, salah satu solusinya adalah memotret beberapa frame dan memiliki perangkat lunak dengan algoritme yang baik menggabungkan satu gambar yang baik dari beberapa yang lebih buruk. Misalnya ALE, Anti-Lamenessing Engine melakukan ini. Untuk subjek yang bergerak, ini jelas tidak berhasil, tetapi Anda dapat memotret dengan tangan, katakanlah, pada ISO 1600 dan kemudian menggabungkan pemotretan untuk mencapai tingkat kebisingan yang mendekati ISO 400 atau 800.

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.