पूर्ण फ्रेम कैमरों के क्रॉप सेंसर कैमरा मिमिक्स गुणों का उपयोग करके कम रॉ रेजोल्यूशन पर शूटिंग होती है?


12

मैं फोकल लंबाई में परिवर्तन के बारे में बात नहीं कर रहा हूँ।

मैंने कई पोस्ट पढ़े हैं जो कहते हैं कि फुल फ्रेम कैमरा में क्रॉप सेंसर कैमरा की तुलना में पिक्सेल डेंसिटी कम है और इसलिए यह अधिक रोशनी पकड़ता है और इस तरह इसमें बेहतर आईएसओ परफॉर्मेंस और ज्यादा डायनामिक रेंज होती है। इसलिए अगर मैं कम रिज़ॉल्यूशन पर शूट करने के लिए क्रॉप सेंसर कैमरा बदल देता हूं, तो क्या यह बेहतर पिक्सेल डेंसिटी के बराबर होगा और फुल फ्रेम (या मीडियम फॉर्मेट) के प्रदर्शन की नकल करेगा या यह हमेशा अधिकतम रिज़ॉल्यूशन पर शूट करेगा और साइज़ कम करेगा?

--EDIT: 1--
मेरे पास कैनन 60D है और रॉ इमेज साइज (RAW, M-RAW amd S-RAW) के लिए मेरे पास 3 विकल्प हैं। यदि रॉ कैमरा सेंसर से सिर्फ एक डंप है, तो उनके 3 अलग-अलग आकार कैसे हो सकते हैं? क्या कैमरा RAW छवियों को भी मापता है?


2
: - विवेक इस सवाल पढ़ा photo.stackexchange.com/q/3419/1024 । @Whuber (और वह जिस लेख को जोड़ता है) के अनुसार छोटे रॉल्स वास्तव में व्यक्तिगत इंद्रियों के एकत्रीकरण के कुछ प्रकार हैं, जैसे स्टेन अपने उत्तर में वर्णन करता है, केवल यह हार्डवेयर के बजाय नरम में किया जाता है।
ysap

(पेज ysap लिंक प्रश्न के mraw / sraw भाग को कवर करने के लिए है।)
कृपया मेरे प्रोफ़ाइल में पढ़ें

मैं दस्तावेज़ को ysap से पढ़ता हूँ और उस पर टिप्पणी करता हूँ।
विव

जवाबों:


7

यह देखते हुए कि आपके पास कैनन है, कम RAW मोड, mRAW और sRAW, DO INDEED UTILIZE सभी उपलब्ध सेंसर पिक्सल में बायर इंटरपोलेशन की आवश्यकता के बिना एक समृद्ध परिणाम उत्पन्न करने के लिए। वास्तविक आउटपुट स्वरूप, जबकि यह अभी भी एक .cr2 Canon RAW छवि फ़ाइल के भीतर समाहित है, कई वीडियो पुलडाउन प्रारूपों के समान Y'CbCr प्रारूप में एन्कोडेड है। यह प्रत्येक पूर्ण पिक्सेल (1 लाल, 1 नीला, और 2 हरा पिक्सेल का 2x2 क्वाड) के लिए ल्यूमिनेन्स जानकारी संग्रहीत करता है, और प्रत्येक क्रोमिनेंस चैनल आधे पिक्सेल डेटा (1x2 जोड़ी 1 लाल + 1 हरा या 1 नीला + हरा) से प्राप्त होता है ।

मैं निश्चित रूप से निश्चित नहीं हूँ कि विशिष्ट निम्न-स्तरीय हार्डवेयर क्या पढ़ता है और mRAW और sRAW के बीच अंतर को एन्कोडिंग करता है, हालांकि आम तौर पर छोटे आउटपुट स्वरूप को बोलते हैं, अधिक सेंसर पिक्सेल इनपुट जानकारी जिसे आप प्रत्येक आउटपुट पिक्सेल के लिए उपयोग कर सकते हैं। M / sRAW में मौजूद प्रक्षेप की थोड़ी मात्रा मूट है, क्योंकि दोनों प्रारूप देशी RAW से बहुत कम दूरी पर प्रक्षेपित होते हैं। यह भी ध्यान दिया जाना चाहिए कि न तो mRAW और न ही sRAW सामान्य अर्थों में वास्तविक "RAW" प्रारूप हैं ... सेंसर डेटा को संसाधित किया जाता है और इसे .cr2 फ़ाइल में सहेजे जाने से पहले कुछ और में परिवर्तित किया जाता है।

YUV के व्युत्पन्न प्रारूपों और Canon sRAW के बारे में अधिक जानकारी के लिए, यहाँ मेरा उत्तर देखें: xvYCC रंग स्थान अभी भी फोटोग्राफी के लिए क्यों नहीं दिख रहा है?

"अंडरस्टैंडिंग क्या एक कैनन RAW .CR2 फ़ाइल में संग्रहीत है" से:

SRaw प्रारूप ("छोटे रॉ" के लिए) को 2007 में 1D मार्क III के साथ पेश किया गया था। यह रॉ चित्र का एक छोटा संस्करण है।

1D मार्क III के लिए, फिर 1Ds मार्क III और 40D (सभी Digic III के साथ), sRaw का आकार RAW आकार का 1/4 (एक चौथाई) है। इस प्रकार हम मान सकते हैं कि 4 "सेंसर पिक्सल" के प्रत्येक समूह को sRaw के लिए 1 "पिक्सेल" में संक्षेपित किया गया है।

50D और 5D मार्क II (Digic IV चिप के साथ) के साथ, 1 / 4th आकार RAW अभी भी है (sRaw2), और एक आधा आकार RAW भी दिखाई दे रहा है: sRaw1। 7D के साथ, आधे आकार के कच्चे को mraw (sraw1 के समान एन्कोडिंग) कहा जाता है, 1 / 4th कच्चे को sraw (sraw2 की तरह) कहा जाता है।

sRaw दोषरहित Jpeg को हमेशा 3 रंगों के घटक (nb_comp) और 15 बिट्स के साथ एन्कोड किया जाता है।

पहले घटक के एच = 2 मूल्य (तालिका में ग्रे बैकग्राउंड) के कारण sRaw को संभालने के लिए Dcraw के Jpeg कोड को पहली बार (8.79) संशोधित किया गया था। सामान्य RAW में हमेशा h = 1 होता है। 50D से शुरू होकर, हमारे पास v = 1 (तालिका में नारंगी) के बजाय v = 2 है। Dcraw 8.89 इसे संभालने वाला पहला संस्करण है और sraw1 50d और 5D Mark II से।

"h" क्षैतिज नमूनाकरण कारक है और ऊर्ध्वाधर नमूना कारक "v" है। यह निर्दिष्ट करता है कि प्रत्येक MCU (न्यूनतम कोडित इकाई) में कितने क्षैतिज / ऊर्ध्वाधर डेटा यूनिट एन्कोड किए गए हैं। टी -81, पृष्ठ 36 देखें।

3.2.1 sRaw और sRaw2 प्रारूप

h = 2 का अर्थ है कि विघटित डेटा में पहले घटक के लिए 2 मान होंगे, स्तंभ n के लिए 1 और स्तंभ n + 1 के लिए 1। 2 अन्य घटकों के साथ, विघटित श्राव और श्राव 2 (जो सभी में h = 2 और v = 1 है), हमेशा 4 भिन्न मान होते हैं

[y1 y2 xz] [y1 y2 xz] [y1 y2 xz] ...
(पहले घटक के लिए y1 और y2)

SRAW और mRAW छवियों में प्रत्येक "पिक्सेल" में चार घटक होते हैं ... एक विभाजन Y 'घटक (y1 और y2), साथ ही एक एक्स (क्रोमिनेंस ब्लू) और जेड (क्रोमिनेंस रेड)। सभी चार घटकों (एक 1/2 छवि परिप्रेक्ष्य से, sRAW1 / mRAW) में 2 (एच) की एक कॉलम ऊंचाई और 1 (v) की चौड़ाई है। यह इंगित करता है कि Luminance मान (Y ') एक पूर्ण 2x2 पिक्सेल क्वाड से बना है ... या y1 और y2 में संग्रहीत दो 2x1 पिक्सेल कॉलम।

नीचे दिए गए संदर्भ विशेष रूप से यह नहीं बताते हैं, इसलिए मैं यहां थोड़ा सा अनुमान लगा रहा हूं, हालांकि sRAW2 (1/4 कच्चा) के साथ मेरा मानना ​​है कि ल्यूमिनेंस की जानकारी 4x4 पिक्सेल ब्लॉक से ली जाएगी जहां h = 4 और v = 2 होगा। एन्कोडिंग क्रोमिनेंस 1/4 आकार की छवि में अधिक जटिल होगा, क्योंकि सेंसर पर बेयर रंग फिल्टर सरणी को साफ लाल और नीले कॉलम में व्यवस्थित नहीं किया गया है। मैं अनिश्चित हूं कि क्या अल्टरनेटिंग 2x1 ऊंचाई कॉलम प्रत्येक सीआर और सीबी घटक के लिए संसाधित किए जाते हैं, या यदि किसी अन्य रूप में प्रक्षेप किया जाता है। एक बात निश्चित है ... स्रोत डेटा का प्रक्षेप आउटपुट डेटा से हमेशा बड़ा होता है, और जहाँ तक मैं बता सकता हूं, कोई अतिव्यापी (सामान्य बायर प्रक्षेप में) नहीं होता है।

अंत में, sRAW1 / mRAW और sRAW / sRAW2 एक दोषरहित संपीड़न एल्गोरिथ्म का उपयोग करके संकुचित होते हैं। यह इन प्रारूपों और JPEG के बीच एक महत्वपूर्ण अंतर है, जो एक ycc प्रकार एन्कोडिंग का उपयोग करता है। JPEG हानिपूर्ण संपीड़न करता है, जिससे पिक्सेल को उनके मूल मूल प्रतिनिधित्व पर वापस लाना असंभव हो जाता है। कैनन के एस / एमआरडब्ल्यू प्रारूप वास्तव में मूल पूर्ण परिशुद्धता 15-बिट छवि डेटा पर वापस लाने में सक्षम हैं।

संदर्भ:


8

सिद्धांत रूप में, यह हो सकता है अगर कैमरा छवि आकार को कम करने के लिए सही रणनीति का उपयोग करता है।

जैसा कि आपने बताया, वर्तमान फसल-सेंसर कैमरों के साथ, कच्ची छवि वही रहती है जो आपके द्वारा निर्धारित जेपीईजी आकार में नहीं है। JPEG इमेज को केवल स्केल किया गया है। यह कुछ हद तक शोर की उपस्थिति को कम कर सकता है, लेकिन कमी छवि स्केलिंग एल्गोरिथ्म के कारण है (आप छोटे चित्र में कई धब्बेदार पिक्सल के रूप में फिट नहीं हो सकते हैं, जैसा कि आप पूर्ण आकार के संस्करण में कर सकते हैं)। यह अधिक संभावना है, हालांकि, आप कम से कम अच्छा करने में सक्षम होंगे, यदि बेहतर नहीं है, यदि आप शोर कम करते हैं और तथ्य के बाद खुद को स्केल करते हैं।

एक रणनीति है जो सही शोर में कमी का उत्पादन करेगी। कुछ उच्च-रिज़ॉल्यूशन वाले मीडियम फॉर्मेट बैक (जैसे कि फेज वन सेंसोरप्लस सीरीज़) पिक्सेल बिनिंग नामक एक रणनीति का उपयोग करते हैं , जहां आसन्न संवेदी समूहों को एक बहुत बड़े संवेदी के रूप में माना जाता है और उनका संचयी आवेश सेंसर से पढ़ा जाता है। यह अलग-अलग शुल्कों और औसत (जो आप पोस्ट-रीड प्रोसेसिंग में प्रतिबंधित हैं) को पढ़ने से अलग है - यह हार्डवेयर स्तर पर होता है, और जो "कच्चा" होता है, उसे बदलता है। रीड शोर को रद्द करने का एक बेहतर मौका है, और संचयी प्रभार एनालॉग-टू-डिजिटल रूपांतरण को कम अस्पष्ट बनाता है (परिवर्तित क्वांटा की सीमा कम प्रवर्धन के साथ व्यापक है)।

व्यवहार में, इसका मतलब आमतौर पर चार (आधी चौड़ाई और आधी ऊंचाई) के एक कारक द्वारा संकल्प को काटना है। 60 या 80MP के मध्यम-प्रारूप वाले बैक के साथ, जो अभी भी आपको 15 या 20MP इमेज के साथ छोड़ता है; 16MP के क्रॉप-सेंसर कैमरे के साथ, आप 4MP की कच्ची छवि के नीचे होंगे। अब आप जान सकते हैं और मुझे पता हो सकता है कि एक साफ 4MP छवि एक शोर 16MP छवि से बेहतर है, लेकिन हर कोई इस विचार में नहीं खरीदेगा कि यह एक छोटी छवि बनाने के लिए अतिरिक्त खर्च करता है। इसका मतलब है कि यह संभावना नहीं है कि आप जल्द ही किसी भी समय प्रो-लेवल कैमरे से कम किसी भी चीज़ में इस्तेमाल होने वाले पिक्सेल बिनिंग को देखेंगे। यह पूर्ण-फ्रेम कैमरों में दिखाई दे सकता है यदि उनका संकल्प चढ़ता रहता है, लेकिन मैं इसे फसल सेंसर में नहीं देखूंगा। (ठीक है, हो सकता है कि पेंटाक्स किसी दिन छुरा ले ले, क्योंकि वे फुल-फ्रेम नहीं करते हैं।)


मुझे खेद है कि मुझे लगता है कि मुझे रॉ इमेज के आकारों के बारे में स्पष्ट करना चाहिए। मैं एक Canon 60D और मैं रॉ छवि आकार के लिए 3 विकल्प हैं (RAW, M-RAW amd S-RAW)। यदि रॉ कैमरा सेंसर से सिर्फ एक डंप है, तो उनके 3 अलग-अलग आकार कैसे हो सकते हैं? क्या कैमरा RAW छवियों को भी मापता है?
विव

@Stan: कैनन पहले से ही वही करता है जो आपने उनके mRAW और sRAW प्रारूपों के साथ वर्णित किया है। वे शाब्दिक रॉ प्रारूप नहीं हैं, वे YUV डेरिवेटिव (सटीक होने के लिए YCCCb) हैं, और वे वास्तव में पिक्सेल बिनिंग के रूपों के लिए करते हैं। अधिक जानकारी के लिए मेरा जवाब देखें।
jrista

पुन: भविष्य: वास्तविक सीमा सेंसर क्षेत्र है। यदि सेंसर का आकार समान रहता है और रिज़ॉल्यूशन (पिक्सेल को सिकोड़ते हुए) ऊपर जाता है, तो पिक्सेल बिनिंग से कोई शुद्ध लाभ नहीं होगा। यह सेंसर के एक ही भौतिक क्षेत्र को पढ़ने के लिए अधिक संवेदी का उपयोग करने की बात है। हम व्यक्तिगत संवेदनाओं की संवेदनशीलता में सुधार के लिए क्या उम्मीद कर सकते हैं, ताकि सेंसर के किसी भी छोटे हिस्से के भीतर अधिक प्रकाश और कम शोर पंजीकृत हो।
व्हिबर

1
@ जिरस्टा: कि बिनिंग नहीं है, यह औसत के बाद पढ़ा है। बाइनरी का परिणाम रैखिक रिज़ॉल्यूशन में एक अभिन्न कमी के रूप में होना चाहिए , और संचयी रीड्स (अलग नहीं, फिर औसत, रीड्स) एकाधिक सेंसल्स पर किए जाने के बाद से व्यक्तिगत फोटोसाइट डेटा प्रसंस्करण के लिए उपलब्ध नहीं है। (एक बायर-क्वाड सिस्टम में, जिसका अर्थ है 1/4, 1/16, 1/64, इत्यादि, पूर्ण संकल्प क्षेत्र या पिक्सेल के रूप में।) पोस्ट-पठन औसत स्केलिंग से अलग, तकनीकी रूप से नहीं है; यह सिर्फ एक अलग डेटा स्थान में काम कर रहा है।

1

यदि उच्च शोर आपकी मुख्य समस्या है, तो एक समाधान कई फ़्रेमों को शूट करना है और एक सॉफ्टवेयर है जिसमें अच्छे एल्गोरिदम हैं जो कई बुरे लोगों से एक अच्छी छवि को जोड़ती है। उदाहरण के लिए ALE, एंटी-लैमेसिंग इंजन ऐसा करता है। मूविंग सब्जेक्ट्स के लिए यह स्पष्ट रूप से काम नहीं करता है, लेकिन आप आईएसओ 1600 पर, और कह सकते हैं कि आईएसओ 400 या 800 के करीब शोर के स्तर तक पहुंचने के लिए शॉट्स को जोड़ सकते हैं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.