RAW फाइलें 3 रंग प्रति पिक्सेल, या केवल एक ही स्टोर करती हैं?


16

केन रॉकवेल का कहना है कि कैमरा निर्माता व्यक्तिगत आर / जी / बी सेंसर पर विचार करते हैं जब वे मेगापिक्सेल के बारे में बात करते हैं। तो नीचे दी गई छवि एक 6x6 पिक्सेल कैमरा होगी, न कि 3x3 जैसा कि आप कल्पना करेंगे।

यहाँ छवि विवरण दर्ज करें

यदि यह सच है, तो एक रॉ फ़ाइल में 10, 12 या 14 बिट संख्या के रूप में प्रति पिक्सेल केवल एक ही रंग की जानकारी होगी (R, G या B)।

मेरे भ्रम की स्थिति तब आती है जब मैंने कुछ स्थानों में पढ़ा जैसे:

  • RAW फाइलें प्रति पिक्सेल दो ग्रीन सेंसर का एक भंडार जमा करती हैं।
  • RAW फाइलें 12 बिट प्रति पिक्सेल का उपयोग करती हैं, लेकिन 3 रंग हैं इसलिए वास्तव में 36 बिट प्रति पिक्सेल हैं।

जो स्पष्ट रूप से गलत होगा, यदि केन का दावा सही है।

तो सच क्या है?

जवाबों:


16

कच्चे फ़ाइलें वास्तव में प्रति पिक्सेल किसी भी रंग को संग्रहीत नहीं करती हैं। वे प्रति पिक्सेल केवल एक चमक मूल्य जमा करते हैं।

यह सच है कि प्रत्येक पिक्सेल पर बायर मास्क के साथ प्रकाश को प्रत्येक पिक्सेल पर लाल, हरे, या नीले फ़िल्टर के साथ अच्छी तरह से फ़िल्टर किया जाता है। लेकिन कोई हार्ड कटऑफ नहीं है जहां केवल हरे रंग का प्रकाश एक हरे रंग के फ़िल्टर्ड पिक्सेल के माध्यम से जाता है या केवल लाल बत्ती के माध्यम से लाल फ़िल्टर्ड पिक्सेल तक जाता है। बहुत ओवरलैप है। हरे रंग के फिल्टर के माध्यम से बहुत सी लाल रोशनी और कुछ नीली रोशनी मिलती है। बहुत सारी हरी बत्ती और यहां तक ​​कि थोड़ी नीली रौशनी इसे लाल फिल्टर के माध्यम से बनाती है, और कुछ लाल और हरे रंग की रोशनी को पिक्सेल द्वारा रिकॉर्ड किया जाता है जो नीले रंग से फ़िल्टर होते हैं।

रंग प्रतिक्रिया

चूंकि एक कच्ची फ़ाइल सेंसर पर प्रत्येक पिक्सेल के लिए एकल ल्यूमिनेंस मानों का एक समूह है, इसलिए कच्ची फ़ाइल के लिए कोई वास्तविक प्रति पिक्सेल रंग जानकारी नहीं है। रंग बगल के पिक्सेल की तुलना करके प्राप्त किया जाता है जो एक बायर मास्क के साथ तीन रंगों में से एक के लिए फ़िल्टर किए जाते हैं। लेकिन लेंस के सामने लाल फिल्टर लगाने की तरह, जब श्वेत और श्याम फिल्म की शूटिंग के परिणामस्वरूप एक मोनोक्रोमैटिक लाल फोटो (या बी एंड डब्ल्यू फोटो नहीं था, जहां केवललाल वस्तुओं में बिल्कुल भी चमक नहीं होती है), मोनोक्रोमैटिक पिक्सल्स के सामने बायर मास्क रंग नहीं बनाता है। यह क्या करता है तानवाला मान (कितना उज्ज्वल या कितना गहरा है कि किसी विशेष रंग का ल्यूमिनेंस मूल्य दर्ज किया गया है) विभिन्न रंगों द्वारा अलग-अलग मात्रा में होता है। जब बायर मास्क में इस्तेमाल किए गए तीन अलग-अलग रंगों से फ़िल्टर किए गए पिक्सेल के समवर्ती मान (ग्रे तीव्रता) की तुलना की जाती है, तो उस जानकारी से रंगों को प्रक्षेपित किया जा सकता है। यह वह प्रक्रिया है जिसे हम डिमोसेलिंग के रूप में संदर्भित करते हैं ।

प्रत्येक पिक्सेल के लिए R, G और B मान निर्दिष्ट करने के लिए बहुत सारे गणित किए जाते हैं । इस प्रक्षेप को करने के लिए कई अलग-अलग मॉडल हैं। डीमॉस्सेसिंग प्रक्रिया में लाल, हरे और नीले रंग को कितना पूर्वाग्रह दिया जाता है, जो सफेद / रंग संतुलन को निर्धारित करता है । गामा सुधार और प्रकाश प्रतिक्रिया घटता के किसी भी अतिरिक्त आकार के विपरीत सेट है । लेकिन अंत में प्रत्येक पिक्सेल को एक R, G और B मान दिया जाता है। प्रश्न में आपके 6x6 पिक्सेल के उदाहरण में डेमोकास्टिंग का परिणाम 36 पिक्सेल होगा जिसमें 36 पिक्सेल होंगे जिनमें से प्रत्येक में एक लाल, एक हरा और एक नीला मूल्य होगा।

अनुवाद में थोड़ा सा संकल्प खो जाता है। यह पता चला है कि प्रति इंच या मिमी बारी-बारी से काली और सफेद रेखाओं की संख्या के संदर्भ में, जिसे एक RGGB बायर मास्क के साथ सेंसर द्वारा हल किया जा सकता है और बायर सेंसर की पूर्ण रिज़ॉल्यूशन सीमा को लगभग 1 / √2 करने के लिए अच्छी तरह से किया जाता है। एक मोनोक्रोमैटिक सेंसर की तुलना में जिसका कोई बायर मास्क नहीं है और इस तरह इसे किसी भी तरह के डिमोस्कोपिंग की आवश्यकता नहीं है (लेकिन केवल ब्लैक एंड व्हाइट में देख सकते हैं)।

यहां तक कि जब अपने कैमरे कच्चे फ़ाइलें सहेजने के लिए सेट कर दिया जाता है, छवि तुम सिर्फ बाद आप जो तस्वीर है अपने कैमरे का एलसीडी स्क्रीन की पीठ पर देख नहीं असंसाधित कच्चे डेटा। यह कैमरे द्वारा तैयार की गई पूर्वावलोकन छवि है जो कैमरा सेटिंग्स में कच्चे डेटा पर लागू होती है जिसके परिणामस्वरूप आपको जेपीईजी पूर्वावलोकन छवि मिलती है जो आप एलसीडी पर देखते हैं। यह पूर्वावलोकन छवि सेंसर से डेटा के साथ कच्ची फ़ाइल में संलग्न है और EXIF ​​जानकारी जिसमें फोटो शूट किया गया था उस समय इन-कैमरा सेटिंग्स शामिल हैं।

सफेद संतुलन, कंट्रास्ट, छाया, हाइलाइट आदि जैसी चीजों के लिए कैमरा डेवलपमेंट सेटिंग्स, सेंसर से वास्तविक डेटा को प्रभावित नहीं करती हैं जो एक कच्ची फ़ाइल में दर्ज होती है। बल्कि, उन सभी सेटिंग्स को कच्चे फ़ाइल के दूसरे भाग में सूचीबद्ध किया गया है।

जब आप अपने कंप्यूटर पर एक "रॉ" फाइल खोलते हैं, तो आपको दो अलग-अलग चीजें दिखाई देती हैं:

  • आपके द्वारा फोटो खींचने के समय कैमरे द्वारा बनाया गया पूर्वावलोकन जेपीईजी चित्र। जब आप चित्र लेते हैं तो कैमरा सेटिंग्स का उपयोग करता है और इसे .cr2 फ़ाइल में कच्चे डेटा में जोड़ देता है। यदि आप कैमरे के पीछे की छवि देख रहे हैं, तो यह जेपीआर पूर्वावलोकन है जिसे आप देख रहे हैं।

  • "कच्चे" फ़ाइल को खोलने के लिए आपके द्वारा उपयोग किए जाने वाले कच्चे डेटा का रूपांतरण। जब आप कंप्यूटर पर अपने फोटो एप्लिकेशन में एक 12-बिट या 14-बिट 'कच्ची' फ़ाइल खोलते हैं, तो आप स्क्रीन पर जो देखते हैं, वह डिमोसेक्स्ड कच्ची फ़ाइल का 8-बिट प्रतिपादन है जो कि एक jpeg की तरह है, नहीं वास्तविक मोनोक्रोमैटिक बायर-फ़िल्टर्ड 14-बिट फ़ाइल। जैसा कि आप सेटिंग्स बदलते हैं और स्लाइडर्स 'कच्चे' डेटा को फिर से तैयार किया जाता है और फिर से 8 बिट्स प्रति रंग चैनल में प्रदान किया जाता है।

जो आप देखते हैं वह आपके द्वारा चुनी गई सेटिंग्स पर निर्भर करेगा जिसके साथ आप कच्ची फ़ाइल खोलते हैं।

यदि आप अपनी तस्वीरों को कच्चे स्वरूप में सहेज रहे हैं, जब आप उन्हें लेते हैं, जब आप पोस्ट प्रोसेसिंग करते हैं, तो आपके पास सटीक जानकारी होगी कि आप जिस भी समय शूट करते हैं, कैमरे में विकास सेटिंग्स का चयन नहीं किया गया था। कुछ एप्लिकेशन प्रारंभ में या तो jpeg पूर्वावलोकन का उपयोग करके फ़ाइल खोल सकते हैं या उस समय कैमरे में सक्रिय सेटिंग्स को सक्रिय करके लागू कर सकते हैं जब छवि को कच्चे डेटा पर शूट किया गया था, लेकिन आप उन सेटिंग्स को बदलने के लिए स्वतंत्र हैं, बिना किसी विनाशकारी डेटा हानि के, जो भी हो। आप पोस्ट में चाहते हैं।

कैनन का डिजिटल फोटो प्रोफेशनल उसी पिक्चर स्टाइल में .cr2 रॉ फाइल को खोलेगा जैसा कि कैमरे में शूट होने पर चुना गया था। आपको इसे बदलने के लिए ड्रॉप-डाउन मेनू का उपयोग करना होगा और किसी अन्य चित्र शैली का चयन करना होगा । तुम भी एक छवि के लिए एक "नुस्खा" बना सकते हैं और फिर उनके साथ काम करने की शुरुआत से पहले सभी छवियों पर बैच लागू कर सकते हैं। अन्य निर्माता का कच्चा प्रसंस्करण सॉफ्टवेयर समान है और आमतौर पर कैमरा डेवलपमेंट सेटिंग्स के साथ एप्लिकेशन को छवि को खोलने के लिए एक विकल्प है।

ऐसे एडोब के रूप में तीसरे पक्ष के कच्चे प्रसंस्करण अनुप्रयोगों के साथ Lightroom या कैमरा कच्चे , एप्पल के छिद्र या तस्वीरें , PhaseOne की कैद एक प्रो , DXO लैब की OpticsPro , आदि कैमरा सेटिंग्स में थोड़ा जटिल काम हो सकता है के अनुसार प्रदर्शित करने के लिए छवियों हो रही। उदाहरण के लिए, Adobe उत्पाद, कच्चे फ़ाइल के EXIF ​​डेटा के अधिकांश निर्माता नोट्स अनुभाग को अनदेखा करते हैं, जहाँ कई निर्माताओं में कैमरा सेटिंग्स के बारे में कम से कम कुछ जानकारी शामिल होती है।

Cameras अधिकांश रंगीन डिजिटल कैमरों के सेंसर के सामने बायर मास्क के वास्तविक रंग हैं: नीला - 450 नैनोमीटर पर केंद्रित नीले रंग का थोड़ा बैंगनी संस्करण, ग्रीन - लगभग 540 नैनोमीटर और लाल और लाल पर केंद्रित हरे रंग का थोड़ा नीला संस्करण। पीले रंग का थोड़ा नारंगी संस्करण। जिसे हम "लाल" कहते हैं, वह रंग है जिसे हम प्रकाश के लिए तरंग दैर्ध्य में लगभग 640 नैनोमीटर पर अनुभव करते हैं। अधिकांश बायर सरणियों पर "लाल" फिल्टर 590-600 नैनोमीटर के आसपास कहीं पर सबसे अधिक प्रकाश की अनुमति देता है। मानव रेटिना में "ग्रीन" और "रेड" शंकु के बीच का ओवरलैप उस से भी करीब है, "रेड" लगभग 565 नैनोमीटर पर केंद्रित है, जिसे हम पीले-हरे रंग के रूप में देखते हैं।


1
यह मौलिक रूप से गलत है। आप कहते हैं (या कम से कम बहुत दृढ़ता से इसका मतलब है) कि यह काम करता है क्योंकि रंग की जानकारी पड़ोसियों में लीक हो जाती है। यह जरूरी नहीं है। अगर फिल्टर बिल्कुल सही होगा तो रॉ ठीक काम करेगी। अलग-अलग डेमोसॉइजिंग एल्गोरिदम में "बहुत सारे गणित शामिल हैं", लेकिन सबसे सरल एक है पास के पिक्सल को औसत करना और यह आश्चर्यजनक रूप से अच्छी तरह से काम करता है। मुझे लगता है कि एक बहु-मेगापिक्सेल छवि में कई मिलियन बार किया गया है जो तकनीकी रूप से गणित का "बहुत" है, लेकिन यह जटिल गणित नहीं है - यह तृतीय श्रेणी के स्तर का सामान है।
कृपया प्रोफाइल

2
बायर काम करता है क्योंकि यह आम तौर पर एक अच्छा अनुमान है कि उदाहरण के लिए पिक्सेल पर नीले-फ़िल्टर्ड स्थान पर हरे रंग की पिक्सेल के समान राशि होती है (और लाल रंग के लिए भी)। जब यह अनुमान बंद हो जाता है, तो आप कलाकृतियों को प्राप्त करते हैं, और यही अधिक जटिल एल्गोरिदम को हल करने का प्रयास है। वे फिल्टर की आवृत्ति प्रतिक्रिया के बारे में विशेष ज्ञान मानकर काम नहीं करते हैं।
कृपया प्रोफाइल

1
मुझे गलतफहमी हो रही होगी कि आप तब से क्या कह रहे हैं, जब से आप इसे लाते हैं। :) विशेष रूप से जब से आप इसके साथ जवाब खोलते हैं, तो क्या आप शायद इस तरह से समझाने के लिए संपादित कर सकते हैं जो इसे और अधिक स्पष्ट करता है? विशेष रूप से, क्या आपका मतलब है कि ओवरलैपिंग फिल्टर का मतलब यह है कि परिणाम मौलिक रूप से गलत है कोई फर्क नहीं पड़ता कि क्या प्रसंस्करण किया जाता है और हम बस उसी के साथ रहते हैं, या यह कि इसे डीमोसेडिंग में कुछ परिवर्तन द्वारा सटीक बनाया जा सकता है, या यह कि इसे और अधिक सटीक बनाया जा सकता है RAW फ़ाइलों को रेंडर करने के लिए एक और कदम की आवश्यकता होती है (लेकिन जो प्रदर्शन का हिस्सा नहीं है)?
कृपया

1
मेरा केवल यह मतलब है कि बहुत से लोग बेयर मास्क का गलत तरीके से वर्णन करते हैं क्योंकि केवल हरे रंग के फिल्टर के माध्यम से हरे रंग की रोशनी की अनुमति देता है , केवल लाल फिल्टर के माध्यम से लाल बत्ती की अनुमति देता है, और केवल नीले फिल्टर के माध्यम से नीली रोशनी की अनुमति देता है। यह कहने के अलावा और कोई बात नहीं है कि B & W फिल्म के साथ एक हरे रंग के फिल्टर का उपयोग करके केवल दृश्य में हरी बत्ती की अनुमति दी जाएगी। केवल हरे रंग के फिल्टर का उपयोग करने का अर्थ है कि लाल या नीली रोशनी की तुलना में उच्च प्रकाश की दर से हरी रोशनी की अनुमति है, लेकिन तीनों में से कुछ के माध्यम से हो जाता है। यह केवल प्रकाश के बीच अंतर की तुलना करके है ...
माइकल सी

1
पास के पिक्सेल से @mattdm औसत धुँधली फोटो का उत्पादन करता है, और बाजार पर कोई कैमरा नहीं है जो इसे इस तरह से करता है। प्रदर्शनकारी एल्गोरिदम आरजीबी पिक्सेल के बीच सहसंबंध का लाभ उठाते हैं, ताकि सामयिक विरूपण साक्ष्य की कीमत पर बहुत सुधार हो सके। और इसमें निश्चित रूप से भारी गणित शामिल है।
मार्क रैनसम

2

यह सब सच है, लेकिन व्याख्या को बढ़ाया जा सकता है।

उस विशिष्ट कच्चे रंग के पैटर्न को बेयर पैटर्न कहा जाता है।

हां, कच्चा एक रंग प्रति पिक्सेल है, और यह कि एक पिक्सेल 12 बिट्स (आमतौर पर) है। तो कच्चे पिक्सेल के तीन रंग होते हैं, कुछ नीले होते हैं, कुछ लाल होते हैं, और 2x उन हरे रंग के होते हैं।

फिर बाद में, कच्चे प्रसंस्करण सॉफ्टवेयर (आरजीबी जेपीजी बनाने के लिए, यह तुरंत कैमरे में हो सकता है, या बहुत बाद में बाहरी हो सकता है) कच्चे डेटा को आरजीबी छवि में परिवर्तित करता है ताकि हम इसका उपयोग कर सकें। यह प्रक्षेप है, अन्य दो रंगों के पड़ोसी पिक्सल को इनमें से प्रत्येक आरजीबी पिक्सल में जोड़ा जाता है, लेकिन सभी आरजीबी पिक्सल बन जाते हैं। उस समय, यह 36 बिट आरजीबी पिक्सेल है, हालांकि स्थानिक संकल्प थोड़ा समझौता है, जिसमें विभिन्न पिक्सेल डेटा पड़ोसियों के साथ साझा किए जाते हैं। हम सेंसर की चौड़ाई के 6000 आरजीबी पिक्सल (उदाहरण के लिए) के साथ समाप्त हो सकते हैं, लेकिन यह 2000 नीले और 2000 लाल सेंसर, आदि से आया था (और डेटा भी लंबवत रूप से साझा किया गया है, यह तीन से अधिक पिक्सल से आता है)। इसे डेमोसाइजिंग कहा जाता है ... जो ऑनलाइन पाया जा सकता है।


IMHO आमतौर पर 14 बिट्स होते हैं। केवल पुराने कैमरे (कैनन S120 उदाहरण के लिए) प्रति पिक्सेल 12 बिट्स स्टोर करते हैं
रोमियो निनोव

@RomeoNinov, यह नया बनाम पुराना जितना सरल नहीं है। उदाहरण के लिए, कुछ निकोन्स आपको 12 बिट्स या 14 बिट्स चुनने देते हैं, इसलिए आप छवि की गहराई बनाम निरंतर शूटिंग दर और छवि आकार का एक ट्रेडऑफ़ बना सकते हैं।
पीटर टेलर

@PeterTaylor, यह कभी नहीं जानता, मैं कैनन शूटर हूं। लेकिन यह मेरे लिए अपवाद की तरह होना चाहिए, नियम (12 बिट्स) की तरह नहीं। और जहाँ तक मुझे याद है कुछ कैमरे 16 पिक्सेल प्रति बिट में स्टोर करते हैं
रोमियो निनोव

यदि आप अधिक से अधिक कैनन कैमरों के 14 बिट होने का कोई सबूत प्रदान करते हैं तो एक अधिक मजबूत तर्क होगा। यहाँ कैनन अन्यथा कह रहा है: cpn.canon-europe.com/content/education/infobank/… "अधिकांश ईओएस डिजिटल कैमरे 12-बिट मोड में चित्र कैप्चर करते हैं"
वेनएफ़

@WayneF उस समय (1D मार्क II) के रूप में कैनन के सर्वश्रेष्ठ के रूप में संदर्भित कैमरे के आधार पर, यह लेख अप्रैल 2004 (जब 1D II ने 1D की जगह लिया) और जून 2005 के बीच (जब 1D मार्क IIN ने 1D II को प्रतिस्थापित किया) ।
माइकल सी

2

केन आपके द्वारा बोली जाने वाले दावे में सही है - एक प्रकार का। यह सही है कि डिजिटल कैमरे आज (सिगमा के फव्वारे सेंसर वाले लोगों के अपवाद के साथ) बायर मैट्रिक्स का उपयोग करके काम करते हैं, और सेंसर रिज़ॉल्यूशन मैट्रिक्स के आकार के रूप में उद्धृत किया गया है। आपकी उदाहरण छवि "36 पिक्सेल" सेंसर का प्रतिनिधित्व करती है। हालांकि, यह पहचानना महत्वपूर्ण है कि कैमरे इसे वास्तविक पिक्सेल में पूर्ण निर्दिष्ट आकार की पूर्ण रंग छवि में बदल देते हैं , और यह उतना बुरा नहीं है जितना केन इसे बाहर करता है

उस लेख में कई बातें जो उन्होंने कही हैं, वे गलत हैं, जिनके साथ शुरू होता है:

2006 तक ये चतुर एल्गोरिदम एक-तिहाई डेटा के साथ शुरू करने की अनुमति देते हैं और इसके बारे में अच्छे लगते हैं क्योंकि दावा किए गए पिक्सेल की संख्या का आधा हिस्सा है।

यह 2006 में बकवास था और आज बकवास है। प्रक्रिया कुछ सरल मान्यताओं पर काम करती है। जिनमें से अधिक को यहां रखा गया है , लेकिन मूल एक यह है कि आप यह अनुमान लगा सकते हैं कि "लापता" जानकारी को अलग-अलग रंग के पड़ोसी पिक्सल में क्या देखना चाहिए। यह ज्यादातर समय एक अच्छी धारणा बन जाती है, और दूसरी बार बहुत गलत। ऐसे मामलों में जहां रंगों के बीच बहुत विस्तृत संक्रमण नहीं होता है, परिणाम ठीक वैसा ही होता है जैसे कि प्रत्येक संवेदी पूर्ण रंग दर्ज करता है। ऐसे मामलों में जहां धारणा गलत है, यह बहुत बुरा है। वास्तविक दुनिया में, पूर्व वास्तव में बहुत आम है और "एक-आधा" की तुलना में बहुत बेहतर काम करता है - लेकिन महत्वपूर्ण बात यह है कि यह संदर्भ-निर्भर है।

RAW यहां कोई लाभ नहीं देता, सिवाय एक संभावित जुआ के। कच्चे डेटा को खोलने वाले सॉफ्टवेयर में बायर इंटरपोलेशन होता है। बायर इंटरपोलेशन एल्गोरिदम में भविष्य की प्रगति को भविष्य के कच्चे सॉफ्टवेयर में शामिल किया जा सकता है, अगर और केवल अगर आपका कैमरा निर्माता कल के सॉफ्टवेयर में कल के कैमरों का समर्थन करना जारी रखता है। बस संभावना के रूप में, आपका कैमरा निर्माता अब कल के कच्चे सॉफ्टवेयर में आपके पुराने कैमरे का समर्थन नहीं कर सकता है!

वह सही है कि शूटिंग में रॉ बुनियादी बातों को नहीं बदलता है, लेकिन यह विचार कि पुरानी फाइलें काम करना बंद कर देंगी, मूल रूप से बकवास है । चूंकि पुराने कैमरे एक ही मूल सिद्धांत का उपयोग करते हैं, और मौलिक रूप से समान फ़ाइल स्वरूपों का उपयोग करते हैं, इसलिए पुराने मॉडल के लिए अनिश्चित काल के लिए समर्थन लाने के लिए बहुत अधिक लागत नहीं आती है, और विक्रेताओं को ऐसा करने के लिए बहुत प्रोत्साहन है - और यहां तक ​​कि अगर ऐसा होगा, तो महान हैं खुला स्रोत decoders।

और हां, RAW फ़ाइलों को रखने से अन्य फायदे होते हैं जो डिमोसेलिंग से संबंधित नहीं हैं।

लेकिन यह कहना भी मूर्खतापूर्ण है कि भविष्य में सुधार की संभावना एकमात्र फायदा है। जैसा कि मैंने कहा, अलग-अलग धारणाएँ हैं जो आपकी छवि की सामग्री के बारे में बनाई जा सकती हैं, और अलग-अलग एल्गोरिदम (या उन एल्गोरिदम को ट्विक करती हैं) अलग-अलग वास्तविक दुनिया की स्थितियों के लिए बेहतर होंगी, इसलिए यदि आप खुद को ऐसी स्थिति में पाते हैं जहाँ आप मिल रहे हैं मौआ या अन्य कलाकृतियां, आप इससे निपटने में सक्षम हो सकते हैं। (हालांकि, मुझे यह जोड़ना चाहिए कि यह बहुत ही उधम मचाने वाले स्तर पर है - बहुत कम ही ऐसी स्थिति है जहां इसे बारीकी से देखना सार्थक है।)

वहाँ भी एक कारक है जो केन के लिए बहाना हो सकता है क्योंकि लेख एक दशक पुराना है। 2006 में, ज्यादातर कैमरे 5-8 मेगापिक्सल रेंज में थे, जिनमें हाई-एंड डीएसएलआर मॉडल थे। 12. अब, विशिष्ट कम / मिड-रेंज डीएसएलआर और मिररलेस कैमरे 16 और 24 मेगापिक्सेल प्रदान करते हैं, और यह वहाँ से ऊपर जाता है। इस बिंदु पर, पिक्सेल-पीपिंग स्तर पर रंग विस्तार के बारे में क्विब्लिंग करना वास्तव में अकादमिक है, क्योंकि वास्तविक दुनिया में यह बहुत दुर्लभ है कि प्रकाश, लेंस, स्थिरता, और बाकी सब कुछ इतना अच्छा है कि यह सीमित कारक है।

सामान्य तौर पर, केन रॉकवेल की बहुत सी साइट इस तरह की है। ( अधिक के लिए इस उत्तर को देखें ।) यह दुर्भाग्यपूर्ण है, क्योंकि उसके पास वास्तव में कहने के लिए बहुत सारी दिलचस्प चीजें हैं और कुछ अच्छी सलाह हैं, लेकिन साथ ही साथ बहुत बकवास है, और इसे स्वीकार करने या सुधारने के बजाय, वह दोगुना हो जाता है। नीचे, और फिर दावा करता है कि पूरी साइट व्यंग्य है।

ओह, और एक बोनस मजेदार तथ्य: कैमरा रियर एलसीडी स्क्रीन और ईवीएफ भी एक डिजिटल पिक्सेल का प्रतिनिधित्व करने के लिए तीन रंगीन उप-पिक्सल का उपयोग करते हैं, और ये स्क्रीन आमतौर पर उप-पिक्सेल की गिनती के साथ विपणन की जाती हैं - प्रभावी रूप से 3 × आप क्या उम्मीद कर सकते हैं जिस तरह से कंप्यूटर स्क्रीन रिज़ॉल्यूशन दिया जाता है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.