डिजिटल कैमरा सेंसर प्रत्येक फोटोसाइट को व्यक्तिगत रूप से उजागर क्यों नहीं कर सकते?


14

कैमरा सेंसरों के लिए मानव आंख के काम करने का तरीका असंभव क्यों है? मेरा क्या मतलब है, अगर हम फोटो खींचते समय क्रमशः अंधेरे और हल्के क्षेत्रों के लिए क्षतिपूर्ति करते हैं, तो एपर्चर और शटर गति सेटिंग्स पर निर्णय लेते हुए, छवि का एक निश्चित हिस्सा समाप्त / निर्बाध होना चाहिए।

मैं समझता हूं कि प्रकाश प्राप्त करना एपर्चर और शटर स्पीड पर निर्भर करता है लेकिन चूंकि DSLR डिजिटल होते हैं, इसलिए ऐसी तकनीक नहीं हो सकती है जो प्रत्येक सेंसर को स्वयं की पैमाइश का उपयोग करने में सक्षम बनाए और इसलिए वे सभी एक ही राशि के अधीन नहीं होंगे। प्रकाश की लेकिन पैमाइश के आधार पर, कैमरे का एक सीपीयू कुछ कोशिकाओं को बंद कर देगा क्योंकि उन्हें ओवरएक्सपोज नहीं किया जाएगा।

मुझे उम्मीद है कि मैं बकवास नहीं कह रहा हूं। मुझे यकीन है कि यह एक प्रशंसनीय विचार की तरह लगता है।


ऐसा लगता है कि आप पूछ रहे हैं कि सेंसर में असीमित डायनामिक रेंज क्यों नहीं हो सकती है? या हो सकता है कि एक और रास्ता "कैमरा सेंसर कैसे काम करता है"। दिलचस्प सवाल है।
dpollitt

हाँ, आप कहेंगे कि यह सवाल असीमित गतिशील रेंज के बारे में है, लेकिन यह वास्तव में मेरे लिए बहुत अजीब लगता है क्योंकि प्रत्येक सेंसर सेल में "रिकॉर्ड" या बल्लेबाज को प्रकाश की किसी भी मात्रा को पकड़ने की क्षमता है (सफेद / काले की कतरन की उपेक्षा) , यह एकल कोशिका के आधार पर क्यों नहीं किया जा सकता है, लेकिन पूरे सेंसर के बजाय एक ही राशि पर कब्जा कर सकता है? शायद यह थोड़ा अधिक सीपीयू पावर और

2
बहुत ज्यादा वायरिंग मेरा अनुमान है । आपको फोटो प्रति गैर-तुच्छ अतिरिक्त सर्किटरी की आवश्यकता होगी। सबसे नज़दीकी तारीखें ऐसे कैमरे हैं जो एक्सपोज़र के माध्यम से आधे हिस्से पर पिक्सेल पढ़ते हैं।
इटई

क्या आपके पास लेख का लिंक है? तो मेरे मूल प्रश्न का एकमात्र उत्तर यह है कि क्या वास्तव में, DSLR प्रौद्योगिकी इतिहास में इस बिंदु पर बहुत जटिल है?

1
यह उस तरह का सवाल है जो बॉक्स के बाहर थोड़ा सा है। यह पूछने के लिए बहुत समझदार है। मुझे यकीन है कि एक दिन कैमरे आपके सुझाव के समान काम करेंगे। ... हालांकि व्यक्तिगत रूप से, मुझे लगता है कि तकनीकी सीमाएं कलात्मक रूप से खिलाती हैं।
एजे फिंच

जवाबों:


19

कौन तय करता है कि किस पिक्सल को कितना फायदा होता है? मानव दृश्य प्रणाली में जो कुछ भी होता है वह कॉर्टेक्स में होता है, न कि आंख पर, और इस बात पर निर्भर करता है कि बौद्धिक निर्णय के संयोजन और आत्म-संरक्षण के लिए (कुछ हद तक ओवरराइड-सक्षम) सहज ड्राइव के आधार पर हम क्या सोचते हैं। । हालांकि यह एक मायने में सच है कि हम देखते हैं कि वहाँ क्या है, यह दूसरे अर्थ में भी उतना ही सच है कि हम देखते हैं कि हम क्या चाहते हैं (या जरूरत है) देखें।

यह लगभग होगाबड़ी फोटोसाइट के साथ अपेक्षाकृत कम पिक्सेल घनत्व सेंसर बनाने के लिए तुच्छ, जो एक विशाल गतिशील रेंज के लिए अनुमति देता है और (सीसीडी-प्रकार की तकनीक को संभालने के बाद से, वर्तमान सीएमओएस सेंसर तकनीक इस तरह से काम नहीं कर सकती है) प्रति पिक्सेल इलेक्ट्रॉनिक शटर के अलावा यांत्रिक शटर। तो इससे आपको क्या मिलेगा? बहुत अधिक गहराई और बहुत कम स्थानीय कंट्रास्ट वाली फ्लैट छवि (यदि पूरी बिट गहराई को डिस्प्ले या प्रिंट के रूप में परिवर्तित किया जाता है) साथ में कई पिक्सेल होते हैं जो लगभग होते हैं, लेकिन काफी नहीं, सेंसर संतृप्ति द्वारा क्लिप किए गए ( हालांकि, वे वास्तव में, संतृप्ति के बिंदु से ठीक पहले इलेक्ट्रॉनिक शटर की सीमित कार्रवाई से चिपके हुए हैं)। आइए तर्क के लिए कहें, हालांकि, कि यह सेंसर और इससे जुड़ा कंप्यूटर क्लिपिंग डेटा को रिकॉर्ड कर सकता है (जिस कारण से यह उस संवेदी पर रिकॉर्ड करना बंद कर देता है, जो उस साइट पर वास्तविक एक्सपोज़र अवधि को रिकॉर्ड करने जितना आसान हो सकता है)। यह कैमरे के इलेक्ट्रॉनिक्स को फिर से संगठित करने की अनुमति देता है यदि अंतिम फ़ाइटल तक फ़ोटोग्राफ़ी गेम में रह सकता है तो संख्या क्या होगी। तो अब हमारे पास और भी अधिक गहराई के साथ समतल छवि है। और आप कहां रेखा खींचते हैं? 32 बिट्स? 64?

अब कठिन हिस्सा आता है - इस फ्लैट, उच्च-गतिशील-रेंज छवि डेटा को एक सम्मोहक तस्वीर में बदलना। सबसे सरल तरीका यह है कि आठ बिट्स (या जो भी आउटपुट बिट डेप्थ होगा) को लेना है जो प्राथमिक मीटर की छवि का प्रतिनिधित्व करते हैं और बाकी को फेंक देते हैं। चरम छाया और / या हाइलाइट्स को संपीड़ित करने के लिए डेटा को एस-कर्व पर फिट करना अधिक मुश्किल नहीं होगा - जो कि कम या ज्यादा नए कैमरों पर पहले से ही विस्तारित डायनामिक रेंज सेटिंग्स है। लेकिन प्रति पिक्सेल केवल बहुत सारे आउटपुट बिट उपलब्ध हैं, और अधिकांश विस्तारित हाइलाइट मान सफेद (या कम से कम 254 और 255 मिक्स) तक गोल होने जा रहे हैं। तो आपने सिस्टम को नाटकीय रूप से जटिल करके बहुत कम प्राप्त किया है।

लेकिन अभी भी एक विकल्प खुला है - चयनात्मक क्षेत्र मानचित्रण। क्यों नहीं, आकाश, कहते हैं, या सिर्फ आकाश में बादलों, नीचे मूल्य में तो यह विस्तार बनाए रख सकते हैं, जबकि अग्रभूमि में वांछित विपरीत संरक्षण? यहीं पर कठिन समस्या रहती है। क्या महत्वपूर्ण है? क्या कैमरा आपके लिए तय करना चाहिए? यदि कैमरा निर्णय लेता है, तो हमारे पास पहले प्राप्त करने के लिए मशीन दृष्टि और कृत्रिम बुद्धिमत्ता में एक बड़ी प्रगति है। यदि नहीं, तो क्या आप वास्तव में शूट करने वाले हर चित्र के लिए इस स्तर के बाद के निर्णय का निर्णय लेना चाहते हैं? हां, मुझे पता है कि कुछ फोटो-टेक्नो-वेनीज़ होंगे जो वास्तव में उस हाथों पर होना चाहते हैं, लेकिन क्या हम स्वीकार कर सकते हैं कि यह एक रोग संबंधी स्थिति है, और यह कि पेशेवरों को बारी-बारी से समय लगता है और उपभोक्ताओं का बड़ा हिस्सा पैदा होता है 'ऐसा नहीं है?

तो आपको एक नए सेंसर की आवश्यकता है, सेंसर के आसपास बहुत अधिक जटिल इलेक्ट्रॉनिक्स, अनुमानित कच्चे डेटा के लिए एक विशाल छवि फ़ाइल (जो बड़े कार्ड की आवश्यकता होती है और लंबे समय तक / धीमी फ्रेम दर लिखती है), सभी उन आंकड़ों को इकट्ठा करने के लिए जो सबसे अधिक फेंके जाने वाले हैं। उस समय ताकि आप कभी-कभी एक-शॉट एचडीआर छवियों को शूट कर सकें जिनके लिए पोस्ट में मानव हस्तक्षेप (या एमवी / एआई में एक बड़ी छलांग) की बहुत आवश्यकता होती है। आप शायद इनमें से कुछ को बेच सकते हैं, लेकिन मुझे उम्मीद है कि बाजार मौजूदा 35 मिमी / एपीएस-सी बाजार की तुलना में मध्यम प्रारूप के बाजार की तरह एक बहुत अधिक शानदार होगा। यही है, आप अच्छी तरह से एड़ी वाले फ़ोटोग्राफ़रों के एक चुनिंदा समूह को बेचेंगे जिन्हें या तो वास्तव में पेशेवर कारणों से क्षमताओं की ज़रूरत होती है या अपनी ठीक कला दृष्टि को पूरा करने के लिए, और कुछ जिन्हें भुगतान करने के लिए पोस्ट-प्रोसेसिंग से एक बड़ा पर्याप्त किक मिलता है। प्रौद्योगिकी कर।


1
यह एक महान विश्लेषण है (और मैं इसे इस तरह से वोट कर रहा हूं)। लेकिन अंत में मैं निष्कर्ष को असंबद्ध पाता हूं। आखिरकार, सेंसल्स का "डंब" मैट्रिक्स बनाना मुश्किल नहीं होगा, जिनमें से कुछ नकाबपोश हैं, कहते हैं, एक छह-स्टॉप एनडी फिल्टर। (उदाहरण के लिए, बायर फिल्टर में जी में से एक का उपयोग करें।) इलेक्ट्रॉनिक्स में कोई महत्वपूर्ण बदलाव की आवश्यकता नहीं होगी; कैमरे, लेंस, आदि के बारे में कुछ भी नहीं बदलेगा; लेकिन संवेदनशीलता में एक छोटे से नुकसान के बदले में आप ब्लो-आउट पिक्सल्स के भीतर अंतर (मोटे) ग्रेडेशन को अलग करने की क्षमता प्राप्त करेंगे। ओपी ने जो मांगा, वह करीब है।
व्हिबर

2
एक बेहतर सरल दृष्टिकोण पहले से ही फ़ूजी के EXR सेंसर में मौजूद है। इसमें अलग-अलग आकार के सेंसल्स हैं; एक छोटे से सेंसल और एक बड़े को सेंसर पर प्रत्येक स्रोत पिक्सेल साइट पर जोड़ा जाता है। हालांकि यह एक व्यापक कैप्चर रेंज के लिए प्रदान कर सकता है, यह अभी भी सीमित है कि यह क्या कर सकता है - आप अभी भी हाइलाइट्स को उड़ा सकते हैं यदि आप सभी छाया प्राप्त करना चाहते हैं। (और फ़ूजी का वर्तमान कार्यान्वयन बहुत छोटे सेंसर पर बहुत सारे पिक्सेल का उपयोग करता है।) कई सेंसर आकारों के साथ एक सही कार्यान्वयन मान लें - जो अभी भी प्रसंस्करण समस्या को छोड़ देता है- और यह कैप्चर नहीं, वास्तविक मुद्दा है।

EXR संदर्भ के लिए धन्यवाद। यह दिखाता है कि मेरा सुझाव केवल प्रशंसनीय नहीं है, बल्कि वास्तविक है। अब क्या एचडीआर सॉफ्टवेयर ने प्रसंस्करण समस्या का समाधान नहीं किया है? यदि आप एक एकीकृत सेंसर के साथ एक व्यापक गतिशील रेंज पर कब्जा करने में कामयाब रहे हैं, तो वास्तव में आपके पास पहले से ही एक पूरी तरह से पंजीकृत एचडीआर स्टैक है। इस तकनीक की सीमाएं सुनिश्चित करने के लिए एचडीआर की सीमाएं होंगी।
फुसफुसाए

यदि स्रोत एचडीआर है, तो फिर से सीधे प्रसंस्करण एक भद्दा छवि देगा। सीमा कैप्चर में नहीं है, लेकिन प्रसंस्करण में - एचडीआर प्रसंस्करण सरल नहीं है, इससे पहले कि आप निष्कर्ष पर आते हैं कि आपको कितनी आकर्षक तस्वीरें देखने की आवश्यकता है? अच्छी तरह से अर्थ लोग इसे स्पष्ट रूप से पेंच करते हैं, और वे जानते हैं कि वे छवि को "कहना" चाहते हैं। फिर भंडारण और लिखने की गति की समस्याएं अभी भी हैं, और एक और उपयोग समझौता है। एक कैमरा सभी लोगों के लिए सभी चीजें हो सकती हैं, लेकिन कीमत और एर्गोनॉमिक्स दोनों में किस कीमत पर? 14-बिट कैप्चर और डीआर संपीड़न अब यहां हैं; 16-बिट बहुत पीछे नहीं रहेगा।

1
... और उन दोनों को अभी भी उजाले मिलते हैं। आपको पूरी तरह से समस्या से बचने के लिए और अधिक विस्तार करने की आवश्यकता है, और कुछ बिंदु पर व्यावहारिकता टूट जाती है, कम से कम बड़े पैमाने पर बाजार के स्तर पर। स्टूडियो शूटरों को इसकी आवश्यकता नहीं है; अधिकांश उपभोक्ताओं को इसकी आवश्यकता नहीं है। मैं ज्यादातर पर्यावरणीय चित्रण करता हूं, और मैं बहुत बार सोच भी नहीं सकता कि मुझे इसकी आवश्यकता है (ओवरएक्सपोजर ने मेरी कई छवियां बनाई हैं)। ओवरहेड सिर्फ ज्यादातर लोगों के लिए इसके लायक नहीं होगा, इसलिए यह एक महंगा आला उत्पाद बनाने जा रहा है।

3

एक बात है कि केवल कुछ ही लोग उल्लेख करते हैं, और वह यह है कि यदि कोई दृश्य अलग-अलग क्षेत्रों में अलग-अलग क्षेत्रों में अलग-अलग क्षेत्रों में उजागर हो रहा है, तो ऐसा नहीं दिखेगा। एक दृश्य जिस तरह से यह करता लग रहा है क्योंकि भिन्नता है वहाँ। हां, यह हाइलाइट्स को बचाने और छाया को बढ़ावा देने का एक तरीका हो सकता है, लेकिन अंत में, जो आप वास्तव में चाहते हैं वह एक बड़ी गतिशील रेंज है जो एक एक्सपोजर सेटिंग का उपयोग करके दृश्य में डायनेमिक रेंज को कैप्चर कर सकता है।

हमारी आँखें हमें वर्तमान उपभोक्ता कैमरा तकनीक की तुलना में कहीं अधिक गतिशील रेंज प्रदान करने में महान हैं। मैं जल्दी से चारों ओर देख सकता हूं और एक ही समय में छायांकित क्षेत्रों और उज्ज्वल धूप क्षेत्रों में सटीक विस्तार का अनुभव कर सकता हूं।

कैमरा निर्माताओं में से एक तरीका इस समस्या के आसपास हो रहा है एक सेंसर में उच्च और निम्न संवेदनशीलता पिक्सेल दोनों का उपयोग करके फिर प्रति पिक्सेल परिणाम का संयोजन करना। RED के नए डिजिटल सिनेमा कैमरों में HDRx नामक सामान्य और कम संवेदनशीलता सेंसर पिक्सेल का एक मैट्रिक्स है। डायनेमिक रेंज को बढ़ाने के लिए छोटे, कम सेंसिटिव सेंसर पिक्सल्स को ब्राइट पिक्सल्स की हाइलाइट्स में संयोजित किया गया है।


आप सही हैं, इसका परिणाम एक धुंधले फोटो के रूप में होगा, लेकिन जाहिर है कि इसकी कुछ सीमाएँ होंगी। मेरा मानना ​​है कि कैमरे को यह निर्णय लेने देना चाहिए कि कौन से क्षेत्र उज्जवल होने चाहिए और बहुत अधिक गहरे होंगे। मैं सही नहीं सोच रहा था ...

3

सबसे पहले, मानव आँख गतिशील रेंज महान नहीं है। यह केवल हमारे वर्तमान उच्च अंत कैमरों की तुलना में बेहतर प्रतीत होता है, क्योंकि हमारा मस्तिष्क विभिन्न एक्सपोज़र सेटिंग्स का उपयोग करके "स्नैपशॉट" को लगातार मिलाता है। हमारी आंखें एक साथ (भले ही मस्तिष्क कर सकती हैं) बेहद चमकीली और बेहद अंधेरी वस्तुओं को पंजीकृत नहीं कर सकती हैं। इमेज प्रोसेसिंग का सच्चा आश्चर्य, लेकिन केवल औसत ऑप्टिक्स / इमेजिंग डिवाइस।

कई प्रस्ताव / प्रोटोटाइप हैं जो दिखाते हैं कि छवि संवेदकों की गतिशील सीमा को कैसे बेहतर बनाया जा सकता है:


2

आपको यहां कुछ बुनियादी भौतिकी याद आ रही है। मुख्य समस्या यह है कि वास्तविक दृश्यों में बड़े विपरीत अनुपात होते हैं। हमारी आंखें रैखिक के बजाय हल्के स्तर पर तार्किक रूप से विचार करके इससे निपटने के लिए विकसित हुई हैं। दुर्भाग्य से, वर्तमान सेंसर तकनीक स्वाभाविक रूप से प्रकाश को रैखिक रूप से मापती है। या अधिक सटीक रूप से डालें, शोर एक रैखिक प्रकाश पैमाने पर तय किया गया है।

वर्तमान तकनीक के साथ, अधिकतम विपरीत सीमा मूल रूप से शोर स्तर का एक कार्य है। तर्क के लिए, आइए 0-1000 प्रकाश पैमाने का उपयोग करें, जिसका अर्थ है कि एक सेंसर आपको प्रकाश स्तर 0 से 1000 तक बता सकता है। इसलिए इसका उच्चतम अनुपात क्या हो सकता है? यह शोर के स्तर पर निर्भर करता है। शोर स्तर मूल रूप से असली काले के बजाय आपको मिलता है, जो इस उदाहरण में 0 होगा। मोटे तौर पर, यदि शोर का स्तर 2 है, तो आपको लगभग 1000: 2 = 500: 1 चमक अनुपात मिलता है। जब तक यह दृश्य अधिक नहीं हो जाता (लगभग सभी हालांकि, वास्तविकता में 500: 1 इतना नहीं है), आप बाद में जो भी लॉगरिदमिक मैपिंग चाहते हैं वह कर सकते हैं।

तो वर्तमान रणनीति, यह देखते हुए कि वर्तमान सेंसर स्वाभाविक रूप से रैखिक हैं, शोर अनुपात को संकेत बढ़ाने के लिए और पर्याप्त बिट प्रदान करने के लिए प्रयास करना है ताकि परिमाणीकरण शोर अंतर्निहित यादृच्छिक शोर से कम हो। कम शोर संवेदक, व्यापक गतिशील रेंज के दृश्य जिन्हें आप हाइलाइट्स को क्लिप किए बिना या छाया से बाहर निकालने के बिना कैप्चर कर सकते हैं।

एक पूरी तरह से अलग सेंसर तकनीक है जो चमक के लॉग को स्वाभाविक रूप से मापती है। कभी-कभी इन्हें "सीएमओएस" सेंसर कहा जाता है, क्योंकि वे बहुत सारे सीएमओएस डायनामिक रैम की तरह होते हैं, जो ढक्कन को हटा देते हैं (मैं ओवरसाइम्पलाइज़ करता हूं, लेकिन लैब में पहला परीक्षण वास्तव में इस तरह से किया गया था)। आपको प्रकाश के लॉग के लिए एक आनुपातिक वोल्टेज मिलता है, लेकिन ये वर्तमान में शोर अनुपात के लिए बहुत कम संकेत देते हैं। मित्सुबिशी इन सेंसरों का व्यवसायीकरण करने वाले पहले व्यक्ति थे, लेकिन वे उच्च अंत कैमरों के लिए अभी तक अच्छे के पास नहीं हैं।

कई मोर्चों पर आगे बढ़ने में कोई संदेह नहीं है, और मुझे यकीन है कि हम आने वाले वर्षों के लिए स्थिर प्रगति देख रहे हैं। हालाँकि, अच्छे कारण हैं कि चीजें अब जैसी हैं, सिर्फ इसलिए नहीं क्योंकि कोई भी कुछ बेहतर होने की कल्पना नहीं कर सकता है। अगर किसी के पास एक ऐसी तकनीक थी जो एक व्यापक गतिशील रेंज को सटीक रूप से माप सकती थी और एक कीमत पर लोग इसके लिए भुगतान करने को तैयार थे, तो वे अमीर हो सकते हैं।


1

मेरा मानना ​​है कि यह बहुत जटिल है।

मूल रूप से दो संभावित दृष्टिकोण होंगे; या तो प्रत्येक फोटो सेंसर समय का ट्रैक रख सकता है और खुद को बंद कर सकता है, या सीपीयू फोटोसेंटर से डेटा का ट्रैक रख सकता है और उन्हें बंद कर सकता है।

पहले दृष्टिकोण के लिए इसका मतलब होगा कि प्रत्येक फोटोसेंटर को एक घड़ी संकेत और एक काउंटर की आवश्यकता होगी, ताकि यह ट्रैक कर सके कि उसे बंद होने तक कितना समय लगा। यह चिप पर फिट होने के लिए बहुत अधिक सर्किटरी है, और इसे चलाने के लिए बहुत अधिक बिजली की आवश्यकता होती है, जो सिग्नल शोर को बढ़ाता है। संभवतः इतना अधिक है कि बढ़ी हुई गतिशील सीमा व्यर्थ होगी।

दूसरे दृष्टिकोण के लिए सीपीयू को 1/10000 सेकंड के बारे में एक बार सेंसर से सभी डेटा को पढ़ने की आवश्यकता होगी। वर्तमान तकनीक की तुलना में यह लगभग 1000 गुना तेज है, इसलिए भविष्य में दशकों तक, यदि संभव हो तो।

इसके अलावा, इस तरह के समाधान के साथ अन्य जटिलताएं हैं, जैसे कि प्रत्येक पिक्सेल को एक अलग एक्सपोज़र समय मिलेगा। आप बहुत अजीब कलाकृतियों अगर आप कुछ भी है कि चालें तस्वीर मिल जाएगा।


1
मुझे विश्वास नहीं है कि "चयनात्मक गति धब्बा" इतनी बड़ी समस्या होगी। चलते हुए विषय की शूटिंग करते समय, सबसे लंबे समय तक उजागर होने वाले पिक्सेल वे होंगे जो पूरे समय अंधेरे में रहे। ये ज्यादातर समान रूप से अंधेरे क्षेत्रों के अंदर होंगे, जहां कुछ धब्बे बहुत ध्यान देने योग्य नहीं होंगे। अंधेरे और हल्के क्षेत्र के बीच किनारों पर पिक्सेल, जिस स्थिति में विषय बढ़ रहा था, उसे उच्च प्रदर्शन मिलेगा, और तेजी से बंद हो जाएगा, जिसके परिणामस्वरूप कम धुंधला होगा।
जन हलावेस्क

0

जबकि यह सच है कि DSLR डिजिटल हैं, लेंस नहीं हैं। सभी सेल सेंसर उसी एपर्चर के अधीन होंगे, चाहे डीएसएलआर बॉडी कितनी भी स्मार्ट क्यों न हो, क्योंकि लेंस में एपर्चर सेट होता है। इसलिए मुझे लगता है कि प्रति सेंसर सेल में एपर्चर अलग-अलग है, कम से कम वर्तमान लेंस तकनीक के साथ।

जहां तक ​​शटर गति, कैमरे द्वारा नियंत्रित किया जाता है, लेकिन अगर हम एक ऐसे कैमरे की कल्पना करते हैं जो चित्र के विभिन्न भागों पर शटर गति को अलग-अलग नियंत्रित करने के लिए भिन्न हो सकता है / तो आप असमान गति धब्बा के साथ समाप्त हो जाएंगे। दृश्य के गहरे भागों को लंबे समय तक उजागर करना होगा और उज्जवल भागों की तुलना में अधिक धुंधला होगा। मुझे लगता है कि एक समाधान जो शटर गति को बदलता है, इस कारण से काम नहीं करेगा।

तो केवल एक चीज आईएसओ शेष है। आईएसओ के भिन्न होने का अर्थ होगा तस्वीर के विभिन्न हिस्सों में अलग-अलग शोर का स्तर। यह बहुत बुरा नहीं लगता है, यह देखते हुए कि आपको बदले में बहुत अधिक गतिशील रेंज मिलेगी। मुझे इस बारे में ज्यादा जानकारी नहीं है कि सेंसर कैसे काम करते हैं, लेकिन मुझे लगता है कि आईएसओ सेटिंग सेंसर में "ट्यूनिंग" के रूप में चमक पैमाने के एक विशिष्ट सबसेट की ओर लागू की जाती है। यह मुझे लगता है कि हर सेंसर सेल में स्वतंत्र पैमाइश और आईएसओ नियंत्रण होना निषेधात्मक रूप से महंगा होगा, लेकिन शायद तस्वीर को क्षेत्रों में विभाजित किया जा सकता है, और प्रत्येक क्षेत्र अलग से पैमाइश किया जाता है। फिर कैमरे को अलग-अलग उजागर क्षेत्रों को मिश्रण करने के लिए किसी प्रकार का एल्गोरिदम रखना होगा, "एन्ब्लेंड" की तरह यह एक पैनोरमा को इकट्ठा करता है जहां प्रत्येक चित्र का एक अलग प्रदर्शन होता है। यह मुझे उचित लगता है।

एक अन्य विकल्प कई सेंसर के साथ एक कैमरा होगा, प्रत्येक को एक अलग आईएसओ में कॉन्फ़िगर किया जाएगा। वीडियो प्रौद्योगिकी में 3 सीसीडी कैमरे हैं, जहां प्रत्येक सीसीडी लाल, हरे और नीले रंग में से एक रिकॉर्ड करता है। मैं नहीं देखता कि डीएसएलआर के लिए एक समान अवधारणा क्यों नहीं हो सकती है, जहां कई सेंसर विभिन्न आईएसओ स्तरों पर तस्वीर लेते हैं, एक एचडीआर चित्र का निर्माण करते हैं।


0

मुझे इस समय जानकारी नहीं मिल रही है, लेकिन मुझे एक समान तकनीक का विवरण पढ़ना याद आ रहा है। यह विचार मोटे तौर पर यह था: केवल एक चीज जिस पर ध्यान देने की आवश्यकता है वह है ओवरब्लाउन हाइलाइट्स। यदि आप उन्हें रोक सकते हैं, तो पूरी तस्वीर के संपर्क में आने से अंधेरे क्षेत्रों पर ध्यान दिया जा सकता है। इसलिए, ओवरब्लॉक हाइलाइट्स को रोकने के लिए, प्रत्येक सेंसर अपने संचित प्रकाश का ट्रैक रखेगा, और यदि वह अधिकतम के करीब हो जाता है, तो सेंसर बंद हो जाएगा। यह अपने आप में कुछ भी सुधार नहीं करेगा, यह वास्तव में मामलों को बदतर बना देगा, कुछ चमकीले सफेद ओवरब्लो हाइलाइट्स के बजाय, एक और भी अधिक गहरे हाइलाइट्स के साथ समाप्त होगा। इसलिए केवल बंद करने के बजाय, सेल कुछ पड़ोस में कोशिकाओं को भी बंद कर देगा, जो उज्ज्वल क्षेत्रों में कुछ विस्तार को संरक्षित करेगा।

जैसा कि मैंने लिखा था, मुझे अब पाठ नहीं मिल रहा है, लेकिन किसी तरह यह मेरे दिमाग में एचपी डिजिटल कैमरों से जुड़ा है।


यदि आप इसे ढूंढते हैं, तो कृपया लेख से लिंक करें। एक दिलचस्प विचार वास्तव में।

0

इसे गणितीय रूप से (सैद्धांतिक रूप से) किया जा सकता है: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.64.9692&rep=rep1&type=pdf


1
क्या आप उस लेख को संक्षेप में बता सकते हैं? एक लिंक होना अच्छा है, लेकिन यदि आप इसे संक्षेप में
बताएंगे तो
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.