कैमरे पूरे शटर में प्रकाश डेटा क्यों रिकॉर्ड नहीं करते हैं?


13

क्षमा करें यदि प्रश्न शीर्षक भ्रामक है, तो मुझे इस शब्द का सबसे अच्छा तरीका नहीं पता है, इसलिए यदि आप कुछ बेहतर सोच सकते हैं, तो इसे बदलने के लिए स्वतंत्र महसूस करें। मैंने सीखा कि इलेक्ट्रॉनिक शटर एक यांत्रिक शटर का उपयोग करने के बजाय एक बार में सभी छवि को कैप्चर कर सकते हैं जो पर्दे का उपयोग करता है। इससे मुझे अंदाजा हो गया। मान लें कि किसी दिए गए शॉट को 1/200 के दशक में ठीक से उजागर किया जाएगा, लेकिन कैमरे को कैप्चर करने के लिए छवि की गतिशील सीमा बहुत अधिक विस्तृत है।

एक इलेक्ट्रॉनिक शटर के साथ एक कैमरा क्यों नहीं लगातार प्रकाश की पूरी अवधि में एक छवि से प्रकाश डेटा को कैप्चर और रिकॉर्ड करने के बजाय केवल प्रकाश डेटा एकत्र करता है और अंत में इसे एक तस्वीर के रूप में संग्रहीत करता है? यह ऐसा होगा जैसे एक कमरा अंधेरे से शुरू होता है और धीरे-धीरे चमक में बढ़ रहा है। तब कैमरा एक छवि की संपूर्ण गतिशील रेंज को कैप्चर करने में सक्षम होगा और एक एचडीआर के लिए कई एक्सपोज़र की आवश्यकता के बजाय केवल एक फोटो में पूरी गतिशील रेंज के साथ एक छवि में डेटा संकलित करेगा। यह पोस्ट प्रोसेसिंग में एक्सपोज़र एडजस्टमेंट की अनुमति भी देता है क्योंकि बिना किसी सूचना के नुकसान होता है क्योंकि कैमरा ने प्रकाश डेटा को एक्सपोज़र की एक पूरी श्रृंखला से संग्रहीत किया है। वर्तमान में यह विचार क्यों लागू नहीं किया जा रहा है?


3
क्या आप अधिक विस्तृत व्याख्या कर सकते हैं कि कैसे "निरंतर कैप्चरिंग" एक तस्वीर को बचाने के मामले में "लाइट डेटा एकत्रित करना" से अलग है?
जेनिट

@ एलेक्स। जिस तरह से कैमरे अब काम करते हैं, प्रकाश सेंसर को मारता है और यह शटर बंद होने तक प्रकाश डेटा एकत्र करता है, फिर शटर बंद होने के बाद डेटा रिकॉर्ड किया जाता है और यह एक छवि में बदल जाता है। मैं जो सुझाव दे रहा हूं, वह शटर के दौरान लगातार प्रकाश डेटा को रिकॉर्ड नहीं करता है क्योंकि यह सेंसर को हिट करता है, इसलिए एक अंधेरे कमरे को धीरे-धीरे जलाए जाने की तुलना में।
रयान

1
डेटा को कैसे रिकॉर्ड किया जाना चाहिए? चित्र सहेजे जाने तक इसे कहां संग्रहीत किया जाएगा?
जेनिट

1
@ एलेक्स। यह बहुत तकनीकी है और मैं कहूंगा कि मुझे ठीक से पता नहीं है, अगर मुझे पता था कि मैं यह सवाल नहीं पूछ सकता। लेकिन यह उतना ही विशिष्ट हो सकता है कि कितने फोटॉन प्रत्येक पिक्सेल को समय के हर अंतराल के बाद हिट करते हैं (कहते हैं 1 सेकंड)। या हर बार जब कोई फोटॉन सेंसर पर पिक्सेल मारता है तो उसे टाइमस्टैम्प देता है। कुछ इस तरह
रयान

जवाबों:


19

यह एक्स-रे में किया गया है।

TimePix एक 256x256 डिटेक्टर है। इसके तीन ऑपरेटिंग मोड हैं :

  • इस पिक्सेल में सामान्य "कुल ऊर्जा जब से हमने एकीकृत करना शुरू किया है";
  • टाइम-ओवर-थ्रेशोल्ड (टीओटी): पल्स की ऊंचाई को टीएसटी मोड में पिक्सेल काउंटर में दर्ज किया गया है; तथा
  • टाइम-ऑफ-अराइवल (TOA): टीओए मोड प्रत्येक पिक्सेल में विकिरण के ट्रिगर और आने के बीच के समय को मापता है।

इस तकनीक को ऑप्टिकल इमेजिंग के लिए अनुकूलित किया गया है । टीओटी मोड को सबसे अच्छी तरह से विल्किंसन एडीसी की तरह अभिनय के रूप में वर्णित किया गया है - रीडआउट कुल समय से मेल खाती है जहां संचित चार्ज थ्रेशोल्ड पर है या है। शटर टाइम से इसे घटाकर आपको बताता है कि इस पिक्सेल को संतृप्त करने में कितना समय लगा। इस प्रकार, प्रत्येक पिक्सेल के लिए, आप शटर खोले जाने के बाद से समय के साथ 0 से संतृप्ति तक की रेखा खींच सकते हैं। इसलिए आप जो भी वर्चुअल शटर टाइम चाहते हैं उसे उठा सकते हैं (जब तक कि सभी पिक्सेल संतृप्त न हो जाएं) और प्रत्येक पिक्सेल की लाइन का उपयोग करके उस वर्चुअल शटर समय तक उसके संचित प्रकाश का अनुमान लगा सकते हैं।


एक और अधिक प्रत्यक्ष कार्यान्वयन आपके विचार के CMOS में किया गया है। प्रत्येक पिक्सेल रिकॉर्ड करता है और दहलीज चार्ज तक पहुंचने के लिए अपना समय बताता है। (समय समय पर संतृप्त नहीं होने वाले पिक्सेल ADC के बजाय, थ्रेशोल्ड बह गया है, इसलिए प्रत्येक पिक्सेल अंततः पर्याप्त रूप से कम सीमा से अधिक होता है।)


मुझे याद है कि Pixim Digital Pixel System ( उदाहरण ) ने भी प्रति पिक्सेल ADC का उपयोग करके ऐसा किया था और संचित चार्ज को बार-बार (संचय ढलान पाने के लिए) पढ़कर। लेकिन मुझे सबूत नहीं मिल रहे हैं।


"सीधा कार्यान्वयन" आप लिंक अविश्वसनीय रूप से कम संकल्प है, जो मुझे लगता है कि व्यावहारिक समस्या को दर्शाता है। कागज में उदाहरण से, यह अभ्यास में 256 × 256 से भी कम प्रतीत होता है।
कृपया मेरी प्रोफाइल पढ़ें

@mattdm: ठीक है, हाँ ... 13 साल पहले। मैं यह दावा नहीं करता कि इस तकनीक को और विकसित किया गया है। लेकिन 13 साल का समय काफी लंबा है, विकास जारी रहा है, कुछ हद तक कट्टरता अब मौजूद होगी।
एरिक टावर्स

18

आप इस विचार के साथ कुछ स्पष्ट समस्याएं याद कर रहे हैं।

आप "लगातार" प्रकाश डेटा पर कब्जा करना चाहते हैं, लेकिन यह पहले से ही किया जा रहा है।

जाहिरा तौर पर आप एक्सपोज़र के बाद उपलब्ध छवियों की एक श्रृंखला का मतलब है, प्रत्येक शुरू से पूरे एक्सपोज़र को आगे बढ़ाने के समय से अवगत कराया। बाद की छवियों में छाया क्षेत्रों में अधिक विस्तार होगा, लेकिन हो सकता है कि उज्ज्वल क्षेत्र क्लिप किए गए हों। कैमरा फर्मवेयर तब किसी भी व्यक्तिगत छवियों की तुलना में बड़ी गतिशील रेंज के साथ एकल छवि को इकट्ठा कर सकता है।

इसके साथ दो समस्याएँ हैं:

  • कैसे इतनी जल्दी सभी लाखों पिक्सल बाहर पढ़ने के लिए, और
  • जहां परिणाम डाल करने के लिए।

ऐसा करने के लिए तकनीक आज उपलब्ध नहीं है।


3
छवियों की एक श्रृंखला रिकॉर्ड करना वास्तव में आवश्यक नहीं है। प्रत्येक पिक्सेल के लिए, एक छवि संवेदक एक मान की रिपोर्ट करता है जो उस स्थान में संचित कुल प्रकाश का प्रतिनिधित्व करता है। ओपी का सुझाव यह बताता है कि समय के साथ यह मूल्य कैसे बदलता है। एक तरीका यह है कि आवधिक नमूनाकरण के माध्यम से, अर्थात् कई छवियों को रिकॉर्ड किया जा रहा है, लेकिन यह सोचना अनुचित नहीं है कि प्रत्येक पिक्सेल मानकों को रिपोर्ट करने के लिए पर्याप्त स्मार्ट हो सकता है जो इसका जवाब देता है। उदाहरण के लिए, यदि एक पिक्सेल की प्रतिक्रिया रैखिक है (यह शायद नहीं है) तो आपको केवल रेखा की ढलान की आवश्यकता होगी।
कालेब

3
"अलग-अलग समय पर नमूना लेना" ब्रैकेटिंग एक्सपोज़र के समान नहीं है? और स्वचालित एक्सपोज़र ब्रैकेटिंग और प्रोसेसिंग वास्तव में एचडीआर फोटोग्राफी क्या है?
टोड विलकॉक्स

1
@ कैलेब यदि आपके पास बस पिक्सेल + ढलान है (संभवतः एक ही बिट गहराई पर भी) जो कि एक रेखीय क्रॉसफ़ेड के साथ 2 छवियों के समान है। यदि आप अपने फ़ंक्शन फिटिंग में एन अधिक बहुपद शब्द जोड़ते हैं, तो यह भी एन-छवियों पर पिक्सेल-वार बहुपद फिट के बराबर है। जबकि वैकल्पिक वैकल्पिक योजनाएं हैं जो मुझे लगता है कि आप पाएंगे (शैनन और नाइक्विस्ट के लिए धन्यवाद) कि रैखिक नमूना सबसे अच्छा है जो आप बैंड सीमित प्रतिक्रियाओं को कैप्चर करने के लिए कर सकते हैं।
स्टीव कॉक्स

11

आप सुझाव देते हैं "या हर बार जब कोई फोटॉन सेंसर पर पिक्सेल मारता है तो उसे टाइमस्टैम्प देता है" - यह डेटा की एक बड़ी मात्रा होगी । एक त्वरित खोज बताती है कि प्रत्येक पिक्सेल - या संवेदी - एक डिजिटल कैमरे में 20,000 और 100,000 फोटॉन के बीच कहीं पर संतृप्त होता है। मान लीजिए कि हम 12 मेगापिक्सेल कैमरे से खुश हैं और संवेदनशीलता के निचले पक्ष के साथ ठीक हैं। यह अभी भी ट्रिलियन डेटा बिंदुओं का एक चौथाई है । अगर हम 50 मेगापिक्सेल कैमरा के साथ बहुत अधिक गतिशील रेंज की बात कर रहे हैं, तो शायद पाँच ट्रिलियन । यहां तक ​​कि अगर हम अपना टाइमस्टैम्प बनाते हैं तो बस दो बाइट्स होते हैं (एक बाइट केवल 256 मान देता है, इसलिए यह सब सार्थक बनाने के लिए पर्याप्त होने की संभावना नहीं है), यह है ... एक छवि के लिए बहुत अधिक डेटा। मेरा मतलब है, सचमुच टेराबाइट्स।

यह स्पष्ट रूप से वर्तमान में आज की तकनीक के साथ डेटा पाइपलाइन के मामले में संभव नहीं है, अकेले इसे कहीं और डाल दें


2
उपभोक्ता कैमरा के स्तर पर संभव है। यह ठीक उसी तरह की चीजें हैं जैसे LHC एक बड़े और जटिल पैमाने पर कर रहा है।
प्लाज्माएच

1
@PlasmaHH भी, सेंसर आकार, भंडारण के भौतिक आकार और लागत के मामले में LHC बड़ा है। बहुत। लेकिन कोई बात नहीं $ कितना है, वे इसे इस तरह के एक कॉम्पैक्ट आकार में नहीं कर सकते।
Mołot

7

आप जो पूछ रहे हैं, निरंतर प्रकाश नमूनाकरण, सैद्धांतिक रूप से संभव हो सकता है लेकिन व्यावहारिक रूप से बहुत महंगा है। बहुत उच्च नमूना दर के साथ इसे अनुमानित करना संभव हो सकता है। यह हाई-स्पीड (स्लो-मो) वीडियो कैमरा के साथ बहुत अधिक फ्रेम दर के साथ किया जा सकता है। तब छवि बनाने के लिए आउटपुट को पोस्ट-प्रोसेस किया जा सकता था।

एक त्वरित खोज शो इस प्रेत की तरह होता है

ये चीजें फास्ट सेंसर लगाकर और भारी मात्रा में डेटा को स्थानांतरित करने और संग्रहीत करने में सक्षम होती हैं। निरंतर नमूना लेने का प्रयास, या एक तेज पर्याप्त नमूना दर जो यह निरंतर दिखता है, इस समस्या और लागत को बढ़ाता है।


4

इलेक्ट्रॉनिक शटर पहले से ही एक कदम है। हम अब एक ही समय में सभी पिक्सेल लेने में सक्षम हैं, फिर उन्हें इकट्ठा करना बंद करने के लिए कहेंगे (यानी, प्रत्येक पिक्सेल का नमूना लें), और प्रत्येक पिक्सेल के प्रत्येक रंग के लिए जानकारी को मापें, जो एक साथ ली गई छवि के बारे में डेटा कैप्चर करते हैं।

यह मामला नहीं हुआ करता था।

हमें अभी भी एचडीआर दृश्यों के लिए कुछ हैक करने हैं, हालांकि, यह एक बुरा नहीं है क्योंकि यह सेंसर तकनीक में प्रगति के कारण फिर से इस्तेमाल किया जा रहा है। हमारे पास अब अधिक संवेदक संवेदनशीलता और गतिशील रेंज है, इसलिए एक फोटो जिसे दो ब्रैकेट शॉट और पोस्ट प्रोसेसिंग की आवश्यकता होती है, अब कैमरे में कैद किया जा सकता है क्योंकि सेंसर कुछ छवियों के उच्च और चढ़ाव दोनों को माप सकता है। वास्तव में, सेंसर इतने अच्छे हो गए हैं कि आप शायद ही कभी ऐसी स्थिति में आएंगे, जिसमें संपूर्ण गतिशील रेंज प्राप्त करने के लिए तीन से अधिक ब्रैकेटेड शॉट्स की आवश्यकता होती है। पुराने सेंसर को 5 या अधिक ब्रैकेटेड शॉट्स की आवश्यकता हो सकती है।

आपका विचार, जैसा कि मैं इसे समझता हूं, प्रति पिक्सेल आधार पर निरंतर माप की आवश्यकता होती है।

जबकि यह एक महान विचार है, कार्यान्वयन एक समस्या बनी हुई है। कैमरे संवेदक से डेटा को धारावाहिक रूप से प्रवाहित करने के लिए डिज़ाइन किए गए हैं। प्रोसेसर के लिए प्रत्येक पिक्सेल के लिए एक पंक्ति नहीं होती है, इसके बजाय छवि सेंसर में तर्क होता है जो प्रोसेसर को पिक्सेल, या कई पिक्सेल के लिए एक बार में सभी पढ़ने के लिए मान देता है, लेकिन एक बार में नहीं। इसे सभी पिक्सेल के माध्यम से चलना पड़ता है, और इसमें समय लगता है।

हम इसे दूर नहीं कर सकते क्योंकि हम सेंसर और प्रोसेसर के बीच 50 मिलियन तारों को रखने में सक्षम नहीं होंगे। हम सेंसर में अधिक प्रसंस्करण को एकीकृत कर सकते हैं, लेकिन सेंसर एक काम करने के लिए विशिष्ट है, और इसे अच्छी तरह से करते हैं। डिजिटल सर्किटरी को जोड़ने पर अधिक शोर होगा, और शायद 3 डी आईसी का उपयोग करने पर भी छोटे पिक्सेल। इसके अलावा, एक अच्छा प्रकाश संवेदनशील सिलिकॉन बनाने के लिए उपयोग की जाने वाली प्रक्रियाएं एक अच्छा, कम शक्ति, तेजी से प्रसंस्करण डिजिटल सिलिकॉन बनाने के लिए उपयोग किए जाने वाले की तुलना में अलग हैं।

ये सभी चीजें बाधाएं हैं, हालांकि कुछ विशेष अनुप्रयोगों के लिए वे पहले से ही उपयोग किए जा रहे हैं। आमतौर पर वैज्ञानिक और औद्योगिक क्षेत्र में।

लेकिन इसका मतलब यह नहीं है कि हमें ठंड में छोड़ दिया जा रहा है। जैसे-जैसे सेंसर बेहतर होते हैं, विशेष रूप से गतिशील रेंज में, आप पाएंगे कि अंततः आपको बिना किसी कोष्ठक के कैमरे में "एचडीआर" मिलेगा - सेंसर पूरी तरह से संवेदनशील होगा पूरी रेंज प्राप्त करने के लिए, और लेंस और कैमरा शरीर अच्छा होगा ब्लीड, रिफ्लेक्शन और अन्य मुद्दों को रोकने के लिए पर्याप्त है जो सेंसर को इसकी पूर्ण क्षमता प्राप्त करने से रोकते हैं।

इसलिए जब विचार बुरा नहीं है, यह जटिल, महंगा है, और हमारे पास अभी भी अन्य कामचलाऊ क्षेत्रों में बढ़ने के लिए जगह है, ताकि आपका तरीका भी आवश्यक न हो सके।


2

असली जवाब कीमत है। यदि आप अपने कैमरे के लिए 10-100x अधिक देने को तैयार हैं, तो आप वास्तव में कुछ फैंसी सेंसर प्राप्त कर सकते हैं।

आपके द्वारा वर्णित वांछित परिणाम प्रत्येक पिक्सेल के लिए एक उच्च गतिशील रेंज है। ऐसा करने के कुछ तरीके हैं। स्पष्ट तरीका यह है कि एक बेहतर एडीसी और सीएमओएस सेंसर प्राप्त किया जाए, लेकिन यह पैसा खर्च करता है और आप जो सोच रहे हैं, उसकी नस में नहीं है। अगला दृष्टिकोण एनालॉग में, एक सतत प्रक्रिया में चार्ज चूसना होगा । यह अनुमति देता है कि आप पिक्सेल को कितने फोटॉन से टकराते हुए एक निरंतर फ़ंक्शन प्राप्त करें। हालांकि, एनालॉग हार्डवेयर का यह प्रकार काफी मुश्किल है। आपके कैमरे में, पिक्सेल डेटा के सभी ADCs के बजाय कम संख्या में होते हैं। हमारे सेंसरों की सुंदरता का एक हिस्सा यह है कि वे ऐसा कैसे कर सकते हैं, सैकड़ों के कारकों द्वारा सस्ते हार्डवेयर की पैदावार। ऐसा करने के लिए लगातार प्रत्येक और प्रत्येक पिक्सेल को ठीक ट्यून किए गए एनालॉग हार्डवेयर की असाधारण मात्रा की आवश्यकता होगी।

जो हमें डिजिटल सैंपलिंग अप्रोच में लाता है। आपने प्रति सेकंड 1/1000 वें डेटा को कैप्चर करने के विचार का उल्लेख किया, जो मुझे सुझाव देता है कि आप वास्तव में एक सतत प्रक्रिया के बारे में नहीं सोच रहे थे , जितना कि एक नमूना प्रक्रिया जहां आप पतले समय-स्लाइस के लिए कई डेटा पॉइंट प्राप्त करते हैं और उन्हें सिलाई करते हैं साथ में। जैसा कि अन्य उत्तरों में बताया गया है, कुछ फोन पर HDR + ठीक यही करता है। यह तेजी से उत्तराधिकार में कई तस्वीरें लेता है, और एचडीआर प्रभाव प्राप्त करने के लिए उन्हें मिश्रित करता है। ऐसा करने के लिए, उनके पास स्पष्ट रूप से एक ही छवि के लिए आवश्यक एडीसी बैंडविड्थ की तुलना में बहुत अधिक है, लेकिन उन्हें लगातार हर पिक्सेल का इलाज करने के लिए उतनी आवश्यकता नहीं होगी।

इसकी ध्वनि से, आप प्रत्येक पिक्सेल को इस बार स्वयं नमूना लेना पसंद करेंगे। ऐसा करने के लिए, हमें पहले 3D इंटीग्रेटेड सर्किट डिज़ाइन में एक फ़ॉरेस्ट लेने की आवश्यकता होगी। आप सेंसर की सतह पर जगह लेने वाले प्रत्येक पिक्सेल के किसी भी हार्डवेयर को नहीं चाहते हैं, या आपको बहुत कम पिक्सेल होने या आईसी के गैर-सेंसर भागों पर गिरने पर प्रकाश का एक गुच्छा खोने से परेशानी होगी। पूरा करने का एकमात्र तरीका 3 डी चिप बनाना है। ये वास्तव में भविष्य की तकनीक हैं। हम यह पता लगाने के लिए शुरू कर रहे हैं कि यह कैसे करना है, लेकिन यह आसान नहीं है। अगर आपके पास अपने कैमरे के लिए सैकड़ों-हजारों डॉलर हैं, तो हम इस तरह का काम कर सकते हैं।

अंत में, ऐसा लगता है कि आप चाहते हैं कि प्रत्येक पिक्सेल का आउटपुट "पूर्णांक" के बजाय "फ्लोटिंग पॉइंट नंबर" हो। कहने का तात्पर्य यह है कि प्रत्येक पिक्सेल में कितने फोटोन हिट करने के लिए एक मूल्य होगा, और एक प्रतिपादक जो मूल रूप से कहता है कि फोटोन की वास्तविक संख्या प्राप्त करने के लिए उस मूल्य को कितना गुणा करना है। जैसे ही पिक्सेल उजागर होता है, यह बहुत उच्च दर (शायद 5000 हर्ट्ज) पर नमूना होगा, और यदि फोटॉन गिनती बहुत बड़ी हो जाती है, तो यह एक बड़ा घातांक चुनता है।

अब असली सवाल यह है कि इससे आपको कितना फायदा होता है? याद रखें, सैकड़ों डॉलर में सेलफोन के लिए एचडीआर + दृष्टिकोण वर्तमान तकनीक है। आप किसी भी कैमरे की तुलना में कहीं अधिक मांग वाली सहिष्णुता के साथ अल्ट्रा-अत्याधुनिक तकनीक का उपयोग करने के बारे में बात कर रहे हैं। जो कि एक लागत पर आएगा। इसने आपको क्या खरीदा? शटर-इन-द-शटर उपकरणों के दौरान उन एकल-पिक्सेल ने वास्तव में आपको क्या खरीदा है कि सस्ते CMOS तकनीक Google धक्का दे रहा है? जवाब ज्यादा नहीं है। वहाँ एक हो सकता है कुछ नन्हा छोटे कोने मामलों में जहां इस एक पसंदीदा तरीका है, लेकिन कीमत काफी अधिक मौजूदा प्रौद्योगिकी की तुलना में के साथ, यह एक व्यावसायिक nonstarter है।


0

कुछ इसी तरह लागू किया जा रहा है। यह अभी भी विभिन्न फ़्रेमों द्वारा संचालित होता है, क्योंकि एनालॉग दृष्टिकोण के बजाय डिजिटल के महत्वपूर्ण फायदे हैं। लेकिन पिको सेकंड में समय संकल्प के साथ दृष्टिकोण मौजूद है।

https://www.ted.com/talks/ramesh_raskar_a_camera_that_takes_one_trillion_frames_per_second


1
हालांकि यह निश्चित रूप से एक दिलचस्प डेमो और अवधारणा थी, यह वास्तव में उस फोटोग्राफी के लिए मानचित्र नहीं है जिसके बारे में हम बात कर रहे हैं। TED टॉक से, यदि आप एक छोटी एक्सपोज़र तस्वीर लेते
स्कॉट

1
इस प्रकार, रास्कर की टीम द्वारा शुरू की गई तकनीक कम्प्यूटेशनल और स्टेटिस्टिकल फोटोग्राफी / वीडियोग्राफी के दायरे में बहुत अधिक है, और निश्चित रूप से किसी भी व्यावसायिक अनुप्रयोगों द्वारा नहीं किया जा रहा है।
स्कॉट

@scottbb यह देखते हुए कि ओपी एक कैमरा मांगता है कि "... हर बार जब कोई फोटॉन सेंसर पर पिक्सेल मारता है तो उसे टाइमस्टैम्प देता है।" मुझे लगता है कि रस्कर का दृष्टिकोण उनके विचार से काफी निकटता से मेल खाता है।
तैमिर

ज़रुरी नहीं। रस्कर का दृष्टिकोण "एक पल पर कब्जा नहीं" कर सकता है। यह बार-बार एक ही स्थान पर, कई बार के माध्यम से फोटॉनों को कैप्चर कर रहा है, जहां फोटॉनों के सांख्यिकीय ज्ञान का निर्माण करने के लिए। इस दृष्टिकोण के लिए समय के बोटलोड की आवश्यकता होती है , और इससे भी महत्वपूर्ण बात, ज्ञान की आवश्यकता होती है कि फोटॉन पहले से ही एक निश्चित स्थान पर होंगे। इसके लिए दोहराव और पूर्वानुमान की आवश्यकता होती है।
स्कॉट

0

क्यों नहीं एक इलेक्ट्रॉनिक शटर वाला कैमरा लगातार एक छवि से प्रकाश डेटा को शटर की पूरी अवधि में लगातार कैप्चर और रिकॉर्ड करता है, बजाय केवल प्रकाश डेटा इकट्ठा करने और अंत में इसे एक तस्वीर के रूप में संग्रहीत करने के लिए?

मुझे लगता है कि आप वास्तव में यहाँ प्रस्ताव कर रहे हैं, एक छवि का वर्णन करने के लिए है "पूरे प्रदर्शन के दौरान कितनी रोशनी एकत्र की गई थी?" लेकिन इसके बजाय "प्रत्येक बिंदु पर दृश्य कितना उज्ज्वल था?" यह एक महान विचार है, और मैं ऐसा करने के कई तरीकों के बारे में सोच सकता हूं, लेकिन उनके पास जो चीज है, वह यह है कि वे सेंसर में जटिलता जोड़ते हैं।

कैमरा निर्माता लंबे समय से अधिक पिक्सेल प्रदान करने के लिए काम कर रहे हैं , और मुझे लगता है कि प्रत्येक व्यक्ति पिक्सेल की संरचना को सरल रखने से उस प्रयास में मदद मिलती है। अब डीएसएलआर में आम तौर पर 20 से 50 मिलियन पिक्सल के बीच सेंसर होते हैं, शायद हम बेहतर पिक्सेल बनाने के बजाय उन्हें काम करते देखेंगे । हम पहले से ही कुछ तरीकों से देख रहे हैं - दोहरी पिक्सेल ऑटोफोकस एक उदाहरण है। और निश्चित रूप से निर्माण सेंसर पर काम करने वाली कंपनियां हैं जो अधिक गतिशील रेंज , कम शोर आदि प्रदान करती हैं।

संक्षेप में, मुझे लगता है कि यह संभव है कि हम भविष्य में आपके द्वारा प्रस्तावित की गई रेखाओं के साथ कुछ देखेंगे, भले ही यह उस तरह से काम न करे, और इसका कारण यह है कि हम पहले से ही शायद नहीं हैं। पिक्सेल घनत्व में वृद्धि जैसे अन्य लक्ष्य अतीत में उच्च प्राथमिकताएं थीं।


0

यह कुछ अलग तरीके से किया जा सकता है। एक तस्वीर के बजाय आप विभिन्न एक्सपोज़र समय के साथ कई फ्रेम लेते हैं। तब आप चित्रों को स्टैकिंग के लिए उपयोग किए जा रहे एल्गोरिदम के आधार पर किसी प्रकार के औसत प्राप्त करने के लिए स्टैक करते हैं।

उदाहरण के लिए हाल ही में कुल सूर्य ग्रहण के साथ नग्न आंखों को दिखाई देने वाली राशि कोरोना की तुलना में बहुत बड़ी थी, जो कि कैमरे के लिए किसी एक एक्सपोज़र का समय दिखाएगा। ऐसा इसलिए है क्योंकि आंख में एक लघुगणक गतिशील सीमा होती है जबकि आंख में एक रैखिक गतिशील सीमा होती है। तो विभिन्न एक्सपोज़र समय को स्टैक करने के साथ आप एक तस्वीर में लगभग बेहतर समझ सकते हैं कि पर्यवेक्षकों ने आंख से क्या देखा।


0

ओलंपस लाइव बल्ब और लाइव टाइम मोड उस दिशा में चलते हैं जिसका आप वर्णन कर रहे हैं।

यहाँ छवि विवरण दर्ज करें

से ओम डी ई M5 मैनुअल :

शूटिंग के दौरान एक्सपोज़र की प्रगति को देखने के लिए, [लाइव बीयूएलबी] (पी। 89) या [लाइव टाइम] (पी। 89) के लिए डिस्प्ले अंतराल चुनें।

यहाँ एक है वीडियो । ध्यान दें कि आपको केवल एक ही एक्सपोज़र मिलता है, भले ही आप प्रक्रिया के दौरान कई बार देखते हों। सेंसर पिक्सेल केवल एक्सपोज़र के दौरान उन्हें प्राप्त फोटॉन की कुल मात्रा के बारे में परवाह करते हैं, वे नहीं जानते कि कब या किस क्रम में उन फोटोन सेंसर पर उतरे।


-1

आपके पास सही विचार है। Sony अनिवार्य रूप से RX100M5 और अन्य कैमरों में इस आशय के लिए कुछ कर रहा है जो एक सुविधा को स्पोर्ट करते हैं जिसे वे डी-रेंज ऑप्टिमाइज़र कहते हैं - दृश्य का विश्लेषण करना और परेशानी वाले क्षेत्रों के लिए समायोजन और क्षतिपूर्ति करना।

डी-रेंज ऑप्टिमाइज़र फ़ंक्शन तुरंत कैप्चर की गई छवि डेटा का विश्लेषण करता है और इष्टतम एक्सपोज़र और टोन प्रजनन के लिए स्वचालित रूप से सही करता है। अक्सर बैकलिट दृश्यों को लेते समय, विषय का चेहरा या छाया में अन्य क्षेत्र तस्वीर में गहरे रंग के दिखाई देते हैं, जैसे कि वे मानवीय आंखों को दिखाई देते हैं। डी-रेंज ऑप्टिमाइज़र फ़ंक्शन फ़ोटोग्राफ़ किए गए दृश्यों के लिए अलग-अलग स्थितियों के बीच भेदभाव करता है स्वचालित रूप से गामा वक्र, एक्सपोज़र स्तर को ठीक करता है, और अन्य मापदंडों को उन हिस्सों को हटाने के लिए जो गहरे रंग के होते हैं, वे मानव आंखों को दिखाई देते हैं।

डी-रेंज ऑप्टिमाइज़र फ़ंक्शन में मानक मोड भी शामिल है, जो संपूर्ण छवि को समान रूप से समायोजित करता है (एक्सपोज़र जैसे सही पहलुओं के लिए प्रभावी), और उन्नत मोड, जो स्वचालित रूप से रचना के भीतर के क्षेत्रों को सही करता है। उन्नत मोड का उपयोग करके, फोटोग्राफर एक स्पष्ट तस्वीर का उत्पादन कर सकता है जहां विषय और पृष्ठभूमि दोनों को उचित चमक के साथ चित्रित किया जाता है, भले ही दोनों की चमक में बड़ा अंतर हो।

स्रोत: https://sony-paa-pa-en-web--paa.custhelp.com/app/answers/detail/a_id/26259/~/what-is-the-function-of-d-range-optimizer % 3F


3
लेकिन ... यह केवल कैप्चर की पुरानी पुरानी पोस्ट-प्रोसेसिंग है, न कि कैप्चर की गई विधि के बारे में, जिसका वर्णन किया जा रहा है।
जंकयार्डपार्कले

3
DRO एक प्रसंस्करण प्रक्रिया है।
जेनिट
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.