मेरे पास एक कैलिब्रेटेड कैमरा है और आंतरिक पैरामीटर हैं। मेरे पास वास्तविक दुनिया में एक तल सतह पर एक बिंदु (विश्व उत्पत्ति) के सापेक्ष बाहरी पैरामीटर भी हैं। इस बिंदु को मैंने वास्तविक दुनिया में मूल के रूप में निर्धारित किया है [0,0,0] सामान्य [0,0,1] के साथ।
इन बाहरी मापदंडों से मैं दुनिया के प्लेन 3 डी कोऑर्डिनेट में कैमरा पोजिशन और रोटेशन को इस्तेमाल कर सकता हूं: http://en.wikipedia.org/wiki/Camera_resectioning
अब मेरे पास एक दूसरा बिंदु है जिसे मैंने छवि निर्देशांक के लिए निकाला है [x, y]। अब मैं विश्व समन्वय प्रणाली में इस बिंदु की 3 डी स्थिति कैसे प्राप्त करूं?
मुझे लगता है कि यहाँ अंतर्ज्ञान यह है कि मुझे एक किरण का पता लगाना है जो कैमरे के ऑप्टिकल केंद्र से जाता है (जो कि अब ऊपर वर्णित के लिए 3 डी स्थिति है), कैमरे के छवि विमान [एक्स, वाई] के माध्यम से और फिर अपने वास्तविक विश्व विमान के माध्यम से जिसे मैंने सबसे ऊपर परिभाषित किया था।
अब मैं एक दुनिया को 3 डी किरण के साथ समतल कर सकता हूँ क्योंकि मैं सामान्य जानता हूँ और उस विमान को इंगित करता हूँ। जब मुझे यह नहीं मिलता है कि मैं 3D स्थिति और दिशा का पता कैसे लगाता हूं, जब यह एक पिक्सेल के माध्यम से छवि विमान को छोड़ देता है। यह विभिन्न समन्वय प्रणालियों के माध्यम से परिवर्तन है जो मुझे भ्रमित कर रहा है।