जीआईएस एप्लिकेशन में क्या इशारे समझ में आते हैं?


13

किनेक्ट टूलकिट के साथ किनेक्ट के लिए Microsoft बीटा एपीआई का परीक्षण कर रहे हैं । उपयोगकर्ताओं के हावभाव को पकड़ने वाला एक अनुमान बनाने के लिए बहुत आसान है। जीआईएस डेवलपर के रूप में ऐसा लगता है कि यह WPF के लिए ESRI ArcGIS के साथ पूरी तरह से एकीकृत होगा , उदाहरण के लिए कियोस्क एप्लिकेशन का निर्माण करने के लिए जहां उपयोगकर्ता एक मानचित्र के साथ बातचीत कर सकता है। किसी उपयोगकर्ता के लिए मानचित्र को नेविगेट करने के लिए क्या इशारे समझ में आते हैं?


2
बड़ा अच्छा सवाल! मुझे लगता है कि हम इसे सॉफ्टवेयर-स्वतंत्र रख सकते हैं।
UnderDark

हां, मैं सहमत हूं, यह तकनीक के बारे में नहीं है।
मैथियास वेस्टिन

जवाबों:


1

IJHG (खुली पहुंच) से हालिया प्रकाशन कुछ मदद कर सकता है:

'वेब जीआईएस इन प्रैक्टिस एक्स: गूगल अर्थ नैविगेशन के लिए एक Microsoft किन्कट प्राकृतिक यूजर इंटरफेस'

लेकिन मैं वास्तव में मेरे जीआईएस डेस्कटॉप में MYO को एकीकृत करने के लिए किसी का इंतजार कर रहा हूं !


3

WPF टूलकिट के साथ ये काफी अच्छे हैं (और जैसा कि वीडियो में बताया गया है): http://www.youtube.com/watch?v=Uj3z6bhcSsM

काइनेक्ट के बारे में एक चेतावनी यह है कि यह पूर्ण शरीर के इशारों का उपयोग करता है: आधिकारिक Kinect SDK से कंकाल का पता लगाना बहुत ही सहज है यदि यह आपके शरीर का केवल एक भाग देख सकता है (उदाहरण के लिए आपके डेस्क पर बैठा), हालाँकि यदि आपको इसकी आवश्यकता है, तो इसके बजाय OpenNI आधिकारिक SDK सहायक हो सकता है)।


1
धन्यवाद, रोचक वीडियो मुझे एहसास हुआ कि 2 डी या 3 डी मानचित्र को नेविगेट करते समय, संभवतः इशारों के विभिन्न सेटों की आवश्यकता होती है।
मैथियासवेस्टिन
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.