मैं एक एल्गोरिथ्म पर काम कर रहा हूं जो कई हालिया डेटा बिंदुओं के वेक्टर में कई सेंसर धाराओं से लेता है और यूक्लिडियन दूरी की तुलना पिछले वैक्टर से करता है। समस्या यह है कि अलग-अलग डेटा स्ट्रीम पूरी तरह से अलग-अलग सेंसर से हैं, इसलिए एक साधारण यूक्लिडियन दूरी लेने से नाटकीय रूप से कुछ मूल्यों पर अधिक प्रभाव पड़ेगा। स्पष्ट रूप से, मुझे डेटा को सामान्य करने के लिए किसी तरह की आवश्यकता है। हालाँकि, चूंकि एल्गोरिथ्म को वास्तविक समय में चलाने के लिए डिज़ाइन किया गया है, इसलिए मैं किसी भी डेटा-स्ट्रीम के बारे में किसी भी जानकारी को सामान्यीकरण में उपयोग नहीं कर सकता। अब तक मैं सिर्फ स्टार्ट-अप चरण (पहले 500 डेटा वैक्टर) में प्रत्येक सेंसर के लिए देखे गए सबसे बड़े मूल्य का ट्रैक रख रहा हूं और फिर उस मूल्य से उस सेंसर से भविष्य के सभी डेटा को विभाजित कर रहा हूं। यह आश्चर्यजनक रूप से अच्छी तरह से काम कर रहा है, लेकिन बहुत ही अशुभ महसूस करता है।
मेरे पास इसके लिए पहले से मौजूद एल्गोरिथ्म खोजने के लिए बहुत अधिक भाग्य नहीं था, लेकिन शायद मैं सिर्फ सही स्थानों पर नहीं देख रहा हूं। क्या किसी को पता है? या कोई विचार है? मैंने एक रनिंग माध्य (शायद वेलफ़ोर्ड के एल्गोरिथ्म द्वारा गणना की गई) का उपयोग करने के लिए एक सुझाव देखा था, लेकिन अगर मैंने ऐसा किया, तो उसी मूल्य के कई रीडिंग समान होने के रूप में दिखाई नहीं देंगे, जो एक बहुत बड़ी समस्या की तरह लगता है, जब तक कि मैं नहीं। मुझे कुछ याद आ रहा है। किसी भी विचार की सराहना की है! धन्यवाद!