वास्तविक समय डेटा में पीक संकेत का पता लगाने


242

अद्यतन: सबसे अच्छा प्रदर्शन एल्गोरिथ्म अब तक यह एक है


यह सवाल वास्तविक समय के आंकड़ों में अचानक चोटियों का पता लगाने के लिए मजबूत एल्गोरिदम की खोज करता है।

निम्नलिखित डेटासेट पर विचार करें:

p = [1 1 1.1 1 0.9 1 1 1.1 1 0.9 1 1.1 1 1 0.9 1 1 1.1 1 1 1 1 1.1 0.9 1 1.1 1 1 0.9 1, ...
     1.1 1 1 1.1 1 0.8 0.9 1 1.2 0.9 1 1 1.1 1.2 1 1.5 1 3 2 5 3 2 1 1 1 0.9 1 1 3, ... 
     2.6 4 3 3.2 2 1 1 0.8 4 4 2 2.5 1 1 1];

(माटलाब प्रारूप लेकिन यह भाषा के बारे में नहीं है लेकिन एल्गोरिथ्म के बारे में है)

डेटा का प्लॉट

आप स्पष्ट रूप से देख सकते हैं कि तीन बड़ी चोटियाँ और कुछ छोटी चोटियाँ हैं। यह डेटासेट क्लास डेटासेट का एक विशिष्ट उदाहरण है जो प्रश्न के बारे में है। डेटासेट के इस वर्ग में दो सामान्य विशेषताएं हैं:

  1. सामान्य अर्थ के साथ बुनियादी शोर है
  2. बड़ी ' चोटियां ' या ' उच्च डेटा बिंदु ' हैं जो शोर से काफी विचलित हैं।

चलिए निम्नलिखित को भी मानते हैं:

  • चोटियों की चौड़ाई पहले से निर्धारित नहीं की जा सकती
  • चोटियों की ऊंचाई स्पष्ट रूप से और महत्वपूर्ण रूप से अन्य मूल्यों से भटकती है
  • इस्तेमाल किया एल्गोरिथ्म realtime गणना करना चाहिए (ताकि प्रत्येक नए डेटापॉइंट के साथ परिवर्तन)

ऐसी स्थिति के लिए, एक सीमा मूल्य का निर्माण किया जाना चाहिए जो संकेतों को ट्रिगर करता है। हालाँकि, सीमा मूल्य स्थिर नहीं हो सकता है और इसे एल्गोरिथम के आधार पर वास्तविक समय निर्धारित किया जाना चाहिए।


मेरा प्रश्न: रियल टाइम में ऐसे थ्रेसहोल्ड की गणना करने के लिए एक अच्छा एल्गोरिथ्म क्या है? क्या ऐसी स्थितियों के लिए विशिष्ट एल्गोरिदम हैं? सबसे प्रसिद्ध एल्गोरिदम क्या हैं?


मजबूत एल्गोरिदम या उपयोगी अंतर्दृष्टि सभी की अत्यधिक सराहना की जाती है। (किसी भी भाषा में जवाब दे सकते हैं: यह एल्गोरिथम के बारे में है)


5
वहाँ चाहिए आवश्यकताओं आप पहले से ही दे दिया है के अलावा एक चोटी होने के लिए कुछ पूर्ण ऊंचाई आवश्यकता हो। अन्यथा, समय 13 पर चोटी को एक चोटी माना जाना चाहिए। (समान रूप से: यदि भविष्य में, चोटियां 1000 या उससे अधिक हो गईं, तो 25 और 35 पर दो चोटियों को चोटियों को नहीं माना जाना चाहिए ।)
j_random_hacker

मैं सहमत हूँ। चलिए मान लेते हैं कि ये चोटियाँ हैं जिन पर हमें केवल विचार करने की आवश्यकता है।
जीन-पॉल

आप गलत सवाल पूछ रहे होंगे। यह पूछने के बजाय कि आप बिना देरी के कैसे पता लगा सकते हैं, आप पूछ सकते हैं कि क्या किसी देरी के बिना एक निश्चित प्रकार के संकेत का पता लगाना संभव है, केवल उस समय से पहले जो ज्ञात है, या जो कुछ दिए गए के साथ कुछ का पता लगाने के लिए संकेत के बारे में पता होना चाहिए। देरी।
हॉटपावर 2

2
मैं एक प्रकाश सेंसर पर प्रकाश की तीव्रता के अचानक परिवर्तन का पता लगाने के लिए ऐसा करता था। मैंने इसे औसत स्थानांतरित करके, और किसी भी डेटा बिंदु की अनदेखी करके किया, जो एक सीमा से बड़ा है। ध्यान दें कि यह दहलीज एक चोटी का निर्धारण करने वाली दहलीज से अलग है। तो, मान लीजिए कि आप केवल डेटा बिंदुओं को शामिल करते हैं, जो आपके मूविंग एवरेज के लिए एक stddev के भीतर है, और उन डेटापॉइंट्स को तीन से अधिक stddev के साथ चोटियों के रूप में मानते हैं। उस समय के अनुप्रयोग के हमारे संदर्भ के लिए इस एल्गोरिथ्म ने बहुत अच्छा किया।
7

1
ओह समझा। मुझे कोड फॉर्म में इसकी उम्मीद नहीं थी। अगर मैंने यह प्रश्न पहले देखा होता तो शायद आपको वह उत्तर बहुत तेजी से मिलता = डी। वैसे भी, मेरा आवेदन उस समय का पता लगाने के लिए था कि क्या एंबियंट लाइट सोर्स से फोटोसेंटर बाधित है (यही कारण है कि हमें चलती औसत की आवश्यकता है, क्योंकि समय के साथ परिवेश प्रकाश स्रोत धीरे-धीरे बदल सकता है)। हमने इसे एक गेम के रूप में बनाया है जहां आपको विशिष्ट पैटर्न का पालन करते हुए सेंसर पर अपना हाथ मँडाना चाहिए। = डी
जस्टफ्रेम

जवाबों:


334

मजबूत चोटी का पता लगाने एल्गोरिथ्म (z- स्कोर का उपयोग करके)

मैं एक एल्गोरिथ्म के साथ आया था जो इस प्रकार के डेटासेट के लिए बहुत अच्छा काम करता है। यह फैलाव के सिद्धांत पर आधारित है : यदि कोई नया डेटापॉइंट किसी दिए गए माध्य से दूर मानक विचलन का एक एक्स नंबर है, तो एल्गोरिथ्म सिग्नल (जिसे जेड-स्कोर भी कहा जाता है )। एल्गोरिथ्म बहुत मजबूत है क्योंकि यह एक अलग चल रहा है और विचलन का निर्माण करता है , जैसे कि संकेत दहलीज को भ्रष्ट नहीं करते हैं। भविष्य के संकेतों की पहचान लगभग समान सटीकता के साथ की जाती है, भले ही पिछले संकेतों की मात्रा कितनी हो। एल्गोरिथ्म 3 आदानों लेता है: lag = the lag of the moving window, threshold = the z-score at which the algorithm signalsऔर influence = the influence (between 0 and 1) of new signals on the mean and standard deviation। उदाहरण के लिए, lag5 में से अंतिम 5 टिप्पणियों का उपयोग डेटा को सुचारू करने के लिए करेगा। एthreshold3.5 का संकेत होगा अगर एक डाटापॉइंट चलती मानक से 3.5 मानक विचलन है। और influence0.5 के एक संकेत को उस प्रभाव का आधा हिस्सा देता है जो सामान्य डेटा पॉइंट है। इसी तरह, influenceनई सीमा को पुनर्गठित करने के लिए 0 में से संकेत पूरी तरह से नजरअंदाज कर देते हैं। 0 का एक प्रभाव इसलिए सबसे मजबूत विकल्प होता है (लेकिन मान लिया गया stationarity ); 1 पर प्रभाव विकल्प डाल कम से कम मजबूत है। गैर-स्थिर डेटा के लिए, प्रभाव विकल्प को 0 और 1 के बीच कहीं रखा जाना चाहिए।

यह निम्नानुसार काम करता है:

स्यूडोकोड

# Let y be a vector of timeseries data of at least length lag+2
# Let mean() be a function that calculates the mean
# Let std() be a function that calculates the standard deviaton
# Let absolute() be the absolute value function

# Settings (the ones below are examples: choose what is best for your data)
set lag to 5;          # lag 5 for the smoothing functions
set threshold to 3.5;  # 3.5 standard deviations for signal
set influence to 0.5;  # between 0 and 1, where 1 is normal influence, 0.5 is half

# Initialize variables
set signals to vector 0,...,0 of length of y;   # Initialize signal results
set filteredY to y(1),...,y(lag)                # Initialize filtered series
set avgFilter to null;                          # Initialize average filter
set stdFilter to null;                          # Initialize std. filter
set avgFilter(lag) to mean(y(1),...,y(lag));    # Initialize first value
set stdFilter(lag) to std(y(1),...,y(lag));     # Initialize first value

for i=lag+1,...,t do
  if absolute(y(i) - avgFilter(i-1)) > threshold*stdFilter(i-1) then
    if y(i) > avgFilter(i-1) then
      set signals(i) to +1;                     # Positive signal
    else
      set signals(i) to -1;                     # Negative signal
    end
    # Reduce influence of signal
    set filteredY(i) to influence*y(i) + (1-influence)*filteredY(i-1);
  else
    set signals(i) to 0;                        # No signal
    set filteredY(i) to y(i);
  end
  # Adjust the filters
  set avgFilter(i) to mean(filteredY(i-lag),...,filteredY(i));
  set stdFilter(i) to std(filteredY(i-lag),...,filteredY(i));
end

आपके डेटा के लिए अच्छे मापदंडों का चयन करने के लिए अंगूठे के नियम नीचे पाए जा सकते हैं।


डेमो

मजबूत थ्रेशोल्ड एल्गोरिथ्म का प्रदर्शन

इस डेमो के लिए मतलाब कोड यहां पाया जा सकता है । डेमो का उपयोग करने के लिए, बस इसे चलाएं और ऊपरी चार्ट पर क्लिक करके अपने आप को एक समय श्रृंखला बनाएं। एल्गोरिदम lagटिप्पणियों की संख्या खींचने के बाद काम करना शुरू करता है ।


परिणाम

मूल प्रश्न के लिए, यह एल्गोरिथ्म निम्नलिखित सेटिंग्स का उपयोग करते समय निम्न आउटपुट देगा lag = 30, threshold = 5, influence = 0:

थ्रेसहोल्ड एल्गोरिथ्म उदाहरण


विभिन्न प्रोग्रामिंग भाषाओं में कार्यान्वयन:


एल्गोरिथ्म को कॉन्फ़िगर करने के लिए अंगूठे के नियम

lag: अंतराल पैरामीटर यह निर्धारित करता है कि आपके डेटा को कितना चिकना किया जाएगा और डेटा के दीर्घकालिक औसत में एल्गोरिदम को कितना अनुकूल बनाया जाएगा। आपका डेटा जितना अधिक स्थिर होगा, आपको उतने अधिक लैग्स को शामिल करना चाहिए (यह एल्गोरिथम की मजबूती में सुधार करना चाहिए)। यदि आपके डेटा में समय-भिन्न रुझान हैं, तो आपको विचार करना चाहिए कि आप इन रुझानों के लिए एल्गोरिदम को कितनी जल्दी चाहते हैं। यानी, यदि आप lag10 साल की उम्र में डालते हैं, तो एल्गोरिथ्म के ट्रेशोल्ड को दीर्घकालिक औसत में किसी भी व्यवस्थित परिवर्तन के लिए समायोजित करने से पहले 10 'अवधियों' में लग जाता है। तो lagअपने डेटा के ट्रेंडिंग व्यवहार और आप कितना अनुकूल एल्गोरिदम चाहते हैं, के आधार पर पैरामीटर चुनें ।

influence: यह पैरामीटर एल्गोरिथ्म का पता लगाने की सीमा पर संकेतों के प्रभाव को निर्धारित करता है। यदि 0 पर रखा गया है, तो संकेतों का दहलीज पर कोई प्रभाव नहीं पड़ता है, जैसे कि भविष्य के संकेतों का पता उस सीमा के आधार पर लगाया जाता है, जिसकी गणना एक औसत और मानक विचलन के साथ की जाती है जो पिछले संकेतों से प्रभावित नहीं होता है। इसके बारे में सोचने का एक और तरीका यह है कि यदि आप 0 पर प्रभाव डालते हैं, तो आप स्पष्ट रूप से स्थिरता मान लेते हैं (यानी चाहे कितने भी संकेत हों, समय श्रृंखला हमेशा लंबी अवधि में एक ही औसत पर लौटती है)। यदि यह मामला नहीं है, तो आपको 0 और 1 के बीच प्रभाव पैरामीटर को कहीं न कहीं रखा जाना चाहिए, जो इस बात पर निर्भर करता है कि सिग्नल डेटा की समय-भिन्न प्रवृत्ति को व्यवस्थित रूप से किस हद तक प्रभावित कर सकते हैं। उदाहरण के लिए, यदि सिग्नल एक संरचनात्मक विराम को जन्म देते हैं समय श्रृंखला के दीर्घकालिक औसत पर, प्रभाव पैरामीटर को उच्च (1 के करीब) रखा जाना चाहिए ताकि थ्रेशोल्ड इन परिवर्तनों को जल्दी से समायोजित कर सके।

threshold: थ्रेशोल्ड पैरामीटर चलती औसत से मानक विचलन की संख्या है जिसके ऊपर एल्गोरिथ्म एक सिग्नल के रूप में एक नए डेटापॉइंट को वर्गीकृत करेगा। उदाहरण के लिए, यदि कोई नया डाटपॉइंट चलती माध्य से 4.0 मानक विचलन है और थ्रेशोल्ड पैरामीटर 3.5 के रूप में सेट है, तो एल्गोरिथ्म डाटापॉइंट को एक संकेत के रूप में पहचानेगा। यह पैरामीटर निर्धारित किया जाना चाहिए कि आप कितने संकेतों की उम्मीद करते हैं। उदाहरण के लिए, यदि आपका डेटा सामान्य रूप से वितरित किया जाता है, तो 3.5 की एक सीमा (या: z- स्कोर) 0.00047 की सिग्नलिंग संभावना से मेल खाती है ( इस तालिका से)), जिसका अर्थ है कि आप हर 2128 डेटापॉइंट (1 / 0.00047) पर एक बार सिग्नल की उम्मीद करते हैं। इसलिए थ्रेशोल्ड सीधे तौर पर प्रभावित करता है कि एल्गोरिथ्म कितना संवेदनशील है और इसलिए यह भी कि एल्गोरिथम कितनी बार सिग्नल करता है। अपने स्वयं के डेटा की जांच करें और एक समझदार दहलीज निर्धारित करें जो कि जब आप चाहते हैं तब एल्गोरिथ्म सिग्नल बनाता है (आपके उद्देश्य के लिए एक अच्छी सीमा तक पहुंचने के लिए कुछ परीक्षण और त्रुटि की आवश्यकता हो सकती है)।


चेतावनी: ऊपर दिया गया कोड हमेशा सभी डेटापॉइंट्स पर लूप करता है जो हर बार चलता है। इस कोड को लागू करते समय, सिग्नल की गणना को एक अलग फ़ंक्शन (लूप के बिना) में विभाजित करना सुनिश्चित करें। फिर जब एक नया डेटापॉइंट आता है, तो अपडेट करें filteredY, avgFilterऔर stdFilterएक बार। सभी डेटा के लिए संकेतों को पुनर्गणना न करें हर बार एक नया डेटापॉइंट होता है (जैसे ऊपर दिए गए उदाहरण में), जो बेहद अक्षम और धीमा होगा!

एल्गोरिथ्म को संशोधित करने के अन्य तरीके (संभावित सुधार के लिए) हैं:

  1. माध्य के बजाय माध्यिका का उपयोग करें
  2. मानक विचलन के बजाय, स्केल का एक मजबूत माप का उपयोग करें
  3. सिग्नलिंग मार्जिन का उपयोग करें, इसलिए सिग्नल अक्सर स्विच नहीं करता है
  4. प्रभाव पैरामीटर के काम करने के तरीके को बदलें
  5. दावत ऊपर और नीचे संकेतों को अलग ढंग से (विषम उपचार)
  6. influenceमाध्य और std के लिए एक अलग पैरामीटर बनाएँ ( जैसा कि इस स्विफ्ट अनुवाद में किया गया है )

(ज्ञात) इस StackOverflow जवाब के लिए शैक्षिक उद्धरण:

एल्गोरिथ्म का उपयोग करते हुए अन्य काम

इस एल्गोरिथ्म के अन्य अनुप्रयोग

अन्य पीक डिटेक्शन एल्गोरिदम के लिंक


यदि आप इस फ़ंक्शन का उपयोग करते हैं, तो कृपया मुझे या इस उत्तर का श्रेय दें। यदि आपके पास इस एल्गोरिदम के बारे में कोई प्रश्न हैं, तो उन्हें नीचे टिप्पणी में पोस्ट करें या लिंक्डइन पर मेरे पास पहुंचें ।



आगे बढ़ने की कड़ी टूटी हुई है, लेकिन आप इसका विवरण यहाँ
Phylliida

@reasra पुनर्लेखन के बाद फ़ंक्शन को एक मानक मानक विचलन की आवश्यकता नहीं है। अब इसका उपयोग साधारण बिल्ट-इन मटलब कार्यों के साथ किया जा सकता है :)
जीन-पॉल

1
मैं कुछ एक्सेलेरोमीटर डेटा के लिए मैटलैब कोड की कोशिश कर रहा हूं, लेकिन किसी कारणवश thresholdग्राफ डेटा में 20 तक बड़ी स्पाइक के बाद एक सपाट ग्रीन लाइन बन जाता है, और यह ग्राफ के बाकी हिस्सों की तरह ही रहता है ... यदि मैं साइक को हटा देता हूं, ऐसा नहीं होता है, इसलिए यह डेटा में स्पाइक के कारण लगता है। किसी भी विचार क्या हो सकता है? मैं मतलाब में नौसिखिया हूं, इसलिए मैं इसका पता नहीं लगा सकता ...
मैग्नस डब्ल्यू

क्या आप डेटा के साथ एक उदाहरण प्रदान कर सकते हैं? शायद एसओ पर यहां अपना सवाल पूछें और मुझे लिंक बताएं?
जीन-पॉल

2
इस अहंकार को सुधारने के कई तरीके हैं, इसलिए रचनात्मक हो (अलग उपचार ऊपर / नीचे; औसत के बजाय माध्य; मजबूत एसटीडी; कोड को मेमोरी-कुशल फ़ंक्शन के रूप में लिखना; थ्रेसहोल्ड मार्जिन; इसलिए सिग्नल बहुत बार स्विच नहीं होता है, आदि) ।)।
जीन-पॉल

41

यहाँ स्मूथ जेड-स्कोर एल्गोरिथ्म का कार्यान्वयन Python/ numpy( ऊपर उत्तर देखें ) है। आप यहाँ गिस पा सकते हैं ।

#!/usr/bin/env python
# Implementation of algorithm from https://stackoverflow.com/a/22640362/6029703
import numpy as np
import pylab

def thresholding_algo(y, lag, threshold, influence):
    signals = np.zeros(len(y))
    filteredY = np.array(y)
    avgFilter = [0]*len(y)
    stdFilter = [0]*len(y)
    avgFilter[lag - 1] = np.mean(y[0:lag])
    stdFilter[lag - 1] = np.std(y[0:lag])
    for i in range(lag, len(y)):
        if abs(y[i] - avgFilter[i-1]) > threshold * stdFilter [i-1]:
            if y[i] > avgFilter[i-1]:
                signals[i] = 1
            else:
                signals[i] = -1

            filteredY[i] = influence * y[i] + (1 - influence) * filteredY[i-1]
            avgFilter[i] = np.mean(filteredY[(i-lag+1):i+1])
            stdFilter[i] = np.std(filteredY[(i-lag+1):i+1])
        else:
            signals[i] = 0
            filteredY[i] = y[i]
            avgFilter[i] = np.mean(filteredY[(i-lag+1):i+1])
            stdFilter[i] = np.std(filteredY[(i-lag+1):i+1])

    return dict(signals = np.asarray(signals),
                avgFilter = np.asarray(avgFilter),
                stdFilter = np.asarray(stdFilter))

नीचे उसी डेटासेट पर परीक्षण दिया गया है, जो उसी प्लॉट में पैदावार देता है जैसे मूल उत्तर के लिए R/Matlab

# Data
y = np.array([1,1,1.1,1,0.9,1,1,1.1,1,0.9,1,1.1,1,1,0.9,1,1,1.1,1,1,1,1,1.1,0.9,1,1.1,1,1,0.9,
       1,1.1,1,1,1.1,1,0.8,0.9,1,1.2,0.9,1,1,1.1,1.2,1,1.5,1,3,2,5,3,2,1,1,1,0.9,1,1,3,
       2.6,4,3,3.2,2,1,1,0.8,4,4,2,2.5,1,1,1])

# Settings: lag = 30, threshold = 5, influence = 0
lag = 30
threshold = 5
influence = 0

# Run algo with settings from above
result = thresholding_algo(y, lag=lag, threshold=threshold, influence=influence)

# Plot result
pylab.subplot(211)
pylab.plot(np.arange(1, len(y)+1), y)

pylab.plot(np.arange(1, len(y)+1),
           result["avgFilter"], color="cyan", lw=2)

pylab.plot(np.arange(1, len(y)+1),
           result["avgFilter"] + threshold * result["stdFilter"], color="green", lw=2)

pylab.plot(np.arange(1, len(y)+1),
           result["avgFilter"] - threshold * result["stdFilter"], color="green", lw=2)

pylab.subplot(212)
pylab.step(np.arange(1, len(y)+1), result["signals"], color="red", lw=2)
pylab.ylim(-1.5, 1.5)
pylab.show()

यहाँ 'y' वास्तव में सिग्नल है और 'सिग्नल' डेटा पॉइंट्स का सेट है, क्या मैं समझने में सही हूँ?
TheTank

1
@TheTank yडेटा सरणी आप में पास है, signalsहै +1या -1उत्पादन सरणी है कि प्रत्येक डाटापॉइंट के लिए संकेत मिलता है y[i]कि क्या उस डाटापॉइंट एक "महत्वपूर्ण पीक" आप का उपयोग सेटिंग्स दिया है।
जीन-पॉल

23

एक दृष्टिकोण निम्नलिखित अवलोकन के आधार पर चोटियों का पता लगाने के लिए है:

  • टाइम टी एक चोटी है अगर (y (t)> y (t-1)) && (y (t)> y (t + 1))

जब तक अपट्रेंड खत्म नहीं होता है तब तक प्रतीक्षा करने से झूठी सकारात्मकता से बचा जाता है। यह इस अर्थ में "वास्तविक समय" नहीं है कि यह एक dt द्वारा चोटी को याद करेगा। तुलना के लिए एक मार्जिन की आवश्यकता के द्वारा संवेदनशीलता को नियंत्रित किया जा सकता है। शोर का पता लगाने और समय का पता लगाने में देरी के बीच व्यापार बंद है। आप अधिक मापदंडों को जोड़कर मॉडल को समृद्ध कर सकते हैं:

  • पीक अगर (y (t) - y (t-dt)> m) && (y (t) - y (t + dt)> m)

जहां dt और m संवेदनशीलता बनाम समय-विलंब को नियंत्रित करने के पैरामीटर हैं

यह वही है जो आपको उल्लिखित एल्गोरिथ्म के साथ मिलता है: यहां छवि विवरण दर्ज करें

यहाँ अजगर में साजिश को पुन: पेश करने के लिए कोड है:

import numpy as np
import matplotlib.pyplot as plt
input = np.array([ 1. ,  1. ,  1. ,  1. ,  1. ,  1. ,  1. ,  1.1,  1. ,  0.8,  0.9,
    1. ,  1.2,  0.9,  1. ,  1. ,  1.1,  1.2,  1. ,  1.5,  1. ,  3. ,
    2. ,  5. ,  3. ,  2. ,  1. ,  1. ,  1. ,  0.9,  1. ,  1. ,  3. ,
    2.6,  4. ,  3. ,  3.2,  2. ,  1. ,  1. ,  1. ,  1. ,  1. ])
signal = (input > np.roll(input,1)) & (input > np.roll(input,-1))
plt.plot(input)
plt.plot(signal.nonzero()[0], input[signal], 'ro')
plt.show()

सेटिंग करके m = 0.5, आप केवल एक गलत सकारात्मक के साथ एक क्लीनर संकेत प्राप्त कर सकते हैं: यहां छवि विवरण दर्ज करें


पहले = बेहतर तो सभी चोटियों महत्वपूर्ण हैं। धन्यवाद! बहुत ही शांत!
जीन-पॉल

मैं संवेदनशीलता को कैसे बदलूंगा?
जीन-पॉल

मैं दो दृष्टिकोणों के बारे में सोच सकता हूं: 1: मी को बड़े मूल्य पर सेट करें ताकि केवल बड़ी चोटियों का पता चले। 2: y (t) - y (t-dt) (और y (t) - y (t + dt)) की गणना करने के बजाय, आप t-dt से t (और t से t + dt) तक एकीकृत करते हैं।
आहा

2
आप अन्य 7 चोटियों को किस मापदंड से खारिज कर रहे हैं?
hotpaw2

4
फ्लैट चोटियों के साथ एक समस्या है, क्योंकि आप जो करते हैं वह मूल रूप से 1-डी एज डिटेक्शन है (जैसे [1 0 -1 -1 के साथ सिग्नल को कम करना)
बेन

18

सिग्नल प्रोसेसिंग में, चोटी का पता लगाने को अक्सर वेवलेट ट्रांसफ़ॉर्म के माध्यम से किया जाता है। आप मूल रूप से अपने समय श्रृंखला डेटा पर एक असतत तरंग परिवर्तन करते हैं। लौट आए विस्तार गुणांक में शून्य-क्रॉसिंग समय श्रृंखला संकेत में चोटियों के अनुरूप होंगे। आप विभिन्न विस्तार गुणांक स्तरों पर पता लगाए गए अलग-अलग चोटी के आयाम प्राप्त करते हैं, जो आपको बहु-स्तरीय रिज़ॉल्यूशन देता है।


1
आपका उत्तर मुझे इस लेख और इस उत्तर से देता है जो मुझे मेरे कार्यान्वयन के लिए एक अच्छा एल्गोरिथ्म बनाने में मदद करेगा। धन्यवाद!
जीन-पॉल

@cklin क्या आप बता सकते हैं कि आप कैसे वेवलेट कोफ़्स के शून्य-क्रॉसिंग की गणना करते हैं, क्योंकि वे मूल समय श्रृंखला के समान समय के पैमाने पर नहीं हैं। इस उपयोग पर कोई रेफरी?
कुंडली

11

हमने अपने डेटासेट पर स्मूथ जेड-स्कोर अल्गोरिथम का उपयोग करने का प्रयास किया है, जिसके परिणामस्वरुप थोड़ी मध्यम जमीन के साथ ओवरसोन्सेटिविटी या अंडरस्क्रिमिनेशन (पैरामीटर कैसे ट्यून किए जाते हैं) पर निर्भर करता है। हमारी साइट के ट्रैफ़िक सिग्नल में, हमने एक कम आवृत्ति आधार रेखा देखी है जो दैनिक चक्र का प्रतिनिधित्व करती है और यहां तक ​​कि सर्वोत्तम संभव मापदंडों (नीचे दिखाया गया है) के साथ, यह अभी भी विशेष रूप से 4 वें दिन बंद रहता है क्योंकि अधिकांश डेटा बिंदु विसंगति के रूप में पहचाने जाते हैं ।

मूल z- स्कोर एल्गोरिथ्म के शीर्ष पर बिल्डिंग, हम रिवर्स फ़िल्टरिंग द्वारा इस समस्या को हल करने का एक तरीका है। संशोधित एल्गोरिथ्म का विवरण और टीवी वाणिज्यिक ट्रैफ़िक एट्रिब्यूशन पर इसका अनुप्रयोग हमारी टीम ब्लॉग पर पोस्ट किया गया है ।

यहां छवि विवरण दर्ज करें


यह देखने के लिए अच्छा है कि एल्गोरिथ्म आपके अधिक उन्नत संस्करण के लिए एक प्रारंभिक बिंदु था। आपके डेटा में एक बहुत ही विशेष पैटर्न है, इसलिए यह वास्तव में कुछ अन्य तकनीक का उपयोग करके पहले पैटर्न को हटाने के लिए और अधिक समझ में आएगा और फिर अवशिष्टों पर एल्गो को लागू करेगा। वैकल्पिक रूप से, आप औसत / st.dev की गणना करने के लिए लैगिंग विंडो के बजाय केंद्रित का उपयोग करना चाह सकते हैं। एक और टिप्पणी: आपका समाधान स्पाइक्स की पहचान करने के लिए दाईं ओर से बाईं ओर चलता है, लेकिन यह वास्तविक समय के अनुप्रयोगों में संभव नहीं है (यही कारण है कि मूल अहंकार इतना सरल है, क्योंकि भविष्य की जानकारी अप्राप्य है)।
जीन-पॉल

10

कम्प्यूटेशनल टोपोलॉजी में लगातार होमोलॉजी का विचार एक कुशल - तेजी से छँटाई संख्या - समाधान की ओर जाता है। यह केवल चोटियों का पता नहीं लगाता है, यह प्राकृतिक तरीके से चोटियों के "महत्व" को निर्धारित करता है जो आपको उन चोटियों का चयन करने की अनुमति देता है जो आपके लिए महत्वपूर्ण हैं।

एल्गोरिदम सारांश। 1-आयामी सेटिंग (समय श्रृंखला, वास्तविक-मूल्यवान संकेत) में एल्गोरिथ्म को निम्न आकृति द्वारा आसानी से वर्णित किया जा सकता है:

ज्यादातर लगातार चोटियां

फ़ंक्शन ग्राफ (या इसके उप-स्तरीय सेट) को परिदृश्य के रूप में सोचें और स्तर के अनन्तता (या इस चित्र में 1.8) पर शुरू होने वाले घटते जल स्तर पर विचार करें। जबकि स्तर कम हो जाता है, स्थानीय मैक्सिमा द्वीपों में पॉप अप होता है। स्थानीय मिनीमा में ये द्वीप एक साथ विलीन हो जाते हैं। इस विचार में एक विस्तार यह है कि बाद में दिखाई देने वाला द्वीप पुराने द्वीप में विलीन हो जाता है। एक द्वीप का "हठ" इसका जन्म समय है जो इसकी मृत्यु का समय है। नीली पट्टियों की लंबाई दृढ़ता को दर्शाती है, जो कि एक चोटी का "महत्व" है।

दक्षता। रैखिक समय में चलने वाले कार्यान्वयन को खोजना बहुत मुश्किल नहीं है - वास्तव में यह एक एकल, सरल लूप है - फ़ंक्शन मानों को क्रमबद्ध करने के बाद। तो यह कार्यान्वयन तेजी से व्यवहार में होना चाहिए और आसानी से लागू हो भी जाता है।

संदर्भ। संपूर्ण कहानी का एक लेख और निरंतर होमोलॉजी से प्रेरणा के संदर्भ (कम्प्यूटेशनल बीजगणितीय टोपोलॉजी में एक क्षेत्र) यहां पाया जा सकता है: https://www.sthu.org/blog/13-perstopology-poddetection/index.html


यह एल्गोरिथम उदाहरण के लिए, scipy.signal.find_peaks की तुलना में बहुत तेज़ और अधिक सटीक है। 1053896 डेटा बिंदुओं के साथ "वास्तविक" समय-श्रृंखला के लिए, इसमें 137516 चोटियों (13%) का पता चला। चोटियों का क्रम (सबसे महत्वपूर्ण पहले) सबसे महत्वपूर्ण चोटियों को निकालने की अनुमति देता है। यह प्रत्येक चोटी की शुरुआत, शिखर और अंत प्रदान करता है। शोर डेटा के साथ अच्छी तरह से काम करता है।
विन्ह

वास्तविक समय के डेटा से आपका मतलब एक तथाकथित ऑनलाइन एल्गोरिथ्म से है, जहाँ डेटा बिंदुओं को समय के बाद प्राप्त किया जाता है। एक चोटी का महत्व भविष्य में मूल्यों द्वारा निर्धारित किया जा सकता है। यह बहुत अच्छा होगा कि समय की जटिलता का त्याग किए बिना पिछले परिणामों को संशोधित करके ऑनलाइन एल्गोरिथ्म का विस्तार करें।
एस। हुबेर

9

टाइम-सीरीज़ में पीक डिटेक्शन के लिए सरल एल्गोरिदम में जीएच पलशिकर द्वारा एक और एल्गोरिथ्म मिला ।

एल्गोरिथ्म इस प्रकार है:

algorithm peak1 // one peak detection algorithms that uses peak function S1 

input T = x1, x2, …, xN, N // input time-series of N points 
input k // window size around the peak 
input h // typically 1 <= h <= 3 
output O // set of peaks detected in T 

begin 
O = empty set // initially empty 

    for (i = 1; i < n; i++) do
        // compute peak function value for each of the N points in T 
        a[i] = S1(k,i,xi,T); 
    end for 

    Compute the mean m' and standard deviation s' of all positive values in array a; 

    for (i = 1; i < n; i++) do // remove local peaks which are “small” in global context 
        if (a[i] > 0 && (a[i] – m') >( h * s')) then O = O + {xi}; 
        end if 
    end for 

    Order peaks in O in terms of increasing index in T 

    // retain only one peak out of any set of peaks within distance k of each other 

    for every adjacent pair of peaks xi and xj in O do 
        if |j – i| <= k then remove the smaller value of {xi, xj} from O 
        end if 
    end for 
end

लाभ

  • पेपर चोटी का पता लगाने के लिए 5 अलग-अलग एल्गोरिदम प्रदान करता है
  • एल्गोरिदम कच्चे समय-श्रृंखला डेटा पर काम करते हैं (कोई चौरसाई की जरूरत नहीं)

नुकसान

  • निर्धारित करने kऔर hपहले से मुश्किल
  • चोटियाँ समतल नहीं हो सकती हैं (जैसे मेरे परीक्षण डेटा में तीसरी चोटी)

उदाहरण:

यहां छवि विवरण दर्ज करें


दरअसल दिलचस्प पेपर। S4 उसकी राय में उपयोग करने के लिए एक बेहतर कार्य की तरह लगता है। लेकिन इससे भी महत्वपूर्ण बात यह है कि k <i <Nk सच नहीं है। I = 0 के लिए कोई फ़ंक्शन S1 (S2, ..) को कैसे परिभाषित करेगा I मैंने बस 2 से विभाजित नहीं किया है और पहले ऑपरेंड को अनदेखा किया है और हर दूसरे के लिए मैंने दोनों ऑपरेंड को शामिल किया है लेकिन i <= k के लिए बाईं ओर कम ऑपरेंड थे उसके बाद दाईं ओर
daniels_pa

8

यहां गोलंग में स्मूथेड जेड-स्कोर एल्गोरिदम (ऊपर) का कार्यान्वयन है। यह []int16(पीसीएम 16 बिट नमूने) का एक टुकड़ा मान लेता है । आप यहाँ एक जिस्ट पा सकते हैं ।

/*
Settings (the ones below are examples: choose what is best for your data)
set lag to 5;          # lag 5 for the smoothing functions
set threshold to 3.5;  # 3.5 standard deviations for signal
set influence to 0.5;  # between 0 and 1, where 1 is normal influence, 0.5 is half
*/

// ZScore on 16bit WAV samples
func ZScore(samples []int16, lag int, threshold float64, influence float64) (signals []int16) {
    //lag := 20
    //threshold := 3.5
    //influence := 0.5

    signals = make([]int16, len(samples))
    filteredY := make([]int16, len(samples))
    for i, sample := range samples[0:lag] {
        filteredY[i] = sample
    }
    avgFilter := make([]int16, len(samples))
    stdFilter := make([]int16, len(samples))

    avgFilter[lag] = Average(samples[0:lag])
    stdFilter[lag] = Std(samples[0:lag])

    for i := lag + 1; i < len(samples); i++ {

        f := float64(samples[i])

        if float64(Abs(samples[i]-avgFilter[i-1])) > threshold*float64(stdFilter[i-1]) {
            if samples[i] > avgFilter[i-1] {
                signals[i] = 1
            } else {
                signals[i] = -1
            }
            filteredY[i] = int16(influence*f + (1-influence)*float64(filteredY[i-1]))
            avgFilter[i] = Average(filteredY[(i - lag):i])
            stdFilter[i] = Std(filteredY[(i - lag):i])
        } else {
            signals[i] = 0
            filteredY[i] = samples[i]
            avgFilter[i] = Average(filteredY[(i - lag):i])
            stdFilter[i] = Std(filteredY[(i - lag):i])
        }
    }

    return
}

// Average a chunk of values
func Average(chunk []int16) (avg int16) {
    var sum int64
    for _, sample := range chunk {
        if sample < 0 {
            sample *= -1
        }
        sum += int64(sample)
    }
    return int16(sum / int64(len(chunk)))
}

@ जीन-पॉल मुझे पूरी तरह से यकीन नहीं है कि सब कुछ सही है, इसलिए कीड़े हो सकते हैं।
20

1
क्या आपने Matlab / R से डेमो उदाहरण आउटपुट की प्रतिकृति बनाने की कोशिश की है? यह गुणवत्ता की एक अच्छी पुष्टि होनी चाहिए।
जीन-पॉल

7

इस उत्तर से स्मूथ जेड-स्कोर एल्गोरिथ्म का C ++ कार्यान्वयन यहां दिया गया है

std::vector<int> smoothedZScore(std::vector<float> input)
{   
    //lag 5 for the smoothing functions
    int lag = 5;
    //3.5 standard deviations for signal
    float threshold = 3.5;
    //between 0 and 1, where 1 is normal influence, 0.5 is half
    float influence = .5;

    if (input.size() <= lag + 2)
    {
        std::vector<int> emptyVec;
        return emptyVec;
    }

    //Initialise variables
    std::vector<int> signals(input.size(), 0.0);
    std::vector<float> filteredY(input.size(), 0.0);
    std::vector<float> avgFilter(input.size(), 0.0);
    std::vector<float> stdFilter(input.size(), 0.0);
    std::vector<float> subVecStart(input.begin(), input.begin() + lag);
    avgFilter[lag] = mean(subVecStart);
    stdFilter[lag] = stdDev(subVecStart);

    for (size_t i = lag + 1; i < input.size(); i++)
    {
        if (std::abs(input[i] - avgFilter[i - 1]) > threshold * stdFilter[i - 1])
        {
            if (input[i] > avgFilter[i - 1])
            {
                signals[i] = 1; //# Positive signal
            }
            else
            {
                signals[i] = -1; //# Negative signal
            }
            //Make influence lower
            filteredY[i] = influence* input[i] + (1 - influence) * filteredY[i - 1];
        }
        else
        {
            signals[i] = 0; //# No signal
            filteredY[i] = input[i];
        }
        //Adjust the filters
        std::vector<float> subVec(filteredY.begin() + i - lag, filteredY.begin() + i);
        avgFilter[i] = mean(subVec);
        stdFilter[i] = stdDev(subVec);
    }
    return signals;
}

2
कैविएट: यह कार्यान्वयन वास्तव में माध्य और मानक विचलन की गणना करने के लिए एक विधि प्रदान नहीं करता है। C ++ 11 के लिए, एक आसान तरीका यहां पाया जा सकता है: stackoverflow.com/a/12405793/3250829
रेयरीेंग

6

यह समस्या एक हाइब्रिड / एंबेडेड सिस्टम कोर्स में मेरे सामने आई एक समान है, लेकिन यह एक सेंसर से इनपुट शोर होने पर दोष का पता लगाने से संबंधित था। हमने सिस्टम की छिपी स्थिति का अनुमान / अनुमान लगाने के लिए एक कलमन फ़िल्टर का उपयोग किया, फिर सांख्यिकीय विश्लेषण का उपयोग इस संभावना को निर्धारित करने के लिए किया कि गलती हुई है । हम रैखिक प्रणालियों के साथ काम कर रहे थे, लेकिन नॉनलाइनियर वेरिएंट मौजूद हैं। मुझे याद है कि दृष्टिकोण आश्चर्यजनक रूप से अनुकूल है, लेकिन इसके लिए सिस्टम की गतिशीलता का एक मॉडल आवश्यक था।


कलमन फ़िल्टर दिलचस्प है, लेकिन मैं अपने उद्देश्य के लिए एक लागू एल्गोरिथ्म खोजने के लिए प्रतीत नहीं कर सकता। मैं हालांकि उत्तर की बहुत सराहना करता हूं और मैं इस तरह के कुछ शिखर पहचान पत्रों में देखूंगा कि क्या मैं किसी भी एल्गोरिदम से सीख सकता हूं। धन्यवाद!
जीन-पॉल

6

C ++ कार्यान्वयन

#include <iostream>
#include <vector>
#include <algorithm>
#include <unordered_map>
#include <cmath>
#include <iterator>
#include <numeric>

using namespace std;

typedef long double ld;
typedef unsigned int uint;
typedef std::vector<ld>::iterator vec_iter_ld;

/**
 * Overriding the ostream operator for pretty printing vectors.
 */
template<typename T>
std::ostream &operator<<(std::ostream &os, std::vector<T> vec) {
    os << "[";
    if (vec.size() != 0) {
        std::copy(vec.begin(), vec.end() - 1, std::ostream_iterator<T>(os, " "));
        os << vec.back();
    }
    os << "]";
    return os;
}

/**
 * This class calculates mean and standard deviation of a subvector.
 * This is basically stats computation of a subvector of a window size qual to "lag".
 */
class VectorStats {
public:
    /**
     * Constructor for VectorStats class.
     *
     * @param start - This is the iterator position of the start of the window,
     * @param end   - This is the iterator position of the end of the window,
     */
    VectorStats(vec_iter_ld start, vec_iter_ld end) {
        this->start = start;
        this->end = end;
        this->compute();
    }

    /**
     * This method calculates the mean and standard deviation using STL function.
     * This is the Two-Pass implementation of the Mean & Variance calculation.
     */
    void compute() {
        ld sum = std::accumulate(start, end, 0.0);
        uint slice_size = std::distance(start, end);
        ld mean = sum / slice_size;
        std::vector<ld> diff(slice_size);
        std::transform(start, end, diff.begin(), [mean](ld x) { return x - mean; });
        ld sq_sum = std::inner_product(diff.begin(), diff.end(), diff.begin(), 0.0);
        ld std_dev = std::sqrt(sq_sum / slice_size);

        this->m1 = mean;
        this->m2 = std_dev;
    }

    ld mean() {
        return m1;
    }

    ld standard_deviation() {
        return m2;
    }

private:
    vec_iter_ld start;
    vec_iter_ld end;
    ld m1;
    ld m2;
};

/**
 * This is the implementation of the Smoothed Z-Score Algorithm.
 * This is direction translation of https://stackoverflow.com/a/22640362/1461896.
 *
 * @param input - input signal
 * @param lag - the lag of the moving window
 * @param threshold - the z-score at which the algorithm signals
 * @param influence - the influence (between 0 and 1) of new signals on the mean and standard deviation
 * @return a hashmap containing the filtered signal and corresponding mean and standard deviation.
 */
unordered_map<string, vector<ld>> z_score_thresholding(vector<ld> input, int lag, ld threshold, ld influence) {
    unordered_map<string, vector<ld>> output;

    uint n = (uint) input.size();
    vector<ld> signals(input.size());
    vector<ld> filtered_input(input.begin(), input.end());
    vector<ld> filtered_mean(input.size());
    vector<ld> filtered_stddev(input.size());

    VectorStats lag_subvector_stats(input.begin(), input.begin() + lag);
    filtered_mean[lag - 1] = lag_subvector_stats.mean();
    filtered_stddev[lag - 1] = lag_subvector_stats.standard_deviation();

    for (int i = lag; i < n; i++) {
        if (abs(input[i] - filtered_mean[i - 1]) > threshold * filtered_stddev[i - 1]) {
            signals[i] = (input[i] > filtered_mean[i - 1]) ? 1.0 : -1.0;
            filtered_input[i] = influence * input[i] + (1 - influence) * filtered_input[i - 1];
        } else {
            signals[i] = 0.0;
            filtered_input[i] = input[i];
        }
        VectorStats lag_subvector_stats(filtered_input.begin() + (i - lag), filtered_input.begin() + i);
        filtered_mean[i] = lag_subvector_stats.mean();
        filtered_stddev[i] = lag_subvector_stats.standard_deviation();
    }

    output["signals"] = signals;
    output["filtered_mean"] = filtered_mean;
    output["filtered_stddev"] = filtered_stddev;

    return output;
};

int main() {
    vector<ld> input = {1.0, 1.0, 1.1, 1.0, 0.9, 1.0, 1.0, 1.1, 1.0, 0.9, 1.0, 1.1, 1.0, 1.0, 0.9, 1.0, 1.0, 1.1, 1.0,
                        1.0, 1.0, 1.0, 1.1, 0.9, 1.0, 1.1, 1.0, 1.0, 0.9, 1.0, 1.1, 1.0, 1.0, 1.1, 1.0, 0.8, 0.9, 1.0,
                        1.2, 0.9, 1.0, 1.0, 1.1, 1.2, 1.0, 1.5, 1.0, 3.0, 2.0, 5.0, 3.0, 2.0, 1.0, 1.0, 1.0, 0.9, 1.0,
                        1.0, 3.0, 2.6, 4.0, 3.0, 3.2, 2.0, 1.0, 1.0, 0.8, 4.0, 4.0, 2.0, 2.5, 1.0, 1.0, 1.0};

    int lag = 30;
    ld threshold = 5.0;
    ld influence = 0.0;
    unordered_map<string, vector<ld>> output = z_score_thresholding(input, lag, threshold, influence);
    cout << output["signals"] << endl;
}

6

@ जीन-पॉल के प्रस्तावित समाधान के बाद, मैंने C # में उनके एल्गोरिथ्म को लागू किया है

public class ZScoreOutput
{
    public List<double> input;
    public List<int> signals;
    public List<double> avgFilter;
    public List<double> filtered_stddev;
}

public static class ZScore
{
    public static ZScoreOutput StartAlgo(List<double> input, int lag, double threshold, double influence)
    {
        // init variables!
        int[] signals = new int[input.Count];
        double[] filteredY = new List<double>(input).ToArray();
        double[] avgFilter = new double[input.Count];
        double[] stdFilter = new double[input.Count];

        var initialWindow = new List<double>(filteredY).Skip(0).Take(lag).ToList();

        avgFilter[lag - 1] = Mean(initialWindow);
        stdFilter[lag - 1] = StdDev(initialWindow);

        for (int i = lag; i < input.Count; i++)
        {
            if (Math.Abs(input[i] - avgFilter[i - 1]) > threshold * stdFilter[i - 1])
            {
                signals[i] = (input[i] > avgFilter[i - 1]) ? 1 : -1;
                filteredY[i] = influence * input[i] + (1 - influence) * filteredY[i - 1];
            }
            else
            {
                signals[i] = 0;
                filteredY[i] = input[i];
            }

            // Update rolling average and deviation
            var slidingWindow = new List<double>(filteredY).Skip(i - lag).Take(lag+1).ToList();

            var tmpMean = Mean(slidingWindow);
            var tmpStdDev = StdDev(slidingWindow);

            avgFilter[i] = Mean(slidingWindow);
            stdFilter[i] = StdDev(slidingWindow);
        }

        // Copy to convenience class 
        var result = new ZScoreOutput();
        result.input = input;
        result.avgFilter       = new List<double>(avgFilter);
        result.signals         = new List<int>(signals);
        result.filtered_stddev = new List<double>(stdFilter);

        return result;
    }

    private static double Mean(List<double> list)
    {
        // Simple helper function! 
        return list.Average();
    }

    private static double StdDev(List<double> values)
    {
        double ret = 0;
        if (values.Count() > 0)
        {
            double avg = values.Average();
            double sum = values.Sum(d => Math.Pow(d - avg, 2));
            ret = Math.Sqrt((sum) / (values.Count() - 1));
        }
        return ret;
    }
}

उदाहरण का उपयोग:

var input = new List<double> {1.0, 1.0, 1.1, 1.0, 0.9, 1.0, 1.0, 1.1, 1.0, 0.9, 1.0,
    1.1, 1.0, 1.0, 0.9, 1.0, 1.0, 1.1, 1.0, 1.0, 1.0, 1.0, 1.1, 0.9, 1.0, 1.1, 1.0, 1.0, 0.9,
    1.0, 1.1, 1.0, 1.0, 1.1, 1.0, 0.8, 0.9, 1.0, 1.2, 0.9, 1.0, 1.0, 1.1, 1.2, 1.0, 1.5, 1.0,
    3.0, 2.0, 5.0, 3.0, 2.0, 1.0, 1.0, 1.0, 0.9, 1.0, 1.0, 3.0, 2.6, 4.0, 3.0, 3.2, 2.0, 1.0,
    1.0, 0.8, 4.0, 4.0, 2.0, 2.5, 1.0, 1.0, 1.0};

int lag = 30;
double threshold = 5.0;
double influence = 0.0;

var output = ZScore.StartAlgo(input, lag, threshold, influence);

1
हे @ जीन-पॉल। चीयर्स। हां, मैंने यह सुनिश्चित करने के लिए आपके R संस्करण के खिलाफ आउटपुट का परीक्षण किया है कि यह मेल खाता है। इस समस्या के समाधान के लिए फिर से धन्यवाद।
ओशन एयरड्रॉप

नमस्ते, मुझे लगता है कि उस कोड में एक त्रुटि है, जिस विधि में StdDev आप मान लेते हैं ।ाउंट () - 1, क्या भरोसा किया जाना चाहिए -1? मुझे लगता है कि आप आइटमों की संख्या चाहते हैं और यही आपको मूल्यों से मिलता है ।ाउंट ()।
विक्टर

1
हम्म .. अच्छा स्थान। हालाँकि मैंने मूल रूप से एल्गोरिथ्म को C # में पोर्ट किया था, लेकिन मैंने कभी इसका उपयोग नहीं किया। मैं शायद उस पूरे फंक्शन को नगेट लाइब्रेरी मैथनेट को कॉल के साथ बदल दूंगा। "इंस्टॉल-पैकेज MathNet.Numerics" इसमें PopStandardDeviation () और StandardDeviation () के लिए पूर्वनिर्मित कार्य हैं; जैसे। var जनसंख्याSDDev = नई सूची <double> (1,2,3,4) .PopulationStandardDeviation (); var sampleStdDev = नई सूची <double> (1,2,3,4)। मानक संस्करण ();
ओशन एयरड्रॉप

6

यहां एडियोिनो माइक्रोकंट्रोलर के लिए @ जीन-पॉल के स्मूथेड जेड-स्कोर का सी कार्यान्वयन है जो एक्सेलेरोमीटर रीडिंग लेने के लिए उपयोग किया जाता है और यह तय करता है कि प्रभाव की दिशा बाएं या दाएं से आई है। यह वास्तव में अच्छा प्रदर्शन करता है क्योंकि यह डिवाइस बाउंस सिग्नल देता है। उपकरण से इस चोटी का पता लगाने एल्गोरिथ्म का यह इनपुट है - इसके बाद दाएं से प्रभाव और बाईं ओर से प्रभाव दिखा रहा है। आप प्रारंभिक स्पाइक देख सकते हैं फिर सेंसर का दोलन।

यहां छवि विवरण दर्ज करें

#include <stdio.h>
#include <math.h>
#include <string.h>


#define SAMPLE_LENGTH 1000

float stddev(float data[], int len);
float mean(float data[], int len);
void thresholding(float y[], int signals[], int lag, float threshold, float influence);


void thresholding(float y[], int signals[], int lag, float threshold, float influence) {
    memset(signals, 0, sizeof(float) * SAMPLE_LENGTH);
    float filteredY[SAMPLE_LENGTH];
    memcpy(filteredY, y, sizeof(float) * SAMPLE_LENGTH);
    float avgFilter[SAMPLE_LENGTH];
    float stdFilter[SAMPLE_LENGTH];

    avgFilter[lag - 1] = mean(y, lag);
    stdFilter[lag - 1] = stddev(y, lag);

    for (int i = lag; i < SAMPLE_LENGTH; i++) {
        if (fabsf(y[i] - avgFilter[i-1]) > threshold * stdFilter[i-1]) {
            if (y[i] > avgFilter[i-1]) {
                signals[i] = 1;
            } else {
                signals[i] = -1;
            }
            filteredY[i] = influence * y[i] + (1 - influence) * filteredY[i-1];
        } else {
            signals[i] = 0;
        }
        avgFilter[i] = mean(filteredY + i-lag, lag);
        stdFilter[i] = stddev(filteredY + i-lag, lag);
    }
}

float mean(float data[], int len) {
    float sum = 0.0, mean = 0.0;

    int i;
    for(i=0; i<len; ++i) {
        sum += data[i];
    }

    mean = sum/len;
    return mean;


}

float stddev(float data[], int len) {
    float the_mean = mean(data, len);
    float standardDeviation = 0.0;

    int i;
    for(i=0; i<len; ++i) {
        standardDeviation += pow(data[i] - the_mean, 2);
    }

    return sqrt(standardDeviation/len);
}

int main() {
    printf("Hello, World!\n");
    int lag = 100;
    float threshold = 5;
    float influence = 0;
    float y[]=  {1,1,1.1,1,0.9,1,1,1.1,1,0.9,1,1.1,1,1,0.9,1,1,1.1,1,1,1,1,1.1,0.9,1,1.1,1,1,0.9,
  ....
1,1.1,1,1,1.1,1,0.8,0.9,1,1.2,0.9,1,1,1.1,1.2,1,1.5,1,3,2,5,3,2,1,1,1,0.9,1,1,3,       2.6,4,3,3.2,2,1,1,0.8,4,4,2,2.5,1,1,1,1.2,1,1.5,1,3,2,5,3,2,1,1,1,0.9,1,1,3,
       2.6,4,3,3.2,2,1,1,0.8,4,4,2,2.5,1,1,1}

    int signal[SAMPLE_LENGTH];

    thresholding(y, signal,  lag, threshold, influence);

    return 0;
}

प्रभाव के साथ हर्स का परिणाम = 0

यहां छवि विवरण दर्ज करें

महान नहीं, लेकिन यहां प्रभाव = 1 के साथ

यहां छवि विवरण दर्ज करें

जो बहुत अच्छा है।


5

यहाँ पहले से पोस्ट किए गए ग्रूवी उत्तर पर आधारित एक वास्तविक जावा कार्यान्वयन है । (मुझे पता है कि पहले से ही ग्रूवी और कोटलिन कार्यान्वयन पोस्ट किए गए हैं, लेकिन मेरे जैसे किसी व्यक्ति के लिए जिसने केवल जावा किया है, यह पता लगाने का एक वास्तविक झंझट है कि अन्य भाषाओं और जावा के बीच कैसे परिवर्तित किया जाए)।

(परिणाम अन्य लोगों के ग्राफ के साथ मेल खाते हैं)

एल्गोरिदम कार्यान्वयन

import java.util.ArrayList;
import java.util.Collections;
import java.util.HashMap;
import java.util.List;

import org.apache.commons.math3.stat.descriptive.SummaryStatistics;

public class SignalDetector {

    public HashMap<String, List> analyzeDataForSignals(List<Double> data, int lag, Double threshold, Double influence) {

        // init stats instance
        SummaryStatistics stats = new SummaryStatistics();

        // the results (peaks, 1 or -1) of our algorithm
        List<Integer> signals = new ArrayList<Integer>(Collections.nCopies(data.size(), 0));

        // filter out the signals (peaks) from our original list (using influence arg)
        List<Double> filteredData = new ArrayList<Double>(data);

        // the current average of the rolling window
        List<Double> avgFilter = new ArrayList<Double>(Collections.nCopies(data.size(), 0.0d));

        // the current standard deviation of the rolling window
        List<Double> stdFilter = new ArrayList<Double>(Collections.nCopies(data.size(), 0.0d));

        // init avgFilter and stdFilter
        for (int i = 0; i < lag; i++) {
            stats.addValue(data.get(i));
        }
        avgFilter.set(lag - 1, stats.getMean());
        stdFilter.set(lag - 1, Math.sqrt(stats.getPopulationVariance())); // getStandardDeviation() uses sample variance
        stats.clear();

        // loop input starting at end of rolling window
        for (int i = lag; i < data.size(); i++) {

            // if the distance between the current value and average is enough standard deviations (threshold) away
            if (Math.abs((data.get(i) - avgFilter.get(i - 1))) > threshold * stdFilter.get(i - 1)) {

                // this is a signal (i.e. peak), determine if it is a positive or negative signal
                if (data.get(i) > avgFilter.get(i - 1)) {
                    signals.set(i, 1);
                } else {
                    signals.set(i, -1);
                }

                // filter this signal out using influence
                filteredData.set(i, (influence * data.get(i)) + ((1 - influence) * filteredData.get(i - 1)));
            } else {
                // ensure this signal remains a zero
                signals.set(i, 0);
                // ensure this value is not filtered
                filteredData.set(i, data.get(i));
            }

            // update rolling average and deviation
            for (int j = i - lag; j < i; j++) {
                stats.addValue(filteredData.get(j));
            }
            avgFilter.set(i, stats.getMean());
            stdFilter.set(i, Math.sqrt(stats.getPopulationVariance()));
            stats.clear();
        }

        HashMap<String, List> returnMap = new HashMap<String, List>();
        returnMap.put("signals", signals);
        returnMap.put("filteredData", filteredData);
        returnMap.put("avgFilter", avgFilter);
        returnMap.put("stdFilter", stdFilter);

        return returnMap;

    } // end
}

मुख्य विधि

import java.text.DecimalFormat;
import java.util.ArrayList;
import java.util.Arrays;
import java.util.HashMap;
import java.util.List;

public class Main {

    public static void main(String[] args) throws Exception {
        DecimalFormat df = new DecimalFormat("#0.000");

        ArrayList<Double> data = new ArrayList<Double>(Arrays.asList(1d, 1d, 1.1d, 1d, 0.9d, 1d, 1d, 1.1d, 1d, 0.9d, 1d,
                1.1d, 1d, 1d, 0.9d, 1d, 1d, 1.1d, 1d, 1d, 1d, 1d, 1.1d, 0.9d, 1d, 1.1d, 1d, 1d, 0.9d, 1d, 1.1d, 1d, 1d,
                1.1d, 1d, 0.8d, 0.9d, 1d, 1.2d, 0.9d, 1d, 1d, 1.1d, 1.2d, 1d, 1.5d, 1d, 3d, 2d, 5d, 3d, 2d, 1d, 1d, 1d,
                0.9d, 1d, 1d, 3d, 2.6d, 4d, 3d, 3.2d, 2d, 1d, 1d, 0.8d, 4d, 4d, 2d, 2.5d, 1d, 1d, 1d));

        SignalDetector signalDetector = new SignalDetector();
        int lag = 30;
        double threshold = 5;
        double influence = 0;

        HashMap<String, List> resultsMap = signalDetector.analyzeDataForSignals(data, lag, threshold, influence);
        // print algorithm params
        System.out.println("lag: " + lag + "\t\tthreshold: " + threshold + "\t\tinfluence: " + influence);

        System.out.println("Data size: " + data.size());
        System.out.println("Signals size: " + resultsMap.get("signals").size());

        // print data
        System.out.print("Data:\t\t");
        for (double d : data) {
            System.out.print(df.format(d) + "\t");
        }
        System.out.println();

        // print signals
        System.out.print("Signals:\t");
        List<Integer> signalsList = resultsMap.get("signals");
        for (int i : signalsList) {
            System.out.print(df.format(i) + "\t");
        }
        System.out.println();

        // print filtered data
        System.out.print("Filtered Data:\t");
        List<Double> filteredDataList = resultsMap.get("filteredData");
        for (double d : filteredDataList) {
            System.out.print(df.format(d) + "\t");
        }
        System.out.println();

        // print running average
        System.out.print("Avg Filter:\t");
        List<Double> avgFilterList = resultsMap.get("avgFilter");
        for (double d : avgFilterList) {
            System.out.print(df.format(d) + "\t");
        }
        System.out.println();

        // print running std
        System.out.print("Std filter:\t");
        List<Double> stdFilterList = resultsMap.get("stdFilter");
        for (double d : stdFilterList) {
            System.out.print(df.format(d) + "\t");
        }
        System.out.println();

        System.out.println();
        for (int i = 0; i < signalsList.size(); i++) {
            if (signalsList.get(i) != 0) {
                System.out.println("Point " + i + " gave signal " + signalsList.get(i));
            }
        }
    }
}

परिणाम

lag: 30     threshold: 5.0      influence: 0.0
Data size: 74
Signals size: 74
Data:           1.000   1.000   1.100   1.000   0.900   1.000   1.000   1.100   1.000   0.900   1.000   1.100   1.000   1.000   0.900   1.000   1.000   1.100   1.000   1.000   1.000   1.000   1.100   0.900   1.000   1.100   1.000   1.000   0.900   1.000   1.100   1.000   1.000   1.100   1.000   0.800   0.900   1.000   1.200   0.900   1.000   1.000   1.100   1.200   1.000   1.500   1.000   3.000   2.000   5.000   3.000   2.000   1.000   1.000   1.000   0.900   1.000   1.000   3.000   2.600   4.000   3.000   3.200   2.000   1.000   1.000   0.800   4.000   4.000   2.000   2.500   1.000   1.000   1.000   
Signals:        0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   1.000   0.000   1.000   1.000   1.000   1.000   1.000   0.000   0.000   0.000   0.000   0.000   0.000   1.000   1.000   1.000   1.000   1.000   1.000   0.000   0.000   0.000   1.000   1.000   1.000   1.000   0.000   0.000   0.000   
Filtered Data:  1.000   1.000   1.100   1.000   0.900   1.000   1.000   1.100   1.000   0.900   1.000   1.100   1.000   1.000   0.900   1.000   1.000   1.100   1.000   1.000   1.000   1.000   1.100   0.900   1.000   1.100   1.000   1.000   0.900   1.000   1.100   1.000   1.000   1.100   1.000   0.800   0.900   1.000   1.200   0.900   1.000   1.000   1.100   1.200   1.000   1.000   1.000   1.000   1.000   1.000   1.000   1.000   1.000   1.000   1.000   0.900   1.000   1.000   1.000   1.000   1.000   1.000   1.000   1.000   1.000   1.000   0.800   0.800   0.800   0.800   0.800   1.000   1.000   1.000   
Avg Filter:     0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   1.003   1.003   1.007   1.007   1.003   1.007   1.010   1.003   1.000   0.997   1.003   1.003   1.003   1.000   1.003   1.010   1.013   1.013   1.013   1.010   1.010   1.010   1.010   1.010   1.007   1.010   1.010   1.003   1.003   1.003   1.007   1.007   1.003   1.003   1.003   1.000   1.000   1.007   1.003   0.997   0.983   0.980   0.973   0.973   0.970   
Std filter:     0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.000   0.060   0.060   0.063   0.063   0.060   0.063   0.060   0.071   0.073   0.071   0.080   0.080   0.080   0.077   0.080   0.087   0.085   0.085   0.085   0.083   0.083   0.083   0.083   0.083   0.081   0.079   0.079   0.080   0.080   0.080   0.077   0.077   0.075   0.075   0.075   0.073   0.073   0.063   0.071   0.080   0.078   0.083   0.089   0.089   0.086   

Point 45 gave signal 1
Point 47 gave signal 1
Point 48 gave signal 1
Point 49 gave signal 1
Point 50 gave signal 1
Point 51 gave signal 1
Point 58 gave signal 1
Point 59 gave signal 1
Point 60 gave signal 1
Point 61 gave signal 1
Point 62 gave signal 1
Point 63 gave signal 1
Point 67 gave signal 1
Point 68 gave signal 1
Point 69 gave signal 1
Point 70 gave signal 1

डेटा दिखा रहा है और जावा निष्पादन के परिणाम रेखांकन


5

परिशिष्ट 1 से मूल उत्तर: Matlabऔर Rअनुवाद

मतलूब कोड

function [signals,avgFilter,stdFilter] = ThresholdingAlgo(y,lag,threshold,influence)
% Initialise signal results
signals = zeros(length(y),1);
% Initialise filtered series
filteredY = y(1:lag+1);
% Initialise filters
avgFilter(lag+1,1) = mean(y(1:lag+1));
stdFilter(lag+1,1) = std(y(1:lag+1));
% Loop over all datapoints y(lag+2),...,y(t)
for i=lag+2:length(y)
    % If new value is a specified number of deviations away
    if abs(y(i)-avgFilter(i-1)) > threshold*stdFilter(i-1)
        if y(i) > avgFilter(i-1)
            % Positive signal
            signals(i) = 1;
        else
            % Negative signal
            signals(i) = -1;
        end
        % Make influence lower
        filteredY(i) = influence*y(i)+(1-influence)*filteredY(i-1);
    else
        % No signal
        signals(i) = 0;
        filteredY(i) = y(i);
    end
    % Adjust the filters
    avgFilter(i) = mean(filteredY(i-lag:i));
    stdFilter(i) = std(filteredY(i-lag:i));
end
% Done, now return results
end

उदाहरण:

% Data
y = [1 1 1.1 1 0.9 1 1 1.1 1 0.9 1 1.1 1 1 0.9 1 1 1.1 1 1,...
    1 1 1.1 0.9 1 1.1 1 1 0.9 1 1.1 1 1 1.1 1 0.8 0.9 1 1.2 0.9 1,...
    1 1.1 1.2 1 1.5 1 3 2 5 3 2 1 1 1 0.9 1,...
    1 3 2.6 4 3 3.2 2 1 1 0.8 4 4 2 2.5 1 1 1];

% Settings
lag = 30;
threshold = 5;
influence = 0;

% Get results
[signals,avg,dev] = ThresholdingAlgo(y,lag,threshold,influence);

figure; subplot(2,1,1); hold on;
x = 1:length(y); ix = lag+1:length(y);
area(x(ix),avg(ix)+threshold*dev(ix),'FaceColor',[0.9 0.9 0.9],'EdgeColor','none');
area(x(ix),avg(ix)-threshold*dev(ix),'FaceColor',[1 1 1],'EdgeColor','none');
plot(x(ix),avg(ix),'LineWidth',1,'Color','cyan','LineWidth',1.5);
plot(x(ix),avg(ix)+threshold*dev(ix),'LineWidth',1,'Color','green','LineWidth',1.5);
plot(x(ix),avg(ix)-threshold*dev(ix),'LineWidth',1,'Color','green','LineWidth',1.5);
plot(1:length(y),y,'b');
subplot(2,1,2);
stairs(signals,'r','LineWidth',1.5); ylim([-1.5 1.5]);

आर कोड

ThresholdingAlgo <- function(y,lag,threshold,influence) {
  signals <- rep(0,length(y))
  filteredY <- y[0:lag]
  avgFilter <- NULL
  stdFilter <- NULL
  avgFilter[lag] <- mean(y[0:lag], na.rm=TRUE)
  stdFilter[lag] <- sd(y[0:lag], na.rm=TRUE)
  for (i in (lag+1):length(y)){
    if (abs(y[i]-avgFilter[i-1]) > threshold*stdFilter[i-1]) {
      if (y[i] > avgFilter[i-1]) {
        signals[i] <- 1;
      } else {
        signals[i] <- -1;
      }
      filteredY[i] <- influence*y[i]+(1-influence)*filteredY[i-1]
    } else {
      signals[i] <- 0
      filteredY[i] <- y[i]
    }
    avgFilter[i] <- mean(filteredY[(i-lag):i], na.rm=TRUE)
    stdFilter[i] <- sd(filteredY[(i-lag):i], na.rm=TRUE)
  }
  return(list("signals"=signals,"avgFilter"=avgFilter,"stdFilter"=stdFilter))
}

उदाहरण:

# Data
y <- c(1,1,1.1,1,0.9,1,1,1.1,1,0.9,1,1.1,1,1,0.9,1,1,1.1,1,1,1,1,1.1,0.9,1,1.1,1,1,0.9,
       1,1.1,1,1,1.1,1,0.8,0.9,1,1.2,0.9,1,1,1.1,1.2,1,1.5,1,3,2,5,3,2,1,1,1,0.9,1,1,3,
       2.6,4,3,3.2,2,1,1,0.8,4,4,2,2.5,1,1,1)

lag       <- 30
threshold <- 5
influence <- 0

# Run algo with lag = 30, threshold = 5, influence = 0
result <- ThresholdingAlgo(y,lag,threshold,influence)

# Plot result
par(mfrow = c(2,1),oma = c(2,2,0,0) + 0.1,mar = c(0,0,2,1) + 0.2)
plot(1:length(y),y,type="l",ylab="",xlab="") 
lines(1:length(y),result$avgFilter,type="l",col="cyan",lwd=2)
lines(1:length(y),result$avgFilter+threshold*result$stdFilter,type="l",col="green",lwd=2)
lines(1:length(y),result$avgFilter-threshold*result$stdFilter,type="l",col="green",lwd=2)
plot(result$signals,type="S",col="red",ylab="",xlab="",ylim=c(-1.5,1.5),lwd=2)

यह कोड (दोनों भाषाएँ) मूल प्रश्न के डेटा के लिए निम्न परिणाम देगा:

मैटलैब कोड से थ्रेसहोल्डिंग उदाहरण


परिशिष्ट 2 से मूल उत्तर: Matlabप्रदर्शन कोड

(डेटा बनाने के लिए क्लिक करें)

मतलाब डेमो

function [] = RobustThresholdingDemo()

%% SPECIFICATIONS
lag         = 5;       % lag for the smoothing
threshold   = 3.5;     % number of st.dev. away from the mean to signal
influence   = 0.3;     % when signal: how much influence for new data? (between 0 and 1)
                       % 1 is normal influence, 0.5 is half      
%% START DEMO
DemoScreen(30,lag,threshold,influence);

end

function [signals,avgFilter,stdFilter] = ThresholdingAlgo(y,lag,threshold,influence)
signals = zeros(length(y),1);
filteredY = y(1:lag+1);
avgFilter(lag+1,1) = mean(y(1:lag+1));
stdFilter(lag+1,1) = std(y(1:lag+1));
for i=lag+2:length(y)
    if abs(y(i)-avgFilter(i-1)) > threshold*stdFilter(i-1)
        if y(i) > avgFilter(i-1)
            signals(i) = 1;
        else
            signals(i) = -1;
        end
        filteredY(i) = influence*y(i)+(1-influence)*filteredY(i-1);
    else
        signals(i) = 0;
        filteredY(i) = y(i);
    end
    avgFilter(i) = mean(filteredY(i-lag:i));
    stdFilter(i) = std(filteredY(i-lag:i));
end
end

% Demo screen function
function [] = DemoScreen(n,lag,threshold,influence)
figure('Position',[200 100,1000,500]);
subplot(2,1,1);
title(sprintf(['Draw data points (%.0f max)      [settings: lag = %.0f, '...
    'threshold = %.2f, influence = %.2f]'],n,lag,threshold,influence));
ylim([0 5]); xlim([0 50]);
H = gca; subplot(2,1,1);
set(H, 'YLimMode', 'manual'); set(H, 'XLimMode', 'manual');
set(H, 'YLim', get(H,'YLim')); set(H, 'XLim', get(H,'XLim'));
xg = []; yg = [];
for i=1:n
    try
        [xi,yi] = ginput(1);
    catch
        return;
    end
    xg = [xg xi]; yg = [yg yi];
    if i == 1
        subplot(2,1,1); hold on;
        plot(H, xg(i),yg(i),'r.'); 
        text(xg(i),yg(i),num2str(i),'FontSize',7);
    end
    if length(xg) > lag
        [signals,avg,dev] = ...
            ThresholdingAlgo(yg,lag,threshold,influence);
        area(xg(lag+1:end),avg(lag+1:end)+threshold*dev(lag+1:end),...
            'FaceColor',[0.9 0.9 0.9],'EdgeColor','none');
        area(xg(lag+1:end),avg(lag+1:end)-threshold*dev(lag+1:end),...
            'FaceColor',[1 1 1],'EdgeColor','none');
        plot(xg(lag+1:end),avg(lag+1:end),'LineWidth',1,'Color','cyan');
        plot(xg(lag+1:end),avg(lag+1:end)+threshold*dev(lag+1:end),...
            'LineWidth',1,'Color','green');
        plot(xg(lag+1:end),avg(lag+1:end)-threshold*dev(lag+1:end),...
            'LineWidth',1,'Color','green');
        subplot(2,1,2); hold on; title('Signal output');
        stairs(xg(lag+1:end),signals(lag+1:end),'LineWidth',2,'Color','blue');
        ylim([-2 2]); xlim([0 50]); hold off;
    end
    subplot(2,1,1); hold on;
    for j=2:i
        plot(xg([j-1:j]),yg([j-1:j]),'r'); plot(H,xg(j),yg(j),'r.');
        text(xg(j),yg(j),num2str(j),'FontSize',7);
    end
end
end


4

यहाँ स्वीकार किए गए उत्तर से "स्मूथेड जेड-स्कोर एल्गो" के लिए एक रूबी समाधान बनाने का मेरा प्रयास है:

module ThresholdingAlgoMixin
  def mean(array)
    array.reduce(&:+) / array.size.to_f
  end

  def stddev(array)
    array_mean = mean(array)
    Math.sqrt(array.reduce(0.0) { |a, b| a.to_f + ((b.to_f - array_mean) ** 2) } / array.size.to_f)
  end

  def thresholding_algo(lag: 5, threshold: 3.5, influence: 0.5)
    return nil if size < lag * 2
    Array.new(size, 0).tap do |signals|
      filtered = Array.new(self)

      initial_slice = take(lag)
      avg_filter = Array.new(lag - 1, 0.0) + [mean(initial_slice)]
      std_filter = Array.new(lag - 1, 0.0) + [stddev(initial_slice)]
      (lag..size-1).each do |idx|
        prev = idx - 1
        if (fetch(idx) - avg_filter[prev]).abs > threshold * std_filter[prev]
          signals[idx] = fetch(idx) > avg_filter[prev] ? 1 : -1
          filtered[idx] = (influence * fetch(idx)) + ((1-influence) * filtered[prev])
        end

        filtered_slice = filtered[idx-lag..prev]
        avg_filter[idx] = mean(filtered_slice)
        std_filter[idx] = stddev(filtered_slice)
      end
    end
  end
end

और उदाहरण उपयोग:

test_data = [
  1, 1, 1.1, 1, 0.9, 1, 1, 1.1, 1, 0.9, 1, 1.1, 1, 1, 0.9, 1,
  1, 1.1, 1, 1, 1, 1, 1.1, 0.9, 1, 1.1, 1, 1, 0.9, 1, 1.1, 1,
  1, 1.1, 1, 0.8, 0.9, 1, 1.2, 0.9, 1, 1, 1.1, 1.2, 1, 1.5,
  1, 3, 2, 5, 3, 2, 1, 1, 1, 0.9, 1, 1, 3, 2.6, 4, 3, 3.2, 2,
  1, 1, 0.8, 4, 4, 2, 2.5, 1, 1, 1
].extend(ThresholdingAlgoMixin)

puts test_data.thresholding_algo.inspect

# Output: [
#   0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
#   0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, -1, 0, 0, 0,
#   0, 0, 0, 0, 0, 0, 1, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1,
#   1, 1, 0, 0, 0, -1, -1, 0, 0, 0, 0, 0, 0, 0, 0
# ]

बहुत बढ़िया, साझा करने के लिए धन्यवाद! मैं आपको सूची में शामिल करूंगा। सुनिश्चित करें कि जब आप एक नया डेटापॉइंट आता है, तो संकेतों को अपडेट करने के लिए रियलटाइम एप्लिकेशन के लिए आप एक अलग फ़ंक्शन बनाते हैं (इसके बजाय सभी डेटा पॉइंट्स लूप करने के बाद)।
जीन-पॉल

4

Python में एक पुनरावृत्त संस्करण / उत्तर के लिए सुन्न https://stackoverflow.com/a/22640362/6029703 यहाँ है। यह कोड बड़े डेटा (100000+) के लिए प्रत्येक अंतराल की गणना औसत और मानक विचलन से तेज है।

def peak_detection_smoothed_zscore_v2(x, lag, threshold, influence):
    '''
    iterative smoothed z-score algorithm
    Implementation of algorithm from https://stackoverflow.com/a/22640362/6029703
    '''
    import numpy as np
    labels = np.zeros(len(x))
    filtered_y = np.array(x)
    avg_filter = np.zeros(len(x))
    std_filter = np.zeros(len(x))
    var_filter = np.zeros(len(x))

    avg_filter[lag - 1] = np.mean(x[0:lag])
    std_filter[lag - 1] = np.std(x[0:lag])
    var_filter[lag - 1] = np.var(x[0:lag])
    for i in range(lag, len(x)):
        if abs(x[i] - avg_filter[i - 1]) > threshold * std_filter[i - 1]:
            if x[i] > avg_filter[i - 1]:
                labels[i] = 1
            else:
                labels[i] = -1
            filtered_y[i] = influence * x[i] + (1 - influence) * filtered_y[i - 1]
        else:
            labels[i] = 0
            filtered_y[i] = x[i]
        # update avg, var, std
        avg_filter[i] = avg_filter[i - 1] + 1. / lag * (filtered_y[i] - filtered_y[i - lag])
        var_filter[i] = var_filter[i - 1] + 1. / lag * ((filtered_y[i] - avg_filter[i - 1]) ** 2 - (
            filtered_y[i - lag] - avg_filter[i - 1]) ** 2 - (filtered_y[i] - filtered_y[i - lag]) ** 2 / lag)
        std_filter[i] = np.sqrt(var_filter[i])

    return dict(signals=labels,
                avgFilter=avg_filter,
                stdFilter=std_filter)

4

सोचा था कि मैं दूसरों के लिए एल्गोरिथ्म के अपने जूलिया कार्यान्वयन प्रदान करेगा। यहां पर गिस्ट पाया जा सकता है

using Statistics
using Plots
function SmoothedZscoreAlgo(y, lag, threshold, influence)
    # Julia implimentation of http://stackoverflow.com/a/22640362/6029703
    n = length(y)
    signals = zeros(n) # init signal results
    filteredY = copy(y) # init filtered series
    avgFilter = zeros(n) # init average filter
    stdFilter = zeros(n) # init std filter
    avgFilter[lag - 1] = mean(y[1:lag]) # init first value
    stdFilter[lag - 1] = std(y[1:lag]) # init first value

    for i in range(lag, stop=n-1)
        if abs(y[i] - avgFilter[i-1]) > threshold*stdFilter[i-1]
            if y[i] > avgFilter[i-1]
                signals[i] += 1 # postive signal
            else
                signals[i] += -1 # negative signal
            end
            # Make influence lower
            filteredY[i] = influence*y[i] + (1-influence)*filteredY[i-1]
        else
            signals[i] = 0
            filteredY[i] = y[i]
        end
        avgFilter[i] = mean(filteredY[i-lag+1:i])
        stdFilter[i] = std(filteredY[i-lag+1:i])
    end
    return (signals = signals, avgFilter = avgFilter, stdFilter = stdFilter)
end


# Data
y = [1,1,1.1,1,0.9,1,1,1.1,1,0.9,1,1.1,1,1,0.9,1,1,1.1,1,1,1,1,1.1,0.9,1,1.1,1,1,0.9,
       1,1.1,1,1,1.1,1,0.8,0.9,1,1.2,0.9,1,1,1.1,1.2,1,1.5,1,3,2,5,3,2,1,1,1,0.9,1,1,3,
       2.6,4,3,3.2,2,1,1,0.8,4,4,2,2.5,1,1,1]

# Settings: lag = 30, threshold = 5, influence = 0
lag = 30
threshold = 5
influence = 0

results = SmoothedZscoreAlgo(y, lag, threshold, influence)
upper_bound = results[:avgFilter] + threshold * results[:stdFilter]
lower_bound = results[:avgFilter] - threshold * results[:stdFilter]
x = 1:length(y)

yplot = plot(x,y,color="blue", label="Y",legend=:topleft)
yplot = plot!(x,upper_bound, color="green", label="Upper Bound",legend=:topleft)
yplot = plot!(x,results[:avgFilter], color="cyan", label="Average Filter",legend=:topleft)
yplot = plot!(x,lower_bound, color="green", label="Lower Bound",legend=:topleft)
signalplot = plot(x,results[:signals],color="red",label="Signals",legend=:topleft)
plot(yplot,signalplot,layout=(2,1),legend=:topleft)

परिणाम


3

यहां स्मूथ जेड-स्कोर एल्गोरिदम का ग्रूवी (जावा) कार्यान्वयन है ( ऊपर उत्तर देखें )।

/**
 * "Smoothed zero-score alogrithm" shamelessly copied from https://stackoverflow.com/a/22640362/6029703
 *  Uses a rolling mean and a rolling deviation (separate) to identify peaks in a vector
 *
 * @param y - The input vector to analyze
 * @param lag - The lag of the moving window (i.e. how big the window is)
 * @param threshold - The z-score at which the algorithm signals (i.e. how many standard deviations away from the moving mean a peak (or signal) is)
 * @param influence - The influence (between 0 and 1) of new signals on the mean and standard deviation (how much a peak (or signal) should affect other values near it)
 * @return - The calculated averages (avgFilter) and deviations (stdFilter), and the signals (signals)
 */

public HashMap<String, List<Object>> thresholdingAlgo(List<Double> y, Long lag, Double threshold, Double influence) {
    //init stats instance
    SummaryStatistics stats = new SummaryStatistics()

    //the results (peaks, 1 or -1) of our algorithm
    List<Integer> signals = new ArrayList<Integer>(Collections.nCopies(y.size(), 0))
    //filter out the signals (peaks) from our original list (using influence arg)
    List<Double> filteredY = new ArrayList<Double>(y)
    //the current average of the rolling window
    List<Double> avgFilter = new ArrayList<Double>(Collections.nCopies(y.size(), 0.0d))
    //the current standard deviation of the rolling window
    List<Double> stdFilter = new ArrayList<Double>(Collections.nCopies(y.size(), 0.0d))
    //init avgFilter and stdFilter
    (0..lag-1).each { stats.addValue(y[it as int]) }
    avgFilter[lag - 1 as int] = stats.getMean()
    stdFilter[lag - 1 as int] = Math.sqrt(stats.getPopulationVariance()) //getStandardDeviation() uses sample variance (not what we want)
    stats.clear()
    //loop input starting at end of rolling window
    (lag..y.size()-1).each { i ->
        //if the distance between the current value and average is enough standard deviations (threshold) away
        if (Math.abs((y[i as int] - avgFilter[i - 1 as int]) as Double) > threshold * stdFilter[i - 1 as int]) {
            //this is a signal (i.e. peak), determine if it is a positive or negative signal
            signals[i as int] = (y[i as int] > avgFilter[i - 1 as int]) ? 1 : -1
            //filter this signal out using influence
            filteredY[i as int] = (influence * y[i as int]) + ((1-influence) * filteredY[i - 1 as int])
        } else {
            //ensure this signal remains a zero
            signals[i as int] = 0
            //ensure this value is not filtered
            filteredY[i as int] = y[i as int]
        }
        //update rolling average and deviation
        (i - lag..i-1).each { stats.addValue(filteredY[it as int] as Double) }
        avgFilter[i as int] = stats.getMean()
        stdFilter[i as int] = Math.sqrt(stats.getPopulationVariance()) //getStandardDeviation() uses sample variance (not what we want)
        stats.clear()
    }

    return [
        signals  : signals,
        avgFilter: avgFilter,
        stdFilter: stdFilter
    ]
}

नीचे एक ही डेटासेट पर एक परीक्षण है जो उपरोक्त पायथन / संख्यात्मक कार्यान्वयन के समान परिणाम देता है

    // Data
    def y = [1d, 1d, 1.1d, 1d, 0.9d, 1d, 1d, 1.1d, 1d, 0.9d, 1d, 1.1d, 1d, 1d, 0.9d, 1d, 1d, 1.1d, 1d, 1d,
         1d, 1d, 1.1d, 0.9d, 1d, 1.1d, 1d, 1d, 0.9d, 1d, 1.1d, 1d, 1d, 1.1d, 1d, 0.8d, 0.9d, 1d, 1.2d, 0.9d, 1d,
         1d, 1.1d, 1.2d, 1d, 1.5d, 1d, 3d, 2d, 5d, 3d, 2d, 1d, 1d, 1d, 0.9d, 1d,
         1d, 3d, 2.6d, 4d, 3d, 3.2d, 2d, 1d, 1d, 0.8d, 4d, 4d, 2d, 2.5d, 1d, 1d, 1d]

    // Settings
    def lag = 30
    def threshold = 5
    def influence = 0


    def thresholdingResults = thresholdingAlgo((List<Double>) y, (Long) lag, (Double) threshold, (Double) influence)

    println y.size()
    println thresholdingResults.signals.size()
    println thresholdingResults.signals

    thresholdingResults.signals.eachWithIndex { x, idx ->
        if (x) {
            println y[idx]
        }
    }

3

यहां स्मूथ जेड-स्कोर एल्गोरिदम का एक (गैर-मुहावरेदार) स्काला संस्करण है :

/**
  * Smoothed zero-score alogrithm shamelessly copied from https://stackoverflow.com/a/22640362/6029703
  * Uses a rolling mean and a rolling deviation (separate) to identify peaks in a vector
  *
  * @param y - The input vector to analyze
  * @param lag - The lag of the moving window (i.e. how big the window is)
  * @param threshold - The z-score at which the algorithm signals (i.e. how many standard deviations away from the moving mean a peak (or signal) is)
  * @param influence - The influence (between 0 and 1) of new signals on the mean and standard deviation (how much a peak (or signal) should affect other values near it)
  * @return - The calculated averages (avgFilter) and deviations (stdFilter), and the signals (signals)
  */
private def smoothedZScore(y: Seq[Double], lag: Int, threshold: Double, influence: Double): Seq[Int] = {
  val stats = new SummaryStatistics()

  // the results (peaks, 1 or -1) of our algorithm
  val signals = mutable.ArrayBuffer.fill(y.length)(0)

  // filter out the signals (peaks) from our original list (using influence arg)
  val filteredY = y.to[mutable.ArrayBuffer]

  // the current average of the rolling window
  val avgFilter = mutable.ArrayBuffer.fill(y.length)(0d)

  // the current standard deviation of the rolling window
  val stdFilter = mutable.ArrayBuffer.fill(y.length)(0d)

  // init avgFilter and stdFilter
  y.take(lag).foreach(s => stats.addValue(s))

  avgFilter(lag - 1) = stats.getMean
  stdFilter(lag - 1) = Math.sqrt(stats.getPopulationVariance) // getStandardDeviation() uses sample variance (not what we want)

  // loop input starting at end of rolling window
  y.zipWithIndex.slice(lag, y.length - 1).foreach {
    case (s: Double, i: Int) =>
      // if the distance between the current value and average is enough standard deviations (threshold) away
      if (Math.abs(s - avgFilter(i - 1)) > threshold * stdFilter(i - 1)) {
        // this is a signal (i.e. peak), determine if it is a positive or negative signal
        signals(i) = if (s > avgFilter(i - 1)) 1 else -1
        // filter this signal out using influence
        filteredY(i) = (influence * s) + ((1 - influence) * filteredY(i - 1))
      } else {
        // ensure this signal remains a zero
        signals(i) = 0
        // ensure this value is not filtered
        filteredY(i) = s
      }

      // update rolling average and deviation
      stats.clear()
      filteredY.slice(i - lag, i).foreach(s => stats.addValue(s))
      avgFilter(i) = stats.getMean
      stdFilter(i) = Math.sqrt(stats.getPopulationVariance) // getStandardDeviation() uses sample variance (not what we want)
  }

  println(y.length)
  println(signals.length)
  println(signals)

  signals.zipWithIndex.foreach {
    case(x: Int, idx: Int) =>
      if (x == 1) {
        println(idx + " " + y(idx))
      }
  }

  val data =
    y.zipWithIndex.map { case (s: Double, i: Int) => Map("x" -> i, "y" -> s, "name" -> "y", "row" -> "data") } ++
    avgFilter.zipWithIndex.map { case (s: Double, i: Int) => Map("x" -> i, "y" -> s, "name" -> "avgFilter", "row" -> "data") } ++
    avgFilter.zipWithIndex.map { case (s: Double, i: Int) => Map("x" -> i, "y" -> (s - threshold * stdFilter(i)), "name" -> "lower", "row" -> "data") } ++
    avgFilter.zipWithIndex.map { case (s: Double, i: Int) => Map("x" -> i, "y" -> (s + threshold * stdFilter(i)), "name" -> "upper", "row" -> "data") } ++
    signals.zipWithIndex.map { case (s: Int, i: Int) => Map("x" -> i, "y" -> s, "name" -> "signal", "row" -> "signal") }

  Vegas("Smoothed Z")
    .withData(data)
    .mark(Line)
    .encodeX("x", Quant)
    .encodeY("y", Quant)
    .encodeColor(
      field="name",
      dataType=Nominal
    )
    .encodeRow("row", Ordinal)
    .show

  return signals
}

यहाँ एक परीक्षण है जो पायथन और ग्रूवी संस्करणों के समान परिणाम देता है:

val y = List(1d, 1d, 1.1d, 1d, 0.9d, 1d, 1d, 1.1d, 1d, 0.9d, 1d, 1.1d, 1d, 1d, 0.9d, 1d, 1d, 1.1d, 1d, 1d,
  1d, 1d, 1.1d, 0.9d, 1d, 1.1d, 1d, 1d, 0.9d, 1d, 1.1d, 1d, 1d, 1.1d, 1d, 0.8d, 0.9d, 1d, 1.2d, 0.9d, 1d,
  1d, 1.1d, 1.2d, 1d, 1.5d, 1d, 3d, 2d, 5d, 3d, 2d, 1d, 1d, 1d, 0.9d, 1d,
  1d, 3d, 2.6d, 4d, 3d, 3.2d, 2d, 1d, 1d, 0.8d, 4d, 4d, 2d, 2.5d, 1d, 1d, 1d)

val lag = 30
val threshold = 5d
val influence = 0d

smoothedZScore(y, lag, threshold, influence)

परिणाम का चार्ट चार्ट

यहाँ दे दो


1 चोटियों का प्रतिनिधित्व करता है, -1 घाटियों का प्रतिनिधित्व करता है।
माइक रॉबर्ट्स

3

मुझे अपने एंड्रॉइड प्रोजेक्ट में कुछ इस तरह की आवश्यकता थी। सोचा कि मैं कोटलिन कार्यान्वयन वापस दे सकता हूं ।

/**
* Smoothed zero-score alogrithm shamelessly copied from https://stackoverflow.com/a/22640362/6029703
* Uses a rolling mean and a rolling deviation (separate) to identify peaks in a vector
*
* @param y - The input vector to analyze
* @param lag - The lag of the moving window (i.e. how big the window is)
* @param threshold - The z-score at which the algorithm signals (i.e. how many standard deviations away from the moving mean a peak (or signal) is)
* @param influence - The influence (between 0 and 1) of new signals on the mean and standard deviation (how much a peak (or signal) should affect other values near it)
* @return - The calculated averages (avgFilter) and deviations (stdFilter), and the signals (signals)
*/
fun smoothedZScore(y: List<Double>, lag: Int, threshold: Double, influence: Double): Triple<List<Int>, List<Double>, List<Double>> {
    val stats = SummaryStatistics()
    // the results (peaks, 1 or -1) of our algorithm
    val signals = MutableList<Int>(y.size, { 0 })
    // filter out the signals (peaks) from our original list (using influence arg)
    val filteredY = ArrayList<Double>(y)
    // the current average of the rolling window
    val avgFilter = MutableList<Double>(y.size, { 0.0 })
    // the current standard deviation of the rolling window
    val stdFilter = MutableList<Double>(y.size, { 0.0 })
    // init avgFilter and stdFilter
    y.take(lag).forEach { s -> stats.addValue(s) }
    avgFilter[lag - 1] = stats.mean
    stdFilter[lag - 1] = Math.sqrt(stats.populationVariance) // getStandardDeviation() uses sample variance (not what we want)
    stats.clear()
    //loop input starting at end of rolling window
    (lag..y.size - 1).forEach { i ->
        //if the distance between the current value and average is enough standard deviations (threshold) away
        if (Math.abs(y[i] - avgFilter[i - 1]) > threshold * stdFilter[i - 1]) {
            //this is a signal (i.e. peak), determine if it is a positive or negative signal
            signals[i] = if (y[i] > avgFilter[i - 1]) 1 else -1
            //filter this signal out using influence
            filteredY[i] = (influence * y[i]) + ((1 - influence) * filteredY[i - 1])
        } else {
            //ensure this signal remains a zero
            signals[i] = 0
            //ensure this value is not filtered
            filteredY[i] = y[i]
        }
        //update rolling average and deviation
        (i - lag..i - 1).forEach { stats.addValue(filteredY[it]) }
        avgFilter[i] = stats.getMean()
        stdFilter[i] = Math.sqrt(stats.getPopulationVariance()) //getStandardDeviation() uses sample variance (not what we want)
        stats.clear()
    }
    return Triple(signals, avgFilter, stdFilter)
}

सत्यापन ग्राफ के साथ नमूना परियोजना जीथब में पाई जा सकती है ।

यहां छवि विवरण दर्ज करें


बहुत बढ़िया! साझा करने के लिए धन्यवाद। रीयलटाइम अनुप्रयोगों के लिए, एक अलग फ़ंक्शन बनाना सुनिश्चित करें जो प्रत्येक आने वाले डेटापॉइंट के साथ नए सिग्नल की गणना करता है। हर बार एक नया डेटापॉइंट आने पर पूरे डेटा पर लूप न करें, यह बेहद अक्षम होगा :)
जीन-पॉल

1
अच्छी बात है, उस बारे में नहीं सोचा था, क्योंकि मैं जिन खिड़कियों का उपयोग करता हूं, वे ओवरलैप नहीं होते हैं।
लियोनार्दकेमर

3

यहाँ z- स्कोर एल्गोरिथ्म का एक परिवर्तित फोरट्रान संस्करण है । यह विशेष रूप से आवृत्ति अंतरिक्ष में स्थानांतरण कार्यों में शिखर (अनुनाद) का पता लगाने के लिए बदल दिया जाता है (प्रत्येक परिवर्तन कोड में एक छोटी टिप्पणी है)।

पहला संशोधन उपयोगकर्ता को एक चेतावनी देता है यदि इनपुट वेक्टर के निचले हिस्से के पास एक प्रतिध्वनि है, जो एक निश्चित सीमा से अधिक मानक विचलन द्वारा इंगित किया गया है (इस मामले में 10%)। इसका सीधा मतलब है कि फिल्टर को ठीक से पहचानने के लिए संकेत पर्याप्त रूप से सपाट नहीं है।

दूसरा संशोधन यह है कि चोटी के केवल उच्चतम मूल्य को पाया चोटियों में जोड़ा जाता है। यह इसके (अंतराल) पूर्ववर्तियों और इसके (अंतराल) उत्तराधिकारियों की भयावहता के लिए प्रत्येक पाया गया शिखर मूल्य की तुलना करके पहुंचा जाता है।

तीसरा बदलाव यह है कि अनुनाद की चोटियाँ अनुनाद आवृत्ति के आसपास समरूपता के कुछ रूप दिखाती हैं। इसलिए वर्तमान डेटा बिंदु (केवल पूर्ववर्तियों के बजाय) के आसपास समरूप और एसटीडी की गणना करना स्वाभाविक है। इससे एक बेहतर शिखर पहचान का व्यवहार होता है।

संशोधनों का प्रभाव है कि पूरे सिग्नल को पहले से ही कार्य के लिए जाना जाता है जो प्रतिध्वनि का पता लगाने के लिए सामान्य मामला है (कुछ-कुछ जीन-पॉल का मतलाब उदाहरण जहां मक्खी पर डेटा बिंदु उत्पन्न नहीं होते हैं) काम नहीं करेगा।

function PeakDetect(y,lag,threshold, influence)
    implicit none
    ! Declaring part
    real, dimension(:), intent(in) :: y
    integer, dimension(size(y)) :: PeakDetect
    real, dimension(size(y)) :: filteredY, avgFilter, stdFilter
    integer :: lag, ii
    real :: threshold, influence

    ! Executing part
    PeakDetect = 0
    filteredY = 0.0
    filteredY(1:lag+1) = y(1:lag+1)
    avgFilter = 0.0
    avgFilter(lag+1) = mean(y(1:2*lag+1))
    stdFilter = 0.0
    stdFilter(lag+1) = std(y(1:2*lag+1))

    if (stdFilter(lag+1)/avgFilter(lag+1)>0.1) then ! If the coefficient of variation exceeds 10%, the signal is too uneven at the start, possibly because of a peak.
        write(unit=*,fmt=1001)
1001        format(1X,'Warning: Peak detection might have failed, as there may be a peak at the edge of the frequency range.',/)
    end if
    do ii = lag+2, size(y)
        if (abs(y(ii) - avgFilter(ii-1)) > threshold * stdFilter(ii-1)) then
            ! Find only the largest outstanding value which is only the one greater than its predecessor and its successor
            if (y(ii) > avgFilter(ii-1) .AND. y(ii) > y(ii-1) .AND. y(ii) > y(ii+1)) then
                PeakDetect(ii) = 1
            end if
            filteredY(ii) = influence * y(ii) + (1 - influence) * filteredY(ii-1)
        else
            filteredY(ii) = y(ii)
        end if
        ! Modified with respect to the original code. Mean and standard deviation are calculted symmetrically around the current point
        avgFilter(ii) = mean(filteredY(ii-lag:ii+lag))
        stdFilter(ii) = std(filteredY(ii-lag:ii+lag))
    end do
end function PeakDetect

real function mean(y)
    !> @brief Calculates the mean of vector y
    implicit none
    ! Declaring part
    real, dimension(:), intent(in) :: y
    integer :: N
    ! Executing part
    N = max(1,size(y))
    mean = sum(y)/N
end function mean

real function std(y)
    !> @brief Calculates the standard deviation of vector y
    implicit none
    ! Declaring part
    real, dimension(:), intent(in) :: y
    integer :: N
    ! Executing part
    N = max(1,size(y))
    std = sqrt((N*dot_product(y,y) - sum(y)**2) / (N*(N-1)))
end function std

मेरे आवेदन के लिए एल्गोरिथ्म एक आकर्षण की तरह काम करता है! यहां छवि विवरण दर्ज करें


3

यदि आपको अपना डेटा डेटाबेस तालिका में मिला है, तो यहां एक साधारण जेड-स्कोर एल्गोरिथ्म का SQL संस्करण है:

with data_with_zscore as (
    select
        date_time,
        value,
        value / (avg(value) over ()) as pct_of_mean,
        (value - avg(value) over ()) / (stdev(value) over ()) as z_score
    from {{tablename}}  where datetime > '2018-11-26' and datetime < '2018-12-03'
)


-- select all
select * from data_with_zscore 

-- select only points greater than a certain threshold
select * from data_with_zscore where z_score > abs(2)

आपके कोड ने मेरे द्वारा प्रस्तावित एल्गोरिथम की तुलना में कुछ और किया है। आपकी क्वेरी बस z- स्कोर ([डेटा बिंदु - माध्य] / std) की गणना करती है, लेकिन मेरे एल्गोरिथ्म के तर्क को शामिल नहीं करती है जो नए सिग्नल थ्रेसहोल्ड की गणना करते समय पिछले संकेतों को अनदेखा करता है। आप तीन मापदंडों (अंतराल, प्रभाव, दहलीज) की भी उपेक्षा करते हैं। क्या आप वास्तविक तर्क को शामिल करने के लिए अपने उत्तर को संशोधित कर सकते हैं?
जीन-पॉल

1
हाँ आप सही हैं। पहले मुझे लगा कि मैं उपरोक्त सरलीकृत संस्करण के साथ दूर हो सकता हूं .. मैंने आपके पूर्ण समाधान को लिया है और इसे C # में पोर्ट किया है। नीचे मेरा जवाब देखें। जब मेरे पास अधिक समय होगा तो मैं इस SQL ​​संस्करण पर फिर से जाऊंगा और आपके एल्गोरिथ्म को शामिल करूंगा। वैसे, इस तरह के एक महान जवाब और दृश्य स्पष्टीकरण के लिए धन्यवाद।
ओशन एयरड्रॉप

कोई समस्या नहीं है और खुशी है कि एल्गोरिथ्म आपकी मदद कर सकता है! आपके C # सबमिशन के लिए धन्यवाद, कि एक अभी भी गायब था। मैं इसे अनुवाद की सूची में जोड़ दूंगा!
जीन-पॉल

3

पायथन संस्करण जो वास्तविक समय की धाराओं के साथ काम करता है (प्रत्येक नए डेटा बिंदु के आगमन पर सभी डेटा बिंदुओं को पुनर्गणना नहीं करता है)। आप चाहते हैं कि क्लास फंक्शन लौटाएं - मेरे उद्देश्यों के लिए मुझे केवल संकेतों की आवश्यकता थी।

import numpy as np

class real_time_peak_detection():
    def __init__(self, array, lag, threshold, influence):
        self.y = list(array)
        self.length = len(self.y)
        self.lag = lag
        self.threshold = threshold
        self.influence = influence
        self.signals = [0] * len(self.y)
        self.filteredY = np.array(self.y).tolist()
        self.avgFilter = [0] * len(self.y)
        self.stdFilter = [0] * len(self.y)
        self.avgFilter[self.lag - 1] = np.mean(self.y[0:self.lag]).tolist()
        self.stdFilter[self.lag - 1] = np.std(self.y[0:self.lag]).tolist()

    def thresholding_algo(self, new_value):
        self.y.append(new_value)
        i = len(self.y) - 1
        self.length = len(self.y)
        if i < self.lag:
            return 0
        elif i == self.lag:
            self.signals = [0] * len(self.y)
            self.filteredY = np.array(self.y).tolist()
            self.avgFilter = [0] * len(self.y)
            self.stdFilter = [0] * len(self.y)
            self.avgFilter[self.lag - 1] = np.mean(self.y[0:self.lag]).tolist()
            self.stdFilter[self.lag - 1] = np.std(self.y[0:self.lag]).tolist()
            return 0

        self.signals += [0]
        self.filteredY += [0]
        self.avgFilter += [0]
        self.stdFilter += [0]

        if abs(self.y[i] - self.avgFilter[i - 1]) > self.threshold * self.stdFilter[i - 1]:
            if self.y[i] > self.avgFilter[i - 1]:
                self.signals[i] = 1
            else:
                self.signals[i] = -1

            self.filteredY[i] = self.influence * self.y[i] + (1 - self.influence) * self.filteredY[i - 1]
            self.avgFilter[i] = np.mean(self.filteredY[(i - self.lag):i])
            self.stdFilter[i] = np.std(self.filteredY[(i - self.lag):i])
        else:
            self.signals[i] = 0
            self.filteredY[i] = self.y[i]
            self.avgFilter[i] = np.mean(self.filteredY[(i - self.lag):i])
            self.stdFilter[i] = np.std(self.filteredY[(i - self.lag):i])

        return self.signals[i]

पोस्ट करने के लिए धन्यवाद, मैंने आपका अनुवाद सूची में जोड़ दिया है।
जीन-पॉल

3

मैंने खुद को इसका एक जावास्क्रिप्ट संस्करण बनाने की अनुमति दी। यह सहायक हो सकता है। जावास्क्रिप्ट ऊपर दिए गए Pseudocode का प्रत्यक्ष प्रतिलेखन होना चाहिए। Npm पैकेज और जीथब रेपो के रूप में उपलब्ध:

जावास्क्रिप्ट अनुवाद:

// javascript port of: /programming/22583391/peak-signal-detection-in-realtime-timeseries-data/48895639#48895639

function sum(a) {
    return a.reduce((acc, val) => acc + val)
}

function mean(a) {
    return sum(a) / a.length
}

function stddev(arr) {
    const arr_mean = mean(arr)
    const r = function(acc, val) {
        return acc + ((val - arr_mean) * (val - arr_mean))
    }
    return Math.sqrt(arr.reduce(r, 0.0) / arr.length)
}

function smoothed_z_score(y, params) {
    var p = params || {}
    // init cooefficients
    const lag = p.lag || 5
    const threshold = p.threshold || 3.5
    const influence = p.influece || 0.5

    if (y === undefined || y.length < lag + 2) {
        throw ` ## y data array to short(${y.length}) for given lag of ${lag}`
    }
    //console.log(`lag, threshold, influence: ${lag}, ${threshold}, ${influence}`)

    // init variables
    var signals = Array(y.length).fill(0)
    var filteredY = y.slice(0)
    const lead_in = y.slice(0, lag)
    //console.log("1: " + lead_in.toString())

    var avgFilter = []
    avgFilter[lag - 1] = mean(lead_in)
    var stdFilter = []
    stdFilter[lag - 1] = stddev(lead_in)
    //console.log("2: " + stdFilter.toString())

    for (var i = lag; i < y.length; i++) {
        //console.log(`${y[i]}, ${avgFilter[i-1]}, ${threshold}, ${stdFilter[i-1]}`)
        if (Math.abs(y[i] - avgFilter[i - 1]) > (threshold * stdFilter[i - 1])) {
            if (y[i] > avgFilter[i - 1]) {
                signals[i] = +1 // positive signal
            } else {
                signals[i] = -1 // negative signal
            }
            // make influence lower
            filteredY[i] = influence * y[i] + (1 - influence) * filteredY[i - 1]
        } else {
            signals[i] = 0 // no signal
            filteredY[i] = y[i]
        }

        // adjust the filters
        const y_lag = filteredY.slice(i - lag, i)
        avgFilter[i] = mean(y_lag)
        stdFilter[i] = stddev(y_lag)
    }

    return signals
}

module.exports = smoothed_z_score

आपका अनुवाद पोस्ट करने के लिए धन्यवाद। मैंने आपके कोड को आपके उत्तर में जोड़ दिया है ताकि लोग इसे जल्दी से देख सकें। मैं आपके अनुवाद को सूची में जोड़ दूंगा।
जीन-पॉल

अब तक, मैंने कुछ अन्य एल्गोरिदम को जावास्क्रिप्ट में पोर्ट किया है। इस बार संख्यात्मक pyhon से, जो मुझे अधिक नियंत्रण देता है और मेरे लिए बेहतर काम करता है। इसके अलावा npm में पैक किया गया है और आप इसके लिए अपने ज्यूपिटर पेज पर वॉशिंगटन राज्य विश्वविद्यालय से एल्गो पर अधिक जानकारी पा सकते हैं। npmjs.com/package/@joe_six/duarte-watanabe-peak-detection
डिर्क लुसेब्रिंक

2

यदि सीमा मान या अन्य मानदंड भविष्य के मूल्यों पर निर्भर करते हैं, तो एकमात्र समाधान (समय-मशीन के बिना, या भविष्य के मूल्यों के अन्य ज्ञान के बिना) किसी भी निर्णय को विलंबित करने के लिए है जब तक कि पर्याप्त भविष्य के मूल्य न हों। यदि आप किसी मतलब से ऊपर का स्तर चाहते हैं, उदाहरण के लिए, 20 अंक, तो आपको तब तक इंतजार करना होगा जब तक आपके पास किसी भी चोटी के निर्णय से कम से कम 19 अंक आगे न हों, या फिर अगला नया बिंदु 19 अंक पहले ही पूरी तरह से फेंक सकता है। ।

आपके वर्तमान प्लॉट में कोई चोटियां नहीं हैं ... जब तक आप किसी तरह पहले से नहीं जानते हैं कि अगला बिंदु 1e99 नहीं है, जो कि आपके प्लॉट के वाई आयाम को बदलने के बाद, उस बिंदु तक सपाट होगा।


जैसा कि मैंने पहले कहा था, हम मान सकते हैं कि अगर एक चोटी होती है, तो यह तस्वीर में चोटियों जितनी बड़ी होती है और 'सामान्य' मूल्यों से महत्वपूर्ण रूप से भटकती है।
जीन-पॉल

यदि आप जानते हैं कि चोटियां पहले से कितनी बड़ी होंगी, तो उस मूल्य के तहत अपना मतलब और / या सीमा निर्धारित करें।
hotpaw2

1
और यह वही है जो मैं पहले से नहीं जानता।
जीन-पॉल

1
आपने बस अपने आप को प्रतिवाद किया और लिखा कि चोटियों को चित्र में आकार के रूप में जाना जाता है। या तो आप जानते हैं कि या आप नहीं।
hotpaw2

2
मैं आपको यह समझाने की कोशिश कर रहा हूं। आप अभी विचार प्राप्त करते हैं? 'बड़ी चोटियों की पहचान कैसे करें'। आप समस्या को या तो सांख्यिकीय रूप से या स्मार्ट एल्गोरिथम से संपर्क कर सकते हैं। साथ .. As large as in the pictureमैं मतलब: इसी तरह की परिस्थितियों जहां महत्वपूर्ण चोटियों और बुनियादी शोर देखते हैं के लिए।
जीन-पॉल

2

और यहां आता है ZSCORE के PHP कार्यान्वयन :

<?php
$y = array(1,7,1.1,1,0.9,1,1,1.1,1,0.9,1,1.1,1,1,0.9,1,1,1.1,1,1,1,1,1.1,0.9,1,1.1,1,1,0.9,
       1,1.1,1,1,1.1,1,0.8,0.9,1,1.2,0.9,1,1,1.1,1.2,1,1.5,10,3,2,5,3,2,1,1,1,0.9,1,1,3,
       2.6,4,3,3.2,2,1,1,0.8,4,4,2,2.5,1,1,1);

function mean($data, $start, $len) {
    $avg = 0;
    for ($i = $start; $i < $start+ $len; $i ++)
        $avg += $data[$i];
    return $avg / $len;
}

function stddev($data, $start,$len) {
    $mean = mean($data,$start,$len);
    $dev = 0;
    for ($i = $start; $i < $start+$len; $i++) 
        $dev += (($data[$i] - $mean) * ($data[$i] - $mean));
    return sqrt($dev / $len);
}

function zscore($data, $len, $lag= 20, $threshold = 1, $influence = 1) {

    $signals = array();
    $avgFilter = array();
    $stdFilter = array();
    $filteredY = array();
    $avgFilter[$lag - 1] = mean($data, 0, $lag);
    $stdFilter[$lag - 1] = stddev($data, 0, $lag);

    for ($i = 0; $i < $len; $i++) {
        $filteredY[$i] = $data[$i];
        $signals[$i] = 0;
    }


    for ($i=$lag; $i < $len; $i++) {
        if (abs($data[$i] - $avgFilter[$i-1]) > $threshold * $stdFilter[$lag - 1]) {
            if ($data[$i] > $avgFilter[$i-1]) {
                $signals[$i] = 1;
            }
            else {
                $signals[$i] = -1;
            }
            $filteredY[$i] = $influence * $data[$i] + (1 - $influence) * $filteredY[$i-1];
        } 
        else {
            $signals[$i] = 0;
            $filteredY[$i] = $data[$i];
        }

        $avgFilter[$i] = mean($filteredY, $i - $lag, $lag);
        $stdFilter[$i] = stddev($filteredY, $i - $lag, $lag);
    }
    return $signals;
}

$sig = zscore($y, count($y));

print_r($y); echo "<br><br>";
print_r($sig); echo "<br><br>";

for ($i = 0; $i < count($y); $i++) echo $i. " " . $y[$i]. " ". $sig[$i]."<br>";

?>

पोस्ट करने के लिए धन्यवाद, मैंने आपका अनुवाद सूची में जोड़ दिया है।
जीन-पॉल

1
एक टिप्पणी: यह देखते हुए कि इस एल्गोरिथ्म ज्यादातर नमूना डेटा पर इस्तेमाल किया जाएगा, मैं सुझाव है कि आप को लागू नमूना मानक विचलन से विभाजित करके ($len - 1)की बजाय $lenमेंstddev()
जीन पॉल

1

मीनमा की तुलना माध्य से करने के बजाय, अधिकतम की तुलना आसन्न मिनीमा से भी कर सकते हैं, जहां मीनिमा केवल एक शोर सीमा से ऊपर परिभाषित की जाती है। यदि स्थानीय अधिकतम> 3 गुना (या अन्य आत्मविश्वास कारक) या तो आसन्न मिनीमा है, तो वह अधिकतम एक चोटी है। व्यापक चलती खिड़कियों के साथ चोटी का निर्धारण अधिक सटीक है। ऊपर खिड़की के बीच में गणना के बजाय खिड़की के मध्य में केंद्रित गणना का उपयोग करता है (== अंतराल)।

ध्यान दें कि एक मैक्सिमा को पहले संकेत में वृद्धि और बाद में कमी के रूप में देखा जाना चाहिए।


1

फ़ंक्शन scipy.signal.find_peaks, जैसा कि इसके नाम से पता चलता है, इसके लिए उपयोगी है। लेकिन यह अच्छी तरह से समझने के लिए इसके मापदंडों महत्वपूर्ण है width, threshold, distance और सब से ऊपरprominence एक अच्छा शिखर निकासी प्राप्त करने के लिए।

मेरे परीक्षणों और दस्तावेज़ीकरण के अनुसार, प्रमुखता की अवधारणा अच्छी चोटियों को रखने के लिए "उपयोगी अवधारणा" है, और शोर करने वाली चोटियों को छोड़ दें।

(स्थलाकृतिक) प्रमुखता क्या है ? यह "शिखर से किसी भी उच्च भूभाग तक जाने के लिए आवश्यक न्यूनतम ऊंचाई है" , जैसा कि यहाँ देखा जा सकता है:

विचार यह है:

प्रमुखता जितनी अधिक होगी, उतनी ही महत्वपूर्ण "महत्वपूर्ण" चोटी है।


1

मॉडर्न सी +++ का उपयोग करके जेड-स्कोर एल्गोरिदम का ऑब्जेक्ट-उन्मुख संस्करण

template<typename T>
class FindPeaks{
private:
    std::vector<T> m_input_signal;                      // stores input vector
    std::vector<T> m_array_peak_positive;               
    std::vector<T> m_array_peak_negative;               

public:
    FindPeaks(const std::vector<T>& t_input_signal): m_input_signal{t_input_signal}{ }

    void estimate(){
        int lag{5};
        T threshold{ 5 };                                                                                       // set a threshold
        T influence{ 0.5 };                                                                                    // value between 0 to 1, 1 is normal influence and 0.5 is half the influence

        std::vector<T> filtered_signal(m_input_signal.size(), 0.0);                                             // placeholdered for smooth signal, initialie with all zeros
        std::vector<int> signal(m_input_signal.size(), 0);                                                          // vector that stores where the negative and positive located
        std::vector<T> avg_filtered(m_input_signal.size(), 0.0);                                                // moving averages
        std::vector<T> std_filtered(m_input_signal.size(), 0.0);                                                // moving standard deviation

        avg_filtered[lag] = findMean(m_input_signal.begin(), m_input_signal.begin() + lag);                         // pass the iteartor to vector
        std_filtered[lag] = findStandardDeviation(m_input_signal.begin(), m_input_signal.begin() + lag);

        for (size_t iLag = lag + 1; iLag < m_input_signal.size(); ++iLag) {                                         // start index frm 
            if (std::abs(m_input_signal[iLag] - avg_filtered[iLag - 1]) > threshold * std_filtered[iLag - 1]) {     // check if value is above threhold             
                if ((m_input_signal[iLag]) > avg_filtered[iLag - 1]) {
                    signal[iLag] = 1;                                                                               // assign positive signal
                }
                else {
                    signal[iLag] = -1;                                                                                  // assign negative signal
                }
                filtered_signal[iLag] = influence * m_input_signal[iLag] + (1 - influence) * filtered_signal[iLag - 1];        // exponential smoothing
            }
            else {
                signal[iLag] = 0;                                                                                         // no signal
                filtered_signal[iLag] = m_input_signal[iLag];
            }

            avg_filtered[iLag] = findMean(filtered_signal.begin() + (iLag - lag), filtered_signal.begin() + iLag);
            std_filtered[iLag] = findStandardDeviation(filtered_signal.begin() + (iLag - lag), filtered_signal.begin() + iLag);

        }

        for (size_t iSignal = 0; iSignal < m_input_signal.size(); ++iSignal) {
            if (signal[iSignal] == 1) {
                m_array_peak_positive.emplace_back(m_input_signal[iSignal]);                                        // store the positive peaks
            }
            else if (signal[iSignal] == -1) {
                m_array_peak_negative.emplace_back(m_input_signal[iSignal]);                                         // store the negative peaks
            }
        }
        printVoltagePeaks(signal, m_input_signal);

    }

    std::pair< std::vector<T>, std::vector<T> > get_peaks()
    {
        return std::make_pair(m_array_peak_negative, m_array_peak_negative);
    }

};


template<typename T1, typename T2 >
void printVoltagePeaks(std::vector<T1>& m_signal, std::vector<T2>& m_input_signal) {
    std::ofstream output_file("./voltage_peak.csv");
    std::ostream_iterator<T2> output_iterator_voltage(output_file, ",");
    std::ostream_iterator<T1> output_iterator_signal(output_file, ",");
    std::copy(m_input_signal.begin(), m_input_signal.end(), output_iterator_voltage);
    output_file << "\n";
    std::copy(m_signal.begin(), m_signal.end(), output_iterator_signal);
}

template<typename iterator_type>
typename std::iterator_traits<iterator_type>::value_type findMean(iterator_type it, iterator_type end)
{
    /* function that receives iterator to*/
    typename std::iterator_traits<iterator_type>::value_type sum{ 0.0 };
    int counter = 0;
    while (it != end) {
        sum += *(it++);
        counter++;
    }
    return sum / counter;
}

template<typename iterator_type>
typename std::iterator_traits<iterator_type>::value_type findStandardDeviation(iterator_type it, iterator_type end)
{
    auto mean = findMean(it, end);
    typename std::iterator_traits<iterator_type>::value_type sum_squared_error{ 0.0 };
    int counter{ 0 };
    while (it != end) {
        sum_squared_error += std::pow((*(it++) - mean), 2);
        counter++;
    }
    auto standard_deviation = std::sqrt(sum_squared_error / (counter - 1));
    return standard_deviation;
}

2
अच्छा अनुवाद। यह थोड़ा अच्छे यदि वस्तु भी बचाता होगा filtered_signal, signal, avg_filteredऔर std_filteredके रूप में निजी चर और केवल उन सरणियों अपडेट हो जाता है एक बार जब एक नया डाटापॉइंट आता है (अब सब datapoints से अधिक कोड छोरों हर यह कहा जाता है)। यह आपके कोड के प्रदर्शन में सुधार करेगा और OOP संरचना को और भी बेहतर करेगा।
जीन-पॉल
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.