मैं प्रोग्राम को अलग-अलग घटता के साथ फिट करने के लिए डेटा श्रृंखला के खंडों का पता कैसे लगा सकता हूं?


14

क्या किसी भी दिए गए डेटासेट के अलग-अलग वर्गों को सर्वश्रेष्ठ फिट के अलग-अलग घटता में अलग-अलग दस्तावेज हैं?

उदाहरण के लिए, डेटा के इस चार्ट को देखने वाले अधिकांश मनुष्य इसे आसानी से 3 भागों में विभाजित करेंगे: एक साइनसोइडल सेगमेंट, एक रैखिक खंड और व्युत्क्रम घातीय खंड। वास्तव में, मैंने इसे विशेष रूप से साइन लहर, एक रेखा और एक सरल घातीय सूत्र के साथ बनाया।

तीन अलग-अलग हिस्सों के साथ डेटा का चार्ट दिखाई देता है

क्या उस तरह के हिस्सों को खोजने के लिए मौजूदा एल्गोरिदम हैं, जो फिर डेटा के सबसेट के सबसे फिट के यौगिकों की एक श्रृंखला बनाने के लिए विभिन्न घटता / रेखाओं के लिए अलग से फिट किए जा सकते हैं?

ध्यान दें कि हालांकि उदाहरण में खंडों के छोर बहुत अधिक ऊपर हैं, यह जरूरी नहीं है कि मामला हो; सेगमेंट कटऑफ में मूल्यों में अचानक झटका लग सकता है। शायद उन मामलों का पता लगाना आसान हो जाएगा।

अद्यतन: यहाँ वास्तविक दुनिया डेटा की एक छोटी बिट की एक छवि है: असली दुनिया चार्ट

अपडेट 2: यहां डेटा का एक असामान्य रूप से छोटा वास्तविक दुनिया सेट है (केवल 509 डेटा पॉइंट):

4,53,53,53,53,58,56,52,49,52,56,51,44,39,39,39,37,33,27,21,18,12,19,30,45,66,92,118,135,148,153,160,168,174,181,187,191,190,191,192,194,194,194,193,193,201,200,199,199,199,197,193,190,187,176,162,157,154,144,126,110,87,74,57,46,44,51,60,65,66,90,106,99,87,84,85,83,91,95,99,101,102,102,103,105,110,107,108,135,171,171,141,120,78,42,44,52,54,103,128,82,103,46,27,73,123,125,77,24,30,27,36,42,49,32,55,20,16,21,31,78,140,116,99,58,139,70,22,44,7,48,32,18,16,25,16,17,35,29,11,13,8,8,18,14,0,10,18,2,1,4,0,61,87,91,2,0,2,9,40,21,2,14,5,9,49,116,100,114,115,62,41,119,191,190,164,156,109,37,15,0,5,1,0,0,2,4,2,0,48,129,168,112,98,95,119,125,191,241,209,229,230,231,246,249,240,99,32,0,0,2,13,28,39,15,15,19,31,47,61,92,91,99,108,114,118,121,125,129,129,125,125,131,135,138,142,147,141,149,153,152,153,159,161,158,158,162,167,171,173,174,176,178,184,190,190,185,190,200,199,189,196,197,197,196,199,200,195,187,191,192,190,186,184,184,179,173,171,170,164,156,155,156,151,141,141,139,143,143,140,146,145,130,126,127,127,125,122,122,127,131,134,140,150,160,166,175,192,208,243,251,255,255,255,249,221,190,181,181,181,181,179,173,165,159,153,162,169,165,154,144,142,145,136,134,131,130,128,124,119,115,103,78,54,40,25,8,2,7,12,25,13,22,15,33,34,57,71,48,16,1,2,0,2,21,112,174,191,190,152,153,161,159,153,71,16,28,3,4,0,14,26,30,26,15,12,19,21,18,53,89,125,139,140,142,141,135,136,140,159,170,173,176,184,180,170,167,168,170,167,161,163,170,164,161,160,163,163,160,160,163,169,166,161,156,155,156,158,160,150,149,149,151,154,156,156,156,151,149,150,153,154,151,146,144,149,150,151,152,151,150,148,147,144,141,137,133,130,128,128,128,136,143,159,180,196,205,212,218,222,225,227,227,225,223,222,222,221,220,220,220,220,221,222,223,221,223,225,226,227,228,232,235,234,236,238,240,241,240,239,237,238,240,240,237,236,239,238,235

यहाँ यह है, चार्टेड, कुछ ज्ञात वास्तविक दुनिया तत्व किनारों की अनुमानित स्थिति के साथ, बिंदीदार रेखाओं के साथ चिह्नित, एक लक्जरी जिसे हम सामान्य रूप से नहीं लेंगे:

यहाँ छवि विवरण दर्ज करें

एक लक्जरी, जो हमारे पास है, हालांकि, यह दृष्टिहीनता है: मेरे मामले में डेटा एक समय श्रृंखला नहीं है, बल्कि स्थानिक रूप से संबंधित है; यह केवल एक बार में पूरे डेटासेट (आमतौर पर 5000 - 15000 डेटा पॉइंट) का विश्लेषण करने के लिए समझ में आता है, निरंतर तरीके से नहीं।


1
CV के लिए ps पहली पोस्ट; मैं एक सॉफ्टवेयर डेवलपर हूं और मैं आमतौर पर SO पर अधिक घूमता हूं। माफी अगर मैंने किसी भी स्थानीय वर्जना का उल्लंघन किया है। मेरे कई जवाबों की खोज यहां हुई, इसलिए मैंने सोचा कि यह पूछने के लिए सबसे अच्छी जगह होगी।
Whybird

आप डेटा पोस्ट क्यों नहीं करते हैं और मैं आपके प्रश्न का उत्तर देने का प्रयास करूंगा।
आयरिशस्टैट

मेटा-मॉडल का उपयोग करते हुए एक बार घटता के पूरे परिवार को फिट करने की एक संभावना होगी। चीजों को अधिक सटीक बनाने के लिए, मान लीजिए कि आपका अंतिम उद्देश्य उस हिस्टोग्राम को सुचारू बनाना है, जो केडीई का उपयोग करते हुए कहते हैं। तब, केडीई से आपका सहज अनुमान अधिक सटीक होगा यदि आप एक मॉडल का उपयोग करते हैं जिसमें कर्नेल की चौड़ाई के मानों की सीमा से भिन्न होती है जैसा कि यहां उपयोग किए गए मॉडल में , समीकरण (2) - (3)x
user603

1
आपने उदाहरण का निर्माण किया ताकि विचार समझ में आए: अब तक, इतना अच्छा। वास्तविक हिस्टोग्राम के साथ, यह बहुत अधिक सामान्य है कि एक जटिल आकार अतिव्यापी वितरण का मिश्रण दर्शाता है: रुचि तब देखी गई हिस्टोग्राम पर बदलावों में नहीं होती है जो आमतौर पर स्पष्ट रूप से मौजूद नहीं होती है या मिश्रण के बारे में सोचने का सही तरीका नहीं है। हालांकि, यह संभव है कि आप "हिस्टोग्राम" का उपयोग बहुत व्यापक तरीके से कर रहे हैं, जितना कि सांख्यिकीय विज्ञान में मानक है जहां इसका मतलब आवृत्ति या संभाव्यता वितरण का बार चार्ट (केवल) है।
निक कॉक्स

@IrishStat - सामान्य डेटासेट में 5000 से 15000 प्रविष्टियाँ होती हैं। मैं यहाँ के लिए एक संक्षेप में वास्तविक तैयार करने की कोशिश कर रहा था, लेकिन यह एक बुरा उदाहरण बन गया, और मुझे शुरू करना पड़ा। दूसरी ओर, ऐसा करने से पैटर्न को शुरू में देखने के लिए डेटा को बस चौरसाई और औसत क्लैंप के रूप में मेरे लिए आंशिक रूप से जवाब देने का सुझाव दिया गया था, बाद में इसके लिए धन्यवाद देने के लिए धन्यवाद :) मेरे पास एक वास्तविक एक ही है जो केवल 509 चौड़ा है ऐसा लगता है कि यह अच्छा हो सकता है; मुझे लगता है कि जब मैं यह कर सकता हूँ सवाल में जोड़ देंगे
Whybird

जवाबों:


2

प्रश्न की मेरी व्याख्या यह है कि ओपी कार्यप्रणाली की तलाश कर रहा है जो प्रदान किए गए उदाहरणों के आकार (नों) को फिट करेगा, न कि एचएसी अवशिष्टों को। इसके अलावा, स्वचालित दिनचर्या में महत्वपूर्ण मानव या विश्लेषक हस्तक्षेप की आवश्यकता नहीं होती है। बॉक्स-जेनकिन्स उपयुक्त नहीं हो सकता है, इस धागे में उनके जोर के बावजूद, क्योंकि उन्हें पर्याप्त विश्लेषक भागीदारी की आवश्यकता होती है।

इस प्रकार के गैर-क्षण आधारित, पैटर्न मिलान के लिए आर मॉड्यूल मौजूद हैं। क्रमचय वितरण क्लस्टरिंग एक ऐसा पैटर्न मिलान तकनीक है जिसे मैक्स प्लैंक इंस्टीट्यूट के वैज्ञानिक द्वारा विकसित किया गया है जो आपके द्वारा उल्लिखित मानदंडों को पूरा करता है। इसका अनुप्रयोग समय श्रृंखला डेटा के लिए है, लेकिन यह केवल उसी तक सीमित नहीं है। यहां विकसित किए गए R मॉड्यूल के लिए एक उद्धरण है:

पीडीसी: एंड्रियास ब्रैंडमेयर द्वारा टाइम सीरीज़ की जटिलता-आधारित क्लस्टरिंग के लिए एक आर पैकेज

पीडीसी के अलावा, वहाँ मशीन सीखने, iSax रूटीन Eamon Keogh द्वारा यूसी इरविन में विकसित किया गया है जो कि तुलना के लायक है।

अंत में, डाटा स्मैशिंग पर यह पेपर है : डेटा में लर्निंग ऑर्डर को उजागर करनाचट्टोपाध्याय और लिप्सन द्वारा। चतुर शीर्षक से परे, काम पर एक गंभीर उद्देश्य है। यहां सार है: "स्वचालित भाषण मान्यता से लेकर असामान्य सितारों की खोज तक, अंतर्निहित लगभग सभी स्वचालित खोज कार्य एक दूसरे के साथ डेटा स्ट्रीम की तुलना और विपरीत करने की क्षमता है, कनेक्शन और स्पॉट आउटलेर्स की पहचान करना। डेटा की व्यापकता के बावजूद, हालांकि, स्वचालित तरीके। गति नहीं रख रहे हैं। एक महत्वपूर्ण अड़चन यह है कि अधिकांश डेटा तुलना एल्गोरिदम आज एक मानव विशेषज्ञ पर भरोसा करते हैं कि यह निर्दिष्ट करने के लिए कि डेटा की 'विशेषताएं' तुलना के लिए प्रासंगिक हैं। यहां, हम मध्यस्थों के स्रोतों के बीच समानता का आकलन करने के लिए एक नया सिद्धांत प्रस्तावित करते हैं। डेटा स्ट्रीम, न तो डोमेन ज्ञान और न ही सीखने का उपयोग करके। हम इस सिद्धांत के अनुप्रयोग को वास्तविक विश्व चुनौतीपूर्ण चुनौतियों की संख्या से डेटा के विश्लेषण के लिए प्रदर्शित करते हैं, मिर्गी के दौरे से संबंधित इलेक्ट्रो-एन्सेफलाग्राफ पैटर्न के असंतुलन सहित, विसंगत हृदय गतिविधि का पता लगाने से ध्वनि रिकॉर्डिंग और कच्चे फोटोमेट्री से खगोलीय पिंडों का वर्गीकरण। इन सभी मामलों में और किसी भी डोमेन ज्ञान तक पहुंच के बिना, हम विशिष्ट विशेषज्ञों द्वारा प्राप्त सटीकता और डोमेन विशेषज्ञों द्वारा तैयार की गई सटीकता के साथ सममूल्य पर प्रदर्शन का प्रदर्शन करते हैं। हमारा सुझाव है कि डेटा मुंहतोड़ सिद्धांत तेजी से जटिल टिप्पणियों को समझने के लिए दरवाजा खोल सकते हैं, खासकर जब विशेषज्ञ नहीं जानते कि क्या देखना है। " इन सभी मामलों में और किसी भी डोमेन ज्ञान तक पहुंच के बिना, हम विशिष्ट विशेषज्ञों द्वारा प्राप्त सटीकता और डोमेन विशेषज्ञों द्वारा तैयार की गई सटीकता के साथ सममूल्य पर प्रदर्शन का प्रदर्शन करते हैं। हमारा सुझाव है कि डेटा मुंहतोड़ सिद्धांत तेजी से जटिल टिप्पणियों को समझने के लिए दरवाजा खोल सकते हैं, खासकर जब विशेषज्ञ नहीं जानते कि क्या देखना है। " इन सभी मामलों में और किसी भी डोमेन ज्ञान तक पहुंच के बिना, हम विशिष्ट विशेषज्ञों द्वारा प्राप्त सटीकता और डोमेन विशेषज्ञों द्वारा तैयार की गई सटीकता के साथ सममूल्य पर प्रदर्शन का प्रदर्शन करते हैं। हम सुझाव देते हैं कि डेटा मुंहतोड़ सिद्धांत तेजी से जटिल टिप्पणियों को समझने के लिए दरवाजा खोल सकते हैं, खासकर जब विशेषज्ञ नहीं जानते कि क्या देखना है। "

यह दृष्टिकोण वक्रतापूर्ण फिट से परे जाता है। यह जाँच के लायक है।


धन्यवाद - आप सही हैं कि मैं जो चाहता हूं, वह बिना किसी विश्लेषक के हस्तक्षेप के, स्वचालित रूप से क्लस्टर ढूंढना है। मैं जो काम करना चाहता हूं, उसके लिए मुझे क्लस्टर में 5000-15000 डेटा बिंदुओं के डेटासेट को तोड़ने की आवश्यकता होगी, जो कि प्रत्येक समय के लिए 50000 से अधिक ऐसे डेटासेटों के समूह में मानव हस्तक्षेप के बिना सरल फॉर्मूलों (दोहराव वाले सहित) के अनुरूप हो। घरेलू कंप्यूटर हार्डवेयर पर मनुष्यों द्वारा।
Whybird

जिसके लिए प्रत्येक क्लस्टर में फिट होने के लिए, एक बार जब मैंने किसी भी तरह से सीमाओं का पता लगाया है, तो यह काफी सरल है, मुझे लगता है कि मैं बस अलग-अलग मॉडल (साइन लहर, बहुपद, घातीय) की कोशिश करता हूं और देखता हूं जो एक बेहतर साधारण आर ^ 2 देता है।
Whybird

2
ठीक है, मुझे लगता है कि गलतफहमी इस से उत्पन्न होती है: सैक्स और आईसैक्स समय श्रृंखला के भंडारण और प्रसंस्करण के लिए प्रतिनिधित्व प्रारूप हैं, वे क्लस्टरिंग या खंड / पैटर्न डिटेक्शन एल्गोरिदम (प्रति ओपी के पोस्ट) नहीं हैं। आपके उत्तर से मेरी समझ यह थी कि केओग एक एल्गोरिथ्म के साथ आया था जो एसएएक्स प्रतिनिधित्व प्रारूप पर आधारित है और ओपी की समस्या को दूर करने के लिए होता है। लेकिन मुझे लगता है कि इसका मतलब यह नहीं है कि आप क्या चाहते हैं?
झूबारब

2
ठीक है, केओघ तक पहुंचने की कोई आवश्यकता नहीं है, मुझे iSax और Sax के बारे में पता है , वे समय श्रृंखला के कुशल खनन के लिए प्रतिनिधित्व प्रारूप हैं। लिंक उन्हें समझाते हैं। iSax नया संस्करण है। मैं आपके उत्तर की गलतफहमी से उत्साहित था, इसलिए प्रश्न (पांडित्य की कोशिश नहीं कर रहा) :)।
ज़ुर्बर्ब

2
मैं कुछ भी छुपाने की कोशिश नहीं कर रहा था, मैंने 'आइएक्सएक्स रूटीन' की व्याख्या की, जो कि आइलैक्स पर संचालित एक एल्गोरिथ्म था। मेरा सुझाव है कि स्पष्टीकरण के बाद आपके उत्तर को फिर से शब्दों में बदलने / संशोधन करने की आवश्यकता है।
ज़ुर्बर्ब

2

एक समय श्रृंखला में परिवर्तन बिंदुओं का पता लगाने के लिए एक मजबूत वैश्विक एआरआईएमए मॉडल (निश्चित रूप से आपके मामले में समय के साथ मॉडल में बदलाव और पैरामीटर में बदलाव के दोषपूर्ण) के निर्माण की आवश्यकता होती है और फिर उस मॉडल के मापदंडों में सबसे महत्वपूर्ण परिवर्तन बिंदु की पहचान करना होता है। आपके 509 मूल्यों का उपयोग करते हुए सबसे महत्वपूर्ण परिवर्तन बिंदु 353 के आसपास था। मैंने AUTOBOX में उपलब्ध कुछ मालिकाना एल्गोरिदम का उपयोग किया था (जो मैंने विकसित करने में मदद की है) जो संभवतः आपके अनुकूलित एप्लिकेशन के लिए लाइसेंस प्राप्त कर सकते हैं। मूल विचार डेटा को दो भागों में अलग करना है और दो सेटों में से प्रत्येक के भीतर और अधिक परिवर्तन बिंदुओं को निर्धारित करने के लिए सबसे महत्वपूर्ण परिवर्तन बिंदु को खोजने के लिए दो अलग-अलग समय (1-352; 353-509) में से प्रत्येक का फिर से विश्लेषण करना है। यह तब तक दोहराया जाता है जब तक आपके पास k सबसेट नहीं है। मैंने इस दृष्टिकोण का उपयोग करते हुए पहला कदम संलग्न किया है।यहाँ छवि विवरण दर्ज करें

यहाँ छवि विवरण दर्ज करें


153 और 173 के P-मान कम होने पर 353 को क्यों ध्वजांकित किया जाता है?
निक कॉक्स

@NickCox अच्छा सवाल! महान टिप्पणी पूर्वानुमान के प्रयोजनों के लिए पूरे विचार के लिए सबसे हाल ही में (सबसे महत्वपूर्ण) सबसेट को सबसे पुराने सबसेट से अलग करना है जो 353 जीता है। .... यहाँ प्रयोजनों के लिए एक वास्तव में 173 का चयन करेगा।
आयरिशस्टैट

शीर्षक "
MST RECENT SIGNIFICANT

धन्यवाद! यह वास्तव में दिलचस्प है और बहुत सराहना की जाती है। मैं आगे के विवरण के लिए आपसे संपर्क कर सकता हूं।
Whybird

स्पष्टीकरण के लिए धन्यवाद: विचार वास्तव में अंतिम नोट में स्पष्ट है। (संयोग से, मैंने 1990 के दशक की शुरुआत के बाद से प्रोग्राम आउटपुट में इतना UPPER CASE नहीं देखा है। मैं "95% कॉन्फिडेंस लेवल" को "5% महत्व स्तर" में बदलने की सिफारिश करूंगा। इसका मतलब है।)
निक कॉक्स

2

मुझे लगता है कि धागे का शीर्षक भ्रामक है: आप घनत्व कार्यों की तुलना नहीं कर रहे हैं, लेकिन आप वास्तव में एक समय श्रृंखला में संरचनात्मक विराम की तलाश कर रहे हैं। हालाँकि, आप निर्दिष्ट नहीं करते हैं कि इन संरचनात्मक विरामों को एक रोलिंग टाइम विंडो में या समय श्रृंखला के कुल इतिहास को देखते हुए किसी दृष्टि से देखा जाना चाहिए। इस अर्थ में आपका प्रश्न वास्तव में इस बात की नकल है: समय श्रृंखला पर संरचनात्मक विराम का पता लगाने के लिए क्या तरीका है?

जैसा कि इस कड़ी में रॉब हंडमैन ने उल्लेख किया है, आर इस उद्देश्य के लिए स्ट्रैचेंज पैकेज प्रदान करता है। मैंने आपके डेटा के साथ खेला है, लेकिन मुझे कहना होगा कि परिणाम निराशाजनक हैं [पहला डेटा बिंदु वास्तव में 4 है या 54 होना चाहिए?]:

raw = c(54,53,53,53,53,58,56,52,49,52,56,51,44,39,39,39,37,33,27,21,18,12,19,30,45,66,92,118,135,148,153,160,168,174,181,187,191,190,191,192,194,194,194,193,193,201,200,199,199,199,197,193,190,187,176,162,157,154,144,126,110,87,74,57,46,44,51,60,65,66,90,106,99,87,84,85,83,91,95,99,101,102,102,103,105,110,107,108,135,171,171,141,120,78,42,44,52,54,103,128,82,103,46,27,73,123,125,77,24,30,27,36,42,49,32,55,20,16,21,31,78,140,116,99,58,139,70,22,44,7,48,32,18,16,25,16,17,35,29,11,13,8,8,18,14,0,10,18,2,1,4,0,61,87,91,2,0,2,9,40,21,2,14,5,9,49,116,100,114,115,62,41,119,191,190,164,156,109,37,15,0,5,1,0,0,2,4,2,0,48,129,168,112,98,95,119,125,191,241,209,229,230,231,246,249,240,99,32,0,0,2,13,28,39,15,15,19,31,47,61,92,91,99,108,114,118,121,125,129,129,125,125,131,135,138,142,147,141,149,153,152,153,159,161,158,158,162,167,171,173,174,176,178,184,190,190,185,190,200,199,189,196,197,197,196,199,200,195,187,191,192,190,186,184,184,179,173,171,170,164,156,155,156,151,141,141,139,143,143,140,146,145,130,126,127,127,125,122,122,127,131,134,140,150,160,166,175,192,208,243,251,255,255,255,249,221,190,181,181,181,181,179,173,165,159,153,162,169,165,154,144,142,145,136,134,131,130,128,124,119,115,103,78,54,40,25,8,2,7,12,25,13,22,15,33,34,57,71,48,16,1,2,0,2,21,112,174,191,190,152,153,161,159,153,71,16,28,3,4,0,14,26,30,26,15,12,19,21,18,53,89,125,139,140,142,141,135,136,140,159,170,173,176,184,180,170,167,168,170,167,161,163,170,164,161,160,163,163,160,160,163,169,166,161,156,155,156,158,160,150,149,149,151,154,156,156,156,151,149,150,153,154,151,146,144,149,150,151,152,151,150,148,147,144,141,137,133,130,128,128,128,136,143,159,180,196,205,212,218,222,225,227,227,225,223,222,222,221,220,220,220,220,221,222,223,221,223,225,226,227,228,232,235,234,236,238,240,241,240,239,237,238,240,240,237,236,239,238,235)
raw = log(raw+1)
d = as.ts(raw,frequency = 12)
dd = ts.intersect(d = d, d1 = lag(d, -1),d2 = lag(d, -2),d3 = lag(d, -3),d4 = lag(d, -4),d5 = lag(d, -5),d6 = lag(d, -6),d7 = lag(d, -7),d8 = lag(d, -8),d9 = lag(d, -9),d10 = lag(d, -10),d11 = lag(d, -11),d12 = lag(d, -12))

(breakpoints(d ~d1 + d2+ d3+ d4+ d5+ d6+ d7+ d8+ d9+ d10+ d11+ d12, data = dd))
>Breakpoints at observation number:
>151 
>Corresponding to breakdates:
>163 

(breakpoints(d ~d1 + d2, data = dd))
>Breakpoints at observation number:
>95 178 
>Corresponding to breakdates:
>107 190 

मैं पैकेज का नियमित उपयोगकर्ता नहीं हूं। जैसा कि आप देख सकते हैं कि यह उस मॉडल पर निर्भर करता है जिसे आप डेटा पर फिट करते हैं। के साथ प्रयोग कर सकते हैं

library(forecast)
auto.arima(raw)

जो आपको सर्वश्रेष्ठ फिटिंग ARIMA मॉडल देता है।


धन्यवाद! मैंने शीर्षक से 'हिस्टोग्राम' शब्द को संपादित किया है; मैंने शुरुआत में इसे गलत तरीके से इस्तेमाल किया था, और एक टिप्पणी के जवाब में पहले के संपादन में शरीर से हटाए जाने पर शीर्षक को संपादित करना भूल गया।
Whybird

मेरा डेटा वास्तव में स्थानिक रूप से संबंधित डेटा की एक श्रृंखला है, यह समय-आधारित नहीं है और आमतौर पर एक सीधी रेखा या यहां तक ​​कि अक्सर पर्याप्त विमान में मौजूद नहीं होगा - लेकिन आप सही हैं कि कुछ मौलिक स्तर पर इसे उसी में माना जा सकता है मार्ग; मुझे लगता है कि इसका कारण यह हो सकता है कि मेरी पिछली खोजों ने उन उत्तरों को नहीं पाया, जिनकी मुझे उम्मीद थी।
Whybird

उस उदाहरण में पहला डेटा बिंदु वास्तव में एक 4 है, लेकिन यह अच्छी तरह से हो सकता है कि हम पिछले संरचना के अंत को हिट करने के लिए हुआ था या शायद यह शोर था; मैं इसे एक बहिरंग के रूप में छोड़ कर खुश हूँ, लेकिन मैं जो भी प्रणाली के साथ आता हूँ उसे भी इस तरह की चीजों के साथ सामना करना होगा।
Whybird

ओह, और विश्लेषण अड़चन में है। मैं स्पष्ट करने के लिए प्रश्न को संपादित करूँगा।
Whybird
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.