मानदंड में परीक्षण निकटता के लिए कम बाध्य ?


11

मैं सोच रहा था कि निम्न समस्या के लिए ज्ञात कोई निम्न बाध्य (नमूना जटिलता के संदर्भ में) है:

दो अज्ञात वितरण D1 , D2 पर {1,,n} , परीक्षण (whp) पर नमूना ओरेकल पहुंच को देखते हुए:

  • D1=D2
  • या d2(D1,D2)=D1D22=i=1n(D1(i)D2(i))2ϵ

बाटू एट अल। [BFR + 00] से पता चला कि O(1ϵ4) नमूने पर्याप्त थे, लेकिन मुझे कम बाउंड का कोई उल्लेख नहीं मिला है?

मुझे लगता है कि एक व्यक्ति हमेशा एक Ω(1ϵ2) को दिखा सकता है, इस समस्या के लिए एक निष्पक्ष बनाम ϵ -biased सिक्के को भेद करने के कार्य को कम करके और केवल दो पर समर्थित वितरण का अनुकरण कर सकता है अंक, परीक्षक और iid सिक्का के अनुसार परीक्षक के प्रश्नों का उत्तर देना), लेकिन यह अभी भी एक द्विघात प्रभाव छोड़ता है ...

(एक अन्य बिंदु जिसमें मुझे दिलचस्पी होगी, एक अनुमानित सीमा तक है (एक additive ϵ ) इस L2 दूरी - फिर से, मुझे साहित्य में इस तरह के परिणाम का कोई संदर्भ नहीं मिला है)

आपकी सहायता के लिए धन्यवाद,


यह वादा समस्या सहाय और वधान द्वारा सांख्यिकीय अंतर के समान प्रतीत होती है, जो वर्ग SZK (सांख्यिकीय शून्य ज्ञान) के लिए एक पूर्ण समस्या है; हालाँकि, वे दूरी का उपयोग करते हैं । cs.ucla.edu/~sahai/work/web/2003%20Publications/J.ACM2003.pdf । (संपादित करें: मुझे भी लगता है कि वे मान रहे हैं कि आपके पास वितरणों की गणना करने वाला एक सर्किट है, न कि ऑरेकल एक्सेस।)L1
usul

हाय, जैसा कि एक अन्य टिप्पणी में उल्लेख किया गया है, और मानदंड के बीच का अंतर वास्तव में यहाँ महत्वपूर्ण है - आगे, कागज में, उन्होंने एक स्पष्ट (और मनमाना नहीं) थ्रेशोल्ड (टिप्पणी में से एक में) सेट किया, वे बताते हैं कि इस सीमा को कुछ विशेष बाधाओं को पूरा करने की आवश्यकता है); और बनाम को भेद करना चाहते हैं (जो किसी भी तरह "सामान्य परीक्षण" की तुलना में सहिष्णु परीक्षण / दूरी के आकलन के करीब है, जहां आप बनाम का परीक्षण करना चाहते हैं) (लेकिन किसी भी निश्चित )। एल 1 τ = 1 / 3 डी 1τ 21 - τ 2 = 0 डी 2ε εL2L1τ=1/3d1τd21τd2=0d2ϵϵ
क्लेमेंट सी।

जवाबों:


6

ऐसा प्रतीत होता है कि नमूने - जैसा कि नीचे दिखाया गया है - परीक्षण के लिए पर्याप्त है, ताकि नमूना जटिलता बिल्कुल ; वास्तव में, यह नमूनों की इस संख्या से हमें पता चलता है कि एक additive wrt मानक तक सीखने के लिए पर्याप्त है।Θ ( 1 / ε 2 ) डी ε एल 2O(1/ϵ2)Θ(1/ϵ2) DϵL2


Let iid नमूने और सेटिंग द्वारा ड्राइंग द्वारा प्राप्त आनुभविक घनत्व फ़ंक्शन हो। तब जहां । एमएस1,...,रोंहूँ~डी डी (कश्मीर)D^ms1,,smDडी - डी2 2

D^(k)=def1m=1m1{s=k},k[n]
एक्सकश्मीर
DD^22=k=1n(1m=1m1{s=k}D(k))2=1m2k=1n(=1m1{s=k}mD(k))2=1m2k=1n(XkEXk)2
एक्सकश्मीरकश्मीर[एन]डी - डी2 2Xk=def=1m1{s=k}Bin(m,D(k))Xk's ( ) स्वतंत्र नहीं हैं, लेकिन हम लिख सकते हैं ताकि के लिए , और मार्कोव की असमानता को लागू करने के k[n] मी
EDD^22=1m2k=1nE[(XkEXk)2]=1m2k=1nVarXk=1m2k=1nmD(k)(1D(k))1mk=1nD(k)=1m
डी - डी 2 2ε2m3ϵ2 पी{डी - डी2ε}1
EDD^22ϵ23
P{DD^2ϵ}13.

(मैं usul के उत्तर का उल्लेख कर रहा था, "मैं अपनी पिछली त्रुटि के लिए प्रायश्चित करने का प्रयास करूंगा कि कुछ विपरीत दिखा [...]" - जो वास्तव में इस एक से ऊपर है। मुझे यह उम्मीद नहीं थी :)) सीखने के लिए। ऊपरी बाध्य, यह दिखाया जा सकता है कि सबसे भोली एल्गोरिथ्म (यानी, वह है जो नमूने खींचता है , और इस परिभाषित करने वाले अनुभवजन्य घनत्व को आउटपुट करता है) एक वितरण करता है लगातार संभावना के साथ, दूरी में से है । डी ε डी एल 2m=O(1/ϵ2)D^ϵDL2
क्लेमेंट सी।

@DW मैंने अभी अपना उत्तर संपादित किया है।
क्लेमेंट सी।

3

मैं अपनी पिछली त्रुटि के लिए कुछ विपरीत दिखा कर प्रायश्चित करने का प्रयास करूंगा - वह नमूने पर्याप्त हैं ( का निचला भाग) लगभग तंग है)! देखिये आपको क्या लगता है…।1/ε2Θ~(1ϵ2)1/ϵ2

मुख्य अंतर्ज्ञान दो अवलोकनों से शुरू होता है। सबसे पहले, वितरण के लिए की दूरी होने के लिए , उच्च संभावना ( ) के साथ अंक होने चाहिए । उदाहरण के लिए, यदि हमारे पास अंक, प्रायिकता अंक हैं , तो हमारे पास । ε Ω ( ε 2 ) 1 / ε 3 ε 3डी 1 - डी 2 2L2ϵΩ(ϵ2)1/ϵ3ϵ3D1D221ϵ3(ϵ3)2=ϵ3/2<ϵ

दूसरा, की दूरी के साथ समान वितरण पर विचार करें । यदि हमारे पास प्रायिकता अंक होते हैं, तो वे और नमूने द्वारा भिन्न होंगे। दूसरी ओर, यदि हमारे पास अंक हैं, तो उन्हें प्रत्येक को और फिर नमूने (एक स्थिर संख्या) प्रति भिन्न करने की आवश्यकता होगी। बिंदु) पर्याप्त है। तो हम उम्मीद कर सकते हैं कि, पहले उल्लेख किए गए उच्च-संभावना वाले बिंदुओं के बीच, हमेशा कुछ बिंदु "पर्याप्त" होता है जो ड्रॉ करता है। ε हे ( 1 ) हे ( 1 ) हे ( ε ) 1 / ε 2 हे ( 1 / ε 2 ) हे ( ε 2 ) हे ( 1 / ε 2 ) हे ( 1 / ε 2 )L2ϵO(1)O(1)O(ϵ)1/ϵ2O(1/ϵ2)O(ϵ2)O(1/ϵ2)O(1/ϵ2)

कलन विधि। दिए गए और एक आत्मविश्वास पैरामीटर , । प्रत्येक वितरण से नमूने ड्रा करें । आइए बिंदु लिए संबंधित उच्चतर, निम्न संख्या के नमूने हैं । अगर कोई बिंदु है जिसके लिए और , की घोषणा करें वितरण अलग। अन्यथा, उन्हें वही घोषित करें।एम एक्स = एम लॉग ( 1 / ε 2 ) एक्सϵMX=Mlog(1/ϵ2) एकमैं,मैंमैंमैं[एन]एकमैंएक्सXϵ2ai,biii[n] एकमैं-मैंaiX8aibiaiX4

शुद्धता और आत्मविश्वास की सीमा ( ) निम्नलिखित लेम्मा पर निर्भर करती है जो कहती है कि डिस्टेंस में विचलन उन सभी बिंदुओं से आता है जिनकी संभावनाएँ भिन्न होती हैं । एल 2 Ω ( ε 2 )1eΩ(M)L2Ω(ϵ2)

दावा। मान लीजिए । Let। आज्ञा देना । उसके बाद δ मैं = | डी 1 ( i ) - डी 2 ( i ) | एस कश्मीर = { मैं : δ मैं > ε 2D1D22ϵδi=|D1(i)D2(i)|Σमैं एस कश्मीर δ 2 मैंε2(1-2Sk={i:δi>ϵ2k}

iSkδi2ϵ2(12k).

सबूत । हमारे पास हमें दूसरी राशि के लिए बाध्य करते हैं; हम को । समारोह के बाद से सख्ती से उत्तल और बढ़ती, हम किसी भी लेने से उद्देश्य को बढ़ा सकते हैं है और बढ़ती द्वारा , जबकि कम हो रही द्वारा । इस प्रकार, उनके अधिकतम मूल्यों पर उद्देश्य को अधिकतम शर्तों के साथ अधिकतम किया जाएगा, और बाकी कोΣ मैं एस कश्मीर δ 2 मैं Σ मैं एस कश्मीर δमैं2एक्सएक्स2δमैंδजेδमैंγδजेγ0 ε 2

iSkδi2 + iSkδi2ϵ2.
iSkδi2iSkδi2xx2δiδjδiγδjγ0। प्रत्येक पद का अधिकतम मान , और इस मूल्य के अधिकांश शब्द हैं (क्योंकि वे अधिकतम )। तो 2केϵ2k 2Σमैंएसकश्मीरδ 2 मैं2कश्मीर2kϵ22
iSkδi22kϵ2(ϵ2k)2=2ϵ2k.    

दावा करते हैं । आज्ञा देना । अगर , और साथ कम से कम एक बिंदु मौजूद है। ।डी 1 - डी 2 2ε मैं [ एन ] पी मैं > ε 2pi=max{D1(i),D2(i)}D1D22ϵi[n]pi>ϵ24δiϵpi2

सबूत । सबसे पहले, सभी बिंदुओं Have परिभाषा के द्वारा (और नहीं करने के लिए खाली हो सकता है पिछला दावा द्वारा)।Skpiδi>ϵ2kSkk>2

दूसरा, क्योंकि , हमारे पास या, उलटफेर, इसलिए असमानता में कम से कम एक बिंदु । अब । ipi2

iSkδi2ϵ2(121k)iSkpi,
iSk(δi2piϵ2(121k))0,
δi2piϵ2(121k)
Skk=4

दावा (झूठी सकारात्मक) । यदि , हमारे एल्गोरिथ्म उन्हें प्रायिकता के साथ अलग-अलग तरीके से घोषित करता है, तो ।D1=D2eΩ(M)

स्केच । दो मामलों पर विचार करें: और । पहले मामले में, के नमूनों की संख्या या तो वितरण से से अधिक नहीं होगी : नमूनों की औसत संख्या और एक पूंछ बाध्य कहती है कि संभावना के साथ , के नमूने एक additive से उनके मतलब से अधिक नहीं है ; अगर हम पूंछ में बंधे मान को रखने के लिए सावधान हैं , तो हम उन पर बाध्य कर सकते हैं, चाहे कितने भी ऐसे बिंदु हों (सहज रूप से, संभव बिंदुओं की संख्या में सीमा तेजी से घट जाती है)।pi<ϵ2/16piϵ2/16iX/8<X/16eΩ(X/pi)=ϵ2eΩ(M/pi)iX/16pi

मामले में , हम उपयोग कर सकते हैं एक Chernoff बाध्य: ऐसा नहीं है कि कहते हैं, जब हम ले के नमूने और एक बिंदु संभावना के साथ तैयार की है , अपने मतलब से अलग करने की संभावना से सबसे अधिक । यहाँ, , इसलिए प्रायिकता ।piϵ2/16mppmcpmeΩ((cpm)2/pm)=eΩ(c2)c=X16eΩ(X)=ϵ2eΩ(M)

तो संभावना के साथ , (दोनों वितरण के लिए) के नमूनों की संख्या भीतर है इसके माध्य । इस प्रकार, हमारे परीक्षण इन बिंदुओं को नहीं पकड़ेंगे (वे एक-दूसरे के बहुत करीब हैं), और हम उनमें से सभी पर बंधे हो सकते हैं। 1ϵ2eΩ(M)ipiXϵ2X16piXϵ216/ϵ2

दावा (झूठे नकारात्मक) । अगर , हमारे एल्गोरिथ्म उन्हें प्रायिकता के साथ समान रूप से घोषित करता है, तो अधिकांश ।D1D22ϵϵ2eΩ(M)

स्केच । कुछ बिंदु नहीं है के साथ और । पिछले दावे के अनुसार बाध्य वही चेर्नॉफ़ कहता है कि प्रायिकता के साथ , के नमूनों की संख्या इसके माध्य से अधिकांश से भिन्न होती है । वह (WLOG) वितरण जिसमें ; लेकिन वितरण से के नमूनों की संख्या की एक और भी कम संभावना हैipi>ϵ2/4δiϵpi/21ϵ2eΩ(M)ipimpimX161pi=D1(i)=D2(i)+δii2 इस योजक राशि से इसके माध्य से भिन्नता (माध्य और विचरण कम है)।

इसलिए उच्च संभावना के साथ प्रत्येक वितरण से के नमूनों की संख्या के भीतर है; लेकिन उनकी संभावनाएँ भिन्न होती हैं , इसलिए उनके साधन अलग-अलग होते हैं ipiXϵ2X16δi

Xϵ2δiXpi2ϵ=piXϵ2X2.

तो उच्च संभावना के साथ, बिंदु , नमूनों की संख्या कम से कम से भिन्न होती है । i#samples(1)X4

रेखाचित्रों को पूरा करने के लिए, हमें और अधिक कठोरता से यह दिखाने की आवश्यकता होगी कि काफी के लिए, के नमूनों की संख्या इसके अर्थ के काफी करीब है, जब एल्गोरिथ्म का उपयोग करता है बजाय , यह कुछ भी नहीं बदलता है (जो स्थिरांक में कुछ झालर कमरे को छोड़कर सीधा होना चाहिए)।Mi#samplesmean


नमस्ते, इसके लिए धन्यवाद - मेरे पास एल्गोरिदम और विश्लेषण के बारे में कुछ सवाल हैं (एक दो बिंदुओं के बारे में जो मुझे यकीन नहीं है): मैं मान रहा हूं कि मैं सफलता की निरंतर संभावना के अंत में चाहता हूं , इसका मतलब है कि स्थिर, अगर मैं सही ढंग से समझता हूं (जब तक मुझे वह नहीं मिला जो था)? तो इस स्थिति में, ओर मुड़ना : एल्गोरिथम के अनुसार, यह - क्या यह सही है? 2/3MMXΘ(log1ϵ)
क्लेमेंट सी।

@ClementC। क्षमा करें, मैं बहुत स्पष्ट नहीं था! दावा यह है कि यदि हम नमूने खींचते हैं, तो गलत होने की संभावना , इसलिए गलत होने की लगातार संभावना, इसके नमूने। 1ϵ2Mlog(1/ϵ2)O(eM)O(1ϵ2log(1/ϵ2))
usul

ठीक है, यही मैं इकट्ठा हुआ। मैं इस बात को ध्यान में रखते हुए सबूत के माध्यम से जाऊँगा - आपके द्वारा इस पर खर्च किए गए समय के लिए फिर से धन्यवाद!
क्लेमेंट सी।

1

आप इस मामले को हल करने की कोशिश करके शुरू कर सकते हैं । मुझे पूरा यकीन है कि उस मामले में नमूने आवश्यक और पर्याप्त होंगे।n=2Θ(1/ϵ2)

यह संभव है कि आप दूरी और दूरी (कुल भिन्नता दूरी) के बीच कनवर्ट करने में मददगार हों ।L2L1

  • यह ज्ञात है कि, एक नमूने के साथ, यदि वितरण ज्ञात हैं, तो कुल भिन्नता दूरी पूरी तरह से उस लाभ की विशेषता है जिसके साथ कोई को से अलग कर सकता है । इस प्रकार, यदि कुल भिन्नता दूरी बड़ी है और वितरण ज्ञात हैं, तो एक परीक्षण का निर्माण किया जा सकता है जो उच्च संभावना के साथ सही है; यदि कुल भिन्नता छोटी है, तो कोई नहीं कर सकता है। मैं नहीं जानता कि उस मामले के बारे में कोई क्या कह सकता है जहां कुल भिन्नता बड़ी है, लेकिन वितरण अज्ञात हैं।D1D2

  • आगे आप उत्पाद वितरण, और । कुल भिन्नता दूरी (का उपयोग करते हुए दूरी), वहाँ किसी भी अच्छे सीमा कि संबंधित होने लगते नहीं है को । हालांकि, जब का उपयोग कर दूरी, मेरा मानना है की अच्छी अनुमान देखते हैं के एक समारोह के रूप में । (दुर्भाग्य से, मैं, उन अनुमानों / सीमा लिए एक विशिष्ट संदर्भ की खुदाई नहीं कर पा रहे तो मुझे आशा है कि मैं misremembering नहीं कर रहा हूँ।) वहाँ भी जाना जाता सीमा है कि आप का अनुमान लगाने देते के एक समारोह के रूप में दूरी दूरी ।D1nD2nL1||D1nD2n||1||D1D2||1L2||D1nD2n||2||D1D2||2L1L2

  • इसलिए, एक दृष्टिकोण आप की कोशिश कर सकते बाध्य होगा तो, से कि हो रही एक पर बाध्य ।||D1nD2n||2||D1nD2n||1

मुझे नहीं पता कि इससे कहीं अच्छा होगा या नहीं; यह सिर्फ एक विचार है। संभवतः आपके द्वारा उद्धृत पेपर के लेखक पहले से ही इस तरह की कोशिश कर चुके हैं या इस पर विचार कर चुके हैं।

संभवतः सहायक संदर्भ:


नमस्कार, आपके जवाब के लिए धन्यवाद! हालाँकि, मैं एक असममित निचली सीमा में रुचि रखता हूं, जब । विशेष रूप से, और मानदंडों के बीच संबंध में एक कारक शामिल है - जिसका अर्थ है कि वे वास्तव में स्थिरांक के बराबर हैं , लेकिन asymptotically बहुत भिन्न; प्रॉक्सी के रूप में dstance का उपयोग करना एक विकल्प नहीं है, जहां तक ​​मैं बता सकता हूं (जैसा कि दूरी में निकटता का परीक्षण करने के लिए , सटीक जटिलता को [बीएफआर + १० , वैल ११ ]nL2L1nnL1L1Θ(n2/3/poly(ϵ))
क्लेमेंट सी।

0

संपादित करें: यह गलत है! टिप्पणियों में चर्चा देखें - मैं नीचे दिए गए दोष को इंगित करूंगा।

मुझे लगता है कि हम कह सकते हैं कि की आवश्यकता है।1ϵ4

सेट । चलो समान वितरण हो (प्रत्येक बिंदु की संभावना ) और जाने एक additive राशि से वर्दी से अलग प्रत्येक बिंदु पर। जांचें कि दूरी ।n=Θ(1ϵ2)D1=Θ(ϵ2)D2±Θ(ϵ2)L2ϵ

इसलिए हम एक अलग करने के लिए है एक से तरफा निष्पक्ष सिक्का पक्षीय -biased सिक्का। मुझे लगता है कि यह मुश्किल के रूप में कम से कम एक कह के रूप में होना चाहिए एक से तरफा निष्पक्ष सिक्का तरफा -biased सिक्का है, जो आवश्यकता होगी नमूने। संपादित करें: यह गलत है! सिक्का additively -biased है, लेकिन यह एक स्थिर कारक द्वारा गुणा किया जाता है। जैसा कि डीडब्ल्यू बताते हैं, इसका मतलब है कि प्रति बिंदु नमूनों की एक निरंतर संख्या को से अलग है ।nnΘ(ϵ2)22Θ(ϵ2)Θ(1(ϵ2)2)=Θ(1ϵ4)ϵ2D1D2


ध्यान दें कि जहाँ तक हम तर्क की इस पंक्ति को आगे बढ़ा सकते हैं। लगातार, मान लीजिए कि हमने को बढ़ाने की कोशिश की , कहते हैं, । समान वितरण में, प्रत्येक बिंदु में प्रायिकता । लेकिन , हमें प्रत्येक बिंदु के लिए वर्दी से से भिन्न करने की आवश्यकता होगी । बाद से यह संभव नहीं है ।1ϵ4n1ϵ3ϵ3D2ϵ2.5ϵ2.5ϵ3

अधिक संक्षेप में, मान लें कि हम चाहते हैं कि प्रत्येक बिंदु वर्दी से से भिन्न हो । तब हम सबसे अधिक सेट कर सकते हैं । की दूरी पाने के लिए , हमें यह संतुष्ट करने की आवश्यकता है कि दूरियों के योग का वर्गमूल , इसलिए , so so , और हमें ।ϵkn1ϵkL2ϵϵn(ϵk)2=ϵϵk/2=ϵk=2n=1ϵ2

इसके अलावा, मुझे लगता है कि एक ही तर्क है कि कहते हैं, अगर हम में रुचि रखते हैं साथ दूरी , हम चाहते हैं , इसलिए हम चुनते थे , इसलिए नमूनों की संख्या । मुझे लगता है कि यह एक बाध्यता है जो से स्वतंत्र है । यह अनन्तता को पहुँचाता है । आप कम से दो वितरण भेद करने के लिए कोशिश कर रहे थे, तो की दूरी पर बाध्य नहीं के साथ , मैं होगा unboundedly बड़े और अंतर बाहर फैल मनमाने ढंग से पतली है, तो आप उन्हें अलग-अलग नहीं कर सकता था (Lpp>1k=pp1n=1/ϵpp11/ϵ2pp1np1L1ϵnnयानी सभी लिए नमूनों की कोई निश्चित संख्या पर्याप्त नहीं है )। यह भी को रूप में ; यह एक बाध्यता के रूप में समझ में आता है, क्योंकि मानदंड के लिए, हम सेट कर सकते हैं और हर बिंदु को ; हमें कुछ बिंदु का नमूना लेने की आवश्यकता है सुनिश्चित करें कि यह वर्दी से अलग है, जो नमूने लेगा ।n1ϵ3pLn=1ϵΘ(ϵ)1ϵ21ϵ3


1. क्या आपका वास्तव में मतलब है कि प्रत्येक बिंदु पर से वर्दी से अलग है ? मुझे संदेह है कि एक टाइपो है और आप मतलब है । D2±1/ϵ2±ϵ2
DW

1
2. मैं से को अलग करने वाले नमूनों की आवश्यकता नहीं । मुझे लगता है जैसे नमूने पर्याप्त हैं। स्पष्टीकरण (अंतर्ज्ञान): मान लीजिए कि हम नमूने इकट्ठा करते हैं और गिनते हैं कि प्रत्येक संभावित समय कितनी बार होता है। यदि वे से , तो प्रत्येक को 100 बार (std dev 10 के साथ) होना चाहिए। यदि वे से , तो प्रत्येक को आधे के लिए 200 गुना (std dev 14), अन्य आधे के लिए / 0 गुना (std dev 0) होना चाहिए। यह आसानी से दोनों के बीच अंतर करने के लिए पर्याप्त है, अगर आपको पता है कि आप या साथ काम कर रहे हैं । D1D21/ϵ4Θ(1/ϵ2)m=100/ϵ2D1D2D1D2
डीडब्ल्यू

@DW (1) आप सही कह रहे हैं! फिक्स्ड। (२) जैसा कि आप इसे कहते हैं, मैं सहमत हूं, लेकिन मुझे लगता है कि विभिन्न विकल्पों के साथ यह कठिन है। मैं कुछ इस तरह का चित्रण कर रहा हूँ: , इसलिए प्रायिकता को प्रत्येक बिंदु पर रखता है । फिर प्रत्येक बिंदु पर भिन्न होता है (जाँच करें कि दूरी ), इसलिए यह प्रायिकता या को प्रत्येक बिंदु पर रखता है । n=1/100ϵ2D1100ϵ2D210ϵ2L2ϵ90ϵ2110ϵ2
usul

1
मुझे लगता है कि नमूने अभी भी पर्याप्त हैं। नमूने इकट्ठा करें , और कि प्रत्येक संभावित मूल्य कितनी बार होता है। के लिए , प्रत्येक 1,000,000 बार (एसटीडी देव होने चाहिए )। के लिए , प्रत्येक 900,000 बार (एसटीडी देव होने चाहिए ) या 1,100,000 बार (एसटीडी देव )। यह आसानी से दोनों के बीच अंतर करने के लिए पर्याप्त है, अगर हम जानते हैं कि हम या साथ काम कर रहे हैं , क्योंकि 1,000,000 और 1,100,000 के बीच का अंतर 100 मानक विचलन है, अर्थात, विशाल। मीटर = 10 6 एन डी 1 1000 डी 21000 1000 डी 1 डी 2O(1/ϵ2)m=106nD11000D210001000D1D2
DW

@ मैंने इसके बारे में और सोचा - आप सही हैं। यदि उनके साधन लगातार गुणक कारक से भिन्न होते हैं तो प्रति बिंदु नमूनों की एक निरंतर संख्या उन्हें भेद करना चाहिए। यह गुणात्मक नहीं additive कारक है जो मायने रखता है। यह दृष्टिकोण तब केवल का निचला भाग देता है । 1/ϵ2
यूएसएल
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.