इसका क्या मतलब है जब हम कहते हैं कि एक हाइपरक्यूब के अधिकांश बिंदु सीमा पर हैं?


13

अगर मेरे पास 50 आयामी हाइपरक्यूब है। और मैं इसे या 0.95 < x j < 1 से परिभाषित करता हूं जहां x j हाइपरक्यूब का आयाम है। फिर हाइपरक्यूब की सीमा पर अंकों के अनुपात की गणना 0.995 होगी । इसका क्या मतलब है? क्या इसका मतलब है कि बाकी जगह खाली है? यदि ९९ % अंक सीमा में हैं तो क्यूब के अंदर के अंक समान रूप से वितरित नहीं होने चाहिए?0<एक्सजे<0.050.95<एक्सजे<1एक्सजे0.99599%


3
नहीं, इसका मतलब है कि परिधि अधिक विशाल है, और प्रभाव आयामीता के अनुरूप है। यह कुछ हद तक प्रतिवाद है। इस घटना के नोड्स के यादृच्छिक जोड़े के बीच की दूरी के वितरण पर परिणाम हैं जो तब प्रासंगिक हो जाते हैं जब आप उच्च-आयामी स्थानों में निकटतम पड़ोसियों की गणना या गणना करना चाहते हैं।
Emre

गणना करें कि एक रेखा खंड पर बिंदुओं का अनुपात उसकी सीमा के पास क्या है। फिर एक वर्ग में इंगित करता है। फिर एक क्यूब में इंगित करता है। आप उनके बारे में क्या कह सकते हैं?
user253751

जवाबों:


28

'की बात हो रही 99% एक hypercube में अंकों की ' थोड़ा भ्रामक के बाद से एक hypercube असीम कई बिंदुओं होता है। इसके बजाय वॉल्यूम के बारे में बात करते हैं।

एक हाइपरक्यूब का आयतन इसकी लम्बाई का गुणनफल है। 50 आयामी इकाई hypercube के लिए हम प्राप्त

कुल मात्रा=1×1××150 बार=150=1।

अब हमें हाइपरक्यूब की सीमाओं को छोड़ दें और ' इंटीरियर ' देखें (मैंने इसे उद्धरण चिह्नों में रखा है क्योंकि गणितीय शब्द का आंतरिक अर्थ बहुत अलग है)। हम केवल अंक एक्स=(एक्स1,एक्स2,...,एक्स50) जो 0.05 < x 1 < 0.95 को संतुष्ट करते हैं

0.05<एक्स1<0.95 तथा 0.05<एक्स2<0.95 तथा ... तथा 0.05<एक्स50<0.95।
इस 'आंतरिक'का आयतन क्या है? खैर, 'इंटीरियर' फिर से एक हाइपरक्यूब है, और प्रत्येक पक्ष की लंबाई0.9 (=0.95-0.05 ... यह दो और तीन आयामों में यह कल्पना करने में मदद करता है)। तो मात्रा है
आंतरिक आयतन=0.9×0.9××0.950 बार=0.9500.005।
यह मान लें कि 'सीमा'की मात्रा(बिना इकाई हाइपरक्यूब के रूप में परिभाषित की गई है) आंतरिक ' 1 है)1-0.9500.995।

इससे पता चलता है कि 50-आयामी हाइपरक्यूब की मात्रा का 99.5% इसकी ' सीमा ' पर केंद्रित है ।


अनुवर्ती: इग्नाटियस ने एक दिलचस्प सवाल उठाया कि यह कैसे संभावना से जुड़ा है। यहाँ एक उदाहरण है।

मान लें कि आप एक (मशीन लर्निंग) मॉडल के साथ आए हैं जो 50 इनपुट मापदंडों के आधार पर आवास की कीमतों की भविष्यवाणी करता है। सभी 50 इनपुट पैरामीटर स्वतंत्र और समान रूप से 0 और 1 बीच वितरित किए जाते हैं ।

यदि हम कहते हैं कि यदि कोई भी इनपुट पैरामीटर चरम नहीं है, तो आपका मॉडल बहुत अच्छा काम करता है : जब तक कि हर इनपुट पैरामीटर 0.05 और 0.95 बीच रहता है , आपका मॉडल आवास की कीमत की पूरी तरह से भविष्यवाणी करता है। लेकिन अगर एक या एक से अधिक इनपुट पैरामीटर चरम हैं ( 0.05 से छोटा या 0.95 से बड़ा ), तो आपके मॉडल की भविष्यवाणियां बहुत भयानक हैं।

किसी भी दिए गए इनपुट पैरामीटर केवल 10% की संभावना के साथ चरम है । तो स्पष्ट रूप से यह एक अच्छा मॉडल है, है ना? नहीं! संभावना है कि कम से कम 50 मापदंडों में से एक चरम है - 1-0.9500.995। तो 99.5% मामलों में, आपके मॉडल की भविष्यवाणी भयानक है।

अंगूठे का नियम: उच्च आयामों में, चरम अवलोकन नियम हैं और अपवाद नहीं।


7
ओपी के उद्धरण का उपयोग करने के लायक "क्या इसका मतलब है कि बाकी जगह खाली है?" और उत्तर देना: नहीं, इसका मतलब है कि बाकी जगह अपेक्षाकृत छोटा है । । । या अपने खुद के शब्दों में समान है। । ।
नील स्लेटर


यदि निम्नलिखित सही है तो आश्चर्य होगा: यदि 50 आयामों में से प्रत्येक में [0,1] समान रूप से वितरित किए गए हों, तो इसका उदाहरण लेना, (99.5% -0.5%) = 99% मात्रा (हाइपरक्यूब सुविधा) space) प्रत्येक सुविधा के केवल 10% मूल्यों को पकड़ता है
इग्नाटियस

"किसी भी दिए गए इनपुट पैरामीटर केवल 5% की संभावना के साथ चरम है।" मुझे लगता है कि यह संभावना 10% है।
रोड्वी

@Rodvi: आप बिल्कुल सही हैं, धन्यवाद! ठीक कर दिया।
एलियास स्ट्रील

9

आप निचले आयामों में भी स्पष्ट रूप से पैटर्न देख सकते हैं।

1 आयाम। लंबाई 10 की एक रेखा और 1. की एक सीमा लें। सीमा की लंबाई 2 और आंतरिक 8, 1: 4 अनुपात है।

दूसरा आयाम। साइड 10 का एक वर्ग लें, और सीमा 1 फिर से। सीमा का क्षेत्रफल 36 है, आंतरिक 64, 9:16 अनुपात।

तीसरा आयाम। समान लंबाई और सीमा। सीमा का आयतन ४ary, है, आंतरिक ५१२, ६१:६४ है - पहले से ही सीमा इंटीरियर के लगभग उतनी ही जगह घेरती है।

4 आयाम, अब सीमा 5904 है और आंतरिक 4096 - सीमा अब बड़ी है।

यहां तक ​​कि छोटी और छोटी सीमा लंबाई के लिए, जैसा कि आयाम बढ़ता है सीमा की मात्रा हमेशा इंटीरियर से आगे निकल जाएगी।


0

इसे "समझने" का सबसे अच्छा तरीका (हालांकि यह मानव के लिए IMHO असंभव है) एक n- आयामी गेंद और एक n- आयामी घन के संस्करणों की तुलना करना है। N (आयामीता) की वृद्धि के साथ गेंद का सारा आयतन "लीक से बाहर" और घन के कोनों में केंद्रित होता है। कोडिंग सिद्धांत और इसके अनुप्रयोगों में याद रखने के लिए यह एक उपयोगी सामान्य सिद्धांत है।

इसका सबसे अच्छा पाठ्यपुस्तक विवरण रिचर्ड डब्ल्यू हैमिंग की पुस्तक "कोडिंग एंड इंफॉर्मेशन थ्योरी" (3.6 ज्यामितीय दृष्टिकोण, पृष्ठ 44) में है।

विकिपीडिया में संक्षिप्त लेख अगर आप ध्यान में रखना हमेशा होता है कि एक n आयामी इकाई घन की मात्रा 1 ^ n आप एक ही का एक संक्षिप्त सारांश दे देंगे।

मुझे उम्मीद है इससे मदद मिलेगी।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.