जोड़े , आई = 1 , … , एन के बारे में आईआईडी धारणा अक्सर आंकड़ों में और मशीन सीखने में बनाई जाती है। कभी अच्छे कारण के लिए, कभी सुविधा से बाहर और कभी सिर्फ इसलिए कि हम आम तौर पर यह धारणा बनाते हैं। संतोषजनक जवाब देने के लिए यदि धारणा वास्तव में आवश्यक है, और इस धारणा को नहीं बनाने के क्या परिणाम हैं, तो मैं आसानी से एक पुस्तक लिखना समाप्त कर दूंगा (यदि आप कभी भी ऐसा कुछ करने में आसानी से समाप्त हो जाते हैं)। यहां मैं सबसे महत्वपूर्ण पहलुओं के लिए मुझे जो कुछ भी मिलता है उसका संक्षिप्त विवरण देने की कोशिश करूंगा।(Xi,yi)i=1,…,N
एक मौलिक धारणा
मान लेते हैं कि हम की संभावना मॉडल सीखना चाहते हैं दिया एक्स , जिन्हें हम पी ( y | एक्स ) । हम इस मॉडल के बारे में कोई धारणा नहीं बनाते हैं, लेकिन हम न्यूनतम धारणा बनाएंगे कि इस तरह का मॉडल मौजूद हैyXp(y∣X)
- की सशर्त वितरण दिया एक्स मैं है पी ( y मैं | एक्स मैं ) ।yiXip(yi∣Xi)
क्या इस धारणा के बारे में ध्यान देने योग्य है कि सशर्त वितरण है पर निर्भर करता है मैं केवल के माध्यम से एक्स मैं । यह वही है जो मॉडल को उपयोगी बनाता है, उदाहरण के लिए भविष्यवाणी के लिए। इस धारणा का एक परिणाम के रूप में धारण हूबहू वितरित आईआईडी इस धारणा के तहत हिस्सा है, लेकिन यह कमजोर है, क्योंकि हम के बारे में कोई अनुमान नहीं है एक्स मैं 's।yiiXiXi
निम्नलिखित में फोकस ज्यादातर स्वतंत्रता की भूमिका पर होगा।
मोडलिंग
दिए गए X के मॉडल को सीखने के लिए दो प्रमुख दृष्टिकोण हैं । एक दृष्टिकोण विवेकशील मॉडलिंग के रूप में जाना जाता है और दूसरा जेनेरिक मॉडलिंग के रूप में ।yX
- भेदभावपूर्ण मॉडलिंग : हम सीधे मॉडल करते हैं, उदाहरण के लिए एक लॉजिस्टिक रिग्रेशन मॉडल, एक तंत्रिका नेटवर्क, एक पेड़ या एक यादृच्छिक जंगल। काम कर मॉडलिंग धारणा आम तौर पर किया जाएगा कि y मैं 's दी सशर्त स्वतंत्र हैं एक्स मैं s' है, हालांकि सबसैम्पलिंग या बूटस्ट्रैपिंग पर निर्भर आकलन तकनीक आईआईडी के तहत सबसे अधिक उपयुक्त है या कमजोर विनिमय योग्यता धारणा (नीचे देखें) बनाते हैं। लेकिन आम तौर पर, विवेकशील मॉडलिंग के लिए हम के बारे में वितरणात्मक मान्यताओं की जरूरत नहीं है एक्स मैं 's। p(y∣X)yiXiXi
- उत्पादक मॉडलिंग : हम संयुक्त वितरण, मॉडल , के ( एक्स , वाई ) आम तौर पर सशर्त वितरण मॉडलिंग से पी ( एक्स | y ) और सीमांत वितरण पी ( y ) । तब हम कंप्यूटिंग पी ( y । X ) के लिए बेयस के फार्मूले का उपयोग करते हैं । रैखिक विभेदक विश्लेषण और अनुभवहीन बेयस तरीके उदाहरण हैं। काम कर मॉडलिंग धारणा आम तौर पर आईआईडी धारणा हो जाएगा।p(X,y)(X,y)p(X∣y)p(y)p(y∣X)
दोनों मॉडलिंग दृष्टिकोणों के लिए कामकाजी मॉडलिंग धारणा का उपयोग सीखने के तरीकों (या अनुमानकों) को प्राप्त करने या प्रस्तावित करने के लिए किया जाता है। यह (दंडित) लॉग-लाइक को अधिकतम करने, अनुभवजन्य जोखिम को कम करने या बायेसियन विधियों का उपयोग करके किया जा सकता है। भले ही कामकाजी मॉडलिंग धारणा गलत हो, लेकिन परिणामी विधि अभी भी एक समझदार फिट प्रदान कर सकती है । p(y∣X)
भेदभावपूर्ण मॉडलिंग के साथ कुछ तकनीकों का उपयोग किया जाता है, जैसे कि बैगिंग (बूटस्ट्रैप एकत्रीकरण), कई मॉडलों को फिट करके काम करते हैं, डेटा को डेटासेट से बेतरतीब ढंग से नमूना लेते हैं। आईआईडी अनुमान (या विनिमेयता) के बिना, पुनर्विकसित डेटासेट में मूल डेटासेट के समान संयुक्त वितरण नहीं होगा। कोई भी निर्भरता संरचना फिर से शुरू होने से "गड़बड़" हो गई है। मैंने इस बारे में गहराई से नहीं सोचा है, लेकिन मैं यह नहीं देखता कि को सीखने के लिए एक विधि के रूप में आवश्यक रूप से क्यों तोड़ना चाहिए । कम से कम काम करने की स्वतंत्रता मान्यताओं के आधार पर तरीकों के लिए नहीं। मुझे यहां गलत साबित होने की खुशी है।p(y∣X)
संगति और त्रुटि सीमा
सभी शिक्षण विधियों के लिए एक केंद्रीय प्रश्न यह है कि क्या वे करीब मॉडल में परिणाम करते हैं । स्थिरता और त्रुटि सीमा से निपटने के आंकड़ों और मशीन सीखने में एक विशाल सैद्धांतिक साहित्य है। इस साहित्य का मुख्य उद्देश्य साबित होता है कि सीखा मॉडल के करीब है है पी ( y | एक्स ) जब एन बड़ी है। संगति एक गुणात्मक आश्वासन है, जबकि त्रुटि सीमाएं निकटता की स्पष्ट मात्रात्मक नियंत्रण प्रदान करती हैं और अभिसरण की दरें प्रदान करती हैं।p(y∣X)p(y∣X)N
सैद्धांतिक परिणाम सभी डेटासेट में टिप्पणियों के संयुक्त वितरण के बारे में मान्यताओं पर निर्भर करते हैं। अक्सर ऊपर वर्णित मॉडलिंग की धारणाएं बनाई जाती हैं (यानी विवेकशील मॉडलिंग के लिए सशर्त स्वतंत्रता और जेनेरिक मॉडलिंग के लिए आईआईडी)। विवेकशील मॉडलिंग के लिए, स्थिरता और त्रुटि सीमा की आवश्यकता होगी कि 's कुछ शर्तों को पूरा। शास्त्रीय प्रतिगमन में एक ऐसी स्थिति है कि 1Xiके लिएएन→∞, जहांएक्सपंक्तियों के साथ डिजाइन मैट्रिक्स को दर्शाता हैएक्स टी मैं । निरंतरता के लिए कमजोर स्थितियाँ पर्याप्त हो सकती हैं। विरल सीखने में इस तरह की एक और शर्त प्रतिबंधित ईजेनवेल्यू स्थिति है, उदाहरणके लिए लस्सो के लिए oracle परिणाम साबित करने के लिए उपयोग की जाने वाली शर्तों परदेखें। कुछ तकनीकी वितरण संबंधी मान्यताओं के साथ आईआईडी धारणा का अर्थ है कि कुछ ऐसी पर्याप्त परिस्थितियां बड़ी संभावना के साथ पूरी होती हैं, और इस तरह आईआईडी धारणा एक पर्याप्त साबित हो सकती है, लेकिन विवेकशील मॉडलिंग के लिए स्थिरता और त्रुटि सीमा प्राप्त करने के लिए एक आवश्यक धारणा नहीं है।1NXTX→ΣN→∞XXTi
स्वतंत्रता की कार्यशील मॉडलिंग धारणा मॉडलिंग दृष्टिकोणों में से किसी के लिए भी गलत हो सकती है। एक मोटे नियम के रूप में, एक व्यक्ति अभी भी स्थिरता की उम्मीद कर सकता है यदि डेटा एक ergodic प्रक्रिया से आता है , और एक अभी भी कुछ त्रुटि सीमा की उम्मीद कर सकता है यदि प्रक्रिया पर्याप्त रूप से तेज मिश्रण है । इन अवधारणाओं की एक सटीक गणितीय परिभाषा हमें मुख्य प्रश्न से बहुत दूर ले जाएगी। यह ध्यान देने के लिए पर्याप्त है कि आईआईडी धारणा के अलावा निर्भरता संरचनाएं मौजूद हैं जिनके लिए सीखने के तरीकों को के रूप में काम करने के लिए साबित किया जा सकता है ।N
यदि हमें निर्भरता संरचना के बारे में अधिक विस्तृत ज्ञान है, तो हम एक मॉडल के साथ मॉडलिंग के लिए उपयोग की जाने वाली कार्य स्वतंत्रता धारणा को बदलने का विकल्प चुन सकते हैं जो निर्भरता संरचना को भी कैप्चर करता है। यह अक्सर समय श्रृंखला के लिए किया जाता है। एक बेहतर कामकाजी मॉडल के परिणामस्वरूप अधिक कुशल विधि हो सकती है।
मॉडल मूल्यांकन
बल्कि साबित करते हुए कि सीखने की विधि एक मॉडल के करीब देता है की तुलना में इसके बारे में "कितना अच्छा एक सीखा मॉडल है" एक (सापेक्ष) मूल्यांकन प्राप्त करने के लिए महान व्यावहारिक मूल्य का है। इस तरह के मूल्यांकन के स्कोर दो या अधिक सीखा मॉडल के लिए तुलनीय है, लेकिन वे कितने करीब एक सीखा मॉडल करने के लिए है की एक पूर्ण मूल्यांकन प्रदान नहीं होंगे पी ( y | एक्स ) । मूल्यांकन स्कोर का अनुमान आमतौर पर एक प्रशिक्षण और परीक्षण डेटासेट में या क्रॉस-सत्यापन का उपयोग करके डेटासेट को विभाजित करने के आधार पर अनुभवजन्य रूप से गणना की जाती है।p(y∣X)p(y∣X)
बैगिंग के साथ, डेटासेट का एक यादृच्छिक विभाजन किसी भी निर्भरता संरचना को "गड़बड़" करेगा। हालांकि, काम करने की स्वतंत्रता मान्यताओं के आधार पर तरीकों के लिए, आईआईडी की तुलना में कमजोर इरोडिसिटी धारणाएं उचित होंगी ताकि आकलन अनुमान उचित हो, हालांकि इन अनुमानों पर मानक त्रुटियों के साथ आना बहुत मुश्किल होगा।
[ संपादित करें: चर के बीच निर्भरता के परिणामस्वरूप सीखे गए मॉडल का वितरण होगा जो आईआईडी धारणा के तहत वितरण से अलग होता है। क्रॉस-वैलिडेशन द्वारा उत्पादित अनुमान स्पष्ट रूप से सामान्यीकरण त्रुटि से संबंधित नहीं है। अगर निर्भरता मजबूत है, तो यह सबसे खराब अनुमान होगा।]
सारांश (tl; डॉ।)
उपरोक्त सभी धारणा एक निश्चित सशर्त संभावना मॉडल, है कि वहाँ के अधीन है । इस प्रकार एक्स द्वारा कब्जा नहीं किए गए सशर्त वितरण में रुझान या अचानक परिवर्तन नहीं हो सकते हैं ।p(y∣X)X
दिए गए X के मॉडल को सीखते समय , स्वतंत्रता एक भूमिका निभाती हैyX
- एक उपयोगी कार्य मॉडलिंग धारणा है जो हमें सीखने के तरीकों को प्राप्त करने की अनुमति देती है
- स्थिरता साबित करने और त्रुटि सीमा प्रदान करने के लिए एक पर्याप्त लेकिन आवश्यक धारणा नहीं है
- सीखने के लिए यादृच्छिक डेटा विभाजन तकनीकों का उपयोग करने के लिए पर्याप्त और आवश्यक नहीं है, जैसे कि मूल्यांकन के लिए बैगिंग और क्रॉस-मान्यता।
यह समझने के लिए कि आईआईडी के विकल्प क्या पर्याप्त हैं, गैर-तुच्छ है और कुछ हद तक एक शोध विषय है।