मशीन सीखने की तकनीक "सन्निकटन एल्गोरिदम" हैं?


23

हाल ही में cstheory stackexchange पर एक एमएल-जैसे सवाल आया था, और मैंने पॉवेल की विधि, ग्रेडिएंट डिसेंट, जेनेटिक एल्गोरिदम या अन्य "सन्निकटन एल्गोरिदम" की सिफारिश करते हुए एक उत्तर पोस्ट किया एक टिप्पणी में किसी ने मुझे बताया कि ये विधियां "विधियां" थीं और "अनुमानित एल्गोरिदम" नहीं थीं और अक्सर सैद्धांतिक इष्टतम के करीब नहीं आती थीं (क्योंकि वे "अक्सर स्थानीय मिनीमा में फंस जाते हैं")।

क्या दूसरे इससे सहमत हैं? इसके अलावा, मुझे ऐसा प्रतीत होता है कि ऐसा अनुमान है कि अनुमानी एल्गोरिदम को सैद्धांतिक आशाओं के करीब आने की गारंटी दी जा सकती है यदि वे खोज स्थान के एक बड़े हिस्से का पता लगाने के लिए स्थापित किए जाते हैं (उदाहरण के लिए पैरामीटर / स्टेप आकार छोटा), हालांकि मैं हेवन एक कागज में नहीं देखा है। क्या किसी को पता है कि यह एक कागज में दिखाया गया है या साबित हुआ है? (यदि एल्गोरिदम के एक बड़े वर्ग के लिए नहीं तो शायद एक छोटे वर्ग के लिए कहें कि NNs आदि)


इस सवाल पर आगे के विचार से ऐसा लगता है कि अनुसंधान के संबंधित / प्रासंगिक क्षेत्र को वैश्विक अनुकूलन विधियों / स्थानीय प्रकार के एल्गोरिदम के शीर्ष पर वेरिएंट कहा जाता है जैसे कि ढाल मूल ...
vzn

उदाहरण के लिए
शान

जवाबों:


29

मुझे लगता है कि आप कई महत्वपूर्ण अवधारणाओं को मिला रहे हैं। मुझे कुछ चीजों को स्पष्ट करने की कोशिश करें:

  • वहाँ metaheuristic तरीके हैं, जो तरीके हैं जो iteratively एक उम्मीदवार समाधान में सुधार करने की कोशिश करते हैं। इसके उदाहरण हैं टैबू सर्च, सिम्युलेटेड एनीलिंग, जेनेटिक एल्गोरिदम आदि। यह ध्यान रखें कि जहां कई मामले हो सकते हैं, जहां ये तरीके अच्छी तरह से काम करते हैं, इन तरीकों पर काम करने की कोई गहरी समझ नहीं होती है और जब वे नहीं करते हैं। और अधिक महत्वपूर्ण बात यह है कि जब वे समाधान के लिए नहीं आते हैं, तो हम मनमाने ढंग से इससे दूर हो सकते हैं। मेटाएहिस्टिक विधियों द्वारा हल की गई समस्याएं प्रकृति में असतत होती हैं, क्योंकि निरंतर समस्याओं को संभालने के लिए कहीं बेहतर उपकरण हैं। लेकिन हर अब और फिर आप निरंतर समस्याओं के लिए भी metaheuristics देखें।

  • संख्यात्मक अनुकूलन पद्धतियां हैं, इस समुदाय के लोग फ़ंक्शन की प्रकृति की सावधानीपूर्वक जांच करते हैं जिसे अनुकूलित किया जाना है और समाधान के प्रतिबंध (उत्तल अनुकूलन, द्विघात प्रोग्रामिंग, रैखिक प्रोग्रामिंग आदि जैसे समूहों में) और दिखाए गए एल्गोरिदम लागू होते हैं। उस प्रकार के फ़ंक्शन और उन प्रकार के प्रतिबंधों के लिए काम करना। जब इस क्षेत्र के लोग "काम करने के लिए दिखाए गए" कहते हैं, तो उनका मतलब एक सबूत है। स्थिति यह है कि इस प्रकार के तरीके निरंतर समस्याओं में काम करते हैं। लेकिन जब आपकी समस्या इस श्रेणी में आती है, तो यह निश्चित रूप से उपयोग करने का उपकरण है।

  • असतत अनुकूलन विधियां हैं, जो ऐसी चीजें हैं जो प्रकृति में एल्गोरिदम से जुड़े हैं, जो अच्छी तरह से अध्ययन किए गए असतत समस्याओं से जुड़ी हैं: जैसे कि सबसे छोटा रास्ता, अधिकतम प्रवाह, आदि। इस क्षेत्र में लोग यह भी ध्यान रखते हैं कि उनके एल्गोरिदम वास्तव में काम करते हैं (प्रमाण)। इस समूह के लोगों का एक सबसेट है जो वास्तव में कठिन समस्याओं का अध्ययन करते हैं जिनके लिए कोई तेज़ एल्गोरिथ्म मौजूद नहीं है। वे फिर सन्निकटन एल्गोरिदम का अध्ययन करते हैं, जो तेज़ एल्गोरिदम हैं, जिसके लिए वे यह दिखाने में सक्षम हैं कि उनका समाधान वास्तविक इष्टतम के एक स्थिर कारक के भीतर है। इसे "सन्निकटन एल्गोरिदम" कहा जाता है। ये लोग प्रमाण के रूप में अपने परिणाम भी दिखाते हैं।

इसलिए ... आपके प्रश्न का उत्तर देने के लिए, मुझे नहीं लगता है कि metaheuristics सन्निकटन एल्गोरिदम हैं। यह मुझे लगता है कि कुछ राय से जुड़ा हुआ नहीं है, यह सिर्फ तथ्य है।


"न्यूमेरिकल ऑप्टिमाइज़ेशन मेथड्स", "असतत ऑप्टिमाइज़ेशन मेथड्स", ऐसा लगता है कि कई एमएल तकनीक सही इष्टतम के एक स्थिर कारक के भीतर साबित हो सकती हैं यदि उनका "शुरुआती खोज स्थान" बड़ा होने के लिए मजबूर है, लेकिन मैंने एक रेफ देखा इस पर।

2
मैं असहमत हूं। * संख्यात्मक अनुकूलन के लिए आप स्थानीय न्यूनतम में प्राप्त कर सकते हैं (बेशक आप ऐसी प्रक्रियाएं भी लागू कर सकते हैं जो इसे अनुत्पादक बनाती हैं)। * यही बात न्यूरल नेटवर्क्स के लिए है (कम से कम यह अवधारणात्मक प्रशिक्षण के दौरान हो सकता है)। * जेनेटिक एल्गोरिदम भी स्थानीय न्यूनतम में मिल सकता है, इसके अलावा यदि आप बड़े उत्परिवर्तन दर का चयन करते हैं तो आपको कोई समझदार विकास नहीं मिलेगा! II को यह भी दृढ़ता से संदेह है कि ऐसे डेटासेट हैं जो हमेशा कुछ मॉडल बनाएंगे जिनकी मनमानी बड़ी त्रुटियां हैं।
जेबी

2
@vzn कई लोग ऐसे मॉडल चुनते हैं जिनके लिए इष्टतम समाधान पाया जा सकता है। इसका कारण यह है कि उपयोग उत्तल नुकसान कार्यों, जैसा कि एसवीएम करते हैं। यहां सही इष्टतम खोजने का अर्थ है "अपने खोज स्थान में इष्टतम समाधान ढूंढना", ताकि खोज स्थान कैसा दिखता है, इससे कोई लेना-देना नहीं है। जैसा कि जेबी ने कहा है, सामान्य नुकसान वाले कार्यों के लिए, वास्तविक इष्टतम खोजना आमतौर पर असंभव / संभव है।
एंड्रियास मुएलर

इस उत्तर को मामलों की वर्तमान स्थिति और आवेदनों की सामान्य श्रेणियों के विवरण के रूप में स्वीकार करते हुए, लेकिन फिर भी लगता है कि कुछ पुल थम्स मौजूद हैं और साबित हो रहे हैं कि अलग-अलग क्षेत्रों को जोड़ते हैं। यह प्रमाण कि NNs मॉडल या "अनुमानित" कर सकते हैं किसी भी निरंतर गणितीय fn को मनमानी डिग्री सटीकता के साथ निकटता से संबंधित है ... यानी kolmogorovs thm
vzn

3

मशीन लर्निंग अक्सर एक फ़ंक्शन के अनुकूलन से संबंधित होता है जिसमें कई स्थानीय न्यूनतम होते हैं। छिपी हुई इकाइयों के साथ फीडवर्डवर्ड न्यूरल नेटवर्क एक अच्छा उदाहरण है। चाहे ये कार्य असतत हों या निरंतर हों, कोई ऐसी विधि नहीं है जो वैश्विक न्यूनतम प्राप्त करती है और रुक जाती है। यह साबित करना आसान है कि एक सामान्य फ़ंक्शन को वैश्विक न्यूनतम खोजने के लिए कोई भी सामान्य एल्गोरिदम नहीं है, भले ही वह एक आयामी और चिकनी हो (जिसमें असीम रूप से कई डेरिवेटिव हैं)। व्यवहार में, तंत्रिका नेटवर्क सीखने के लिए सभी एल्गोरिदम एक स्थानीय न्यूनतम में फंस गए। इसे जांचना आसान है: एक यादृच्छिक तंत्रिका नेटवर्क बनाएं, यादृच्छिक आदानों के लिए अपनी प्रतिक्रियाओं का एक बड़ा सेट बनाएं, फिर प्रतिक्रियाओं को कॉपी करने के लिए उसी वास्तुकला के साथ एक और तंत्रिका नेटवर्क सीखने की कोशिश करें। जबकि सही समाधान मौजूद है, न तो बैकप्रॉपैगैशन, न ही कोई अन्य लर्निंग अल्गोरिद्म इसे खोज सकेगा,

कुछ सीखने के तरीके, जैसे सिम्युलेटेड एनेलिंग या आनुवंशिक एल्गोरिदम, कई स्थानीय मिनिमस का पता लगाते हैं। निरंतर कार्यों के लिए ढाल वंश जैसी विधियां हैं, जो निकटतम स्थानीय न्यूनतम को ढूंढती हैं। वे बहुत तेज हैं, यही कारण है कि वे व्यापक रूप से अभ्यास में उपयोग किए जाते हैं। लेकिन पर्याप्त समय दिया गया है, तरीकों का पूर्व समूह प्रशिक्षण सेट त्रुटि के मामले में बाद में बेहतर प्रदर्शन करता है। लेकिन वास्तविक दुनिया की समस्याओं के लिए उचित समय की कमी के साथ, बाद वाला समूह आमतौर पर बेहतर होता है।

कुछ मॉडलों के लिए, लॉजिस्टिक रिग्रेशन की तरह, एक स्थानीय न्यूनतम होता है, फ़ंक्शन उत्तल होता है, न्यूनतमकरण न्यूनतम में परिवर्तित होता है, लेकिन मॉडल स्वयं सरल होते हैं।

कटु सत्य।

यह भी ध्यान दें कि अभिसरण के प्रमाण और सर्वोत्तम समाधान के अभिसरण के प्रमाण दो अलग-अलग चीजें हैं। K- साधन एल्गोरिथ्म इसका एक उदाहरण है।

अंत में, कुछ मॉडलों के लिए हम नहीं जानते कि कैसे सीखें। उदाहरण के लिए, यदि आउटपुट इनपुट का एक मनमाना कम्प्यूटेशनल फ़ंक्शन है, तो हम अच्छे एल्गोरिदम को नहीं जानते हैं, जो उचित समय में, इस फ़ंक्शन को लागू करने वाली एक ट्यूरिंग या समकक्ष मशीन पाते हैं। उदाहरण के लिए, यदि f (1) = 2, f (2) = 3, f (3) = 5, f (4) = 7, ..., f (10) = 29 (दस पहले प्रिम्स), तो हम डॉन किसी भी लर्निंग एल्गोरिथ्म को नहीं जान पाएंगे, जो उचित समय में भविष्यवाणी करने में सक्षम होगा, यह f (11) = 31 है, जब तक कि यह पहले से ही अभाज्य संख्याओं की अवधारणा को नहीं जानता है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.