ऑनलाइन और बैच लर्निंग में क्या अंतर है?


16

मैं वर्तमान में फॉरवर्ड-बैकवर्ड स्प्लिटिंग का उपयोग करके पेपर ऑनलाइन कुशल और बैच लर्निंग पढ़ता हूं जॉन ड्यूची और योरम सिंगर द्वारा । मैं 'ऑनलाइन' और 'बैच' शब्दों के उपयोग को लेकर बहुत उलझन में हूं।

मैंने सोचा था कि 'ऑनलाइन' का मतलब है कि हम प्रशिक्षण डेटा की एक इकाई को संसाधित करने के बाद वजन मापदंडों को अपडेट करते हैं। फिर हम प्रशिक्षण डेटा की अगली इकाई को संसाधित करने के लिए नए वजन मापदंडों का उपयोग करते हैं।

हालांकि, ऊपर के कागज में, उपयोग स्पष्ट नहीं है।


1
और सवाल यह है
a.desantos

जवाबों:


5

मेरे लिए ऐसा लगता है कि वे बैच और ऑनलाइन सीखने का सही उपयोग कर रहे हैं। धारा 3 में वे लर्निंग यानी बैच सीखने के लिए संपूर्ण डेटासेट पर काम कर रहे हैं, जबकि सेक्शन 4 में वे स्टोचस्टिक ग्रेडिएंट पर स्विच करते हैं, जिसका उपयोग ऑनलाइन लर्निंग एल्गोरिदम के रूप में किया जा सकता है।

मैंने कभी भी ऑनलाइन लर्निंग एल्गोरिथम के रूप में स्टोकेस्टिक ग्रेडिएंट का उपयोग नहीं किया है; हालाँकि, लर्निंग रन के बीच में अनुकूलन प्रक्रिया को रोकना संभव है और यह अभी भी एक उपयोगी मॉडल है। बहुत बड़े डेटासेट के लिए यह उपयोगी है क्योंकि आप अभिसरण को माप सकते हैं और जल्दी सीखना छोड़ सकते हैं। जब से आप हर नए डेटापॉइंट के लिए मॉडल को अपडेट करते हैं, तब से आप ऑनलाइन लर्निंग विधि के रूप में स्टोकेस्टिक ग्रेडिएंट का उपयोग कर सकते हैं, जैसा कि मुझे लगता है कि आपने खुद कहा था। हालांकि, मैं इसे "प्रति प्रशिक्षण डेटा" कहने के बारे में सावधान रहूंगा। प्रशिक्षण डेटा एक डेटासेट है, डेटाटॉइंट नहीं है, लेकिन मुझे लगता है कि मैंने आपको " प्रशिक्षण डेटा के अनुसार " कहा था ।


टीटी

12

संक्षेप में,

ऑनलाइन: प्रत्येक पैटर्न के आधार पर सीखना जैसा कि देखा जाता है।

बैच: पेटेंट के समूहों पर सीखना। अधिकांश एल्गोरिदम बैच हैं।

स्रोत: http://machinelearningmastery.com/basic-concepts-in-machine-learning/


11

बैच बनाम बनाम लर्निंग

ऑन-लाइन और बैच मोड थोड़े अलग होते हैं, हालांकि दोनों ही पराबैंगनी प्रदर्शन सतहों के लिए अच्छा प्रदर्शन करेंगे। एक प्रमुख अंतर यह है कि बैच एल्गोरिदम इनपुट में प्रत्येक नमूने के साथ जुड़े त्रुटि की गणना करते समय सिस्टम को निरंतर वजन रखता है। चूंकि ऑन-लाइन संस्करण लगातार अपने वजन को अपडेट कर रहा है, इसलिए इसकी त्रुटि गणना (और इस प्रकार ढाल का अनुमान) प्रत्येक इनपुट नमूने के लिए अलग-अलग वजन का उपयोग करता है। इसका अर्थ है कि दोनों एल्गोरिदम अनुकूलन के दौरान बिंदुओं के विभिन्न सेटों पर जाते हैं। हालांकि, वे दोनों एक ही न्यूनतम में कनवर्ट करते हैं।

ध्यान दें कि समान डेटा प्रस्तुतियों के लिए दो विधियों के वजन अपडेट की संख्या बहुत भिन्न है। ऑन-लाइन विधि (LMS) प्रत्येक नमूने को अपडेट करता है, जबकि बैच प्रत्येक युग को अद्यतन करता है, अर्थात

LMS अपडेट = (बैच अपडेट) x (# प्रशिक्षण सेट में नमूनों का)।

गणना की संख्या के संदर्भ में बैच एल्गोरिथ्म भी थोड़ा अधिक कुशल है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.