स्टोचस्टिक ढाल वंश का आविष्कार किसने किया?


36

मैं ग्रेडिएंट डिसेंट और स्टोचस्टिक ग्रेडिएंट डीसेंट के इतिहास को समझने की कोशिश कर रहा हूं । धीरे-धीरे वंश का आविष्कार 1847 में कॉची में किया गया था । मेथोड गनेरेल ने ला रिसेसोलिंग डे सिस्टीम्स डी -क्वाशंस को एक साथ जोड़ा । पीपी। 536–538 इसके बारे में अधिक जानकारी के लिए यहाँ देखें ।

तब से ढाल मूल विधियां विकसित होती रहीं और मैं उनके इतिहास से परिचित नहीं हूं। विशेष रूप से मैं स्टोकेस्टिक ग्रेडिएंट वंश के आविष्कार में दिलचस्पी रखता हूं।

एक संदर्भ जिसका उपयोग अकादमिक पेपर में अधिक से अधिक स्वागत किया जा सकता है।


3
मैंने मशीन लर्निंग से पहले SGD के बारे में जाना, इसलिए यह इस पूरी बात से पहले होना चाहिए था
अक्षल

2
ठीक है, मशीन सीखने से पहले सुनिश्चित करने के लिए कॉची ने जीडी का आविष्कार किया, इसलिए मुझे आश्चर्य नहीं होगा कि एसजीसी का आविष्कार पहले भी किया गया था।
DaL

3
Kiefer-Wolfowitz स्टोचैस्टिक अप्रोचमेंट en.wikipedia.org/wiki/Stochastic_approximation वहाँ सबसे अधिक है, सीधे ढाल के लिए "अनुकरण" नहीं करने के अलावा।
मार्क एल। स्टोन

3
एमएल से "स्टोचैस्टिक ग्रैडिएंट डिसेंट" कॉन्सेप्ट ऑप्टिमाइज़ेशन से "स्टोचैस्टिक सबग्रेडिएंट मेथड" के समान है। और यूएसएसआर, मॉस्को में 1960-1970 के दौरान उप-विधायक तरीकों की खोज की गई थी। शायद अमरीका में भी। मैंने एक वीडियो देखा, जहां बोरिस पोलाक (वह हैवी-बॉल विधि के लेखक हैं) ने कहा कि वह (और सभी लोग) 1970 में उपग्रहों के तरीकों के बारे में सोचना शुरू करते हैं। ( youtube.com/watch?v=2PcidcPxvyk&t=1963 ) ...।
ब्रूज़ुज

जवाबों:


27

स्टोचस्टिक ग्रेजुएशन वंशज स्टोचैस्टिक अप्रोचेशन से पहले है जैसा कि रॉबिन्स और मोनरो ने अपने पेपर, ए स्टोचस्टिक एप्रिसिएशन मेथड में बताया है । केफेर और वोल्फोवित्ज़ ने बाद में अपने पेपर, स्टोचैस्टिक एस्टीमेशन ऑफ़ द मैक्स ऑफ़ अ रिग्रेशन फंक्शन को प्रकाशित कियाजो कि स्टोचैस्टिक एप्रिसिएशन (यानी स्टोचस्टिक ग्रेडिएंट डिसेंट) के एमएल वेरिएंट से परिचित लोगों के लिए अधिक पहचानने योग्य है, जैसा कि टिप्पणियों में मार्क स्टोन ने बताया है। 60 के दशक में उस शिरा के साथ बहुत सारे शोध हुए हैं - ड्वॉर्त्ज़की, पॉवेल, ब्लम ने सभी प्रकाशित परिणाम प्रकाशित किए हैं जो आज हम प्रदान करते हैं। यह रॉबिंस और मोनरो पद्धति से कीफर वोल्फोवित्ज़ विधि से प्राप्त करने के लिए एक अपेक्षाकृत छोटी छलांग है, और फिर स्टोचैस्टिक ग्रेडिएंट डिसेंट (प्रतिगमन समस्याओं के लिए) को प्राप्त करने के लिए समस्या का केवल एक पुनरावर्तन है। उपरोक्त पत्रों को व्यापक रूप से स्टोचैस्टिक ग्रेडिएंट डिसेंट के एंटेकेडेंट्स के रूप में उद्धृत किया जाता है, जैसा कि नोकेडल, बोटाउ और कर्टिस द्वारा इस समीक्षा पत्र में उल्लेख किया गया है , जो मशीन लर्निंग के दृष्टिकोण से एक संक्षिप्त ऐतिहासिक परिप्रेक्ष्य प्रदान करता है।

मुझे विश्वास है कि कुशनेर और यिन ने अपनी पुस्तक स्टोचैस्टिक एप्रिसिएशन एंड रिकर्सिव अल्गोरिद्म एंड एप्लीकेशन में सुझाव दिया है कि इस धारणा को नियंत्रण सिद्धांत में 40 के दशक में इस्तेमाल किया गया था, लेकिन मुझे याद नहीं है कि उनके पास कोई उद्धरण था या यदि वह था उपाख्यान, और न ही मुझे इसकी पुष्टि करने के लिए उनकी पुस्तक तक पहुंच है।

हर्बर्ट रॉबिन्स और सटन मोनरो ए स्टोचैस्टिक अप्रोचमेंट विधि द एनल्स ऑफ मैथमेटिकल स्टैटिस्टिक्स, वॉल्यूम। 22, नंबर 3. (सिपाही, 1951), पीपी। 400-407।

जे। किफ़र और जे। वोल्फोवित्ज़ स्टोचैस्टिक अनुमान ऑफ़ द मैक्स ऑफ़ ए रिग्रेशन फंक्शन एन। गणित। सांख्यिकीविद। खंड 23, संख्या 3 (1952), 462-466

लियोन बोटौ और फ्रैंक ई। कर्टिस और जॉर्ज नोकेडल ऑप्टिमाइज़ेशन मेथड्स फॉर लार्ज-स्केल मशीन लर्निंग , टेक्निकल रिपोर्ट, अर्क्सिव: 1606.04838


क्या आप सटीक संदर्भ दे सकते हैं? और SGD के आविष्कार के लिए, यह 40 के दशक में लगता है, लेकिन यह स्पष्ट नहीं है कि कौन और कहां है?
7

निश्चित रूप से यह 1951 में स्टोकेस्टिक अप्रत्यक्ष एल्गोरिदम के साथ रॉबिंस और मोनरो माना जाता है । मैंने सुना है कि 40 के दशक में नियंत्रण सिद्धांत साहित्य में कुछ ऐसा ही दिखाया गया था (जैसे मैंने कहा, मुझे कुश्नर और यिन से लगता है लेकिन मेरे पास यह पुस्तक नहीं है), लेकिन एक तरफ से एक जगह हर कोई रॉबिन्स का हवाला देता है और मोनो, नोकेडल एट अल सहित। संदर्भ मैं जुड़ा हुआ है।
डेविड कोजक

इसलिए हमारे प्रमुख उम्मीदवार अब एच। रॉबिंस और एस। मोनरो हैं। एक स्टोकेस्टिक स्वीकृति विधि। एनल्स ऑफ मैथमैटिकल स्टैटिस्टिक्स, 22 (3): 400–407, 1951. जैसा कि Nocedal, Bottou और Curtis में pdfs.ememanticscholar.org/34dd/…
DaL

इसलिए मुझे इसे SGD की उत्पत्ति के रूप में संदर्भित किया जाता है, लेकिन सारांश में (वास्तव में आज के शब्दों में सार) यह लिखा है "M (x) माना जाता है कि वह x का एक मोनोटोन कार्य करता है लेकिन प्रयोग करने वाले के लिए unkno ~ vn है, और यह समाधान के x = 0 को thc समीकरण M (x) = a, जहां a दी गई स्थिरांक है, खोजने के लिए वांछित है। " यदि M (x) अज्ञात है, तो कोई इसे प्राप्त नहीं कर सकता है। शायद यह एक और प्राचीन पूर्वज है?
DaL

सहमत, कुछ अर्थों में। Kiefer Wolfowitz ने अपने पेपर के साथ आने के लिए इस विश्लेषण का उपयोग किया था जो आज हम देखते हैं उस रूप में अधिक पहचानने योग्य है। जैसा कि ऊपर उल्लेख किया गया है मार्क स्टोन। उनका पेपर यहां पाया जा सकता है: projecteuclid.org/download/pdf_1/euclid.aoms/1177729392
डेविड कोजक

14

देख

रोसेनब्लाट एफ। द पर्सेप्ट्रॉन: मस्तिष्क में सूचना भंडारण और संगठन के लिए एक संभाव्य मॉडल। मनोवैज्ञानिक समीक्षा। 1958 नवंबर; 65 (6): 386।

मुझे यकीन नहीं है कि ऑप्टिमाइज़ेशन साहित्य में इसके पहले SGD का आविष्कार किया गया था - शायद - लेकिन यहाँ मेरा मानना ​​है कि वह एक अवधारणात्मक प्रशिक्षण के लिए SGD के आवेदन का वर्णन करता है।

यदि सिस्टम सकारात्मक सुदृढीकरण की स्थिति में है, तो एक सकारात्मक AV को "ऑन" प्रतिक्रियाओं के स्रोत-सेट में सभी सक्रिय ए-इकाइयों के मूल्यों में जोड़ा जाता है, जबकि स्रोत में एक सक्रिय एवी को एक नकारात्मक एवी में जोड़ा जाता है। - "ऑफ" प्रतिक्रियाओं के सेट।

वह इन "दो प्रकार के सुदृढीकरण" को कहते हैं।

वह इन "द्विसंयोजक प्रणालियों" पर अधिक के साथ एक पुस्तक का भी संदर्भ देता है।

रोसेनब्लाट एफ। द पर्सेप्ट्रॉन: संज्ञानात्मक प्रणालियों (प्रोजेक्ट पैरा) में सांख्यिकीय पृथक्करण का सिद्धांत। कॉर्नेल वैमानिकी प्रयोगशाला; 1958।


1
एक अच्छा कदम आगे, धन्यवाद! मुझे यहाँ पहला संदर्भ ऑनलाइन साइटसीरेक्स.स्ट.प्सू.ड्यू / लीडडॉक / ... मिला है, मैं इस पर जाऊंगा। हालांकि, मैं एल्गोरिथ्म को अधिक स्पष्ट और औपचारिक खोजने की उम्मीद करता हूं।
DaL

3
अनुकूलन के बारे में टिप्पणी के लिए +1। चूंकि इसका उपयोग अनुकूलन करने के लिए मशीन लर्निंग में किया जाता है और चूंकि अनुकूलन एमएल से 40 या 50 साल पहले एक बड़ी बात बन गई - और कंप्यूटर ने भी उसी समय के बारे में तस्वीर में प्रवेश किया - जो एक अच्छा नेतृत्व की तरह लगता है।
वेन

मुझे समझ में नहीं आता कि आप क्यों कहते हैं कि यह उद्धरण SGD का वर्णन करता है।
अमीबा का कहना है कि

@amoeba उम्मीद है कि मैं कोई गलती नहीं कर रहा था, बस पेपर को कम कर रहा था, लेकिन मैं हालांकि वह अवधारणात्मक अद्यतन का वर्णन कर रहा था जो निरंतर सीखने की दर के साथ सिर्फ SGD है।
user0

3
ये सही है। मैं सिर्फ इतना कह रहा हूं कि आपके द्वारा चुने गए उद्धरण से स्टोकेस्टिक पहलू स्पष्ट नहीं है। मेरा मतलब है, "स्टोचैस्टिक" जीडी का सीधा मतलब है कि अपडेट एक समय में एक प्रशिक्षण नमूना किया जाता है (सभी उपलब्ध प्रशिक्षण नमूनों का उपयोग करके ढाल ढाल के बजाय)। En.wikipedia.org/wiki/Perceptron#Steps में दिया गया एल्गोरिदम इस "स्टोकेस्टिक" पहलू को चरण # 2 में तुरंत स्पष्ट कर देता है।
अमीबा का कहना है कि
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.