पुनरावर्ती (ऑनलाइन) नियमित रूप से कम से कम वर्ग एल्गोरिदम


12

क्या कोई मुझे तिकोनोव नियमितीकरण (नियमित रूप से कम से कम वर्ग) के लिए एक ऑनलाइन (पुनरावर्ती) एल्गोरिथ्म की दिशा में इंगित कर सकता है?

एक ऑफ़लाइन सेटिंग में, मैं अपने मूल डेटा सेट का उपयोग करके जहां λ एन-गुना क्रॉस सत्यापन का उपयोग कर पाया जाता है, का उपयोग करके गणना करेगा । एक नया y मान किसी दिए गए x के लिए y = x ^ T \ hat \ beta का उपयोग करके भविष्यवाणी की जा सकती है ।β^=(XTX+λI)1XTYλyxy=xTβ^

एक ऑनलाइन सेटिंग में मैं लगातार नए डेटा बिंदुओं को आकर्षित करता हूं। जब मैं संपूर्ण डेटा सेट (मूल + नया) पर पूर्ण पुनर्गणना किए बिना नए अतिरिक्त डेटा नमूने आकर्षित करूं, तो मैं \ hat \ बीटा को कैसे अपडेट कर सकता / सकती हूं β^?


1
आपके टिखोनोव -नियमित रूप से कम से कम वर्ग को आमतौर पर सांख्यिकीय हलकों में लेवेनबर्ग-मार्क्वर्ट कहा जाता है , यहां तक ​​कि जब शुद्ध-रैखिक समस्याओं पर लागू किया जाता है (जैसा कि यहां)। यहां ऑनलाइन लेवेनबर्ग मार्क्वार्ड के बारे में एक पेपर है । मुझे नहीं पता कि क्या इसकी कोई मदद है।
Glen_b -Reinstate मोनिका

जवाबों:


11

β^n=(XXT+λI)1i=0n1xiyi

आज्ञा देना Mn1=(XXT+λI)1 , फिर

β^n+1=Mn+11(i=0n1xiyi+xnyn) , और

Mn+1Mn=xnxnT , हम प्राप्त कर सकते हैं

β^n+1=β^n+Mn+11xn(ynxnTβ^n)

वुडबरी सूत्र के अनुसार , हमारे पास है

Mn+11=Mn1Mn1xnxnTMn1(1+xnTMn1xn)

नतीजतन,

β^n+1=β^n+Mn11+xnTMn1xnxn(ynxnTβ^n)

Polyak औसतन आप उपयोग कर सकते हैं इंगित करता है अनुमान लगाने के लिए के साथ से लेकर से । आप अपने मामले में अपनी पुनरावृत्ति के लिए सर्वश्रेष्ठ का चयन करने का प्रयास कर सकते हैं ।ηn=nαMn11+xnTMn1xnα0.51α


मुझे लगता है कि यह भी काम करता है यदि आप एक बैच ढाल एल्गोरिदम लागू करते हैं:

β^n+1=β^n+ηnni=0n1xi(yixiTβ^n)


क्या होगा यदि मैं हर बार नए डेटा के बैच नमूनों के साथ अपने प्रतिसाददाता को अपडेट करता हूं, जहां प्रत्येक क्रमिक बैच थोड़ा अलग वितरण से तैयार किया गया है? यानी नॉन आईआईडी। इस मामले में मैं चाहूंगा कि रजिस्ट्रार नए डेटा को ध्यान में रखे, लेकिन पुराने डेटा (पिछले बैच) के इलाके में इसकी भविष्यवाणियों को प्रभावित नहीं करेगा? क्या आप मुझे किसी ऐसे साहित्य की ओर संकेत कर सकते हैं, जो आपको उपयोगी लगे?
rnoodle

अच्छा सवाल है, लेकिन खेद है कि वर्तमान में मैं यह नहीं बता सकता कि यह आपके मॉडल को कितना प्रभावित करेगा यदि आप अभी भी उत्तर में बैच ग्रेडिएंट फॉर्मूला का उपयोग कर रहे हैं, या सीधे मैट्रिक्स फॉर्म को लागू करके अनुमानित कर रहे हैं: eta ^ (- अल्फा) * X (Y-X) 'Beta_n) जहाँ X, Y आपके नए बैच के नमूने हैं
lennon310

नमस्ते, ऐसा लगता है कि नियमितीकरण गुणांक पुनरावर्ती अद्यतन सूत्र में शामिल नहीं है? या यह केवल एम मैट्रिक्स के व्युत्क्रम के प्रारंभ में ही मायने रखता है?
पेंग झाओ

4

एक बिंदु जिसे किसी ने अब तक संबोधित नहीं किया है, वह यह है कि आमतौर पर डेटा पॉइंट के रूप में नियमितीकरण पैरामीटर स्थिर रखने का कोई मतलब नहीं है । इसका कारण यह है कि आम तौर पर डेटा बिंदुओं की संख्या के साथ रैखिक रूप से बढ़ेगा, जबकि नियमितीकरण शब्द नहीं होगा। λXβy2λβ2


यह एक दिलचस्प बिंदु है। लेकिन वास्तव में यह "समझदारी" क्यों नहीं है? निश्चित रूप से स्थिर रखना गणितीय रूप से मान्य है, इसलिए "समझदारी नहीं" को किसी प्रकार के सांख्यिकीय संदर्भ में समझना होगा। लेकिन क्या संदर्भ? क्या गलत हो जाता है? क्या किसी तरह का आसान फ़िक्स होगा, जैसे मीनिंग स्क्वार्स के साथ वर्गों की जगह? λ
whuber

स्केल किए गए संस्करण के साथ वर्गों के योग को प्रतिस्थापित करना (जैसे कि मतलब चुकता त्रुटि) समझ में आता है, लेकिन बस पुनरावर्ती कम से कम वर्गों का उपयोग करने से वह पूरा नहीं होगा।
ब्रायन बोरचर्स

क्या गलत जाना होगा का सवाल है, की अपनी पसंद पर निर्भर करता है आप वे डेटा बिंदु की एक बड़ी संख्या या डेटा बिंदुओं की एक छोटी संख्या के साथ एक बहुत overregularized समाधान के साथ एक बहुत ही underregularized समाधान प्राप्त होगा। λ
ब्रायन बॉर्चर्स

एक को संदेह होगा कि, लेकिन अगर को शुरू में डेटा पॉइंट प्राप्त करने के बाद ट्यून किया जाता है और फिर अधिक डेटा पॉइंट जोड़े जाते हैं, तो क्या अधिक डेटा पॉइंट और समान साथ परिणामी समाधान खत्म हो गए हैं या कम-नियमित उन नए पर निर्भर करेगा डेटा अंक। यह एक बहुभिन्नरूपी वितरण से आईआईडी नमूने की तरह कार्य करने वाले डेटा पॉइंट को मानकर विश्लेषण किया जा सकता है, जिस स्थिति में यह दिखाई देता है को को स्टेज पर सेट किया जाना चाहिए । यह अपडेट करने के फॉर्मूले को बदल देगा, लेकिन इस तरह से नियमित और सरल तरीके से कि कुशल गणना अभी भी संभव हो सकती है। (+1)λnλλN/nN
whuber

3

शायद Stochastic ढाल वंश की तरह कुछ यहाँ काम कर सकता है। प्रारंभिक डेटासेट पर अपने समीकरण का उपयोग करके गणना करें , यह आपका शुरुआती अनुमान होगा। प्रत्येक नए डेटा बिंदु के लिए आप अपने पैरामीटर अनुमान को अद्यतन करने के लिए ढाल वंश का एक चरण कर सकते हैं।β^


मुझे पता चला है कि SGD (शायद मिनीबैच) इस तरह की ऑनलाइन समस्याओं के लिए जाने का तरीका है, यानी फ़ंक्शन सन्निकटन अपडेट करना।
rnoodle

1

रैखिक प्रतिगमन में, एक संभावना के क्यूआर अपघटन को सीधे अपडेट कर रही है, जैसा कि यहां बताया गया है । मुझे लगता है कि, जब तक कि आप प्रत्येक नए डेटापॉइंट के जुड़ने के बाद का पुनर्मूल्यांकन नहीं करना चाहते, तब तक रिज रिग्रेशन के साथ कुछ ऐसा ही किया जा सकता है।Xλ


0

यहां वुडबरी फॉर्मूला का उपयोग करने की तुलना में एक वैकल्पिक (और कम जटिल) दृष्टिकोण है। ध्यान दें कि और को रकम के रूप में लिखा जा सकता है । चूँकि हम ऑनलाइन चीजों की गणना कर रहे हैं और नहीं चाहते हैं कि राशि उड़ जाए, हम वैकल्पिक रूप से साधनों ( और ) का उपयोग कर सकते हैं।XTXXTyXTX/nXTy/n

यदि आप और लिखते हैं :Xy

X=(x1TxnT),y=(y1yn),

हम और ( -th रो तक की गणना ) के लिए ऑनलाइन अपडेट इस प्रकार लिख सकते हैं :XTX/nXTy/nt

At=(11t)At1+1txtxtT,

bt=(11t)bt1+1txtyt.

आपका ऑनलाइन अनुमान तब बन जाता हैβ

β^t=(At+λI)1bt.

ध्यान दें कि यह आपके द्वारा टिप्पणियों को जोड़ने के रूप में स्थिर रहने वाले की व्याख्या के साथ भी मदद करता है !λ

यह प्रक्रिया है कि कैसे https://github.com/joshday/OnlineStats.jl रैखिक / रिज प्रतिगमन के ऑनलाइन अनुमानों की गणना करता है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.