बड़े , छोटे समस्या से निपटने के दौरान मॉडल की स्थिरता


22

परिचय:

मेरे पास एक शास्त्रीय "बड़े पी, छोटे एन समस्या" के साथ एक डेटासेट है। उपलब्ध नमूनों की संख्या n = 150 जबकि संभावित भविष्यवक्ताओं की संख्या p = 400। परिणाम एक सतत चर है।

मैं सबसे "महत्वपूर्ण" वर्णनकर्ताओं को ढूंढना चाहता हूं, अर्थात, जो परिणाम की व्याख्या करने और एक सिद्धांत बनाने में मदद करने के लिए सबसे अच्छे उम्मीदवार हैं।

इस विषय पर शोध के बाद मैंने पाया कि एलएएसओ और इलास्टिक नेट आमतौर पर बड़े पी, छोटे एन के मामले के लिए उपयोग किया जाता है। मेरे कुछ भविष्यवक्ता अत्यधिक सहसंबद्ध हैं और मैं उनके समूहों को महत्वपूर्ण मूल्यांकन में संरक्षित करना चाहता हूं, इसलिए, मैंने स्थैतिक नेट का विकल्प चुना । मुझे लगता है कि मैं महत्व के उपाय के रूप में प्रतिगमन गुणांक के पूर्ण मूल्यों का उपयोग कर सकता हूं (कृपया मुझे गलत होने पर सही करें; मेरा डेटासेट मानकीकृत है)।

संकट:

जैसा कि मेरे नमूनों की संख्या छोटी है, मैं एक स्थिर मॉडल कैसे प्राप्त कर सकता हूं?

मेरा वर्तमान दृष्टिकोण MSE स्कोर के 10 गुना क्रॉस-सत्यापन के साथ 90% डेटासेट पर ग्रिड खोज में सर्वोत्तम ट्यूनिंग पैरामीटर (लैम्ब्डा और अल्फा) खोजना है। तब मैं संपूर्ण 90% डेटासेट पर सर्वोत्तम ट्यूनिंग मापदंडों के साथ मॉडल को प्रशिक्षित करता हूं। मैं अपने मॉडल का मूल्यांकन करने में सक्षम हूं, जो कि आर 10 से अधिक डेटासेट के 10% (जो कि केवल 15 नमूनों के लिए है) का उपयोग कर रहा है।

इस प्रक्रिया को बार-बार चलाने पर, मुझे आर स्क्वेर्ड असेसमेंट में एक बड़ा विचरण मिला। साथ ही, गैर-शून्य भविष्यवक्ताओं की संख्या उनके गुणांक के अनुसार भी भिन्न होती है।

मैं भविष्यवक्ताओं के महत्व का अधिक स्थिर मूल्यांकन और अंतिम मॉडल प्रदर्शन का अधिक स्थिर मूल्यांकन कैसे प्राप्त कर सकता हूं?

क्या मैं कई मॉडल बनाने के लिए बार-बार अपनी प्रक्रिया चला सकता हूं, और फिर औसत प्रतिगमन गुणांक? या क्या मुझे इसके महत्व स्कोर के रूप में मॉडल में एक भविष्यवक्ता की घटनाओं की संख्या का उपयोग करना चाहिए?

वर्तमान में, मुझे लगभग 40-50 गैर-शून्य भविष्यवक्ता मिलते हैं। क्या मुझे बेहतर स्थिरता के लिए भविष्यवक्ताओं की संख्या को दंडित करना चाहिए?


1
शायद नियमित रूप से प्रतिगमन पर्याप्त नहीं है? क्या आपने कुछ मशीन लर्निंग अप्रोच की कोशिश की है?

कौन सा एमएल निरंतर या क्रमिक आश्रित चर के लिए अनुकूल होगा जो आप सुझाएंगे?
डिमी

2
रैंडम वन, एसवीआर ... सुविधा चयन के लिए आप एसीई या बोरूटा की तरह कुछ सभी प्रासंगिक विधि (अधिक स्थिर होनी चाहिए) की कोशिश कर सकते हैं।

जवाबों:


11

" विरल एल्गोरिथ्म स्थिर नहीं हैं: एक नो-फ्री-लंच प्रमेय "

मुझे लगता है कि शीर्षक बहुत कुछ कहता है, जैसा आपने बताया।

[...] एक विरल एल्गोरिथ्म में गैर-अद्वितीय इष्टतम समाधान हो सकते हैं, और इसलिए यह बीमार है

बेतरतीब लस्सी , और पीटर Buhlmann द्वारा बात की जाँच करें ।

अद्यतन करें:

मुझे यह पेपर Meinshausen और Buhlmann द्वारा "स्टैबिलिटी सिलेक्शन" कहे जाने वाले पेपर की तुलना में आसान लगा।

" रैंडम लासो " में, लेखक बड़े , छोटे एन समस्याओं के लिए लासो की दो महत्वपूर्ण कमियों पर विचार करते हैं ,पीn

  1. ऐसे मामले में जहां कई सहसंबद्ध चर मौजूद हैं, लसो केवल एक या कुछ चुनता है, इस प्रकार उस अस्थिरता की ओर जाता है जिसके बारे में आप बात करते हैं
  2. n

रैंडम लैस्सो के लिए मुख्य विचार, कि लैस्सो की दोनों कमियों से निपटने में सक्षम निम्नलिखित है

n

बूटस्ट्रैप नमूने कई डेटा सेट का अनुकरण करने के लिए तैयार किए जाते हैं। अंतिम गुणांक प्रत्येक बूटस्ट्रैप नमूने के परिणामों के औसत से प्राप्त किया जाता है।

यह बहुत अच्छा होगा यदि कोई व्यक्ति इस एल्गोरिथ्म को विस्तार से बताए और जवाबों में आगे बताए।


1
अच्छे लिंक (+1)।
जूलमैन

टिप्पणी के लिए धन्यवाद। मैंने रैंडमाइज्ड लैस्सो पर भी विचार किया है, लेकिन क्या यह कोलिनैरिटी के मामले में सूट करेगा ?
डिमी

2
व्याख्यात्मक चर के बीच अनुमानित समतुल्यता के तहत क्या होता है? प्रतिगमन विश्लेषण में पारंपरिक आगे की खोज एल्गोरिथ्म में, हम अक्सर उस स्थिति से सामना करते हैं जहां दो चर X1 और x2 में समान व्याख्यात्मक शक्ति होती है। यदि X1 मॉडल में है, तो x2 को शामिल करने की कोई आवश्यकता नहीं है; इसके विपरीत, यदि x2 मॉडल में है तो X1 को शामिल करने की कोई आवश्यकता नहीं है। यदि मैं आपकी प्रक्रिया को सही ढंग से समझता हूं, तो आप X1 आधे समय और x2 आधे समय को शामिल करेंगे, जिससे प्रत्येक 50-50 के बारे में स्थिरता की संभावना होगी। यदि हां, तो आप गलत तरीके से निष्कर्ष निकाल सकते हैं कि न तो चर की आवश्यकता है।
डिमी

मैं कल्पना करता हूं, मैं इस मामले में यादृच्छिक रूप से लोचदार नेट का उपयोग कर सकता हूं।
डिमी

मैंने एक और लिंक जोड़ा है जो मुझे लगता है कि आपके प्रश्न का उत्तर बेहतर है।
पारदी

6

मेरा वर्तमान दृष्टिकोण MSE स्कोर के 10 गुना क्रॉस-सत्यापन के साथ 90% डेटासेट पर ग्रिड खोज में सर्वोत्तम ट्यूनिंग पैरामीटर (लैम्ब्डा और अल्फा) खोजना है। तब मैं संपूर्ण 90% डेटासेट पर सर्वोत्तम ट्यूनिंग मापदंडों के साथ मॉडल को प्रशिक्षित करता हूं। मैं अपने मॉडल का मूल्यांकन करने में सक्षम हूँ R के उपयोग से 10% डेटासेट (जो कि केवल 15 नमूनों के लिए है) का उपयोग करता है।

ट्यूनिंग पैरामीटर कितने स्थिर हैं?

क्या आप अच्छाई-से-फिट (जैसे कि इष्टतम पैरामीटर्स के क्रॉस सत्यापन के एमएसई) और 10% स्वतंत्र परीक्षण प्रदर्शन के बीच बड़े अंतर देखते हैं?

यह ओवरफिटिंग का लक्षण होगा:

एमएस=(जीआरमैंपीआरमीटरटीआररों)एमएस=(जीआरमैंपीआरमीटरटीआररों)

क्या मैं कई मॉडल बनाने के लिए बार-बार अपनी प्रक्रिया चला सकता हूं, और फिर औसत प्रतिगमन गुणांक? या क्या मुझे इसके महत्व स्कोर के रूप में मॉडल में एक भविष्यवक्ता की घटनाओं की संख्या का उपयोग करना चाहिए?

ऐसे समेकित मॉडल बनाने की कई संभावनाएँ हैं:

  • रैखिक मॉडल को गुणांक के औसत से औसत किया जा सकता है
  • मीटरमीटर

खोज शब्द "एकत्रित मॉडल", "बूटस्ट्रैप एकत्रीकरण", "बैगिंग" होगा।

पक्ष विचार: कुछ प्रकार के डेटा ने अपेक्षित और व्याख्यात्मक संपार्श्विकता की है जो चर चयन को अधिक या कम समान समाधानों के बीच "कूद" का कारण बन सकता है।


3

इसका कोई रास्ता नहीं है। जैसा कि कुछ ने कहा, मॉडल स्वभाव से अस्थिर हैं (अन्यथा आंकड़ों की आवश्यकता नहीं होगी)।

लेकिन अस्थिरता ही सूचना लाती है। इसलिए इससे छुटकारा पाने की कोशिश के बजाय मैंने इसका विश्लेषण करने की कोशिश की।

मैं कई बार क्रॉस वैलिडेशन सिमुलेशन चलाता हूं और फिर प्रत्येक रन में सर्वश्रेष्ठ चयनित मापदंडों के लिए गुणांक प्राप्त करता हूं और उन्हें एक साथ रखता हूं।

λα

फिर मैं प्रत्येक पैरामीटर जोड़ी के लिए प्रतिगमन गुणांक निकालता हूं और इससे मुझे प्रत्येक पैरामीटर के लिए मूल्यों का वितरण मिलता है। इस तरह मैं अपनी परिवर्तनशीलता का वर्णन करने के लिए पूर्वसूचक और उसके मानक विचलन / IQR की ताकत का वर्णन करने के लिए माध्य / माध्य मूल्य का उपयोग कर सकता हूं, यही इसकी स्थिरता है।

एक बहुत ही स्थिर भविष्यवक्ता का अर्थ है कि आप इसके प्रभाव की अपेक्षा नए डेटा के साथ भी कर सकते हैं; एक भविष्यवक्ता जो आपके डेटा में भी अस्थिर है, शायद नए डेटा के साथ भी बहुत अस्थिर होगा।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.