शब्द "विरल पूर्व" (FBProphet Paper) का क्या अर्थ है?


11

"स्केल पर पूर्वानुमान" (FBProphet पूर्वानुमान उपकरण ) पेपर को पढ़ते हुए, देखें https://peerj.com/preprints/3190.pdf ) मैं "विरल पूर्व" शब्द के पार आया था। लेखक स्पष्ट करते हैं कि वे कुछ स्केलर रेट से एक विचलन वेक्टर के मॉडलिंग में इस तरह के "विरल पूर्व" का उपयोग कर रहे थे , जो लॉजिस्टिक विकास मॉडल में एक मॉडल पैरामीटर है।δ

जैसा कि वे कहते हैं कि , क्या मैं सही ढंग से समझता हूं कि "स्पार्स" वेक्टर ले जाने वाले तत्वों को शून्य के करीब संदर्भित करता है, अगर पैरामीटर छोटा था? मैं उलझन में हूं, क्योंकि मैंने सोचा था कि सभी वेक्टर तत्वों को प्रतिगमन के मापदंडों की आवश्यकता होती है, लेकिन उन्हें इस तरह परिभाषित करना केवल पैरामीटर और को मुक्त मॉडल मापदंडों के रूप में छोड़ देता है , है ना?δजे~लाप्लास(0,τ)ττ

इसके अलावा, पहले सामान्य उत्पन्न करने के लिए लाप्लास वितरण का उपयोग किया जाता है? मुझे समझ में नहीं आता है कि सामान्य वितरण के लिए इसे पसंद क्यों किया जाता है।


1
मैं इस प्रश्न के बारे में भी सोच रहा हूं, क्योंकि मैं पेपर पढ़ रहा हूं। क्या आपको इस सवाल का कोई जवाब मिला? साथ ही, क्या आपने पैगंबर जीतूब मुद्दों अनुभाग में यह प्रश्न पूछा था ? लेखकों में से एक (@bletham) सवालों के जवाब देने में काफी सक्रिय है, और उसकी व्याख्या आमतौर पर काफी अच्छी है।
लीपनर

जवाबों:


4

विरल डेटा कई शून्य के साथ डेटा है। यहां लेखक पूर्व को विरल कह रहे हैं क्योंकि यह शून्य को पसंदीदा बनाता है। यदि आप लाप्लास (उर्फ डबल एक्सपोनेंशियल) वितरण के आकार को देखते हैं, तो यह बहुत ही आत्म-व्याख्यात्मक है, जो शून्य के आसपास चरम पर है।

(छवि स्रोत तिब्शीरानी, ​​1996)

इस आशय के लिए सच है किसी भी का मूल्य , (वितरण हमेशा यह स्थान पैरामीटर पर पहुंचा, यहां शून्य के बराबर है) हालांकि छोटे पैरामीटर का मान है, और अधिक नियमित करने प्रभाव यह है।τ

इस कारण से पहले लाप्लास को अक्सर नियमित रूप से मजबूत होने से पहले मजबूत के रूप में उपयोग किया जाता है। यह कहा जाने के बाद, लाप्लास पूर्व लोकप्रिय विकल्प है, लेकिन यदि आप वास्तव में विरल समाधान चाहते हैं तो बेहतर विकल्प हो सकते हैं, जैसा कि वान एरप एट अल (2019) द्वारा वर्णित है।

वान एरप, एस।, ओबर्सकी, डीएल, और मुल्डर, जे। (2019)। बायेसियन दंडित प्रतिगमन के लिए संकोचन पुरस्कार। जर्नल ऑफ़ मैथमेटिकल साइकोलॉजी, 89 , 31-50। doi: 10.1016 / j.jmp.2018.12.004


3
+1 मैं बस इतना ही जोड़ूंगा कि इन्हें अक्सर "स्पार्सिटी-इंडेसिंग" पुजारी कहा जाता है, एक शब्द जो मुझे व्यक्तिगत रूप से लगता है कि अधिक स्पष्ट है (अनुमानित रिग्रेशन गुणांक में पूर्व स्पार्सिटी को प्रेरित करता है)
जेक वेस्टफॉल
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.