आप इस संदर्भ की जाँच कर सकते हैं । विज्ञान किट सीखता है कि रैंडमाइज्ड लॉजिस्टिक रिग्रेशन लागू होता है और विधि का वर्णन किया जाता है।
लेकिन आपके प्रश्न का उत्तर देने के लिए, दो विधियां उनके लक्ष्यों में काफी हद तक भिन्न हैं। लॉजिस्टिक रिग्रेशन एक मॉडल को फिट करने के बारे में है और आरएलआर उन चर को खोजने के बारे में है जो मॉडल में जाते हैं।
वेनिला लॉजिस्टिक रिग्रेशन एक सामान्यीकृत रैखिक मॉडल है। एक द्विआधारी प्रतिक्रिया के लिए, हम मानते हैं कि प्रतिक्रिया संभावना के लॉग ऑड्स भविष्यवक्ताओं की संख्या का एक रैखिक कार्य है। भविष्यवाणियों के गुणांक का अनुमान अधिकतम संभावना का उपयोग करके लगाया जाता है और मापदंडों के बारे में अनुमान तब मॉडल के बड़े नमूना गुणों पर आधारित होता है। सर्वोत्तम परिणामों के लिए, हम आमतौर पर मानते हैं कि मॉडल काफी सरल और अच्छी तरह से समझा गया है। हम जानते हैं कि स्वतंत्र चर प्रतिक्रिया पर क्या प्रभाव डालते हैं। हम मॉडल के मापदंडों का अनुमान लगाना चाहते हैं।
बेशक, व्यवहार में, हम हमेशा यह नहीं जानते हैं कि मॉडल में किस चर को शामिल किया जाना चाहिए। यह मशीन सीखने की स्थितियों में विशेष रूप से सच है जहां संभावित व्याख्यात्मक चर की संख्या बहुत बड़ी है और उनके मूल्य विरल हैं।
वर्षों से, बहुत से लोगों ने वैरिएबल ("फीचर") चयन के उद्देश्य के लिए सांख्यिकीय मॉडल फिटिंग की तकनीकों का उपयोग करने की कोशिश की है। विश्वसनीयता के बढ़ते स्तर में:
- एक बड़े मॉडल को फिट करें और गैर-महत्वपूर्ण वाल्ड आँकड़ों के साथ चर को छोड़ दें। हमेशा सर्वश्रेष्ठ मॉडल का उत्पादन नहीं करता है।
- सभी संभव मॉडल देखें और "सर्वश्रेष्ठ" चुनें। कम्प्यूटेशनल रूप से गहन और मजबूत नहीं है।
- एल 1 पेनल्टी शब्द (लासो स्टाइल) के साथ बड़े मॉडल को फिट करें। बेकार चर फिट में गिरा दिया। बेहतर, लेकिन विरल मैट्रिस के साथ अस्थिर।
- रैंडमाइज विधि 3. रैंडम सब्मिट लें, प्रत्येक के लिए एक दंडित मॉडल फिट करें और परिणामों को मिलाएं। बार-बार आने वाले चर चुने जाते हैं। जब प्रतिक्रिया द्विआधारी होती है, तो यह यादृच्छिक लॉजिस्टिक प्रतिगमन है। एक समान तकनीक को निरंतर डेटा और सामान्य रैखिक मॉडल के साथ खींचा जा सकता है।