मेरे पास सांख्यिकीय सीखने के एल्गोरिथ्म को चलाने से पहले सुविधा चयन विधियों (रैंडम फ़ॉरेस्ट्स फ़ीचर महत्व मान या Univariate सुविधा चयन विधियों आदि) का उपयोग करने की आवश्यकता के संबंध में एक प्रश्न है।
हम जानते हैं कि ओवरफिटिंग से बचने के लिए हम वेट वैक्टर पर रेगुलराइजेशन पेनल्टी लगा सकते हैं।
इसलिए अगर मैं रैखिक प्रतिगमन करना चाहता हूं, तो मैं एल 2 या एल 1 या यहां तक कि लोचदार शुद्ध नियमितीकरण मापदंडों को पेश कर सकता हूं। विरल समाधान प्राप्त करने के लिए, एल 1 दंड सुविधा चयन में मदद करता है।
फिर क्या Lasso जैसे L1 नियमितीकरण प्रतिगमन को चलाने से पहले फीचर चयन करना आवश्यक है? तकनीकी रूप से लैस्सो मुझे एल 1 पेनल्टी द्वारा सुविधाओं को कम करने में मदद कर रहा है फिर एलो को चलाने से पहले फीचर चयन की आवश्यकता क्यों है?
मैंने एक शोध लेख पढ़ते हुए कहा कि एनोवा करना तो SVM अकेले SVM का उपयोग करने से बेहतर प्रदर्शन देता है। अब सवाल यह है: एसवीएम स्वाभाविक रूप से एल 2 मानक का उपयोग करके नियमितीकरण करता है। मार्जिन को अधिकतम करने के लिए, यह वेट वेक्टर मानक को कम कर रहा है। इसलिए यह वस्तुनिष्ठ कार्य कर रहा है। फिर तकनीकी रूप से एल्गोरिदम जैसे SVM को फीचर चयन विधियों के बारे में परेशान नहीं होना चाहिए? लेकिन रिपोर्ट अभी भी कहती है कि सामान्य SVM के अधिक शक्तिशाली होने से पहले Univariate Feature Selection करना।
विचारों वाला कोई?