मुझे लगता है कि वे 2 अलग चीजें हैं,
सुविधा चयन से शुरू करें :
इस तकनीक का उपयोग उन विशेषताओं को चुनने के लिए किया जाता है जो लक्ष्य चर का सबसे अधिक विवरण देते हैं (लक्ष्य चर के साथ सहसंबंध है)। यह परीक्षण डेटा पर मॉडल लागू होने से ठीक पहले चलाया जाता है।
इसे बेहतर तरीके से समझाने के लिए आइए एक उदाहरण से जानें: 10 फ़ीचर और 1 टारगेट वेरिएबल हैं, 9 फीचर्स में टार्गेट वेरिएबल का 90% और 10 फीचर्स मिलकर 91% टार्गेट वेरिएबल बताते हैं। इसलिए 1 वैरिएबल में बहुत फर्क नहीं हो रहा है इसलिए आप मॉडलिंग से पहले इसे हटा देते हैं (यह व्यवसाय के लिए भी व्यक्तिपरक है)। मुझे प्रिडिक्टर इंपोर्टेंस भी कहा जा सकता है।
अब फ़ीचर एक्सट्रैक्शन के बारे में बात करते हैं ,
जिसका उपयोग Unsupervised Learning, Images में कंट्रोस का निष्कर्षण, एक टेक्स्ट से Bi-gr का निष्कर्षण, बोले गए टेक्स्ट की रिकॉर्डिंग से फोनमेन्स का निष्कर्षण करने के लिए किया जाता है। जब आप डेटा के बारे में कुछ भी नहीं जानते हैं जैसे कोई डेटा डिक्शनरी नहीं है, तो बहुत सी विशेषताएं जिसका अर्थ है कि डेटा समझने योग्य प्रारूप में नहीं है। फिर आप कुछ विशेषताओं को प्राप्त करने के लिए इस तकनीक को लागू करने का प्रयास करते हैं जो कि अधिकांश डेटा की व्याख्या करता है। फ़ीचर निष्कर्षण में सुविधाओं का एक परिवर्तन शामिल होता है, जो अक्सर प्रतिवर्ती नहीं होता है क्योंकि कुछ जानकारी आयामी कमी की प्रक्रिया में खो जाती है।
आप सुविधाओं को निकालने के लिए दिए गए डेटा पर फ़ीचर एक्सट्रैक्शन लागू कर सकते हैं और फिर सब्मिट का चयन करने के लिए लक्ष्य चर के संबंध में फ़ीचर चयन लागू कर सकते हैं जो अच्छे परिणामों के साथ एक अच्छा मॉडल बनाने में मदद कर सकता है।
बेहतर समझ के लिए आप इन लिंक -1 , लिंक -2 से गुजर सकते हैं ।
हम उन्हें R, पायथन, SPSS में लागू कर सकते हैं।
अगर कोई और स्पष्टीकरण चाहिए तो मुझे बताएं।