"पृथक्करण" का मूल अर्थ शरीर के ऊतक का सर्जिकल निष्कासन है । शब्द "एब्लेशन अध्ययन" की जड़ें 1960 और 1970 के दशक के प्रायोगिक न्यूरोसाइकोलॉजी के क्षेत्र में हैं, जहां जानवरों के दिमाग के कुछ हिस्सों को उनके व्यवहार पर पड़ने वाले प्रभाव का अध्ययन करने के लिए हटा दिया गया था।
मशीन लर्निंग, और विशेष रूप से जटिल गहरे तंत्रिका नेटवर्क के संदर्भ में, नेटवर्क के कुछ हिस्सों को हटाने के लिए "अपादान अध्ययन" को अपनाया गया है, ताकि नेटवर्क के व्यवहार के बारे में बेहतर समझ हासिल की जा सके।
जून 2018 में केरस डीप लर्निंग फ्रेमवर्क के प्राथमिक लेखक फ्रेंकोइस चॉलेट के एक ट्वीट के बाद से इस शब्द पर ध्यान गया है :
गहन अध्ययन के लिए अभ्यारण्य अध्ययन महत्वपूर्ण है - यह पर्याप्त तनाव नहीं दे सकता। विश्वसनीय प्रणाली (किसी भी शोध का लक्ष्य) उत्पन्न करने के लिए आपके सिस्टम में कार्य-क्षमता को समझना सबसे सरल तरीका है। और अकर्मण्यता को देखने का एक बहुत ही कम प्रयास है।
यदि आप कोई जटिल गहन सीखने वाला प्रायोगिक सेटअप लेते हैं, तो संभावना है कि आप प्रदर्शन में कोई कमी न होने के साथ कुछ मॉड्यूल (या कुछ प्रशिक्षित सुविधाओं को यादृच्छिक लोगों के साथ बदल सकते हैं) निकाल सकते हैं। अनुसंधान प्रक्रिया में शोर से छुटकारा पाएं: अध्ययन को समाप्त करें।
अपने सिस्टम को पूरी तरह से समझ नहीं सकते हैं? कई चलती भागों? यह सुनिश्चित करना चाहते हैं कि यह जिस कारण से काम कर रहा है वह वास्तव में आपकी परिकल्पना से संबंधित है? सामान निकालने की कोशिश करें। अपने शोध के समय का कम से कम ~ १०% अपने ईमानदारी से खर्च करने की कोशिश करें।
एक उदाहरण के रूप में, गिरशिक और सहकर्मी (2014) एक ऑब्जेक्ट डिटेक्शन सिस्टम का वर्णन करते हैं जिसमें तीन "मॉड्यूल" शामिल होते हैं: पहला एक छवि के क्षेत्रों का प्रस्ताव करता है जिसके भीतर चयनात्मक खोज एल्गोरिथ्म ( यूजलिंग्स और सहकर्मियों 2012 ) का उपयोग करके किसी वस्तु की खोज करना है , जो एक बड़े कॉन्फ्लिचुअल न्यूरल नेटवर्क में फीड करता है (जिसमें 5 कनवल्शनियल लेयर्स और 2 पूरी तरह से कनेक्टेड लेयर्स होते हैं) जो फीचर एक्सट्रैक्शन करता है, जो बदले में वर्गीकरण के लिए सपोर्ट वेक्टर मशीनों के सेट में फीड करता है। प्रणाली को बेहतर ढंग से समझने के लिए, लेखकों ने एक पृथक अध्ययन किया, जहां सिस्टम के विभिन्न हिस्सों को हटा दिया गया था - उदाहरण के लिए सीएनएन की पूरी तरह से जुड़ी एक या दोनों परतों को हटाने से आश्चर्यजनक रूप से कम प्रदर्शन हानि हुई, जिससे लेखकों को निष्कर्ष निकालने की अनुमति मिली।
सीएनएन की अधिकांश प्रतिनिधित्वात्मक शक्ति इसकी संकेंद्रित परतों से आती है, न कि बहुत बड़ी घनीभूत परतों से।
ओपी एक पृथक अध्ययन करने के लिए / कैसे / के विवरण के लिए, और व्यापक संदर्भों के लिए पूछता है। मेरा मानना है कि इस पर एक "एक आकार सभी फिट बैठता है" उत्तर है। आवेदन के प्रकार और मॉडल के आधार पर मेट्रिक्स के अलग होने की संभावना है। यदि हम समस्या को केवल एक गहरे तंत्रिका नेटवर्क तक सीमित करते हैं तो यह देखने के लिए अपेक्षाकृत सीधा है कि हम एक राजसी तरीके से परतों को हटा सकते हैं और यह पता लगा सकते हैं कि यह नेटवर्क के प्रदर्शन को कैसे बदलता है। इससे परे, व्यवहार में, हर स्थिति अलग है और बड़ी जटिल मशीन सीखने वाले अनुप्रयोगों की दुनिया में, इसका मतलब यह होगा कि प्रत्येक स्थिति के लिए एक अद्वितीय दृष्टिकोण की आवश्यकता है।
ओपी में उदाहरण के संदर्भ में - रैखिक प्रतिगमन - एक पृथक अध्ययन का कोई मतलब नहीं है, क्योंकि एक रेखीय प्रतिगमन मॉडल से सभी को "हटाया" जा सकता है जो कुछ भविष्यवक्ता हैं। "प्रिसीप्लीड" फ़ैशन में ऐसा करना बस एक रिवर्स स्टेपवाइज़ सिलेक्शन प्रक्रिया है, जिसे आम तौर पर यहाँ पर देखा जाता है - विवरण के लिए यहाँ , यहाँ और यहाँ देखें। एक नियमितीकरण प्रक्रिया जैसे कि लासो, रैखिक प्रतिगमन के लिए एक बेहतर विकल्प है।
refs:
गिरीशिक, आर।, डोनह्यू, जे।, डेरेल, टी। और मलिक, जे।, 2014। सटीक वस्तु पहचान और अर्थ विभाजन के लिए समृद्ध फीचर पदानुक्रम। कंप्यूटर दृष्टि और पैटर्न मान्यता पर IEEE सम्मेलन की कार्यवाही में (पीपी। 580-587)।
Uijlings, JR, Van De Sande, KE, Gevers, T. and Smeulders, AW, 2013. वस्तु पहचान के लिए चयनात्मक खोज। कंप्यूटर विज़न की अंतर्राष्ट्रीय पत्रिका, 104 (2), पीपी.154-171।