व्युत्पन्न विशेषताएं तंत्रिका नेटवर्क में क्यों उपयोग की जाती हैं?


13

उदाहरण के लिए, एक घर की कीमतों की भविष्यवाणी करना चाहता है और दो इनपुट सुविधाओं की लंबाई और चौड़ाई है। कभी-कभी, एक में 'व्युत्पन्न' बहुपद इनपुट विशेषताएं भी शामिल होती हैं, जैसे कि क्षेत्र, जो लंबाई * चौड़ाई है।

1) व्युत्पन्न सुविधाओं को शामिल करने का क्या मतलब है? क्या एक तंत्रिका नेटवर्क को प्रशिक्षण के दौरान लंबाई, चौड़ाई और कीमत के बीच संबंध नहीं सीखना चाहिए? तीसरी विशेषता, क्षेत्र, निरर्थक क्यों नहीं है?

इसके अलावा, कभी-कभी मैं यह भी देखता हूं कि लोग अपनी संख्या को कम करने के लिए इनपुट सुविधाओं पर आनुवंशिक चयन एल्गोरिदम चलाते हैं।

2) इनपुट सुविधाओं को कम करने का क्या मतलब है अगर वे सभी उपयोगी जानकारी रखते हैं? क्या तंत्रिका नेटवर्क को उसके महत्व के अनुसार प्रत्येक इनपुट सुविधा के लिए उचित भार प्रदान नहीं करना चाहिए? आनुवंशिक चयन एल्गोरिदम चलाने की बात क्या है?

जवाबों:


8

1): व्युत्पन्न सुविधाओं को शामिल करना प्रशिक्षण प्रक्रिया में विशेषज्ञ ज्ञान को इंजेक्ट करने का एक तरीका है, और इसलिए इसे तेज करने के लिए। उदाहरण के लिए, मैं अपने शोध में भौतिकविदों के साथ बहुत काम करता हूं। जब मैं एक अनुकूलन मॉडल का निर्माण कर रहा हूं, तो वे मुझे 3 या 4 पैरामीटर देंगे, लेकिन वे आमतौर पर कुछ निश्चित रूपों को भी जानते हैं जो समीकरण में दिखाई देने वाले हैं। उदाहरण के लिए, मुझे चर और मिल सकते हैं , लेकिन विशेषज्ञ जानते हैं कि महत्वपूर्ण है। इसे एक विशेषता के रूप में शामिल करके, मैं मॉडल को यह पता लगाने का अतिरिक्त प्रयास करता हूं कि महत्वपूर्ण है। दी, कभी-कभी डोमेन विशेषज्ञ गलत होते हैं, लेकिन मेरे अनुभव में, वे आमतौर पर जानते हैं कि वे किस बारे में बात कर रहे हैं।एल एन * एल एन * एलnlnlnl

2): इसके दो कारण हैं जो मुझे पता है। सबसे पहले, यदि आपके पास हज़ारों सुविधाएँ हैं (जैसा कि वास्तविक विश्व डेटा में अक्सर होता है), और प्रशिक्षण के लिए सीपीयू समय पर कम होता है (एक सामान्य घटना भी), तो आप फ़ीचर स्पेस को कम करने के लिए कई अलग-अलग फ़ीचर चयन एल्गोरिदम का उपयोग कर सकते हैं। अग्रिम रूप से। इस के लिए रियायती दृष्टिकोण अक्सर उच्चतम भविष्य कहनेवाला शक्ति के साथ सुविधाओं का चयन करने के लिए सूचना-सिद्धांत संबंधी उपायों का उपयोग करते हैं। दूसरा, भले ही आप सभी डेटा और आपके पास मौजूद सभी विशेषताओं को प्रशिक्षित करने का जोखिम उठा सकते हैं, लेकिन तंत्रिका नेटवर्क की अक्सर 'ब्लैक बॉक्स' मॉडल होने के लिए आलोचना की जाती है। सुविधा स्थान को पहले से कम करने से इस समस्या को कम करने में मदद मिल सकती है। उदाहरण के लिए, NN को देखने वाला उपयोगकर्ता आसानी से नहीं बता सकता है कि 0.01 का वजन "0" है, लेकिन अनुकूलन प्रक्रिया को "" "" नहीं मिला है


0

1) अधिकांश तंत्रिका नेटवर्क गुणा नहीं कर सकते हैं; वे केवल रकम की गणना कर सकते हैं (जो तब सक्रिय रूप से सक्रिय फ़ंक्शन के माध्यम से खिलाया जाता है )। इसके बजाय उन्हें उन गुणाओं का अनुमान लगाना चाहिए यदि वे महत्वपूर्ण हैं, जिनके लिए बहुत अधिक न्यूरॉन्स की आवश्यकता होती है, खासकर यदि कारक बड़ी श्रेणियों को फैला सकते हैं।

यदि यह पता चलेगा कि घर क्षेत्र वास्तव में एक महत्वपूर्ण विशेषता है, तो आप नेटवर्क प्रदान करेंगे यदि आप इसे क्षेत्र प्रदान करते हैं, क्योंकि यह तब न्यूरॉन्स का उपयोग कर सकता है जो चौड़ाई और लंबाई के गुणन का अनुमान लगाने के लिए आवश्यक होगा। अन्य काम करने के लिए।

इसलिए, बहुपद सुविधाओं सहित कुछ मामलों में नेटवर्क के लिए फायदेमंद हो सकता है, लेकिन अन्य मामलों में कोई महत्वपूर्ण प्रभाव नहीं है। इसके अलावा, बहुपद विशेषताएं केवल एक प्रकार की व्युत्पन्न विशेषताएं हैं जो नेटवर्क के लिए सहायक हो सकती हैं। एक अन्य प्रकार की व्युत्पन्न विशेषता जो सहायक हो सकती है, उदाहरण के लिए इनपुट चर के लघुगणक (माना जाता है कि वे सकारात्मक हैं) जिसे नेटवर्क को भी प्राप्त करने के लिए अनुमान लगाना होगा।

एक विचार यह होगा कि नेटवर्क को केवल परिवर्धन की तुलना में संख्याओं के बीच अधिक संचालन करने की अनुमति दी जाए, ताकि वह खुद को बहुपद सुविधाओं की तरह कुशलतापूर्वक गणना कर सके, लेकिन यह स्पष्ट नहीं है कि यह कैसे काम करेगा। एक आर्किटेक्चर जो दिखता है, वह कुछ ऐसा ही करता है, जो सम-उत्पाद नेटवर्क है

2) कम्प्यूटेशनल लागत जो जॉन उल्लेख से छोड़कर, मॉडल है, जो अपरिहार्य होता है जब आप अधिक जानकारी के परिचय, यह भी करने के लिए नेटवर्क के लिए खतरा बढ़ जाता है में पैरामीटर की संख्या में वृद्धि overfit , खासकर यदि आप थोड़ा प्रशिक्षण डेटा है।

हालांकि, यह एक समस्या का बहुत कम में बनाया जा सकता है अगर एक अच्छा नियमितीकरण विधि का उपयोग किया जाता है। (ड्रॉपआउट उस के लिए बहुत अच्छा काम करता है) सैद्धांतिक रूप से, एक अच्छा पर्याप्त नियमितीकरण विधि के साथ, ओवरफिटिंग बिल्कुल भी समस्या नहीं होनी चाहिए। जैसा कि हिंटन बताते हैं, एक मानव के मस्तिष्क में 10 ^ 14 सिनैप्स के क्रम में होता है (तंत्रिका नेटवर्क में कनेक्शन के अनुसार), लेकिन केवल 10 ^ 9 सेकंड के क्रम में रहता है, लेकिन हम अभी भी सक्षम प्रतीत होते हैं काफी अच्छी तरह से। तो स्पष्ट रूप से, कई मापदंडों को रखा जा सकता है जो सही एल्गोरिथ्म के साथ होना चाहिए केवल एक फायदा होगा।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.