एक कृत्रिम तंत्रिका नेटवर्क एएनएन, का उपयोग अनियंत्रित क्लस्टरिंग के लिए कैसे किया जा सकता है?


52

मैं समझता हूं artificial neural network (ANN)कि भविष्यवाणियों में त्रुटि को कम करके फिटिंग को बेहतर बनाने के लिए बैकप्रोपोगेशन का उपयोग करके पर्यवेक्षित तरीके से कैसे प्रशिक्षित किया जा सकता है। मैंने सुना है कि एक ANN का उपयोग अप्रशिक्षित सीखने के लिए किया जा सकता है लेकिन अनुकूलन चरणों को निर्देशित करने के लिए किसी प्रकार की लागत फ़ंक्शन के बिना यह कैसे किया जा सकता है? के-साधन या ईएम एल्गोरिथ्म के साथ एक फ़ंक्शन है जिसके लिए प्रत्येक पुनरावृत्ति को बढ़ाने के लिए खोज करता है।

  • हम एक ANN के साथ क्लस्टरिंग कैसे कर सकते हैं और एक ही इलाके में डेटा बिंदुओं को समूह में किस तंत्र का उपयोग करते हैं?

(और इसमें अतिरिक्त परतें जोड़ने के साथ कौन सी अतिरिक्त क्षमताएं लाई गई हैं?)


क्या आप सामान्य रूप से NN अप्रकाशित सीखने में रुचि रखते हैं, या विशेष रूप से तंत्रिका नेटवर्क के साथ अप्रकाशित क्लस्टरिंग में?
डेनिस तारसोव

@DenisTarasov, मैं मुख्य रूप से NN के साथ अनियंत्रित क्लस्टरिंग में दिलचस्पी रखता हूं, लेकिन सामान्य रूप से NN के अप्रकाशित NN सीखने के बारे में ज्यादा नहीं जानता। यह बहुत अच्छा होगा यदि एक उत्तर में विशिष्ट आवेदन पर चर्चा करने से पहले सामान्य रूप से अप्रभावित शिक्षा का एक सा शामिल होगा।
वास

1
सेल्फ ऑर्गनाइज़िंग मैप (SOM) एक प्रकार का नेटवर्क है जिसका उपयोग क्लस्टरिंग के लिए किया जाता है।
कागदस ओजेंक

ANN में अप्रकाशित शिक्षण - यह प्रशिक्षण सेट से सांख्यिकीय गुणों को निकालता है। - गैर-प्रशिक्षित शिक्षा अधिक कठिन है लेकिन जैविक रूप से प्रशंसनीय के रूप में देखा जाता है - किसी शिक्षक की आवश्यकता नहीं है।
योनस

जवाबों:


56

इनपुट डेटा के बेहतर अभ्यावेदन को सीखने के लिए तंत्रिका नेटवर्क का व्यापक रूप से अप्रशिक्षित शिक्षण में उपयोग किया जाता है। उदाहरण के लिए, पाठ दस्तावेज़ों का एक सेट दिया गया है, NN दस्तावेज़ से वास्तविक-मूल्यवान वेक्टर के लिए मैपिंग सीख सकता है, जिसके परिणामस्वरूप वैक्टर समान सामग्री वाले दस्तावेज़ों के लिए समान होते हैं, अर्थात दूरस्थ संरक्षण। इसका उपयोग करके प्राप्त किया जा सकता है, उदाहरण के लिए, ऑटो-एनकोडर्स - एक मॉडल जिसे लागत के कार्य के रूप में पुनर्निर्माण त्रुटि (आईडी फ़ंक्शन से दूरी) के साथ एक छोटे प्रतिनिधित्व (छिपी परत सक्रियण) से मूल वेक्टर को फिर से संगठित करने के लिए प्रशिक्षित किया जाता है। यह प्रक्रिया आपको क्लस्टर नहीं देती है, लेकिन यह सार्थक अभ्यावेदन बनाती है जिसका उपयोग क्लस्टरिंग के लिए किया जा सकता है। उदाहरण के लिए, आप छिपी परत की सक्रियता पर एक क्लस्टरिंग एल्गोरिथ्म चला सकते हैं।

क्लस्टरिंग: विशेष रूप से क्लस्टरिंग के लिए डिज़ाइन किए गए विभिन्न एनएन आर्किटेक्चर के कई नंबर हैं। सबसे व्यापक रूप से ज्ञात संभवतः आत्म-व्यवस्थित मानचित्र है। एसओएम एक एनएन है जिसमें एक टोपोलॉजिकल ग्रिड (आमतौर पर आयताकार) बनाने के लिए न्यूरॉन्स का एक सेट होता है। जब कुछ पैटर्न को SOM के लिए प्रस्तुत किया जाता है, तो निकटतम वेट वेक्टर वाले न्यूरॉन को एक विजेता माना जाता है और इसके वज़न को पैटर्न के साथ-साथ इसके पड़ोस के वज़न के लिए अनुकूलित किया जाता है। इस तरह एक SOM स्वाभाविक रूप से डेटा क्लस्टर पाता है। कुछ हद तक संबंधित एल्गोरिथम तंत्रिका गैस बढ़ रहा है (यह पूर्वनिर्धारित संख्या में न्यूरॉन्स तक सीमित नहीं है)।

एक और दृष्टिकोण एडेप्टिव रेजोनेंस थ्योरी है जहां हमारी दो परतें हैं: "तुलना क्षेत्र" और "मान्यता क्षेत्र"। मान्यता क्षेत्र तुलना क्षेत्र से स्थानांतरित वेक्टर में सबसे अच्छा मैच (न्यूरॉन) भी निर्धारित करता है और पार्श्व निरोधात्मक कनेक्शन भी है। कार्यान्वयन विवरण और सटीक समीकरण आसानी से इन मॉडलों के नामों को गुगली करके मिल सकते हैं, इसलिए मैं उन्हें यहां नहीं डालूंगा।


15

आप स्व-व्यवस्थित मानचित्र देखना चाहते हैं । कोहेनन (जिन्होंने उनका आविष्कार किया) ने उनके बारे में एक पुस्तक लिखी । R ( som , kohonen ) में इसके लिए पैकेज हैं , और MATLAB जैसी अन्य भाषाओं में कार्यान्वयन हैं ।


क्या आप इस बारे में कुछ विस्तार कर सकते हैं कि एनएन यह कैसे कर सकता है और सिद्धांत पर विस्तार से बता सकता है? संभवतः एक गहरे एनएन (डीएनएन) का उपयोग करने के प्रभाव की भी व्याख्या करें?
वास

1
मुझे डर है कि मेरे यहाँ, @Vass में बहुत कम विशेषज्ञता है। मुझे नहीं लगता कि अतिरिक्त परतों को जोड़ने से यह धीमा होने के अलावा बहुत कुछ करेगा। किसी और को आपको सिद्धांत देना होगा, मैं सिर्फ आपको शुरू करना चाहता था।
गूँग - मोनिका

1
हमारी प्रयोगशाला में एक छात्र ने SOM का उपयोग करके क्लस्टरिंग के साथ प्रयोग किया। इसे चलाने में हमेशा के लिए लग गया और परिणाम अन्य दृष्टिकोणों की तुलना में बहुत निराशाजनक थे (हमारे मामले में मानक ग्राफ क्लस्टरिंग एल्गोरिदम)। मैं हमेशा इस तथ्य से हैरान हूं कि मानक 2 डी लक्ष्य डोमेन (टोपोलॉजिकल ग्रिड) एक अत्यधिक मनमाना स्थान है। अधिक चिंताजनक बहुत सरलीकृत है और अनिवार्य रूप से डेटा को केवल दो चर द्वारा वर्णित स्थान में संपीड़ित करने की आवश्यकता है।
माइकंस

@micans कुछ अच्छे अंक बनाता है, लेकिन डेटा को केवल दो चर द्वारा वर्णित एक स्थान में संकुचित नहीं किया जाता है, क्योंकि प्रत्येक नोड एक प्रोटोटाइप के साथ भी जुड़ा हुआ है। यदि रनिंग धीमा है, तो यह अच्छी तरह से एक कार्यान्वयन मुद्दा हो सकता है। सांख्यिकीय रूप से, SOM की तुलना में अन्य विधियों को बेहतर वर्गीकरण परिणाम प्राप्त करने चाहिए। टोपोलॉजी के मुद्दे के रूप में, मस्तिष्क को 2 डी टोपोलॉजी की परतों के रूप में व्यवस्थित किया गया लगता है, लेकिन यह महान परिणाम प्राप्त करता है (या इसलिए मैं सोचना चाहूंगा)।
टॉम एंडरसन
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.