इनपुट डेटा के बेहतर अभ्यावेदन को सीखने के लिए तंत्रिका नेटवर्क का व्यापक रूप से अप्रशिक्षित शिक्षण में उपयोग किया जाता है। उदाहरण के लिए, पाठ दस्तावेज़ों का एक सेट दिया गया है, NN दस्तावेज़ से वास्तविक-मूल्यवान वेक्टर के लिए मैपिंग सीख सकता है, जिसके परिणामस्वरूप वैक्टर समान सामग्री वाले दस्तावेज़ों के लिए समान होते हैं, अर्थात दूरस्थ संरक्षण। इसका उपयोग करके प्राप्त किया जा सकता है, उदाहरण के लिए, ऑटो-एनकोडर्स - एक मॉडल जिसे लागत के कार्य के रूप में पुनर्निर्माण त्रुटि (आईडी फ़ंक्शन से दूरी) के साथ एक छोटे प्रतिनिधित्व (छिपी परत सक्रियण) से मूल वेक्टर को फिर से संगठित करने के लिए प्रशिक्षित किया जाता है। यह प्रक्रिया आपको क्लस्टर नहीं देती है, लेकिन यह सार्थक अभ्यावेदन बनाती है जिसका उपयोग क्लस्टरिंग के लिए किया जा सकता है। उदाहरण के लिए, आप छिपी परत की सक्रियता पर एक क्लस्टरिंग एल्गोरिथ्म चला सकते हैं।
क्लस्टरिंग: विशेष रूप से क्लस्टरिंग के लिए डिज़ाइन किए गए विभिन्न एनएन आर्किटेक्चर के कई नंबर हैं। सबसे व्यापक रूप से ज्ञात संभवतः आत्म-व्यवस्थित मानचित्र है। एसओएम एक एनएन है जिसमें एक टोपोलॉजिकल ग्रिड (आमतौर पर आयताकार) बनाने के लिए न्यूरॉन्स का एक सेट होता है। जब कुछ पैटर्न को SOM के लिए प्रस्तुत किया जाता है, तो निकटतम वेट वेक्टर वाले न्यूरॉन को एक विजेता माना जाता है और इसके वज़न को पैटर्न के साथ-साथ इसके पड़ोस के वज़न के लिए अनुकूलित किया जाता है। इस तरह एक SOM स्वाभाविक रूप से डेटा क्लस्टर पाता है। कुछ हद तक संबंधित एल्गोरिथम तंत्रिका गैस बढ़ रहा है (यह पूर्वनिर्धारित संख्या में न्यूरॉन्स तक सीमित नहीं है)।
एक और दृष्टिकोण एडेप्टिव रेजोनेंस थ्योरी है जहां हमारी दो परतें हैं: "तुलना क्षेत्र" और "मान्यता क्षेत्र"। मान्यता क्षेत्र तुलना क्षेत्र से स्थानांतरित वेक्टर में सबसे अच्छा मैच (न्यूरॉन) भी निर्धारित करता है और पार्श्व निरोधात्मक कनेक्शन भी है। कार्यान्वयन विवरण और सटीक समीकरण आसानी से इन मॉडलों के नामों को गुगली करके मिल सकते हैं, इसलिए मैं उन्हें यहां नहीं डालूंगा।