जहां तक मुझे पता है, किसी ने भी यह कोशिश नहीं की है, जिस तरह से नेटवर्क संरचित है। प्रत्येक इनपुट में वजन का एक सेट होता है, जो अधिक इनपुट से जुड़ा होता है। यदि इनपुट स्विच करते हैं, तो आउटपुट भी होगा ।
हालाँकि, आप एक नेटवर्क का निर्माण कर सकते हैं जो इस व्यवहार से संपर्क करता है। अपने प्रशिक्षण सेट में, बैच लर्निंग का उपयोग करें और प्रत्येक प्रशिक्षण नमूने के लिए, नेटवर्क को सभी संभव क्रमपरिवर्तन दें जैसे कि यह क्रमपरिवर्तन अपरिवर्तनीय होना सीखता है। यह वास्तव में कभी नहीं होगा, यह सिर्फ करीब हो सकता है ।
ऐसा करने का एक और तरीका यह है कि सभी इनपुट के लिए वेट को दोहराया जाए। उदाहरण के लिए, मान लें कि आपके पास 3 इनपुट (i0, i1, i2) हैं, और अगली छिपी हुई परत में 2 नोड्स (hl0, hl1) और सक्रियण फ़ंक्शन है। पूरी तरह से जुड़ी हुई परत को मानते हुए, आपके पास 2 वजन 0 और w1 है। छिपी हुई परत के नोड्स hl0 और hl1 क्रमशः, द्वारा दिए गए हैं
इस प्रकार आपको एक छिपी हुई परत दी जा रही है जिसके मान इनपुट से क्रमपरिवर्तन अपरिवर्तनीय हैं। अब से, आप बाकी नेटवर्क को सीख और बना सकते हैं जैसा कि आप फिट देखते हैं। यह एक दृष्टिकोण है, जो कि परतों की परतों से निकला है।
ऑफ-टॉपिक, यह एक शांत परियोजना की तरह लगता है। यदि आप किसी शोध परियोजना में सहयोग करना चाहते हैं, तो मुझसे संपर्क करें (मेरी प्रोफ़ाइल जांचें)