मेरे पास एक तंत्रिका नेटवर्क है जो कुछ का अनुमान लगाने के लिए सेट किया गया है जहां आउटपुट चर सामान्य है। मैं नीचे तीन संभावित आउटपुट ए <बी <सी का उपयोग करके वर्णन करूंगा।
यह स्पष्ट है कि कैसे एक न्यूरल नेटवर्क का उपयोग श्रेणीबद्ध डेटा के उत्पादन के लिए किया जाता है: आउटपुट अंतिम (आमतौर पर पूरी तरह से जुड़ा हुआ) परत का एक सॉफ्टमैक्स है, प्रति श्रेणी, और पूर्वानुमानित श्रेणी सबसे बड़े आउटपुट मान के साथ एक है (यह है) कई लोकप्रिय मॉडल में डिफ़ॉल्ट)। मैं अध्यादेश के मूल्यों के लिए एक ही सेटअप का उपयोग कर रहा हूं। हालांकि, इस मामले में आउटपुट अक्सर समझ में नहीं आते हैं, उदाहरण के लिए ए और सी के लिए नेटवर्क आउटपुट उच्च हैं, लेकिन बी कम है: यह सामान्य मूल्यों के लिए प्रशंसनीय नहीं है।
मुझे इसके लिए एक विचार है, जो कि ए के लिए 1 0 0, बी के लिए 1 1 0 और सी के लिए 1 1 1 के साथ आउटपुट की तुलना के आधार पर नुकसान की गणना करना है। सटीक थ्रेसहोल्ड को बाद में एक और क्लासिफायरियर (जैसे बायेसियन) का उपयोग करके ट्यून किया जा सकता है ) लेकिन यह किसी विशिष्ट अंतराल पैमाने को निर्धारित किए बिना, इनपुट के आदेश के आवश्यक विचार पर कब्जा करने के लिए लगता है।
इस समस्या को हल करने का मानक तरीका क्या है? क्या कोई शोध या संदर्भ है जो विभिन्न दृष्टिकोणों के पेशेवरों और विपक्षों का वर्णन करता है?