मैं अपने इनपुट वैरिएबल को बाइनरी आउटपुट वेरिएबल्स में फिट करने के लिए लॉजिस्टिक रिग्रेशन के एक मानक संस्करण का उपयोग कर रहा हूं।
हालांकि मेरी समस्या में, नकारात्मक आउटपुट (0s) सकारात्मक आउटपुट (1s) से बहुत आगे निकल जाते हैं। अनुपात 20: 1 है। इसलिए जब मैं एक क्लासिफायरियर को प्रशिक्षित करता हूं, तो ऐसा लगता है कि यहां तक कि ऐसे फीचर्स भी हैं जो दृढ़ता से एक सकारात्मक आउटपुट की संभावना का सुझाव देते हैं फिर भी उनके संबंधित मापदंडों के लिए बहुत कम (अत्यधिक नकारात्मक) मान हैं। मुझे ऐसा लगता है कि ऐसा होता है क्योंकि मापदंडों को अपनी दिशा में खींचने वाले बहुत सारे नकारात्मक उदाहरण हैं।
इसलिए मैं सोच रहा हूं कि क्या मैं सकारात्मक उदाहरणों के लिए वजन (1 के बजाय 20 का उपयोग करके) जोड़ सकता हूं। क्या इससे सभी को लाभ होने की संभावना है? और अगर ऐसा है, तो मुझे वज़न कैसे जोड़ना चाहिए (नीचे समीकरणों में)।
लागत समारोह निम्न प्रकार दिखता है:
इस लागत समारोह (ढाल ) की ढाल इस प्रकार है:
यहाँ = परीक्षण मामलों की संख्या, = सुविधा मैट्रिक्स, = आउटपुट वेक्टर, = सिग्मॉइड फ़ंक्शन, = पैरामीटर जिसे हम सीखने की कोशिश कर रहे हैं।
अंत में मैं सबसे कम को खोजने के लिए ढाल वंश चला रहा हूं । कार्यान्वयन सही ढंग से चलता है।