यदि आँकड़े सभी संभावना को अधिकतम करने के बारे में हैं, तो मशीन लर्निंग सभी नुकसान को कम करने के बारे में है। चूँकि आप भविष्य के डेटा पर होने वाले नुकसान को नहीं जानते हैं, आप एक अनुमान, यानी नुकसान को कम कर सकते हैं।
उदाहरण के लिए, यदि आपके पास एक भविष्यवाणी कार्य है और गर्भपात की संख्या का मूल्यांकन किया जाता है, तो आप मापदंडों को प्रशिक्षित कर सकते हैं ताकि परिणामस्वरूप मॉडल प्रशिक्षण डेटा पर सबसे कम संख्या में गर्भपात का उत्पादन करे। "गर्भपात की संख्या" (यानी, 0-1 नुकसान) के साथ काम करने के लिए एक कठिन नुकसान कार्य है क्योंकि यह अलग नहीं है, इसलिए आप इसे एक चिकनी "सरोगेट" के साथ अनुमानित करते हैं। उदाहरण के लिए, लॉग लॉस 0-1 नुकसान पर एक ऊपरी सीमा है, इसलिए आप इसके बजाय इसे कम कर सकते हैं, और यह डेटा की सशर्त संभावना को अधिकतम करने के समान होगा। पैरामीट्रिक मॉडल के साथ यह दृष्टिकोण लॉजिस्टिक रिग्रेशन के बराबर हो जाता है।
एक संरचित मॉडलिंग कार्य, और 0-1-हानि के लॉग-लॉस सन्निकटन में, आपको अधिकतम सशर्त संभावना से कुछ अलग मिलता है, आप इसके बजाय (सशर्त) सीमांत संभावना के उत्पाद को अधिकतम करेंगे ।
नुकसान का बेहतर अनुमान प्राप्त करने के लिए, लोगों ने देखा कि नुकसान को कम करने के लिए प्रशिक्षण मॉडल और भविष्य के नुकसान के अनुमान के रूप में उस नुकसान का उपयोग करना एक अत्यधिक अनुकूल अनुमान है। इसलिए अधिक सटीक (भविष्य के नुकसान के लिए) न्यूनतम वे अनुभवजन्य हानि के लिए एक पूर्वाग्रह सुधार शब्द जोड़ते हैं और इसे कम से कम करते हैं, इसे संरचित जोखिम न्यूनतमकरण के रूप में जाना जाता है।
व्यवहार में, सही पूर्वाग्रह सुधार शब्द का पता लगाना बहुत कठिन हो सकता है, इसलिए आप पूर्वाग्रह सुधार शब्द की "भावना" जोड़ते हैं, उदाहरण के लिए, मापदंडों के वर्गों का योग। अंत में, लगभग सभी पैरामीट्रिक मशीन सीखने वाले पर्यवेक्षित वर्गीकरण दृष्टिकोण ने मॉडल को निम्नलिखित को कम करने के लिए प्रशिक्षण को समाप्त कर दिया
Σमैंएल ( एम ( एक्स)मैं, w ) , yमैं) + पी( w )
जहां अपने मॉडल वेक्टर द्वारा parametrized है w , मैं सब datapoints में ले लिया है { x मैं , y मैं } , एल अपना असली नुकसान और से कुछ computationally अच्छा सन्निकटन है पी ( डब्ल्यू ) है कुछ पूर्वाग्रह-सुधार / नियमितीकरण अवधिमwमैं{ एक्समैं, वाईमैं}एलपी( w )
उदाहरण के लिए अपने यदि , y ∈ { - 1 , 1 } , एक ठेठ दृष्टिकोण बताने के लिए किया जाएगा मीटर ( एक्स ) = संकेत ( wx ∈ { - 1 , 1 }घy∈ { - 1 , 1 } , एल ( मीटर ( एक्स ) , y ) = - लॉग ( y × ( एक्स ⋅ डब्ल्यू ) ) , पी (मीटर (एक्स)= संकेत (डब्ल्यू⋅एक्स)एल ( एम ( एक्स ) , वाई) = - लॉग( y× ( एक्स ⋅ डब्ल्यू ) ) , और चुनें क्ष पार सत्यापन द्वारापी( w ) = क्यू× ( डब्ल्यू ⋅ डब्ल्यू )क्ष