लॉजिस्टिक रिग्रेशन अच्छी तरह से कैलिब्रेटेड मॉडल का उत्पादन क्यों करता है?


13

मैं समझता हूं कि वेब पर क्लिक-थ्रू दरों की भविष्यवाणी करने के लिए अक्सर लॉजिस्टिक प्रतिगमन का एक कारण यह है कि यह अच्छी तरह से कैलिब्रेटेड मॉडल का उत्पादन करता है। क्या इसके लिए एक अच्छी गणितीय व्याख्या है?


2
संभावनाओं का अनुमान लगाने के लिए लॉजिस्टिक रिग्रेशन -> जो ओवरफिट न होने पर कैलिब्रेटेड भविष्यवाणियों के लिए नेतृत्व करता है। जबकि अधिकांश मशीन लर्निंग मॉडल प्रोबेबिलिटीज की भविष्यवाणी नहीं करते हैं, बल्कि एक वर्ग - और इन भविष्यवाणियों से व्युत्पन्न छद्म-संभाव्यता के लिए कुछ गर्भपात हैं -> इसलिए अच्छी तरह से कैलिब्रेटेड ध्यान दें
चार्ट

2
मुझे प्रश्न में स्पष्ट करना चाहिए था, लेकिन मेरा प्रश्न इस बारे में अधिक था कि ऐसा क्यों है कि एलआर संभावनाओं का अनुमान लगाने के लिए कितना उपयोगी है।
lsankar4033

यह ध्यान देने योग्य है कि आप केवल कैलिब्रेटेड मॉडल प्राप्त करने के लिए खराब-कैलिब्रेटेड क्लासिफायरियर के आउटपुट के लिए एक लॉजिस्टिक रिग्रेशन फिट कर सकते हैं। इसे प्लॉट स्केलिंग en.wikipedia.org/wiki/Platt_scaling
जेनेरिक_युसर

जवाबों:


15

हाँ।

लॉजिस्टिक रिग्रेशन से अनुमानित संभावना वेक्टर मैट्रिक्स समीकरण को संतुष्ट करता हैपी

एक्सटी(पी-y)=0

जहां डिजाइन मैट्रिक्स है और वाई प्रतिक्रिया वेक्टर है। इसे रैखिक समीकरणों के संग्रह के रूप में देखा जा सकता है, जो डिज़ाइन मैट्रिक्स एक्स के प्रत्येक कॉलम से उत्पन्न होता हैएक्सyएक्स

इंटरसेप्ट कॉलम (जो ट्रांसपोज़्ड मैट्रिक्स में एक पंक्ति है) के लिए विशेषज्ञता, संबंधित रैखिक समीकरण है

Σमैं(पीमैं-yमैं)=0

इसलिए समग्र औसत अनुमानित संभावना प्रतिक्रिया के औसत के बराबर है।

आमतौर पर, बाइनरी फीचर कॉलम , संबंधित रैखिक समीकरण हैएक्समैंजे

Σमैंएक्समैंजे(पीमैं-yमैं)=Σमैं|एक्समैंजे=1(पीमैं-yमैं)=0

इसलिए अनुमानित भविष्यवाणियों का योग (और औसत) प्रतिक्रिया के योग के बराबर होता है, यहां तक ​​कि उन अभिलेखों के लिए विशेषज्ञता भी है जिनके लिए एक्समैंजे=1


1
@ मैथ्यूड्यूरी मैं आपके पहले समीकरण की व्याख्या कैसे कर सकता हूं? है फार्म के 1 / ( 1 + exp ( -पी ? फिर भी इस रैखिक संबंध रखती है? धन्यवाद! 1/(1+exp(-एक्स))
रिक

1
हां, पी उस रूप का है। पहला समीकरण नुकसान फ़ंक्शन के व्युत्पन्न को शून्य पर सेट करने से आता है।
मैथ्यू

1
यह केवल अंशांकन-इन-द-बड़े को संबोधित करता है जो वह नहीं है जो हम चाहते हैं: अंशांकन-इन-द-छोटा।
फ्रैंक हरेल

1
@FrankHarrell विस्तार से देखभाल? मैंने उन शर्तों को पहले नहीं सुना है।
मैथ्यू ड्र्यू

3
यूएस वेदर सर्विस 1950 तक संभावना पूर्वानुमान साहित्य डेटिंग में एक लंबा इतिहास है - यही वह जगह है जहां बैरियर स्कोर का पहली बार उपयोग किया गया था। कैलिब्रेशन-इन-द-छोटा का मतलब है कि अगर 0.01, 0.02, ..., 0.99 के अनुमानित जोखिमों को देखा जाए, तो इनमें से प्रत्येक सटीक है, अर्थात, सभी समय के लिए जब अनुमानित जोखिम 0.4 था, परिणाम 0.4 के बारे में हुआ समय। मैं "कैलिब्रेशन-इन-द-स्माल" अगला कदम कहता हूं: पुरुषों के लिए जिसमें भविष्यवाणी 0.4 थी, वर्तमान में 0.4 का परिणाम था, फिर महिलाओं के लिए।
फ्रैंक हरेल

2

मुझे लगता है कि मैं आपको एक आसान समझने वाला विवरण प्रदान कर सकता हूं:

हम जानते हैं कि इसके नुकसान समारोह निम्नलिखित समारोह के रूप में व्यक्त किया जा सकता:

जे(θ)=-1Σमैं=1[y(मैं)लॉग(θ(एक्स(मैं)))+(1-y(मैं))लॉग(1-θ(एक्स(मैं)))]

कहाँmकी संख्या का प्रतिनिधित्व करता है सभी प्रशिक्षण के नमूने,y(मैं)ith नमूने के लेबल,θ(एक्स(मैं))ith नमूने की भविष्यवाणी की संभावना:11+exp[-α-Σजेθजेएक्सजे(मैं)] । (पूर्वाग्रहαनोटिस करेंα यहां करें)

के बाद से प्रशिक्षण के लक्ष्य को नुकसान समारोह को कम करना है, हमें प्रत्येक पैरामीटर के संबंध में इसकी आंशिक व्युत्पन्न का मूल्यांकन करते हैं θजे (विस्तृत व्युत्पत्ति पाया जा सकता है यहाँ ):

जे(θ)θजे=1Σमैं=1[θ(एक्स(मैं))-y(मैं)]एक्सजे(मैं)


Σमैं=1θ(एक्स(मैं))एक्सजे(मैं)=Σमैं=1y(मैं)एक्सजे(मैं)

इसका मतलब है कि यदि मॉडल पूरी तरह से प्रशिक्षित है, तो प्रशिक्षण सेट के लिए हमें मिलने वाली अनुमानित संभावनाएं स्वयं फैल जाती हैं ताकि प्रत्येक विशेषता के लिए उस सुविधा के भारित (सभी) मूल्यों का योग उस सुविधा के मूल्यों के योग के बराबर हो सकारात्मक नमूनों की।

αएक्स0αθ0

Σमैं=1θ(एक्स(मैं))एक्स0(मैं)=Σमैं=1y(मैं)एक्स0(मैं)
Σमैं=1θ(एक्स(मैं))=Σमैं=1y(मैं)
θ(एक्स(मैं))
Σमैं=1पी(मैं)=Σमैं=1y(मैं)

हम स्पष्ट रूप से देख सकते हैं कि लॉजिस्टिक रिग्रेशन अच्छी तरह से कैलिब्रेटेड है।

संदर्भ: चार्ल्स एल्कान द्वारा लॉग-रैखिक मॉडल और सशर्त यादृच्छिक फ़ील्ड

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.