मैं दो लोकप्रिय पोस्ट हॉक मॉडल व्याख्यात्मक तकनीकों के बारे में पढ़ रहा हूं: लिम और SHAP
मुझे इन दोनों तकनीकों में महत्वपूर्ण अंतर को समझने में परेशानी हो रही है।
स्कॉट लुंडबर्ग को उद्धृत करने के लिए , SHAP के पीछे दिमाग:
SHAP मान लिमे के ब्लैक बॉक्स स्थानीय अनुमान लाभ के साथ आते हैं, लेकिन गेम थ्योरी से स्थिरता और स्थानीय सटीकता के बारे में सैद्धांतिक गारंटी के साथ आते हैं (अन्य तरीकों से विशेषता जो हम एकीकृत करते हैं)
मुझे यह समझने में थोड़ी परेशानी हो रही है कि यह ' गेम थ्योरी से स्थिरता और स्थानीय सटीकता के बारे में सैद्धांतिक गारंटी ' क्या है। चूंकि SHAP को LIME के बाद विकसित किया गया था, इसलिए मुझे लगता है कि यह कुछ अंतराल पर भरता है जिसे LIME संबोधित करने में विफल रहता है। वो क्या है?
शेफ़ी एस्टीमेशन पर एक अध्याय में क्रिस्टोफ़ मोलनार की पुस्तक :
भविष्यवाणी और औसत भविष्यवाणी के बीच का अंतर उदाहरण की विशेषताओं के मूल्यों के बीच काफी वितरित किया जाता है - जर्जर दक्षता संपत्ति। यह प्रॉपर्टी लिमए जैसी अन्य विधियों से अलग शापली मूल्य निर्धारित करती है। सीमा पूरी तरह से प्रभावों को वितरित करने की गारंटी नहीं देती है। यह पूर्ण विवरण देने के लिए एकमात्र विधि Shapley मान बना सकता है
इसे पढ़कर, मुझे समझ में आता है कि SHAP स्थानीय नहीं है, बल्कि डेटा बिंदु का एक मुखर स्पष्टीकरण है। मैं यहां गलत हो सकता हूं और उपरोक्त उद्धरण का मतलब क्या है, इसके बारे में कुछ जानकारी चाहिए। मेरे प्रश्न को संक्षेप में प्रस्तुत करने के लिए: सीमा स्थानीय स्पष्टीकरण का उत्पादन करती है। SHAP की व्याख्या लीमेई से कैसे भिन्न हैं?