XGboost - मॉडल द्वारा बनाया गया विकल्प


10

मैं बीमा दावों पर 2 वर्गों के लक्ष्य चर की भविष्यवाणी करने के लिए XGboost का उपयोग कर रहा हूं । मेरे पास एक मॉडल है (क्रॉस सत्यापन के साथ प्रशिक्षण, हाइपर पैरामीटर ट्यूनिंग आदि ...) मैं दूसरे डेटासेट पर चलता हूं।

मेरा सवाल यह है कि :

क्या यह जानने का एक तरीका है कि किसी दिए गए दावे का एक वर्ग पर प्रभाव क्यों पड़ा है?

उद्देश्य यह है कि मशीन द्वारा किए गए चुनाव को तीसरे पक्ष के मानव को सही ठहराने में सक्षम होना चाहिए।

आपके उत्तर के लिए धन्यवाद।

जवाबों:


7

मेरा सुझाव है कि आप शेप के लिए जाएं । यह मॉडल के व्यवहार का वर्णन करने के लिए शेपली मूल्यों (गेम थ्योरी से उधार ली गई अवधारणा) का उपयोग करता है, और इसके साथ यह एक ही भविष्यवाणी को समझा सकता है।

यह ग्राफिकल इंटरफ़ेस फोर्स प्लॉट्स का उपयोग करता है, जैसे कि आप नीचे देखते हैं। यहाँ छवि विवरण दर्ज करें

लाल पट्टी को उन विशेषताओं द्वारा बनाया जाता है जो सकारात्मक मूल्यों की भविष्यवाणी का नेतृत्व करते हैं, और अन्य लोगों द्वारा नीला।

आपके मामले में (एक क्लासिफायरियर) बोल्ड में संख्या सिग्मॉइड फ़ंक्शन से ठीक पहले एक होगी जो शून्य और एक (एक वर्ग या अन्य) के बीच आउटपुट मूल्य को सीमित करेगी। तो डरो मत अगर कुछ मामलों में यह एक से अधिक या नकारात्मक होगा।

सेगमेंट का आकार यह दर्शाता है कि यह फीचर भविष्यवाणी में कितना योगदान देता है, और सेगमेंट के तहत आप फ़ीचर का नाम देखते हैं (उदा। LSTAT) और यह वास्तविक मान है (उदा। 4.98)। तो, इस मामले में, LSTAT औसत विशेषता है जो डेटासेट के उस तत्व के लिए 24.41 (बोल्ड में संख्या) के मूल्य के लिए भविष्यवाणी का नेतृत्व करता है।

का आनंद लें!


9

XGBoost मॉडल के लिए अलग-अलग भविष्यवाणियों में सुविधा योगदान की व्याख्या करने के लिए आप ELI5 लाइब्रेरी का उपयोग कर सकते हैं ।

डॉक्स में व्याख्या की भविष्यवाणी देखें , नीचे कॉपी की गई है:

यह जानने के लिए कि हमारा क्लासिफ़ायर कैसे काम करता है, के बारे में बेहतर जानकारी प्राप्त करने के लिए eli5.show_prediction():

from eli5 import show_prediction
show_prediction(clf, valid_xs[1], vec=vec, show_feature_values=True)

यहाँ छवि विवरण दर्ज करें


हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.