मोंटे कार्लो के साथ कुल्बैक लीब्लर (केएल) विचलन का अनुमान लगाएं


10

मैं दो निरंतर वितरण f और g के बीच केएल विचलन का अनुमान लगाना चाहता हूं। हालाँकि, मैं च या जी के लिए घनत्व नीचे नहीं लिख सकता। मैं च और जी दोनों से कुछ विधि के माध्यम से नमूना ले सकता हूं (उदाहरण के लिए, मार्कोव श्रृंखला मोंटे कार्लो)।

एफ से जी तक केएल विचलन को इस तरह परिभाषित किया गया है

DKL(f||g)=f(x)log(f(x)g(x))dx

यह की उम्मीद है च के संबंध में तो आप कुछ मोंटे कार्लो अनुमान की कल्पना कर सकते हैंlog(f(x)g(x))

1NiNlog(f(xi)g(xi))

जहां मैं N नमूने को f ( i = 1, ..., N) के लिए f (यानी से तैयार किया गया हैxif()

हालाँकि, जब से मुझे f () और g () का पता नहीं है, मैं इस मोंटे कार्लो अनुमान का उपयोग भी नहीं कर सकता। इस स्थिति में केएल का आकलन करने का मानक तरीका क्या है?

संपादित करें: मैं च () या जी () के लिए असामान्य घनत्व नहीं जानता


क्या आपने ecdfs का उपयोग करने पर विचार किया है?
टॉबी

यह काम करेगा लेकिन यह च और जी (क्लोज़, या क्लोज़ टेल) के कठिन चुनाव के लिए मनमाने ढंग से धीमा हो सकता है। यदि आप नमूनों को पूंछ से दूर अनदेखा करने का निर्णय लेते हैं, तो आपके पास आरसी को ऊपरी बाउंडिंग के साथ अधिक भाग्य हो सकता है।
ईसाई चैपमैन

अनिवार्य रूप से एक डुप्लिकेट: आंकड़े.stackexchange.com/questions/211175/…
kjetil b halvorsen

जवाबों:


7

मुझे लगता है कि आप मूल्यांकन कर सकते हैं f तथा gएक सामान्य स्थिरांक तक। निरूपितf(x)=fu(x)/cf तथा g(x)=gu(x)/cजी

एक सुसंगत आकलनकर्ता जिसका उपयोग किया जा सकता है

DKL^(f||g)=[n1jfu(xj)/πf(xj)]11NiN[log(fu(zi)gu(zi))fu(zi)πr(zi)]log(r^)
कहाँ पे
(1)आर^=1/n1/nΣजेयू(एक्सजे)/π(एक्सजे)Σजेजीयू(yजे)/πजी(yजे)
अनुपात के लिए एक महत्वपूर्ण नमूना आकलनकर्ता है सी/सीजी। यहाँ आप उपयोग करते हैंπ तथा πजी के लिए वाद्य घनत्व के रूप में यू तथा जीयू क्रमशः, और πआर अपसामान्य घनत्व के लॉग अनुपात को लक्षित करने के लिए।

तो चलो {एक्समैं}~π, {yमैं}~πजी, तथा {zमैं}~πआर। (1) के अंश में परिवर्तित होता हैसी। भाजक में परिवर्तित होता हैसीजी। अनुपात निरंतर मैपिंग प्रमेय द्वारा सुसंगत है। अनुपात का लॉग फिर से निरंतर मैपिंग द्वारा संगत है।

अनुमानक के अन्य भाग के बारे में,

1एनΣमैंएन[लॉग(यू(zमैं)जीयू(zमैं))यू(zमैं)πआर(zमैं)]जैसासी[लॉग(यू(zमैं)जीयू(zमैं))]
बड़ी संख्या के कानून द्वारा।

मेरी प्रेरणा निम्नलिखित है:

डीएल(||जी)=-(एक्स)लॉग((एक्स)जी(एक्स))एक्स=-(एक्स){लॉग[यू(एक्स)जीयू(एक्स)]+लॉग[सीजीसी]}एक्स=[लॉगयू(एक्स)जीयू(एक्स)]+लॉग[सीजीसी]=सी-1πआर[लॉगयू(एक्स)जीयू(एक्स)यू(एक्स)πआर(एक्स)]+लॉग[सीजीसी]
इसलिए मैं इसे केवल ट्रैक्टेबल टुकड़ों में तोड़ता हूं।

संभावना अनुपात के अनुकरण के बारे में अधिक विचारों के लिए, मुझे एक पेपर मिला जिसमें कुछ है: https://projecteuclid.org/download/pdf_1/euclid.aos/1031594732


(+1) यह ध्यान देने योग्य है कि महत्व के नमूने में अत्यधिक उच्च विचरण (यहां तक ​​कि अनंत विचरण) हो सकता है, यदि लक्ष्य वितरण में आपके द्वारा नमूना किए गए वितरण और / या आयामों की संख्या से बड़ी संख्या में गड़बड़ है।
डेविड जे। हैरिस

@ डेविड जे.हरिस बहुत ही सच्चे
टेलर

6

यहां मैं मानता हूं कि आप केवल मॉडलों से नमूना ले सकते हैं; एक असंसाधित घनत्व फ़ंक्शन उपलब्ध नहीं है।

आप वो लिखिए

डीएल(||जी)=-(एक्स)लॉग((एक्स)जी(एक्स)=:आर)एक्स,

जहां मैंने होने की संभावनाओं के अनुपात को परिभाषित किया है आरएलेक्स स्मोला लिखते हैं, हालांकि एक अलग संदर्भ में कि आप केवल एक क्लासिफायरशिप प्रशिक्षण द्वारा इन अनुपातों का "आसानी से" अनुमान लगा सकते हैं। हमें मान लें कि आपने एक क्लासिफायरियर प्राप्त किया हैपी(|एक्स), जो आपको संभावना बता सकता है कि एक अवलोकन एक्स द्वारा उत्पन्न किया गया है । ध्यान दें किपी(जी|एक्स)=1-पी(|एक्स)। फिर:

आर=पी(एक्स|)पी(एक्स|जी)=पी(|एक्स)पी(एक्स)पी(जी)पी(जी|एक्स)पी(एक्स)पी()=पी(|एक्स)पी(जी|एक्स),

जहां पहला कदम बेयस के कारण है और अंतिम इस धारणा से है पी(जी)=पी()

इस तरह का क्लासिफायर करना दो कारणों से काफी आसान हो सकता है।

सबसे पहले, आप स्टोचस्टिक अपडेट कर सकते हैं। इसका मतलब है कि यदि आप एक ग्रेडिएंट-आधारित ऑप्टिमाइज़र का उपयोग कर रहे हैं, जैसा कि लॉजिस्टिक रिग्रेशन या न्यूरल नेटवर्क के लिए विशिष्ट है, तो आप बस प्रत्येक से एक नमूना बना सकते हैं तथा जी और एक अद्यतन करें।

दूसरा, जैसा कि आपके पास वस्तुतः असीमित डेटा है - आप सिर्फ नमूना कर सकते हैं तथा जी मौत के लिए - आप overfitting या इस तरह के बारे में चिंता करने की ज़रूरत नहीं है।


0

@Bayerj द्वारा उल्लिखित संभाव्य क्लासिफायरियर विधि के अलावा, आप केएल डाइवर्जेंस के निचले भाग का भी उपयोग कर सकते हैं जो कि व्युत्पन्न है [1-2]:

एल[जी]सुड़कनाटी{एक्स~[टी(एक्स)]-एक्स~जी[exp(टी(एक्स)-1)]},
कहाँ पे टी:एक्सआरएक मनमाना कार्य है। कुछ हल्की परिस्थितियों में, निम्न के लिए बाध्य है:
टी(एक्स)=1+ln[(एक्स)जी(एक्स)]

के बीच केएल विचलन का अनुमान लगाने के लिए तथा जी, हम फ़ंक्शन के निचले बाउंड राइट को अधिकतम करते हैं टी(एक्स)

संदर्भ:

[१] गुयेन, एक्स।, वेनराइट, एमजे और जोर्डन, एमआई, २०१०। उत्तोलन के कार्य का अनुमान लगाने और उत्तल जोखिम को कम करने की संभावना अनुपात। सूचना सिद्धांत पर आईईईई लेनदेन, 56 (11), पीपी.5847-5861।

[२] नोवोज़िन, एस।, सेस्के, बी। और टॉमिओका, आर।, २०१६। एफ-गण: ट्रेनिंग डाइरेक्टिव न्यूरल सैंपलर्स का उपयोग करके वैरिएबल डाइवरेज मिनिमाइज़ेशन। तंत्रिका सूचना प्रसंस्करण प्रणालियों में अग्रिम (पीपी। 271-279)।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.