चंचलता क्या है?


42

मुझे टर्म पेप्लेक्सिटी का पता चला, जो अनदेखी डेटा पर लॉग-एवरेज उलटा संभावना को संदर्भित करता है। विकृति पर विकिपीडिया लेख उसी के लिए एक सहज अर्थ नहीं देता है।

पीएलएसए पेपर में इस गड़बड़ी को मापने के लिए इस्तेमाल किया गया था ।

क्या कोई भी मापक की आवश्यकता और सहज अर्थ की व्याख्या कर सकता है ?


मैं pLSA के लिए पूर्णता की गणना कैसे करूं मेरे पास डेटामेट्रिक्स जिसकी गिनती है और टीईएम एल्गोरिदम द्वारा पी ( डी ) और पी ( डब्ल्यू | डी ) की गणना की जाती है। Xp(d)p(w|d)
शिक्षार्थी

3
मैंने 5 डेटा माइनिंग / मशीन लर्निंग / प्रेडिक्टिव एनालिटिक्स बुक्स की निस्बत, लॉरोज़, विटेन, तोर्गो और शेमहेली (प्लस कोउथोर्स) द्वारा जाँच की है और यह शब्द उनमें से किसी में भी नहीं है। मैं हैरान हूँ :)
zbicyclist

1
अनिश्चितता के लिए एक और फैंसी नाम Perplexity है। इसे बाहरी मूल्यांकन के खिलाफ आंतरिक मूल्यांकन के रूप में माना जा सकता है। जान जुराफस्की इसे उदाहरण के साथ उदाहरण के तौर पर समझाते हैं जैसे कि youtube.com/watch?v=BAN3NB_SNHY
bicepjai

2
@zbicyclist, यदि आप जंगली में उदाहरण देख रहे हैं, तो यह विशेष रूप से एनएलपी में आम है, और विशेष रूप से भाषा मॉडल के लिए चीजों के मूल्यांकन के लिए।
मैट क्रूस १

कुछ क्षेत्रों (उदाहरण के लिए अर्थशास्त्र) में लोग समतुल्य संख्याओं के बारे में बात करते हैं ताकि उदाहरण के लिए जहां H स्वाभाविक रूप से लघुगणक के आधार पर एन्ट्रापी है, समान रूप से समान श्रेणियों की एक समान संख्या है। तो, संभावना के साथ दो श्रेणियों में से प्रत्येक 0.5 उपज ln 2 की प्रतिरूपण और प्रतिपादक समान रूप से सामान्य श्रेणियों की संख्या के रूप में वापस 2 हो जाता है। असमान संभावनाओं के लिए समतुल्य संख्या सामान्य रूप से पूर्णांक में नहीं होती है। exp(H)Hln2
निक कॉक्स

जवाबों:


21

आपने विकिपीडिया पर विकिपीडिया के लेख को देखा है । यह एक असतत वितरण की पूर्णता देता है

2xp(x)log2p(x)

जो भी लिखा जा सकता है

exp(xp(x)loge1p(x))

यानी संभावनाओं के व्युत्क्रमों के भारित ज्यामितीय औसत के रूप में। निरंतर वितरण के लिए, योग एक अभिन्न अंग में बदल जाता है।

लेख भी परीक्षण डेटा के टुकड़ों का उपयोग कर एक मॉडल के लिए प्रासंगिकता का अनुमान लगाने का एक तरीका देता हैN

2i=1N1Nlog2q(xi)

जो भी लिखा जा सकता है

exp(i=1Nloge(1q(xi))N) or i=1N1q(xi)N

या कई अन्य तरीकों से, और इससे यह और भी स्पष्ट हो जाना चाहिए कि "लॉग-औसत व्युत्क्रम संभावना" कहां से आती है।


जब ई को 2 के बजाय प्रतिपादक के रूप में उपयोग किया जाता है, तो क्या कोई विशेष अंतर है?
हेनरी ई

2
10alogax=blogbx

मुझे इतना ज्यादा लगा। मुझे यह जवाब तब मिला जब मैं यह समझने की कोशिश कर रहा था कि क्यों कोड का एक टुकड़ा ई का उपयोग कर रहा था जब वे अन्य सभी योगों को देख चुके थे, जिनका उपयोग मैंने पहले किया था। 2. मुझे अब पता चला कि यह जानना कितना महत्वपूर्ण है कि फ्रेमवर्क क्या है। लॉग नुकसान की गणना के लिए एक आधार के रूप में उपयोग करता है
हेनरी ई

27

मुझे यह सहज नहीं मिला:

जिस भी चीज़ का आप मूल्यांकन कर रहे हैं, उसकी पूर्णता, जिस डेटा पर आप उसका मूल्यांकन कर रहे हैं, उस पर आपको बताता है कि "यह बात सही है जितनी बार एक्स-साइड मरना होगा।"

http://planspace.org/2013/09/23/perplexity-what-it-is-and-what-yours-is/


यह एक दिलचस्प लेख है; शायद इतनी गहराई में नहीं लेकिन एक अच्छा परिचयात्मक पढ़ा।
मोनिका हेडडेक

1
मुझे यह लेख भी मददगार लगा, jamesmccaffrey.wordpress.com/2016/08/16/…
user2561747

11

मैंने भी यही सोचा है। पहला स्पष्टीकरण बुरा नहीं है, लेकिन यहाँ मेरे 2 नट हैं जो भी इसके लायक हैं।


सबसे पहले, perplexity का यह वर्णन करने से कोई लेना-देना नहीं है कि आप कितनी बार कुछ सही अनुमान लगाते हैं। यह एक स्टोकेस्टिक अनुक्रम की जटिलता को चिह्नित करने के लिए अधिक है।

2xp(x)log2p(x)

आइए पहले लॉग और एक्सपेंसेशन को रद्द करें।

2xp(x)log2p(x)=1xp(x)p(x)

मुझे लगता है कि यह इंगित करने के लायक है कि आप जिस आधार पर एन्ट्रापी को परिभाषित करने के लिए उपयोग करते हैं, उसके साथ अनिश्चितता है। तो इस अर्थ में, माप के रूप में एन्ट्रापी की तुलना में अनित्यता अधिक अनूठे रूप से अद्वितीय / कम मनमानी है।

पासा से रिश्ता

11212×1212=2

N

1(1N1N)N=N

इसलिए चिंता एक निष्पक्ष मरने के पक्षों की संख्या को दर्शाती है कि जब लुढ़का जाता है, तो आपके दिए गए प्रायिकता वितरण के समान ही एन्ट्रॉपी के साथ एक अनुक्रम पैदा करता है।

राज्यों की संख्या

NN+1NϵNN+1ϵNxpxN

px=px(1ϵ)

1ϵϵxNpxpx=1ϵϵxN(px(1ϵ))px(1ϵ)=1ϵϵxNpxpx(1ϵ)(1ϵ)px(1ϵ)=1ϵϵ(1ϵ)(1ϵ)xNpxpx(1ϵ)

ϵ0

1xNpxpx

इसलिए जैसे-जैसे आप मरने के एक तरफ लुढ़कते जा रहे हैं, वैसे-वैसे यह संभावना खत्म होती जा रही है कि कहीं यह मौजूद न हो।


3
निश्चित रूप से यह केवल ~ 1.39 नॉट लायक है?
मैट क्रस

xNpxpx=(1ϵ)1ϵxNpxpx(1ϵ)
xNpxpx=xN(px(1ϵ))px(1ϵ)=xN(1ϵ)px(1ϵ)xNpxpx(1ϵ)

\prod_x^N\left{(1-\epsilon\right)}^{p_x\left(1-\epsilon\right)}={\left(1-\epsilon\right)}^{\sum_x^N p_x \left(1-\epsilon\right)}={\left(1-\epsilon\right)}^{\left(1-\epsilon\right)\sum_x^N p_x}={\left(1-\epsilon\right)}^{\left(1-\epsilon\right)}

5

XX

P(X=X)2H(X)=12H(X)=1perplexity

समझाने के लिए, एक समान वितरण X की पूर्णता मात्र है | X | तत्वों की संख्या। अगर हम उन मूल्यों का अनुमान लगाने की कोशिश करते हैं जो एक समान वितरण X से iid नमूने लेते हैं तो X से केवल iid अनुमान लगाते हैं, हम सही 1 / | X | = 1 / perplexity समय के होंगे। चूंकि समान वितरण से मूल्यों का अनुमान लगाना सबसे कठिन है, इसलिए हम अनुमान लगाने के लिए कि हम कितनी बार सही होंगे, इसके लिए हम 1 / perplexity को निम्न बाउंड / हेयुरिस्टिक अनुमानित के रूप में उपयोग कर सकते हैं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.