कई प्रयासों में कम एन्ट्रापी मूल्य का अनुमान


9

मान लीजिए कि एलिस का वितरण है μ एक परिमित (लेकिन संभवतः बहुत बड़ा) डोमेन, जैसे कि (शैनन) एन्ट्रापी μ ऊपरी तौर पर एक छोटे से स्थिरांक से घिरा होता है ε। ऐलिस एक मूल्य खींचता हैx से μ, और फिर बॉब (जो जानता है) से पूछता है μ) अनुमान के लिए x

बॉब के लिए सफलता की संभावना क्या है? यदि वह केवल एक अनुमान की अनुमति देता है, तो कोई इस संभावना को निम्न प्रकार से बाध्य कर सकता है: एन्ट्रापी ऊपरी मिनट-एन्ट्रापी को सीमित करता है, इसलिए एक ऐसा तत्व है जिसमें कम से कम संभावना है2ε। यदि बॉब इस तत्व को अपने अनुमान के रूप में चुनता है, तो उसकी सफलता की संभावना होगी2ε

अब, मान लीजिए कि बॉब को कई अनुमान लगाने की अनुमति है, कहते हैं tअनुमान लगाता है, और बॉब जीतता है यदि उसका कोई अनुमान सही है। क्या कोई अनुमान लगाने वाली योजना है जो बॉब की सफलता की संभावना में सुधार करती है? विशेष रूप से, यह दिखाना संभव है कि बॉब की विफलता की संभावना के साथ तेजी से घट जाती हैt?

जवाबों:


10

बॉब का सबसे अच्छा दांव अनुमान लगाना है t सबसे बड़ी संभावना के साथ मूल्य।

यदि आप इसके बजाय रेनेई एन्ट्रॉपी का उपयोग करने के लिए तैयार हैं, तो Boztaş की Entropies, Guessing और Cryptography में प्रस्ताव 17 बताता है कि त्रुटि की संभावना के बादt अनुमान सबसे ज्यादा है

12H2(μ)(1logtlogn)ln2(1logtlogn)H2(μ),
कहाँ पे nडोमेन का आकार है। दी, निर्भरता परt बहुत बुरा है, और शायद Boztaş एन्ट्रॉपी के एक अलग शासन पर केंद्रित था।

शैनन एंट्रोपी के लिए, आप दोहरी अनुकूलन समस्या को हल करने का प्रयास कर सकते हैं: एक निश्चित विफलता संभावना दी δ, इस तरह के वितरण की अधिकतम एंट्रोपी खोजें। के उत्तलता का उपयोग करनाxlogx, हम जानते हैं कि वितरण μ का रूप है a,b,,b;b,,b,c, कहाँ पे abc, a+(t1)b=1δ, तथा c=δδbb। हमारे पास हैt1+δb मान जो प्रायिकता प्राप्त करते हैं b। पर कंडीशनिंग कर रहा हैs=δb, हम खोजने की कोशिश कर सकते हैं bजो एन्ट्रापी को कम करता है। के सही मूल्य के लिएs, यह एक आंतरिक बिंदु होगा (जिस पर व्युत्पन्न गायब हो जाता है)। मुझे यकीन नहीं है कि इस दृष्टिकोण का उपयोग करके असममित अनुमान कैसे प्राप्त करें।


जवाब के लिए धन्यवाद! मैंने आपके द्वारा सुझाए गए अनुकूलन दृष्टिकोण की कोशिश की, लेकिन अच्छे अनुमान नहीं मिल सके।
या मीर

हाय युवल, कुछ और काम के बाद, ऐसा लगता है कि यह अनुकूलन दृष्टिकोण समाधान का उत्पादन करता है। दुर्भाग्य से, इस मामले में भी, अनुमानों की संख्या में त्रुटि केवल व्युत्क्रम-लघुगणकीय रूप से घट जाती है। धन्यवाद!
या मेयर

7

दुर्भाग्य से आपके सवाल का कोई अच्छा जवाब नहीं है। जॉन प्लियाम [पीएचडी थीसिस, एलएनसीएस श्रृंखला में 2 पेपर] पहले शैनन एंट्रोपी और अनुमानित संख्याओं के बीच असमानता का निरीक्षण करने वाले थे। उनकी थीसिस ऑनलाइन खोजना आसान है। खंड 4.3 में, के लिए एक उपयुक्त संभावना वितरण का चयन करकेX (एक मनमाना सकारात्मक पूर्णांक पर निर्भर करता है N) जो स्वयं समान हफमैन पेड़ों से आता है वह दर्शाता है कि संभावना के घटते क्रम में अनुमान लगाकर, किसी को अधिक से अधिक करना चाहिए N+H(X) सफलता की संभावना तक पहुँचने से पहले अनुमान लगाता है 1/2

यह इस कारण का कारण है कि लोगों ने रेनी एंट्रियों की जांच की।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.