"क्रॉस एन्ट्रॉपी" की परिभाषा और उत्पत्ति


15

सूत्रों का हवाला दिए बिना, विकिपीडिया असतत वितरण पी और क्यू के क्रॉस-एंट्रोपी को परिभाषित करता हैपीक्यू

एच×(पी;क्यू)=-Σएक्सपी(एक्स)लॉगक्ष(एक्स)

इस मात्रा का उपयोग शुरू करने के लिए सबसे पहले कौन था? और इस शब्द का आविष्कार किसने किया? मैंने इसमें देखा:

जेई शोर और आरडब्ल्यू जॉनसन, "अधिकतम एन्ट्रापी के सिद्धांत और न्यूनतम क्रॉस-एन्ट्रापी के सिद्धांत के एशियोमेटिक व्युत्पन्न," सूचना सिद्धांत, IEEE लेनदेन पर, वॉल्यूम। 26, सं। 1, पीपी 26-37, जनवरी 1980।

मैंने उनका परिचय दिया

ए। वेहरल, "एन्ट्रॉपी के सामान्य गुण," आधुनिक भौतिकी की समीक्षा, वॉल्यूम। 50, नहीं। 2, पीपी 221-260, अप्रैल 1978।

जो कभी भी शब्द का उपयोग नहीं करता है।

न तो करता है

एस। कुल्बैक और आर। लीब्लर, "सूचना और पर्याप्तता पर," गणितीय की सांख्यिकी सांख्यिकी। 22, सं। 1, पीपी। 79-86, 1951।

मैंने अंदर देखा

टीएम कवर एंड जेए थॉमस, एलिमेंट्स ऑफ इंफॉर्मेशन थ्योरी (दूरसंचार और सिग्नल प्रोसेसिंग में विली सीरीज)। विली-इंटरसाइंस, 2006।

तथा

आई। गुड, "हाइपोथिसिस फॉर्मुलेशन के लिए अधिकतम एंट्रॉपी, विशेष रूप से बहुआयामी आकस्मिकता तालिकाओं के लिए," गणित के आंकड़े। 34, सं। 3, पीपी। 911-934, 1963।

लेकिन दोनों ही पेपर केएल-डिवर्जेशन का पर्याय बनने के लिए क्रॉस-एंट्रोपी को परिभाषित करते हैं।

मूल कागज

सीई शैनन, "एक गणितीय सिद्धांत का संचार," बेल सिस्टम तकनीकी पत्रिका, वॉल्यूम। 27, 1948।

क्रॉस एन्ट्रॉपी का उल्लेख नहीं करता है (और "सापेक्ष एन्ट्रॉपी" की एक अजीब परिभाषा है: "एक स्रोत की एन्ट्रॉपी का अधिकतम मूल्य का अनुपात जो अभी भी समान प्रतीकों तक सीमित हो सकता है")।

अंत में, मैंने ट्रिबस द्वारा कुछ पुरानी पुस्तकों और पत्रों में देखा।

क्या किसी को पता है कि ऊपर दिए गए समीकरण को क्या कहा जाता है, और किसने इसका आविष्कार किया है या इसकी एक अच्छी प्रस्तुति है?

जवाबों:


7

मैं1:2()2.2-2.4

संपादित करें:

अतिरिक्त उपनामों में कुल्बैक-लिब्लर सूचना माप, सापेक्ष सूचना माप, क्रॉस-एन्ट्रापी, आई-डायवर्जेंस और केरिज अशुद्धि शामिल हैं


धन्यवाद! मैंने उन संदर्भों की जाँच की, लेकिन मुझे अभी भी "क्रॉस एन्ट्रॉपी" या एक मिलान समीकरण शब्द खोजने में परेशानी हो रही है। कृपया मुझे बताएं कि क्या आपने किसी एक लेख या पुस्तकों में देखा है।
नील जी

1
आप एक निश्चित वर्ष (जैसे, 1980 तक क्रॉस-एन्ट्रापी ) तक प्रकाशित विभिन्न उपनामों वाले लेखों के लिए Google विद्वान में पीछे की ओर भी खोज सकते हैं ।
इटाराम

1
आपके हाल के संपादन के बारे में, मुझे मेरे प्रश्न में दिए गए फॉर्म के इतिहास में दिलचस्पी है। मैंने पहले ही देखा कि शुरुआती पेपर "केएल डाइवर्जेंस" का मतलब "क्रॉस एन्ट्रॉपी" का उपयोग कर रहे थे। (ध्यान दें कि कुल्लब पेपर मेरे प्रश्न में है।)
नील जी

क्षमा करें, मैं प्रश्न में Kullback कागज याद किया
Itamar

4

@ इटमार के सुझाव के लिए धन्यवाद, मुझे इसमें एक उल्लेख मिला:

आईजे गुड, "कुछ शब्दावली और सूचना सिद्धांत में अधिसूचना," आईईई की कार्यवाही - भाग सी: मोनोग्राफ, वॉल्यूम। 103, नं। 3, पीपी। 200-204, मार्च 1956।

क्रॉस-एन्ट्रॉपी की एक अच्छी प्रस्तुति पाने के लिए यह अभी भी मेरे लिए उपयोगी होगा।


2

इसके लिए थैंक्स - पृष्ठभूमि साहित्य का अच्छा सारांश। IEEE में 1980 शोर और जॉनसन लेख एक अच्छी शुरुआत है, लेकिन 1956 से गुड मोनोग्राफ के लिए @ itamar का सूचक और भी बेहतर है। यह अवधारणा शैनन के काम से आती है, जिसमें कुल्बैक और लिबलर के 1951 के एएमएस नोट शब्द के वर्तमान उपयोग की उत्पत्ति है। जहाँ तक "क्रॉस एन्ट्रॉपी" शब्द की उत्पत्ति कृत्रिम तंत्रिका नेटवर्क से संबंधित है, विज्ञान में एक शब्द का प्रयोग कागज में किया जाता है, जिसे 1994 में प्रस्तुत किया गया था, इसे GE Hinton, P. Dayan, BJ Frey & RM Neal द्वारा प्रकाशित किया गया था, "हेमोल्ट्ज़ मशीन" शब्द का प्रारंभिक उपयोग है - संभवतः पहला। प्रतिलिपि के लिए आग्रह करें: http://elderlab.yorku.ca/~elder/teaching/cosc6390psyc6225/readings/hinton%201995.pdf उस पेपर में, "अप्रचलित तंत्रिका नेटवर्क के लिए वेक-स्लीप एल्गोरिथ्म", समीकरण # 5 से पहले का नोट कहता है: "जब एक इनपुट वेक्टर का वर्णन करने के कई वैकल्पिक तरीके होते हैं तो स्टोकेस्टिक कोडिंग योजना को डिज़ाइन करना संभव होता है" वैकल्पिक विवरणों में एन्ट्रापी [1]। लागत तब है: "(eqn # 5 के लिए पेपर देखें)" दूसरा शब्द तब वितरण का एन्ट्रॉपी है जो मान्यता वेट विभिन्न वैकल्पिक अभ्यावेदन को प्रदान करता है। " बाद में कागज में, eqn # 5 को eqn # 8 के रूप में फिर से लिखा गया है, जिसमें प्रारंभिक संभावना वितरण के बीच कुल्बैक-लीब्लर विचलन और अंतिम संभावना वितरण के रूप में वर्णित अंतिम शब्द है। पेपर में कहा गया है: "तो दो जेनेरेटिव मॉडल के लिए जो डी के लिए समान संभावना प्रदान करते हैं, ) यह पत्र अभी भी इस विशिष्ट एल्गोरिथ्म के लिए कुल्बैक-लिबलर विचलन को कम करने के लिए न्यूनतमकरण प्रक्रिया का वर्णन करता है, लेकिन ऐसा लगता है कि यह हो सकता है जहां शब्द "वैकल्पिक विवरणों में एन्ट्रापी" को केवल "क्रॉस एन्ट्रॉप" के लिए छोटा किया गया था। TensorFlow का उपयोग करके क्रॉस एन्ट्रॉपी के संख्यात्मक उदाहरण के लिए, यहां पोस्टिंग देखें, यह उपयोगी है: ) यह पत्र अभी भी इस विशिष्ट एल्गोरिथ्म के लिए कुल्बैक-लिबलर विचलन को कम करने के लिए न्यूनतमकरण प्रक्रिया का वर्णन करता है, लेकिन ऐसा लगता है कि यह हो सकता है जहां शब्द "वैकल्पिक विवरणों में एन्ट्रापी" को केवल "क्रॉस एन्ट्रॉप" के लिए छोटा किया गया था। TensorFlow का उपयोग करके क्रॉस एन्ट्रॉपी के संख्यात्मक उदाहरण के लिए, यहां पोस्टिंग देखें, यह उपयोगी है: /programming/41990250/what-is-cross-entropy कृपया ध्यान दें कि CE = 0.47965 का समाधान .619 प्रायिकता के प्राकृतिक लॉग को लेने से लिया गया है। उपरोक्त उदाहरण में, "एक गर्म" एन्कोडिंग के उपयोग का मतलब है कि अन्य दो प्रारंभिक और पीछे की संभावनाओं को शून्य-मूल्यवान प्रारंभिक संभावना द्वारा गुणा करने के कारण अनदेखा किया जाता है, क्रॉस एन्ट्रॉपी के लिए योग में।


+1 यह सही हो सकता है। तो, आप कह रहे हैं कि 1994 क्रॉस एन्ट्रॉपी की आधुनिक परिभाषा का मूल है?
नील जी
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.