यह वास्तव में मेरा क्षेत्र नहीं है, इसलिए कुछ
मैं आश्चर्य की अवधारणा से शुरू करूंगा । हैरान होने का क्या मतलब है? आमतौर पर, इसका मतलब है कि ऐसा कुछ हुआ जो होने की उम्मीद नहीं थी। तो, यह एक संभाव्य अवधारणा को आश्चर्यचकित करता है और इसे इस तरह से समझा जा सकता है (आईजे गुड ने उस बारे में लिखा है)। विकिपीडिया और बेयसियन आश्चर्य भी देखें ।
हां / नहीं की स्थिति के विशेष मामले को लें, कुछ हो सकता है या नहीं। यह प्रायिकता पी साथ होता है । कहो, अगर पी = 0.9 और ऐसा होता है, तो आप वास्तव में आश्चर्यचकित नहीं हैं। यदि पी = 0.05 और ऐसा होता है, तो आप कुछ हैरान हैं। और अगर पी = 0.0000001 और ऐसा होता है, तो आप वास्तव में आश्चर्यचकित हैं। तो, "मनाया परिणाम में आश्चर्य मूल्य" का एक प्राकृतिक उपाय क्या हुआ की संभावना का कुछ (विरोधी) मोनोटोन फ़ंक्शन है। यह स्वाभाविक लगता है (और अच्छी तरह से काम करता है ...) क्या हुआ की संभावना का लघुगणक लेने के लिए, और फिर हम एक सकारात्मक संख्या प्राप्त करने के लिए ऋण चिह्न में फेंकते हैं। इसके अलावा, लघुगणक को ले कर हम आश्चर्य के क्रम पर ध्यान केंद्रित करते हैं, और व्यवहार में, प्रायिकताएँ केवल क्रम से, कम या ज्यादा तक ही जानी जाती हैं ।
इसलिए, हम आश्चर्य ( ए ) = - लॉगपी ( ए )
को परिभाषित करते हैं
जहां ए मनाया परिणाम है, और पी ( ए ) इसकी संभावना है।
अब हम पूछ सकते हैं कि अपेक्षित आश्चर्य क्या है । एक्स को संभाव्यता पी साथ एक बर्नौली यादृच्छिक चर होने दें । इसके दो संभावित परिणाम हैं, 0 और 1. संबंधित आश्चर्य मान
Surprise(0)Surprise(1)=−log(1−p)=−logp
तो आश्चर्य की बात है जब अवलोकनXही उम्मीद के साथ एक यादृच्छिक चर रहा है
p⋅−logp+(1−p)⋅−log(1−p)
और कहा कि आश्चर्य की बात है ---! ---Xकी एन्ट्रापी! तो एन्ट्रापी कोआश्चर्यकीउम्मीद है!
अब, यह प्रश्न अधिकतम एन्ट्रापी के बारे में है । कोई भी अधिकतम एन्ट्रापी वितरण का उपयोग क्यों करना चाहेगा? खैर, यह होना चाहिए क्योंकि वे अधिकतम आश्चर्यचकित होना चाहते हैं! कोई ऐसा क्यों चाहेगा?
इसे देखने का एक तरीका निम्नलिखित है: आप कुछ के बारे में सीखना चाहते हैं, और उस लक्ष्य के लिए आपने कुछ सीखने के अनुभव (या प्रयोग ...) निर्धारित किए हैं। यदि आप पहले से ही इस विषय के बारे में सब कुछ जानते थे, तो आप हमेशा पूरी तरह से भविष्यवाणी करने में सक्षम होते हैं, इसलिए कभी आश्चर्यचकित नहीं होते हैं। फिर आपको नया अनुभव कभी नहीं मिलता है, इसलिए कुछ भी नया न सीखें (लेकिन आप पहले से ही सब कुछ जानते हैं --- सीखने के लिए कुछ भी नहीं है, इसलिए यह ठीक है)। अधिक विशिष्ट स्थिति में जिसे आप भ्रमित कर रहे हैं, पूरी तरह से भविष्यवाणी करने में सक्षम नहीं है, एक सीखने का अवसर है! यह इस विचार की ओर ले जाता है कि हम अपेक्षित आश्चर्य से "संभव सीखने की मात्रा" को माप सकते हैं , अर्थात, एन्ट्रॉपी। तो, एन्ट्रापी को अधिकतम करना सीखने के लिए अधिकतम अवसर के अलावा और कुछ नहीं है। यह एक उपयोगी अवधारणा की तरह लगता है, जो प्रयोगों और ऐसी चीजों को डिजाइन करने में उपयोगी हो सकता है।
एक काव्यात्मक उदाहरण सर्वविदित है
वेन एइर ईने रीस मच, डन कन्न एर एर्गज़लेन ...
एक व्यावहारिक उदाहरण: आप ऑनलाइन परीक्षणों के लिए एक प्रणाली डिजाइन करना चाहते हैं (ऑनलाइन का अर्थ है कि हर किसी को एक ही प्रश्न नहीं मिलता है, प्रश्नों को गतिशील रूप से पिछले उत्तरों के आधार पर चुना जाता है, इसलिए प्रत्येक व्यक्ति के लिए, किसी तरह से अनुकूलित किया जाता है)।
यदि आप बहुत कठिन सवाल करते हैं, तो वे कभी भी महारत हासिल नहीं करते हैं, आप कुछ भी नहीं सीखते हैं। यह इंगित करता है कि आपको कठिनाई स्तर कम करना चाहिए। इष्टतम कठिनाई स्तर क्या है, अर्थात कठिनाई स्तर जो सीखने की दर को अधिकतम करता है? सही उत्तर की संभावना को p । हम बर्नौली एन्ट्रापी को अधिकतम करने वाले p का मान चाहते हैं । लेकिन वह p=0.5 । इसलिए आप उन सवालों के जवाब देना चाहते हैं, जहाँ एक सही उत्तर प्राप्त करने की संभावना (उस व्यक्ति से) 0.5 है।
फिर एक सतत यादृच्छिक चर X का मामला । X को देखकर हम कैसे आश्चर्यचकित हो सकते हैं ? किसी विशेष परिणाम {X=x} की संभावना शून्य है, −logp परिभाषा बेकार है। लेकिन हम आश्चर्यचकित होंगे यदि x जैसी किसी चीज के अवलोकन की संभावना छोटी है, अर्थात, यदि घनत्व फ़ंक्शन मान f(x) छोटा है (मान f निरंतर है)। यह आश्चर्य की ओर जाता है
( x ) = - log f ( x )Surprise(x)=−logf(x)
कि परिभाषा के साथ, अवलोकन से उम्मीद आश्चर्य X है
E{−logf(X)}=−∫f(x)logf(x)dx
यह है कि, के अवलोकन से उम्मीद आश्चर्यX का अंतर एन्ट्रापी हैX । इसे अपेक्षित तार्किकता के रूप में भी देखा जा सकता है।
लेकिन यह वास्तव में पहले, घटना, मामले के समान नहीं है। एक उदाहरण है। यादृच्छिक चर X को पत्थर के फेंकने की लंबाई का प्रतिनिधित्व करते हैं (खेल प्रतियोगिता में कहते हैं)। उस लंबाई को मापने के लिए हमें एक लंबाई इकाई चुनने की आवश्यकता है, क्योंकि लंबाई का कोई आंतरिक पैमाना नहीं है, क्योंकि इसमें संभावना है। हम मिमी या किमी में, या आमतौर पर, मीटर में माप सकते हैं। लेकिन आश्चर्य की हमारी परिभाषा, इसलिए आश्चर्य की उम्मीद है, चुनी गई इकाई पर निर्भर करती है, इसलिए कोई आक्रमण नहीं है। उस कारण से, अंतर एन्ट्रापी के मूल्य सीधे शैनन एन्ट्रॉपी है जिस तरह से तुलनीय नहीं हैं। यह अभी भी उपयोगी हो सकता है, अगर कोई इस समस्या को याद करता है।