जब आप कहते हैं कि "सूचना सामग्री समान रह सकती है," तो क्या आपका मतलब कुल सिग्नल की जानकारी या वांछित सिग्नल की जानकारी से है? उम्मीद है कि यह दोनों मामलों का जवाब देगा। मुझे पता है कि शैनन एन्ट्रापी कोलमोगोरोव की तुलना में बहुत बेहतर है इसलिए मैं इसका उपयोग करूंगा, लेकिन उम्मीद है कि तर्क अनुवाद करेगा।
मान लें कि आपका कुल सिग्नल ( X ) है, जिसमें आपके वांछित सिग्नल S और आपके शोर घटक N का योग शामिल है । चलो एन्ट्रापी एच कहते हैं । जैसा कि आपने कहा, शोर इसकी जटिलता को बढ़ाकर एक प्रणाली में प्रवेश को जोड़ता है। हालाँकि, यह केवल आवश्यक नहीं है क्योंकि हम सिग्नल की सूचना सामग्री के बारे में अधिक अनिश्चित हैं , लेकिन क्योंकि सिग्नल में कुल अनिश्चितता अधिक है। यदि एसएनआर प्रकार के उपाय हम कितने निश्चित हैं कि हम एस क्या हैं , तो एच ( एक्स ) प्रकार के उपाय हम कितनी अच्छी तरह से भविष्य के एक्स की भविष्यवाणी कर सकते हैंएक्स= एस+ एनएक्सएसएनएचएसएच( एक्स))एक्स की वर्तमान स्थिति के आधार पर । शोर या गैर-शोर की संरचना की परवाह किए बिना, एंट्रॉपी पूरे संकेत को कितना जटिल है, इस संबंध में है।एक्स
यदि आप शोर को हटाकर एसएनआर बढ़ाते हैं ( ), तो आप कुल सिग्नल एक्स की जटिलता और इस प्रकार इसकी एन्ट्रापी को कम करते हैं। आपने एस द्वारा की गई कोई भी जानकारी नहीं खोई है , केवल (संभवतः अर्थहीन) एन द्वारा की गई जानकारी । यदि N यादृच्छिक शोर है, तो स्पष्ट रूप से यह सार्थक जानकारी नहीं रखता है, लेकिन यह N की स्थिति का वर्णन करने के लिए कुछ निश्चित जानकारी लेता है , जो कि उन राज्यों की संख्या से निर्धारित होता है जो N में हो सकते हैं, और इसमें होने की संभावना है। उन राज्यों में से प्रत्येक। यही एन्ट्रापी है।एनएक्सएसएनएनएन
हम दो गॉसियन डिस्ट्रीब्यूशन को अलग-अलग वर्जन के साथ देख सकते हैं, कहते हैं कि एक का वेरिएशन और दूसरे का वेरिएशन 100 है । बस एक गाऊसी वितरण के लिए समीकरण को देखते हुए, हम देखते हैं कि वी एक आर = 100 वितरण अधिकतम संभावना है कि केवल है 11100वीa r = 100 वीं के मूल्यवीएकआर=1distr की संभावना। इसके विपरीत, इस का अर्थ है कि अधिक से अधिक संभावना है कि यह है किवीएकआर=100distr मतलब के अतिरिक्त अन्य मान ले जाएगा, या एक से अधिक निश्चित है कि है कि वहाँवीएकआर=1वितरण मतलब के पास मान ले जाएगा। तो,वीएकआर=1वितरण की तुलना में कम एन्ट्रापी हैवीएकआर=100वितरण।110v a r = 1वीa r = 100वीa r = १वीa r = १वीa r = 100
हमने स्थापित किया कि उच्च विचरण का अर्थ है उच्च एन्ट्रापी। त्रुटि प्रसार को देखते हुए, यह भी सच है कि (स्वतंत्र X , Y के बराबर )। यदि एक्स = एस + एन , तो एन्ट्रापी एच , एच ( एक्स ) = एच ( एस + एन ) के लिए । जबसेवीए आर ( एक्स)+ य) > = वीए आर ( एक्स)) + वीa r ( Y)एक्सYएक्स= एस+ एनएचएच( एक्स)) = एच( S)+ एन) (अप्रत्यक्ष रूप से) विचरण का एक कार्य है, हम H ( V a r [ X ] ) = H ( V ( a r [ S + N ] )) कहने के लिए चीजों को थोडा कम कर सकते हैं। सरल बनाने के लिए, हम कहते हैं कि S और N स्वतंत्र हैं, इसलिए H ( V a r [ X ] ) = H ( V a r [ S ] + V a r [ N)एचएच( वीa r [ X] ) = एच( वीa r [ एस+ एन] )एसएन । बेहतर SNR का मतलब अक्सर शोर शक्ति को कम करना है। उच्च SNR के साथ यह नया संकेत तब X = S + ( 1) होगाएच( वीa r [ X] ) = एच( वीa r [ एस] + वीa r [ एन] ),k>1 के लिए। Entropy तो हो जाता हैएच(वीएकआर[एक्स])=एच(वीएकआर[एस]+(1/कश्मीर)2*वीएकआर[एन])। k1से अधिक है, इसलिएVएकr[N]घटेगा जब N को एटेन किया जाएगा। यदिVaएक्स= एस+ ( १)क) एनk > १एच( वीa r [ X] ) = एच( वीa r [ एस] + ( 1 / k )2∗ वीa r [ एन] )क1वीa r [ एन] कम हो जाता है, इसलिए वी एक आर [ एस + एन ] करता है , और इसलिए वी एक आर [ एक्स ] , जिसके परिणामस्वरूप एच ( एक्स ) में कमी होती है।वीa r [ एन]वीa r [ एस+ एन]वीa r [ X]एच( एक्स))
बहुत संक्षिप्त नहीं, क्षमा करें। संक्षेप में, यदि आप एसएनआर बढ़ाते हैं, तो की एन्ट्रापी कम हो जाती है, लेकिन आपने एस की जानकारी के लिए कुछ नहीं किया है । मुझे अभी स्रोत नहीं मिले, लेकिन एक दूसरे से SNR और आपसी जानकारी (एंट्रोपी के समान द्विभाजित माप) की गणना करने की एक विधि है। शायद मुख्य रास्ता यह है कि SNR और एन्ट्रापी एक ही चीज़ को मापते नहीं हैं।एक्सएस