"अनुवाद करने के लिए समानार्थी" और "अनुवाद करने के लिए अपरिवर्तनीय" में क्या अंतर है


38

मैं अनुवाद करने के लिए अनुवाद और अपरिवर्तनीय के बीच के अंतर को समझने में परेशानी महसूस कर रहा हूं ।

पुस्तक डीप लर्निंग में । एमआईटी प्रेस, 2016 (आई। गुडफेलो, ए। कोर्टविल, और वाई। बेंगियो), कोई भी व्यक्ति नेटवर्क पर पा सकता है:

  • [...] पैरामीटर शेयरिंग का विशेष रूप परत को अनुवाद करने के लिए एक गुण के बराबर गुण का कारण बनता है
  • [...] पूलिंग से अभ्यावेदन इनपुट के छोटे अनुवादों के लिए लगभग अपरिवर्तनीय हो जाता है

क्या उनके बीच कोई अंतर है या क्या शब्द का उपयोग परस्पर भिन्न होता है?


2
सांख्यिकी के पुराने दिनों में, जैसे कि पिटमैन के समय में, इंक्वेरिएंट का उपयोग संतुलन के अर्थ में किया जाता था।
शीआन

जवाबों:


39

इक्वेरिअन और इंवेरियन का कभी-कभी उपयोग किया जाता है। जैसा कि @ शीआन द्वारा कहा गया है , आप उदाहरण के लिए सांख्यिकीय साहित्य में उपयोग कर सकते हैं, उदाहरण के लिए, आक्रमणकारी अनुमानक और विशेष रूप से पिटमैन अनुमानक की धारणाओं पर ।

हालांकि, मुझे लगता है कि उल्लेख करना चाहते हैं यह बेहतर होगा कि दोनों पदों अलग रखना , उपसर्ग के रूप में " in- " में अपरिवर्तनीय , अभावात्मक (जिसका अर्थ है सब पर "कोई विचरण") है, जबकि " equi- " में equivariant "बदलती करने के लिए संदर्भित करता है एक समान या समकक्ष अनुपात में "। दूसरे शब्दों में, एक नहीं चलता है, दूसरा नहीं चलता है

हमें सरल छवि सुविधाओं से शुरू होते हैं और उस छवि को लगता है कि चलो मैं एक अनन्य अधिकतम है मीटर स्थानिक पिक्सेल स्थान पर (एक्समीटर,yमीटर) है, जो यहां मुख्य वर्गीकरण की सुविधा है। दूसरे शब्दों में: एक छवि और इसके सभी अनुवाद "समान" हैं । Classifiers के एक दिलचस्प संपत्ति उनके कुछ विकृत संस्करण एक ही तरीके से वर्गीकृत करने की क्षमता है I की I सभी वैक्टर द्वारा, उदाहरण के अनुवाद के लिए (u,v)

अधिकतम मूल्य m की I है अपरिवर्तनीय : m=m : मूल्य एक ही है। इसके स्थान पर होगा लेकिन (एक्समीटर',yमीटर')=(एक्समीटर-यू,yमीटर-v) , और है equivariant , जिसका अर्थ है कि कि "समान रूप से" विरूपण के साथ बदलता रहता

संतुलन के लिए गणित में दिए गए सटीक सूत्र उन वस्तुओं और परिवर्तनों पर निर्भर करते हैं जिन्हें कोई मानता है, इसलिए मैं यहां इस धारणा को पसंद करता हूं जो व्यवहार में सबसे अधिक बार उपयोग किया जाता है (और मुझे सैद्धांतिक स्टैंड-पॉइंट से दोष मिल सकता है)।

इधर, अनुवाद (या कुछ अधिक सामान्य कार्रवाई) एक समूह की संरचना के साथ सुसज्जित किया जा सकता है जी , जी जा रहा है एक विशिष्ट अनुवाद ऑपरेटर। एक फ़ंक्शन या फ़ीचर , जी तहत एक वर्ग में सभी छवियों के लिए, और किसी भी जी , एफ ( जी ( आई ) ) = एफ ( आई ) के लिए अपरिवर्तनीय है।

(जी(मैं))=(मैं)

अगर वहाँ एक और गणितीय मौजूद है यह equivariant हो जाता है संरचना या कार्रवाई (अक्सर एक समूह) जी' में परिवर्तनों को दर्शाता है जी एक सार्थक तरीके से । दूसरे शब्दों में, प्रत्येक के लिए ऐसी है कि में जी , आप एक के लिए एक अनूठा है जी'जी' ऐसा है कि

(जी(मैं))=जी'((मैं))

अनुवाद के समूह पर उपरोक्त उदाहरण में, जी और जी' (एक ही है और इसलिए कर रहे हैं जी'=जी ): छवि के एक पूर्णांक अनुवाद अधिकतम स्थान के ठीक उसी अनुवाद के रूप में प्रदर्शित करता है।

एक और आम परिभाषा है:

(जी(मैं))=जी((मैं))

मैं फिर भी इस्तेमाल किया संभावित रूप से विभिन्न जी और जी'(मैं)जी(मैं)जीजी'जी

अक्सर, लोग इंविरियन शब्द का इस्तेमाल करते हैं क्योंकि इक्वेरिअन्स कॉन्सेप्ट अज्ञात है, या बाकी सभी लोग एवेरियन का उपयोग करते हैं, और इक्वेरिअन्स अधिक पेडिक लगेगा।

रिकॉर्ड के लिए, अन्य संबंधित धारणाएं (गणित और भौतिकी में esp) को कोवरियन , कंट्रोवर्सी , डिफरेंस इनवेरियन कहा जाता है

इसके अलावा, ट्रांसलेशन-इनवेरियन, कम से कम अनुमानित या लिफाफे में, कई सिग्नल और इमेज प्रोसेसिंग टूल की खोज की गई है। उल्लेखनीय रूप से, मल्टी-रेट (फिल्टर-बैंक) और मल्टी-स्केल (वेवलेट्स या पिरामिड) रूपांतरण पिछले 25 वर्षों में डिजाइन किए गए हैं, उदाहरण के लिए शिफ्ट-इनवेरिएंट, साइकिल-कताई, स्थिर, जटिल, दोहरे-पेड़ के हुड के तहत। तरंग रूपांतरण (2D तरंगिकाओं पर समीक्षा के लिए, मल्टीस्केल ज्यामितीय अभ्यावेदन पर एक चित्रमाला )। तरंगिका कुछ असतत पैमाने पर बदलाव को अवशोषित कर सकती है। सभी शोधार्थी (लगभग) आक्रमणकारी अक्सर परिवर्तित गुणांक की संख्या में अतिरेक की कीमत के साथ आते हैं। लेकिन वे शिफ्ट-इनवेरिएंट, या शिफ्ट-इक्वेरिएंट विशेषताओं की उपज की अधिक संभावना रखते हैं।


4
महान! मैं वास्तव में विस्तृत उत्तर @Laurent Duval
Aamir

24

शर्तें अलग हैं:

  • अनुवाद करने के लिए समीकरण का अर्थ है कि इनपुट सुविधाओं के अनुवाद से आउटपुट के बराबर अनुवाद होता है। इसलिए यदि आपका पैटर्न आउटपुट में 0,1,0,0 में इनपुट परिणाम पर 0,3,2,0,0 है, तो पैटर्न 0,0,3,2,0 से 0,0,1 हो सकता है, 0

  • अनुवाद के लिए अपरिवर्तनीय का अर्थ है कि इनपुट विशेषताओं का अनुवाद आउटपुट को बिल्कुल नहीं बदलता है। इसलिए यदि आपका पैटर्न आउटपुट में 0,1,0 में इनपुट परिणाम पर 0,3,2,0,0 है, तो पैटर्न 0,0,3,2,0 भी 0,1,0 तक ले जाएगा

उपयोगी होने के लिए दृढ़ नेटवर्क में फ़ीचर मैप के लिए, उन्हें आमतौर पर कुछ संतुलन में दोनों गुणों की आवश्यकता होती है। संतुलन नेटवर्क को विभिन्न स्थानों में बढ़त, बनावट, आकार का पता लगाने के सामान्यीकरण की अनुमति देता है। इनवेरियन कम पाया गया सुविधाओं की सटीक स्थिति को कम मायने रखता है। ये कई छवि प्रसंस्करण कार्यों के लिए सामान्यीकरण के दो पूरक प्रकार हैं।


अनूदित फीचर पैदावार का उत्पादन कुछ परत पर करता है। कृपया पूरी तरह से अनुवादित की जा रही संपूर्ण वस्तु का पता लगाने के बारे में विस्तार से बताएं। यह पता लगाया जाएगा कि क्या सीएनएन को विभिन्न पदों वाले चित्रों के साथ प्रशिक्षित नहीं किया गया था? क्या इस मामले में समानता पकड़ती है (क्या यह आक्रमण के समान है)?
व्लादिमीरलेन

@VladimirLenin: मुझे नहीं लगता कि इस सवाल के लिए विस्तार की आवश्यकता है, यह निश्चित रूप से ऐसा कुछ नहीं है जिसे ओपी ने यहां पूछा है। मेरा सुझाव है कि यदि संभव हो तो एक ठोस उदाहरण के साथ एक अलग प्रश्न पूछें। यहां तक ​​कि अगर नेत्रहीन "संपूर्ण ऑब्जेक्ट" का अनुवाद किया गया है, तो इसका मतलब यह नहीं है कि सीएनएन में फीचर मैप्स उसी चीज को ट्रैक कर रहे हैं जैसे आप उम्मीद करते हैं।
नील स्लेटर

4

बस मेरे 2 सेंट जोड़ने

:मैंएलमैंएल

  • :मैंएल
  • :एलएल

और यह निम्नलिखित गुणों का उपयोग करके किया जाता है

  • लेयर इनपुट में बदलाव के रूप में कन्वेलर (स्थानिक 2 डी कन्वेंशन + नॉनलिन उदा। ReLU) के बारे में स्थानिक साम्य, लेयर आउटपुट में एक बदलाव पैदा करता है (नोट: यह लेयर के बारे में है, एकल कन्वर्जन संचालक नहीं)
  • स्थानिक आक्रमण, पूलिंग ऑपरेटर के बारे में (जैसे मैक्स पूलिंग अपने स्थानिक स्थिति की परवाह किए बिना अपने ग्रहणशील क्षेत्र में अधिकतम मूल्य से अधिक गुजरता है)

मैं

ललाट के करीब, अव्यक्त विशुद्ध अर्थ डोमेन के करीब एल

फ्रंटएंड में पूरी तरह से जुड़े हुए लेयर्स का उपयोग करना क्लासिफायर को कुछ हद तक बैकएंड स्ट्रक्चर के आधार पर फीचर पोजिशन के प्रति संवेदनशील बनाता है: यह जितना गहरा होता है और ट्रांसलेशन इंवेरिएंट ऑपरेटर (पूलिंग) का उतना ही अधिक इस्तेमाल होता है।

इसे क्वांटिफाइंग ट्रांसलेशन-इनवेरियन इन कन्वेंशनल न्यूरल नेटवर्क्स में दिखाया गया है कि आगमनात्मक पूर्वाग्रह (आर्किटेक्चर इसलिए डेप्थ, पूलिंग, ...) पर अभिनय करने के बजाय CNN क्लासिफायरियर ट्रांसलेशन इन्वारिंस को बेहतर बनाने के लिए, डेटासेट बायस पर कार्य करना अधिक प्रभावी है (डेटा वृद्धि) )

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.