There is a lot of subtlety between the meanings of convolution and correlation. Both belong to the broader idea of inner products and projections in linear algebra, i.e. projecting one vector onto another to determine how "strong" it is in the direction of the latter.
This idea extends into the field of neural networks, where we project a data sample onto each row of a matrix, to determine how well it "fits" that row. Each row represents a certain class of objects. For example, each row could classify a letter in the alphabet for handwriting recognition. It's common to refer to each row as a neuron, but it could also be called a matched filter.
In essence, we're measuring how similar two things are, or trying to find a specific feature in something, e.g. a signal or image. For example, when you convolve a signal with a bandpass filter, you're trying to find out what content it has in that band. When you correlate a signal with a sinusoid, e.g. the DFT, you're looking for the strength of the sinusoid's frequency in the signal. Note that in the latter case, the correlation doesn't slide, but you're still "correlating" two things. You're using an inner product to project the signal onto the sinusoid.
तो फिर, क्या अंतर है? खैर, विचार करें कि दृढ़ संकल्प के साथ फिल्टर के संबंध में संकेत पीछे की ओर है। समय-भिन्न संकेत के साथ, इसका प्रभाव यह होता है कि डेटा उस क्रम में सहसंबद्ध होता है जिस क्रम में वह फ़िल्टर में प्रवेश करता है। एक पल के लिए, चलो सहसंबंध को केवल एक डॉट उत्पाद के रूप में परिभाषित करते हैं, अर्थात एक चीज़ को दूसरे पर पेश करना। इसलिए, प्रारंभ में, हम फ़िल्टर के पहले भाग के साथ सिग्नल के पहले भाग को सहसंबद्ध कर रहे हैं। जैसे ही फिल्टर के माध्यम से संकेत जारी होता है, सहसंबंध अधिक पूर्ण हो जाता है। ध्यान दें कि संकेत में प्रत्येक तत्व केवल उस बिंदु पर "स्पर्श" के तत्व से गुणा किया जाता है।
इसलिए, दृढ़ संकल्प के साथ, हम एक अर्थ में सहसंबंधी हैं, लेकिन हम उस समय में आदेश को संरक्षित करने का भी प्रयास कर रहे हैं जो परिवर्तन तब होता है जब सिग्नल सिस्टम के साथ इंटरैक्ट करता है। यदि फ़िल्टर सममित है, हालांकि, जैसा कि अक्सर होता है, यह वास्तव में मायने नहीं रखता है। बातचीत और सहसंबंध एक ही परिणाम देगा।
सहसंबंध के साथ, हम सिर्फ दो संकेतों की तुलना कर रहे हैं, और घटनाओं के एक क्रम को संरक्षित करने की कोशिश नहीं कर रहे हैं। उनकी तुलना करने के लिए, हम चाहते हैं कि वे एक ही दिशा में, यानी लाइन अप करें। हम एक संकेत को दूसरे पर स्लाइड करते हैं ताकि हम प्रत्येक समय विंडो में उनकी समानता का परीक्षण कर सकें, यदि वे एक दूसरे के साथ चरण से बाहर हैं या हम एक बड़े संकेत की तलाश कर रहे हैं।
इमेज प्रोसेसिंग में, चीजें थोड़ी अलग होती हैं। हम समय की परवाह नहीं करते। हालाँकि, अभी भी कुछ उपयोगी गणितीय गुण हैं । हालाँकि, यदि आप एक बड़ी छवि के कुछ हिस्सों को एक छोटे से मैच करने की कोशिश कर रहे हैं (अर्थात मिलान किया हुआ फ़िल्टरिंग), तो आप इसे फ्लिप नहीं करना चाहेंगे क्योंकि तब सुविधाएँ लाइन में नहीं लगेंगी। जब तक, ज़ाहिर है, फिल्टर सममित है। छवि प्रसंस्करण में, सहसंबंध और दृढ़ संकल्प कभी-कभी विशेष रूप से तंत्रिका जाल के साथ परस्पर उपयोग किया जाता है । जाहिर है, समय अभी भी प्रासंगिक है अगर छवि 2-आयामी डेटा का एक सार प्रतिनिधित्व है, जहां एक आयाम समय है - जैसे स्पेक्ट्रोग्राम।
इसलिए सारांश में, सहसंबंध और दृढ़ विश्वास दोनों आंतरिक उत्पादों को खिसका रहे हैं, एक चीज को दूसरे स्थान पर प्रोजेक्ट करने के लिए उपयोग किया जाता है क्योंकि वे अंतरिक्ष या समय पर भिन्न होते हैं। जब ऑर्डर महत्वपूर्ण होता है, तो कन्वेंशन का उपयोग किया जाता है, और आमतौर पर डेटा को बदलने के लिए उपयोग किया जाता है। सहसंबंध आमतौर पर एक बड़ी चीज के अंदर एक छोटी सी चीज को खोजने के लिए उपयोग किया जाता है, अर्थात मिलान करने के लिए। यदि कम से कम दो "चीजों" में से एक सममित है, तो इससे कोई फर्क नहीं पड़ता कि आप किसका उपयोग करते हैं।