आप जिस चीज के बारे में पढ़ रहे थे उसे एक्शन पोटेंशिअल के नाम से जाना जाता है । यह एक तंत्र है जो यह बताता है कि एक न्यूरॉन के भीतर सूचना कैसे प्रवाहित होती है।
यह इस तरह काम करता है: न्यूरॉन्स में एक विद्युत क्षमता होती है, जो सेल के अंदर और बाहर एक वोल्टेज अंतर है। उनके पास एक डिफ़ॉल्ट आराम क्षमता, और एक सक्रियण क्षमता भी है। न्यूरॉन आराम करने की क्षमता की ओर बढ़ता है अगर इसे अकेला छोड़ दिया जाता है, लेकिन डेंड्राइट्स से आने वाली बिजली की सक्रियता इसकी विद्युत क्षमता को स्थानांतरित कर सकती है।
यदि न्यूरॉन विद्युत क्षमता (सक्रियण क्षमता) में एक निश्चित सीमा तक पहुंच जाता है, तो पूरे न्यूरॉन और उसके कनेक्टिंग एक्सोन सेल के अंदर / बाहर आयनिक विनिमय की एक श्रृंखला प्रतिक्रिया के माध्यम से जाते हैं जिसके परिणामस्वरूप अक्षतंतु के माध्यम से "प्रसार की लहर" होती है।
टीएल; डीआर: एक बार एक न्यूरॉन एक निश्चित सक्रियण क्षमता तक पहुंच जाता है, यह विद्युत रूप से निर्वहन करता है। लेकिन अगर न्यूरॉन की विद्युत क्षमता उस मान तक नहीं पहुंचती है तो न्यूरॉन सक्रिय नहीं होता है।
क्या मानव मस्तिष्क एक विशिष्ट सक्रियण क्रिया का उपयोग करता है?
मस्तिष्क के विभिन्न हिस्सों में IIRC न्यूरॉन्स थोड़ा अलग तरीके से व्यवहार करते हैं, और जिस तरह से यह प्रश्न ध्वनित होता है जैसे कि आप पूछ रहे हैं कि क्या न्यूरोनल सक्रियण का एक विशिष्ट कार्यान्वयन है (जैसा कि हमारे द्वारा इसका विरोध किया गया है)।
लेकिन सामान्य तौर पर एक दूसरे के साथ अपेक्षाकृत समान व्यवहार करते हैं (न्यूरॉन्स एक दूसरे के साथ न्यूरोकेमिकल्स के माध्यम से संवाद करते हैं, सूचना न्यूरॉन के अंदर एक तंत्र के माध्यम से प्रचार करती है जिसे एक्शन पोटेंशिअल के रूप में जाना जाता है ...) लेकिन विवरण और उनके कारण भिन्नता महत्वपूर्ण हो सकती है।
विभिन्न जैविक न्यूरॉन मॉडल हैं , लेकिन हॉजकिन-हक्सले मॉडल सबसे उल्लेखनीय है।
यह भी ध्यान दें कि न्यूरॉन्स का एक सामान्य विवरण आपको न्यूरोनल डायनेमिक्स का एक सामान्य विवरण ला अनुभूति नहीं देता है (एक पेड़ आपको जंगल की पूरी समझ नहीं देता है)
लेकिन, जिस विधि की जानकारी एक न्यूरॉन के अंदर फैलती है वह सामान्य रूप से सोडियम / पोटेशियम आयनिक विनिमय के रूप में अच्छी तरह से समझी जाती है।
यह (सक्रियण क्षमता) बहुत कुछ लगता है जैसे ReLU ...
यह केवल ReLU की तरह है कि कुछ भी होने से पहले उन्हें एक सीमा की आवश्यकता होती है। लेकिन ReLU में वैरिएबल आउटपुट हो सकता है जबकि न्यूरॉन्स ऑल-ऑर-नथिंग हैं।
इसके अलावा ReLU (और सामान्य रूप से अन्य सक्रियण कार्य) इनपुट स्पेस के संबंध में भिन्न हैं। बैकपॉप के लिए यह बहुत महत्वपूर्ण है।
यह एक ReLU फ़ंक्शन है, जिसमें X- अक्ष इनपुट मूल्य और Y- अक्ष आउटपुट मूल्य है।
और यह एक्स-एक्सिस समय, और वाई आउटपुट मूल्य होने के साथ एक्शन पोटेंशिअल है।