2
ReLU को सक्रियण फ़ंक्शन के रूप में क्यों उपयोग किया जाता है?
सक्रियण कार्यों का उपयोग w * x + bतंत्रिका नेटवर्क में प्रकार के रैखिक उत्पादन में गैर-रैखिकता को पेश करने के लिए किया जाता है । जिसे मैं सिग्माइड जैसे सक्रियण कार्यों के लिए सहज रूप से समझने में सक्षम हूं। मैं ReLU के फायदों को समझता हूं, जो बैकप्रोपैजेशन …