इसलिए जब रेडियल बेसिस फ़ंक्शन न्यूरल नेटवर्क्स को देखते हैं, तो मैंने देखा है कि लोग केवल 1 छिपी हुई परत के उपयोग की सलाह देते हैं, जबकि बहुपरत पर्सेप्ट्रॉन न्यूरल नेटवर्क के साथ अधिक परतों को बेहतर माना जाता है।
यह देखते हुए कि RBF नेटवर्क को पीछे प्रचार के संस्करण के साथ प्रशिक्षित किया जा सकता है, क्या कोई कारण है कि RBF नेटवर्क काम नहीं करेगा, या यह कि एक RBF परत का उपयोग किसी गहन MLP नेटवर्क में penultimate या पहली परत के रूप में नहीं किया जा सकता है? (मैं विचारशील परत सोच रहा था ताकि इसे अनिवार्य रूप से पिछली एमएलपी परतों द्वारा सीखी गई विशेषताओं पर प्रशिक्षित किया जा सके)