मैंने विभिन्न पेरेसेप्ट्रॉन कार्यान्वयन के साथ थोड़ा सा प्रयोग किया और यह सुनिश्चित करना चाहता हूं कि क्या मैं "पुनरावृत्तियों" को सही ढंग से समझ पाऊं।
रोसेनब्लैट का मूल अवधारणात्मक नियम
जहाँ तक मुझे समझ में आता है, रोसेनब्लैट के क्लासिक परसेप्ट्रोन एल्गोरिथ्म में, वेटिंग को एक साथ हर प्रशिक्षण उदाहरण के बाद अपडेट किया जाता है
जहाँ यहाँ सीखने का नियम है। और लक्ष्य और वास्तविक दोनों थ्रेशोल्ड (-1 या 1) हैं। मैंने इसे 1 नमूने के रूप में लागू किया = प्रशिक्षण नमूने पर 1 पास, लेकिन प्रत्येक प्रशिक्षण नमूने के बाद वजन वेक्टर को अपडेट किया गया।
और मैं "वास्तविक" मान की गणना करता हूं
स्टोचैस्टिक ग्रेडिएंट डिसेंट
परसेप्ट्रॉन नियम के रूप में भी, हालांकि, target
और actual
वास्तविक मूल्यों पर सीमा नहीं है। इसके अलावा, मैं प्रशिक्षण नमूने पर पथ के रूप में "पुनरावृत्ति" गिनता हूं।
दोनों, SGD और क्लासिक अवधारणात्मक नियम इस रैखिक रूप से वियोज्य मामले में परिवर्तित होते हैं, हालांकि, मुझे क्रमिक वांछनीय कार्यान्वयन के साथ परेशानी हो रही है।
ढतला हुआ वंश
यहां, मैं प्रशिक्षण नमूने पर जाता हूं और प्रशिक्षण नमूने पर 1 पास के लिए वजन में परिवर्तन करता हूं और इसके बाद वजन को अद्यतन करता हूं, जैसे कि
प्रत्येक प्रशिक्षण नमूने के लिए:
...
प्रशिक्षण सेट पर 1 पास करने के बाद:
मैं सोच रहा हूँ, अगर यह धारणा सही है या अगर मुझे कुछ याद आ रहा है। मैंने सीखने की दरों में विभिन्न (असीम रूप से छोटे तक) की कोशिश की, लेकिन कभी भी इसे अभिसरण का कोई संकेत दिखाने के लिए नहीं मिला। इसलिए, मैं सोच रहा हूं कि क्या मैंने sth को गलत समझा। यहाँ।
धन्यवाद, सेबस्टियन