hyperparameter पर टैग किए गए जवाब

एक पैरामीटर जो सांख्यिकीय मॉडल (या डेटा जनरेट करने की प्रक्रिया) के लिए कड़ाई से नहीं है, लेकिन सांख्यिकीय पद्धति के लिए एक पैरामीटर है। इसके लिए एक पैरामीटर हो सकता है: पूर्व वितरणों का एक परिवार, चौरसाई, नियमितीकरण के तरीकों में एक दंड, या एक अनुकूलन एल्गोरिथ्म।

1
स्टोचस्टिक ग्रेडिएंट डिसेंट (SGD) के लिए एक उपयुक्त मिनीबैच आकार चुनना
क्या कोई साहित्य है जो स्टोकेस्टिक क्रमिक वंश प्रदर्शन करते समय मिनीबच आकार की पसंद की जांच करता है? मेरे अनुभव में, यह एक अनुभवजन्य विकल्प प्रतीत होता है, जो आमतौर पर क्रॉस-मान्यता के माध्यम से या अंगूठे के अलग-अलग नियमों का उपयोग करके पाया जाता है। क्या यह एक …

1
पदानुक्रमित गामा-पॉइसन मॉडल के लिए हाइपरपेयर घनत्व
डेटा एक पदानुक्रमित मॉडल में जहां यह चुने गए मूल्यों के व्यवहार में विशिष्ट प्रतीत होता है ( ऐसा है कि गामा वितरण के माध्य और विचरण मोटे तौर पर डेटा (जैसे, क्लेटन और कलडोर, 1987 के माध्य और विचरण) से मेल खाते हैं "रोग-मानचित्रण के लिए आयु-मानकीकृत संबंधक अनुमानों …

4
हम सिर्फ हाइपर मापदंडों को क्यों नहीं सीखते हैं?
मैं एक बहुत ही लोकप्रिय पेपर " एक्सप्लेनिंग और हार्नेसिंग एडिशनल एग्जामिनेशन " लागू कर रहा था और पेपर में, यह एक प्रतिकूल उद्देश्य फ़ंक्शन को प्रशिक्षित करता है J '' (') = αJ (+) + (1 - α) J' (θ)। यह α को एक हाइपरपरमीटर के रूप में मानता …

1
सीखने की दर और छिपी हुई परतों की संख्या के बीच संबंध?
क्या तंत्रिका नेटवर्क की गहराई और सीखने की दर के बीच अंगूठे का कोई नियम है? मैं देख रहा हूँ कि नेटवर्क जितना गहरा है, सीखने की दर उतनी ही कम होनी चाहिए। यदि यह सही है, तो ऐसा क्यों है?

2
नेस्ट क्रॉस-मान्यता - यह प्रशिक्षण सेट पर केफोल्ड सीवी के माध्यम से मॉडल चयन से कैसे अलग है?
मैं अक्सर लोगों को नेस्टेड क्रॉस सत्यापन के विशेष मामले के रूप में 5x2 क्रॉस-सत्यापन के बारे में बात करते हुए देखता हूं । मैं पहली संख्या मानता हूं (यहां: 5) आंतरिक लूप में सिलवटों की संख्या को संदर्भित करता है और दूसरी संख्या (यहां: 2) बाहरी लूप में सिलवटों …

1
रैखिक प्रतिगमन में नियमितीकरण पैरामीटर मानों को भी दंडित क्यों करता है?
वर्तमान में रिज रिग्रेशन सीखना और मैं अधिक जटिल मॉडल (या अधिक जटिल मॉडल की परिभाषा) के दंड के बारे में थोड़ा भ्रमित था। मैं जो समझता हूं, उससे जरूरी नहीं है कि मॉडल जटिलता बहुपद के आदेश के अनुरूप हो। इसलिए:2 + 3 + 4एक्स2+ ५एक्स3+ 6एक्स42+3+4एक्स2+5एक्स3+6एक्स4 2 + …

1
यदि हाइपरपरमेटर्स ट्यूनिंग करते समय मैं सत्यापन डेटा पर मॉडल के प्रदर्शन का मूल्यांकन करता हूं तो सत्यापन डेटा के बारे में जानकारी क्यों लीक हुई है?
पायथन के साथ फ्रांस्वा चोलट की डीप लर्निंग में यह कहा गया है: परिणामस्वरूप, सत्यापन सेट पर इसके प्रदर्शन के आधार पर मॉडल के कॉन्फ़िगरेशन को ट्यूनिंग करने से सत्यापन सेट पर ओवरफिटिंग हो सकती है, भले ही आपका मॉडल उस पर सीधे प्रशिक्षित न हो। इस घटना का केंद्र …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.