आपके प्रश्न का उत्तर .. (यहाँ से शुरू होता है)
सामान्य तौर पर, यदि हमारे डेटासेट में डेटासेट के संदर्भ में बहुत भिन्नता नहीं है, जिस पर पूर्व-प्रशिक्षित मॉडल प्रशिक्षित है, तो हमें फाइन-ट्यूनिंग के लिए जाना चाहिए। ImageNet जैसे एक बड़े और विविध डेटासेट पर पूर्व-प्रशिक्षित नेटवर्क अपनी प्रारंभिक परतों में घटता और किनारों जैसी सार्वभौमिक सुविधाओं को कैप्चर करता है, जो वर्गीकरण की अधिकांश समस्याओं के लिए प्रासंगिक और उपयोगी हैं।
बेशक, अगर हमारे डेटासेट कुछ बहुत विशिष्ट डोमेन का प्रतिनिधित्व करते हैं, उदाहरण के लिए, चिकित्सा छवियों या चीनी हस्तलिखित पात्रों, और इस तरह के डोमेन पर कोई पूर्व-प्रशिक्षित नेटवर्क नहीं मिल सकता है, तो हमें तब नेटवर्क को खरोंच से प्रशिक्षित करने पर विचार करना चाहिए।
एक अन्य चिंता यह है कि यदि हमारा डेटासेट छोटा है, तो छोटे डेटासेट पर पहले से प्रशिक्षित नेटवर्क को ठीक-ठीक ट्यूनिंग करने से ओवरफिटिंग हो सकती है, खासकर अगर नेटवर्क की अंतिम कुछ परतें पूरी तरह से कनेक्टेड लेयर्स हैं, जैसा कि वीजीजी नेटवर्क के मामले में है। मेरे अनुभव से बोलते हुए, यदि हमारे पास कुछ हजार कच्चे नमूने हैं, तो सामान्य डेटा वृद्धि रणनीतियों (अनुवाद, रोटेशन, फ़्लिपिंग, आदि) के साथ, ठीक-ट्यूनिंग आमतौर पर हमें एक बेहतर परिणाम देगा।
यदि हमारा डेटासेट वास्तव में छोटा है, तो एक हजार से कम नमूनों का कहना है, एक बेहतर तरीका यह है कि मध्यवर्ती परत का उत्पादन पूरी तरह से जुड़े परतों से पहले सुविधाओं (अड़चन सुविधाओं) के रूप में किया जाए और एक रैखिक क्लासिफायरियर (उदाहरण के लिए SVM) को प्रशिक्षित किया जाए। यह। एसवीएम विशेष रूप से एक छोटी सी डेटासेट पर निर्णय सीमाएँ बनाने में अच्छा है।