मेरे पास कुछ डेटा हैं जो एक ग्राफ । कोने दो वर्गों में से एक हैं , और मैं दो वर्गों के बीच अंतर करने के लिए एक एसवीएम प्रशिक्षण में रुचि रखता हूं। इसके लिए एक उपयुक्त कर्नेल है डिफ्यूजन कर्नेल , जहां का लाप्लासियन है और एक ट्यूनिंग पैरामीटर है।y मैं ∈ { - 1 , 1 }एलβ
एसवीएम को ट्यून करने से हाइपरपामेटर्स के चयन की आवश्यकता होती है, इसलिए मुझे को ट्यून करना होगापारंपरिक, हम इस समस्या के लिए पार सत्यापन का उपयोग करें, लेकिन यह है कि यहां उचित प्रतीत नहीं होता, एक शीर्ष छोड़ते हुए के बाद से से पूरे ग्राफ बदलता है, संभवतः भी संपर्क में घटकों की संख्या में वृद्धि! यदि कनेक्ट किए गए घटकों की संख्या में परिवर्तन होता है, तो कुछ कोने दूसरों से अगम्य हो जाते हैं, और हम डेटा के बहुत अलग सेट के साथ सामना कर रहे हैं, जो इसके साथ शुरू हुआ था। यही है, न केवल हम हटाए गए शीर्ष याद कर रहे हैं, बल्कि हम ग्राफ में अन्य सभी शीर्षों बारे में भी जानकारी गायब कर रहे हैं जो उस शीर्ष से सटे थे।मैं जी मैं जे
क्रॉस-वैलिडेशन की मूल धारणा यह है कि हम अनुमानित करना चाहेंगे कि नए डेटा के साथ प्रस्तुत किए जाने पर मॉडल कैसा प्रदर्शन करेगा। मानक समस्याओं में, परीक्षण के लिए आपके कुछ डेटा का चूक शेष प्रशिक्षण डेटा के मूल्यों को नहीं बदलता है। हालांकि, ग्राफ डेटा के मामले में, यह स्पष्ट नहीं है कि मॉडल के लिए सीवी सेटिंग में "नया" डेटा देखने का क्या मतलब है। वर्टिकलिंग वर्ट्स या किनारों को डेटा को पूरी तरह से बदलने की क्षमता है। उदाहरण के लिए, एक ग्राफ कल्पना जो है एक सितारा ग्राफ, जिसमें एक शीर्ष है को किनारों कोने, और अन्य सभी कोने 1 बढ़त हासिल है। प्रशिक्षण डेटा निर्माण के लिए केंद्रीय शीर्ष को समझनाकश्मीर कश्मीर कश्मीर एस *पूरी तरह से ग्राफ को डिस्कनेक्ट कर देगा, और कर्नेल मैट्रिक्स विकर्ण होगा! लेकिन निश्चित रूप से, में प्रदान किए गए इस प्रशिक्षण डेटा पर एक मॉडल को प्रशिक्षित करना संभव होगा । क्या कम स्पष्ट है इसका मतलब यह है कि फिर परिणामी मॉडल के आउट-ऑफ-सैंपल प्रदर्शन का परीक्षण करें। क्या कोई लिए कर्नेल मैट्रिक्स को फिर से जोड़ देता है , और यह भविष्यवाणी करने के लिए प्रदान करता है? एस
या, वैकल्पिक रूप से, क्या पूरी तरह से के कर्नेल मैट्रिक्स की गणना करके शुरू होता है और एसवीएम का अनुमान लगाने के लिए उपयोग किए जाने वाले कर्नेल मैट्रिक्स का उत्पादन करने के लिए आवश्यक पंक्तियों और स्तंभों को छोड़ देता है? यह अपनी स्वयं की वैचारिक समस्याओं को प्रस्तुत करता है, क्योंकि में केंद्रीय नोड को शामिल करने का मतलब है कि प्रत्येक शीर्ष प्रत्येक दूसरे शीर्ष से पहुंच योग्य है, और कर्नेल मैट्रिक्स घना है। क्या इस समावेशन का अर्थ यह होगा कि सिलवटों के पार सूचना रिसाव है, और क्रॉस-वैलिडेशन आउटपुट को पूर्वाग्रह करता है? एक ओर, छोड़े गए केंद्रीय नोड के बारे में डेटा अभी भी मौजूद है, क्योंकि छोड़े गए केंद्रीय नोड ग्राफ को जुड़ा हुआ बनाता है। दूसरी ओर, हम लेबल बारे में कुछ नहीं जानते हैंएस वाई छोड़े गए नोड्स, इसलिए हम सहज हो सकते हैं कि हम इस तरीके से सीवी प्रदर्शन करने के लिए पर्याप्त रूप से निष्पक्ष अनुमान प्राप्त कर रहे हैं।
इस प्रकार की समस्याओं के लिए हाइपरपैरामीटर का चयन कैसे किया जाता है? क्या CV अपूर्ण-लेकिन स्वीकार्य है, या क्या हमें विशेष विधियों की आवश्यकता है? क्या मेरे संदर्भ में हाइपरपरमेटर ट्यूनिंग भी संभव है?