हां आप गैर-छवि डेटा को संसाधित करने के लिए गहन शिक्षण तकनीकों का उपयोग कर सकते हैं। हालांकि, अन्य मॉडल कक्षाएं अभी भी सिग्नल-प्रोसेसिंग और संबंधित कार्यों के बाहर तंत्रिका नेटवर्क के साथ बहुत प्रतिस्पर्धात्मक हैं।
गैर-सिग्नल / गैर-अनुक्रम डेटा पर गहरी सीखने के दृष्टिकोण का उपयोग करने के लिए, आमतौर पर आप एक साधारण फीड-फॉरवर्ड मल्टी-लेयर नेटवर्क का उपयोग करते हैं। कंसिस्टेंट लेयर्स या पूलिंग लेयर्स की जरूरत नहीं। इसके अलावा सबसे अच्छी वास्तुकला को क्रॉस-मान्यता के साथ तलाशने की आवश्यकता है, और गहरे एनएन की खोज करने के लिए समय लेने वाली हो सकती है ताकि प्रशिक्षण के लिए बहुत अधिक गणना हो।
मेरे अनुभव में कागेल प्रतियोगिताओं में गहरे (-ish, आम तौर पर ~ 5 परतों) तंत्रिका नेटवर्क का उपयोग करने का प्रयास:
ड्रॉपआउट नियमितीकरण और सटीकता में सुधार के लिए अभी भी अत्यधिक प्रभावी है
इनपुट सामान्यीकरण - आमतौर पर 0 का मतलब है, मानक डेविटॉन 1, महत्वपूर्ण है
छिपी हुई परत सक्रियण क्रियाओं से फर्क पड़ सकता है। यद्यपि ReLU लुप्त हो रहे ग्रेडिएंट्स के साथ कुछ समस्याओं को कम करता है, मेरे अनुभव में यह गैर-सिग्नल डेटा के साथ कम मजबूत है और आप कुछ अन्य फॉर्म चाहते हैं। यदि आपके पास केवल कुछ परतें हैं, तो सिग्मॉइड या टैन अभी भी ठीक काम करते हैं। अन्यथा, टपका हुआ ReLU, PReLU, ELU और अन्य ReLU वेरिएंट में देखें जो "मृत" न्यूरॉन्स के साथ अपनी समस्याओं को पैच करने का प्रयास करते हैं।
गहरी शिक्षा के लिए डिज़ाइन किए गए ऑप्टिमाइज़र का उपयोग करें, जैसे कि एडम, एडग्राड या आरएमएसप्रॉप
एक वजन प्रारंभिक दृष्टिकोण का उपयोग करें जो ग्लोरोट जैसे गहरी शिक्षा के साथ काम करता है।
बैच सामान्यीकरण परतों का उपयोग करने पर विचार करें। ऐसा कुछ नहीं जिसका मुझे बहुत अनुभव है, लेकिन मैंने अन्य लोगों को इस दृष्टिकोण के साथ अच्छा करते देखा है।
इस सब के बावजूद, XGBoost नियमित रूप से और आसानी से कम से कम ट्यूनिंग और प्रशिक्षण के प्रयासों के साथ गहरे एनएन को हरा सकता है तुलना में (समस्या और आपके पास डेटा पर पाठ्यक्रम के आधार पर)। यदि सटीकता आपके लिए सब कुछ है, हालांकि, यह संभव है - यद्यपि गारंटी नहीं दी गई है - कि गहरे एनएन और अन्य मॉडल जैसे कि XGBoost का एक पहनावा या तो अकेले की तुलना में बेहतर प्रदर्शन करेगा।