डीप लर्निंग और न्यूरल नेटवर्क्स को क्षेत्र में हालिया प्रगति के कारण सबसे अधिक फोकस मिल रहा है और ज्यादातर विशेषज्ञों का मानना है कि यह मशीन सीखने की समस्याओं को सुलझाने का भविष्य है।
लेकिन कोई गलती न करें, शास्त्रीय मॉडल अभी भी असाधारण परिणाम पैदा करते हैं और कुछ समस्याओं में, वे गहरी सीखने की तुलना में बेहतर परिणाम दे सकते हैं।
रैखिक प्रतिगमन अभी तक दुनिया में सबसे अधिक इस्तेमाल की जाने वाली मशीन लर्निंग एल्गोरिदम है।
एक विशिष्ट डोमेन की पहचान करना मुश्किल है जहां शास्त्रीय मॉडल हमेशा बेहतर प्रदर्शन करते हैं क्योंकि सटीकता इनपुट डेटा के आकार और गुणवत्ता पर बहुत अधिक निर्धारित होती है।
इसलिए एल्गोरिथ्म और मॉडल का चयन हमेशा एक व्यापार है। यह एक सटीक कथन है कि शास्त्रीय मॉडल अभी भी छोटे डेटा सेट के साथ बेहतर प्रदर्शन करते हैं। हालांकि, बहुत से शोध कम डेटा पर गहन सीखने के मॉडल के प्रदर्शन में सुधार करने जा रहे हैं।
अधिकांश शास्त्रीय मॉडलों के लिए कम कम्प्यूटेशनल संसाधनों की आवश्यकता होती है, इसलिए यदि आपका लक्ष्य गति है तो यह बहुत बेहतर है।
इसके अलावा, शास्त्रीय मॉडल लागू करने और कल्पना करने में आसान होते हैं जो प्रदर्शन के लिए एक और संकेतक हो सकते हैं, लेकिन यह आपके लक्ष्यों पर निर्भर करता है।
यदि आपके पास असीमित संसाधन हैं, तो एक बड़े पैमाने पर अवलोकन योग्य डेटा सेट जिसे ठीक से लेबल किया गया है और आप इसे समस्या डोमेन के भीतर सही ढंग से लागू करते हैं, तो गहन शिक्षा आपको ज्यादातर मामलों में बेहतर परिणाम देने की संभावना है।
लेकिन मेरे अनुभव में, वास्तविक दुनिया की स्थितियां कभी भी परिपूर्ण नहीं होती हैं