पहली बार कम्प्यूटेशनल रूप से, यह संपूर्ण है। सामान्य सीपीयू को डीप लर्निंग के साथ बुनियादी गणना / प्रशिक्षण करने के लिए बहुत समय की आवश्यकता होती है। इस प्रकार GPU की सिफारिश की जाती है, यहां तक कि वे बहुत सारी स्थितियों में पर्याप्त नहीं हो सकते हैं। आमतौर पर गहरे सीखने वाले मॉडल पॉलिनोमियल में होने के सैद्धांतिक समय का समर्थन नहीं करते हैं। हालांकि, अगर हम समान कार्यों के लिए एमएल में अपेक्षाकृत सरल मॉडल देखते हैं, तो भी अक्सर हमारे पास गणितीय गारंटी होती है कि इस तरह के सरल एल्गोरिदम के लिए आवश्यक प्रशिक्षण समय पॉलिनॉमिअल्स में है। यह, मेरे लिए, कम से कम शायद सबसे बड़ा अंतर है।
इस मुद्दे का मुकाबला करने के लिए समाधान हैं, हालांकि। एक मुख्य दृष्टिकोण डीएल एल्गोरिदम को केवल कई पुनरावृत्तियों के लिए अनुकूलित करना है (व्यवहार में वैश्विक समाधानों को देखने के बजाय, बस एल्गोरिदम को एक अच्छे स्थानीय समाधान के लिए अनुकूलित करना है, जबकि "गुड" के लिए मानदंड उपयोगकर्ता द्वारा परिभाषित किया गया है)।
एक और मुद्दा जो युवा गहरे सीखने के प्रति उत्साही के लिए थोड़ा विवादास्पद हो सकता है वह यह है कि डीप लर्निंग एल्गोरिदम में सैद्धांतिक समझ और तर्क की कमी है। डीप न्यूरल नेटवर्क्स का उपयोग बहुत सारी स्थितियों में सफलतापूर्वक किया गया है जिसमें हैंड राइटिंग रिकग्निशन, इमेज प्रोसेसिंग, सेल्फ ड्राइविंग कार, सिग्नल प्रोसेसिंग, एनएलपी और बायोमेडिकल एनालिसिस शामिल हैं। इनमें से कुछ मामलों में, वे मनुष्यों से भी आगे निकल गए हैं। हालाँकि, यह कहा जा रहा है, वे किसी भी परिस्थिति में नहीं हैं, सैद्धांतिक रूप से अधिकांश सांख्यिकीय विधियों के रूप में ध्वनि।
मैं विस्तार में नहीं जाऊंगा, बल्कि मैं आपको छोड़ देता हूं। प्रत्येक एल्गोरिथ्म / पद्धति के लिए पेशेवरों और विपक्ष हैं और डीएल एक अपवाद नहीं है। यह बहुत उपयोगी है जैसा कि बहुत सी स्थितियों में सिद्ध किया गया है और प्रत्येक युवा डेटा वैज्ञानिक को कम से कम डीएल की मूल बातें अवश्य सीखनी चाहिए। हालांकि, अपेक्षाकृत सरल समस्याओं के मामले में, प्रसिद्ध सांख्यिकीय विधियों का उपयोग करना बेहतर है क्योंकि उनके पास समर्थन करने के लिए बहुत सारे सैद्धांतिक परिणाम / गारंटी हैं। इसके अलावा, सीखने के दृष्टिकोण से, हमेशा सरल दृष्टिकोण के साथ शुरू करना और उन्हें पहले मास्टर करना बेहतर होता है।