हमारी कंपनी में, हमारे पास एक MongoDB डेटाबेस है जिसमें बहुत से असंरचित डेटा हैं, जिस पर हमें रिपोर्ट और अन्य विश्लेषण उत्पन्न करने के लिए मैप-कम एल्गोरिदम को चलाने की आवश्यकता है। आवश्यक विश्लेषणों को लागू करने के लिए हमारे पास दो दृष्टिकोण हैं:
एक दृष्टिकोण मानगोडीबी से एक हडोप क्लस्टर में डेटा निकालने और हैडोप प्लेटफॉर्म में पूरी तरह से विश्लेषण करने के लिए है। हालाँकि, इसके लिए प्लेटफ़ॉर्म (सॉफ्टवेयर और हार्डवेयर) तैयार करने और टीम को शिक्षित करने और हादोप के साथ काम करने और इसके लिए मानचित्र-कम करने के कार्यों को लिखने के लिए काफी निवेश की आवश्यकता होती है।
एक और तरीका यह है कि हम मानचित्र-कम करने वाले एल्गोरिदम को डिजाइन करने पर अपना प्रयास करें, और MongoDB मैप-कम कार्यक्षमता पर एल्गोरिदम चलाएं। इस तरह, हम अंतिम प्रणाली का एक प्रारंभिक प्रोटोटाइप बना सकते हैं जो रिपोर्ट तैयार कर सकता है। मुझे पता है कि हनडॉप की तुलना में मोंगोबीडी के मानचित्र-कम कार्यात्मकता बहुत धीमी है, लेकिन वर्तमान में डेटा इतना बड़ा नहीं है जो इसे अभी भी अड़चन बनाता है, कम से कम अगले छह महीनों के लिए नहीं।
सवाल यह है कि दूसरे दृष्टिकोण का उपयोग करते हुए और MongoDB के लिए एल्गोरिदम लिखकर, क्या उन्हें बाद में थोड़ा आवश्यक संशोधन और एल्गोरिथ्म रिडिजाइन के साथ Hadoop में पोर्ट किया जा सकता है? MongoDB सिर्फ जावास्क्रिप्ट का समर्थन करता है लेकिन प्रोग्रामिंग भाषा अंतर को संभालना आसान है। हालाँकि, MongoDB और Hadoop के मानचित्र-कम मॉडल में कोई मूलभूत अंतर है जो हमें Hadoop को पोर्ट करने के लिए एल्गोरिदम को पर्याप्त रूप से पुनः डिज़ाइन करने के लिए बाध्य कर सकता है?