bigdata पर टैग किए गए जवाब

1
Pyspark df से PostgresSQL के लिए 50 लाख से अधिक लेखन, सबसे अच्छा कुशल दृष्टिकोण
स्पार्क डेटाफ्रेम से पोस्टग्रैब टेबल्स में 50 मिलियन रिकॉर्ड के लाखों रिकॉर्ड डालने का सबसे कुशल तरीका क्या होगा। मैंने पिछले दिनों बल्क कॉपी और बैच साइज ऑप्शन का उपयोग करके स्पार्क से MSSQL तक किया है जो सफल भी रहा। क्या ऐसा ही कुछ है जो यहाँ पोस्टग्रेज के …

4
लकी 26 गेम को हल करने के लिए आर का उपयोग करना
मैं अपने बेटे को यह दिखाने की कोशिश कर रहा हूं कि कैसे कोडिंग का उपयोग किसी गेम द्वारा उत्पन्न समस्या को हल करने के लिए किया जा सकता है और साथ ही यह देखने के लिए कि आर बड़े डेटा को कैसे संभालता है। प्रश्न में खेल को "लकी …
15 r  bigdata  permutation 

1
अपाचे स्पार्क: किसी ज्वाइन पर रिपर्टिशनिंग, सॉर्टिंग और कैशिंग का प्रभाव
मैं खुद एक टेबल से जुड़ने पर स्पार्क के व्यवहार का पता लगा रहा हूं। मैं डेटाब्रिक्स का उपयोग कर रहा हूं। मेरा डमी परिदृश्य है: डेटाफ़्रेम ए के रूप में एक बाहरी तालिका पढ़ें (अंतर्निहित फाइलें डेल्टा प्रारूप में हैं) डेटाफ्रेम ए के रूप में डेटाफ्रेम बी को केवल …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.