मेरी परियोजनाओं में, मेरे पास 800 जीबी डेटा (जिसमें डेटा और कोड शामिल हैं) पर काम है। मेरे डेटा का कुछ हिस्सा कुछ बड़ी फ़ाइलों, ~ 1 जीबी द्वारा गठित किया गया है, लेकिन मेरे पास कुछ छोटी फ़ाइलों के साथ कुछ फ़ोल्डर भी हैं
मैंने किसी बाहरी सर्वर पर अपने सभी डेटा का बैकअप ले लिया है sftp
, और मैंने उपयोग किया है lftp
, का उपयोग कर mirror -R <folder>
। मुझे पता चला है कि डेटा का बैकअप लेने का यह तरीका आदर्श नहीं हो सकता है, क्योंकि sftp
बड़ी फ़ाइलों के साथ बेहतर काम करता है और छोटी फ़ाइलों का बैकअप लेने में लंबा समय लगता है।
अब जब मैंने अपने सभी डेटा को बाहरी सर्वर पर कॉपी कर लिया है, तो मैं हर रोज़ परिवर्तनों को सहेजना चाहूंगा, यह देखते हुए कि मैं अपनी परियोजनाओं पर लगातार काम करता हूं और मैं एक समय में कई अलग-अलग फ़ोल्डरों को अपडेट करता हूं।
मैं के साथ बैकअप करने के लिए इस्तेमाल किया गया था rsync
, लेकिन मेरा मानना है कि यह बाहरी सर्वर पर एक विकल्प नहीं है जिसका मैं वर्तमान में उपयोग कर रहा हूं।
मैं सोच रहा था कि क्या कोई रास्ता है जिससे मैं इस प्रक्रिया का उपयोग कर सकता हूं sftp
, या तो भीतर lftp
या कोई अन्य फ़ाइल प्रबंधक।