AWS S3 बाल्टी के लिए बैकअप रणनीति


94

मैं S3 बाल्टी का बैकअप लेने के लिए कुछ सलाह या सर्वोत्तम अभ्यास की तलाश कर रहा हूं।
S3 से डेटा का बैकअप लेने का उद्देश्य निम्नलिखित के कारण डेटा हानि को रोकना है:

  1. S3 मुद्दा
  2. समस्या जहां मैं गलती से इस डेटा को S3 से हटाता हूं

कुछ जाँच के बाद मुझे निम्नलिखित विकल्प दिखाई देते हैं:

  1. संस्करण http://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html का उपयोग करें
  2. AWS SDK का उपयोग करके एक S3 बाल्टी से दूसरे में कॉपी करें
  3. अमेज़ॅन ग्लेशियर का बैकअप http://aws.amazon.com/en/glacier/
  4. उत्पादन सर्वर के लिए बैकअप, जो स्वयं बैकअप है

मुझे क्या विकल्प चुनना चाहिए और केवल S3 पर डेटा स्टोर करना कितना सुरक्षित होगा? आपकी राय सुनना चाहते हैं।
कुछ उपयोगी लिंक:


जवाबों:


65

मूल रूप से मेरे ब्लॉग पर पोस्ट किया गया: http://eladnava.com/backing-up-your-amazon-s3-buckets-to-ec2/

समय-समय पर अपने S3 बाल्टी को EC2 सर्वर पर सिंक करें

यह कई कमांड लाइन उपयोगिताओं का उपयोग करके आसानी से प्राप्त किया जा सकता है जो स्थानीय फाइल सिस्टम में एक दूरस्थ S3 बाल्टी को सिंक करना संभव बनाता है।

s3cmd
पहले, s3cmdबेहद आशाजनक लग रहा था। हालांकि, मेरे विशाल S3 बाल्टी पर इसे आज़माने के बाद - यह पैमाने पर विफल रहा, ए के साथ आउटिंग करना Segmentation fault। यह छोटी बाल्टियों पर ठीक काम करता था, हालाँकि। चूंकि यह बड़ी बाल्टियों के लिए काम नहीं करता था, इसलिए मैं इसका विकल्प खोजने के लिए निकल पड़ा।

s4cmd
नया, बहु थ्रेडेड विकल्प s3cmd। हालांकि, यह और भी आशाजनक लग रहा था, मैंने देखा कि यह उन फाइलों को फिर से डाउनलोड करता रहा, जो पहले से ही स्थानीय फाइल सिस्टम पर मौजूद थीं। यह उस तरह का व्यवहार नहीं है जिसकी मुझे सिंक कमांड से उम्मीद थी। यह जाँचना चाहिए कि क्या दूरस्थ फ़ाइल पहले से ही स्थानीय रूप से मौजूद है (हैश / फाइलिंग जाँच साफ-सुथरी होगी) और इसे उसी लक्ष्य निर्देशिका पर अगले सिंक रन में छोड़ दें। मैंने इस अजीब व्यवहार की रिपोर्ट करने के लिए एक मुद्दा ( ब्लूमरच / s4cmd / # 46 ) खोला । इस बीच, मैं एक और विकल्प खोजने के लिए निकल पड़ा।

awscli
और फिर मैंने पाया awscli। यह अमेज़ॅन की आधिकारिक कमांड लाइन इंटरफ़ेस है, जो कि उनकी अलग-अलग क्लाउड सेवाओं के साथ बातचीत करने के लिए है, जिसमें S3 शामिल है।

AWSCLI

यह एक उपयोगी सिंक कमांड प्रदान करता है जो आपके स्थानीय फाइल सिस्टम में दूरस्थ बाल्टी फ़ाइलों को जल्दी और आसानी से डाउनलोड करता है

$ aws s3 सिंक s3: // आपका-बकेट-नाम / घर / ubuntu / s3 / आपका-बकी-नाम /

लाभ:

  • स्केलेबल - विशाल S3 बाल्टी का समर्थन करता है
  • मल्टी-थ्रेडेड - कई थ्रेड्स का उपयोग करके फ़ाइलों को तेजी से सिंक करता है
  • स्मार्ट - केवल नई या अपडेट की गई फ़ाइलों को सिंक करता है
  • फास्ट - इसकी बहु-थ्रेडेड प्रकृति और स्मार्ट सिंक एल्गोरिदम के लिए धन्यवाद

एक्सीडेंटल डिलेयन

syncयदि वे स्रोत (S3 बाल्टी), और इसके विपरीत से गायब हैं , तो आसानी से, कमांड गंतव्य फ़ोल्डर (स्थानीय फ़ाइल सिस्टम) में फ़ाइलों को नहीं हटाएगा। यह S3 का बैकअप लेने के लिए एकदम सही है - अगर फ़ाइलों को बाल्टी से हटा दिया जाता है, तो इसे फिर से सिंक करना स्थानीय रूप से नहीं हटेगा। और यदि आप किसी स्थानीय फ़ाइल को हटाते हैं, तो उसे स्रोत बकेट से भी नहीं हटाया जाएगा।

Ubuntu 14.04 LTS पर अर्सकली की स्थापना

चलो स्थापित करके शुरू करते हैं awscli। ऐसा करने के कई तरीके हैं , हालांकि, मैंने इसे स्थापित करना सबसे आसान पाया apt-get

$ sudo apt-get install awscli

विन्यास

इसके बाद, हमें awscliअपनी एक्सेस कुंजी आईडी और गुप्त कुंजी के साथ कॉन्फ़िगर करना होगा, जिसे आपको IAM से प्राप्त करना होगा , एक उपयोगकर्ता बनाकर और AmazonS3ReadOnlyAccess नीति संलग्न करके । यह आपको या किसी को भी, जो आपकी S3 फ़ाइलों को हटाने से इन क्रेडेंशियल्स तक पहुँच प्राप्त करने से रोकेगा। अपने S3 क्षेत्र में प्रवेश करना सुनिश्चित करें, जैसे कि us-east-1

$ aws कॉन्फ़िगर

aws कॉन्फ़िगर

तैयारी

चलो स्थानीय S3 बैकअप निर्देशिका तैयार करते हैं, अधिमानतः /home/ubuntu/s3/{BUCKET_NAME}{BUCKET_NAME}अपने वास्तविक बकेट नाम के साथ प्रतिस्थापित करना सुनिश्चित करें ।

$ mkdir -p / home / ubuntu / s3 / {BUCKET_NAME}

प्रारंभिक सिंक

चलो आगे बढ़ते हैं और निम्नलिखित कमांड के साथ पहली बार बाल्टी सिंक करते हैं:

$ aws s3 सिंक s3: // {BUCKET_NAME} / होम / ubuntu / s3 / {BUCKET_NAME} /

मान लें कि बकेट मौजूद है, तो AWS क्रेडेंशियल्स और रीजन सही हैं, और डेस्टिनेशन फोल्डर वैध है, awscliपूरे बकेट को स्थानीय फाइलसिस्टम पर डाउनलोड करना शुरू कर देगा।

बाल्टी के आकार और आपके इंटरनेट कनेक्शन के आधार पर, यह कुछ सेकंड से लेकर घंटों तक कहीं भी ले जा सकता है। जब यह पूरा हो जाएगा, तो हम आगे बढ़ेंगे और बाल्टी की स्थानीय प्रतिलिपि को अद्यतित रखने के लिए एक स्वचालित क्रोन नौकरी स्थापित करेंगे।

क्रोन जॉब सेट करना

आगे बढ़ो और में एक sync.shफ़ाइल बनाएँ /home/ubuntu/s3:

$ nano /home/ubuntu/s3/sync.sh

निम्नलिखित कोड को कॉपी और पेस्ट करें sync.sh:

#! / Bin / श

# वर्तमान दिनांक और समय को प्रतिध्वनित करें

गूंज '-----------------------------'
दिनांक
गूंज '-----------------------------'
गूंज ''

# इको ​​लिपि आरंभीकरण
गूंज 'सिंकिंग रिमोट S3 बाल्टी ...'

# वास्तव में सिंक कमांड (अपने S3 बाल्टी नाम के साथ {BUCKET_NAME} को बदलें)
/ usr / bin / aws s3 सिंक s3: // {BUCKET_NAME} / home / ubuntu / s3 / {BUCKET_NAME} /

# इको ​​स्क्रिप्ट पूरी होना
गूंज 'सिंक पूरा'

स्क्रिप्ट के दौरान दो बार, अपने S3 बाल्टी नाम के साथ {BUCKET_NAME} को बदलना सुनिश्चित करें ।

प्रो टिप: आपको बाइनरी /usr/bin/awsसे लिंक करने के लिए उपयोग करना चाहिए aws, क्योंकि crontabएक सीमित शेल वातावरण में कमांड निष्पादित करता है और निष्पादन योग्य को अपने दम पर खोजने में सक्षम नहीं होगा।

इसके बाद, chmodस्क्रिप्ट को सुनिश्चित करें ताकि इसे निष्पादित किया जा सके crontab

$ सुडो चामोद + x /home/ubuntu/s3/sync.sh

आइए यह सुनिश्चित करने के लिए स्क्रिप्ट चलाने की कोशिश करें कि यह वास्तव में काम करता है:

$ /home/ubuntu/s3/sync.sh

आउटपुट इस के समान होना चाहिए:

Sync.sh आउटपुट

अगला, चलो वर्तमान उपयोगकर्ता crontabको निम्नलिखित कमांड निष्पादित करके संपादित करते हैं :

$ crontab -e

यदि यह आपकी पहली बार निष्पादित है crontab -e, तो आपको एक पसंदीदा संपादक का चयन करना होगा। मैं चयन करने की सलाह दूंगा nanoक्योंकि शुरुआती लोगों के साथ काम करना सबसे आसान है।

सिंक फ्रिक्वेंसी

हमें यह बताने की आवश्यकता है कि crontabहमारी स्क्रिप्ट को चलाने के लिए कितनी बार और कहाँ स्क्रिप्ट एक कमांड लिखकर स्थानीय फाइल सिस्टम पर रहती है। इस कमांड का प्रारूप इस प्रकार है:

mh डोम मोन डो कमांड

निम्न कमांड स्क्रिप्ट को हर घंटे crontabचलाने के लिए कॉन्फ़िगर करती है sync.sh(मिनट के माध्यम से निर्दिष्ट: 0 और घंटे: * पैरामीटर) और यह sync.logहमारी s3निर्देशिका में फ़ाइल के लिए स्क्रिप्ट के आउटपुट को पाइप करने के लिए है :

0 * * * * * /home/ubuntu/s3/sync.sh> /home/ubuntu/s3/sync.log

आपको इस पंक्ति को उस crontabफ़ाइल के नीचे जोड़ना चाहिए जिसे आप संपादित कर रहे हैं। फिर, आगे बढ़ो और Ctrl + W दबाकर फ़ाइल को डिस्क पर सहेजें और फिर दर्ज करें । फिर आप Ctrl + Xnano दबाकर बाहर निकल सकते हैं । अब हर घंटे सिंक कार्य चलाएगा।crontab

प्रो टिप: आप यह सत्यापित कर सकते हैं कि प्रति घंटा क्रॉन जॉब का निरीक्षण /home/ubuntu/s3/sync.log, निष्पादन तिथि और समय के लिए इसकी सामग्री की जाँच करके और लॉग्स का निरीक्षण करके यह देखने के लिए सफलतापूर्वक क्रियान्वित किया जा रहा है कि कौन सी नई फ़ाइलों को सिंक किया गया है।

सब तैयार! आपकी S3 बाल्टी अब हर घंटे अपने आप आपके EC2 सर्वर पर सिंक हो जाएगी, और आपको जाने के लिए अच्छा होना चाहिए। ध्यान दें कि समय के साथ, जैसे ही आपकी S3 बाल्टी बड़ी होती जाती है, आपको अपनी EC2 सर्वर की EBS वॉल्यूम का आकार बढ़ाना पड़ सकता है ताकि आपकी फ़ाइलों को समायोजित किया जा सके। आप हमेशा इस गाइड का पालन ​​करके अपने ईबीएस वॉल्यूम का आकार बढ़ा सकते हैं


मैंने आपके ब्लॉग पर एक प्रश्न छोड़ दिया है, लेकिन मैं भटक गया कि क्या मेटाडेटा को भी सिंक करने का एक तरीका है?
देवोलॉजी लिमिटेड

@Devology Ltd, दुर्भाग्य से मुझे S3 ऑब्जेक्ट मेटाडेटा के साथ काम करने का मौका नहीं मिला। Google की त्वरित खोज से, यह ऐसा प्रतीत नहीं होता है कि awscliयह aws s3 syncकमांड में स्वचालित रूप से सिंक करने वाले समर्थन की तरह है । ऐसा लगता है कि आपको इसे मैन्युअल रूप से लागू करना पड़ सकता है।
इलाद नवा

थैंक्स @Ekad Nava - मैं इस बात की पुष्टि करता हूं कि मैं क्या मानता था।
Devology Ltd

1
यह शानदार @EladNava साझा करने के लिए धन्यवाद, 2020 में अभी भी प्रासंगिक है!
user1130176

यह उत्तर फिट नहीं है, जब आपके पास लाखों फाइलें हैं। यह बहुत महंगा, धीमा और कभी-कभी असंभव हो जाता है - क्योंकि फाइलसिस्टम पर सीमाएं हैं।
साइकोजोइक

31

संबंधित लिंक को ध्यान में रखते हुए, जो बताता है कि S3 में 99.999999999% स्थायित्व है, मैं आपकी # चिंता को त्याग दूंगा। गंभीरता से।

अब, यदि # 2 एक वैध उपयोग मामला है और आपके लिए एक वास्तविक चिंता का विषय है, तो मैं निश्चित रूप से # 1 या # 3 विकल्पों के साथ रहना चाहूंगा। इनमें से कौन सा? यह वास्तव में कुछ सवालों पर निर्भर करता है:

  • क्या आपको किसी अन्य संस्करण की विशेषताओं की आवश्यकता है या यह केवल आकस्मिक ओवरराइट / डिलीट से बचने के लिए है?
  • क्या सस्ती कीमत लगाकर अतिरिक्त लागत लगाई गई है?
  • Amazon Glacier is optimized for data that is infrequently accessed and for which retrieval times of several hours are suitable. क्या यह तुम्हारे लिए ठीक है?

जब तक आपका भंडारण उपयोग वास्तव में बहुत बड़ा नहीं होता, मैं बाल्टी संस्करण के साथ चिपका रहूंगा। इस तरह, आपको ग्लेशियर के बैकअप डेटा के लिए किसी भी अतिरिक्त कोड / वर्कफ़्लो की आवश्यकता नहीं होगी, अन्य बकेट को, या यहां तक ​​कि किसी भी अन्य सर्वर (जो वास्तव में एक बुरा विकल्प है IMHO, कृपया इसके बारे में भूल जाएं)।


4
@SergeyAlekseev यदि ग्लेशियर एक ऐसी चीज है जो आपके लिए काम करेगी, तो एक बाल्टी पर एक जीवन चक्र नियम स्थापित करना बहुत जल्दी है जो कि आपकी फ़ाइलों को ग्लेशियर में स्वचालित रूप से संग्रहीत करता है। वे अभी भी एक बाल्टी (वेब ​​यूआई में) में दिखाई देंगे, लेकिन भंडारण वर्ग मानक से ग्लेशियर में बदल जाएगा। मैं अपने मुख्य बाल्टी से संसाधित फ़ाइलों को एक "किया हुआ" बाल्टी में स्थानांतरित करता हूं, और किया हुआ बाल्टी उस पर जीवन चक्र नियम है जो 1 दिन से अधिक पुराने कुछ भी संग्रह करता है। ये डेटा फाइलें हैं जिन्हें मैं शायद फिर कभी नहीं छूऊंगा, लेकिन क्लाइंट के लिए रखने की जरूरत है।
दान

28
मुझे नहीं लगता कि 99.999999999% स्टोरेज / बैकअप पर पूर्ण aws स्टैक होने के लिए पर्याप्त कारण है। मैं 0.0000000001% बचे के बारे में बात नहीं कर रहा हूं, लेकिन अगर बहुत कुछ अप्रत्याशित होता है, तो यह अजीब लगता है कि आपके पूरे व्यापार कहीं झूठ है। अप्रत्याशित रूप से, यह अमेरिका को एक विशिष्ट देश के लिए युद्ध के लिए जा सकता है, अमेज़ॅन को पूरी तरह से हैक किया जा रहा है (cf. सोनी), इत्यादि-आदि
अगस्तिन रिडिंगर

11
मैं इस पर @AugustinRiedinger को वापस करूंगा: "S3 मुद्दा" परिभाषा कुछ ऐसा हो सकता है जिसे आप नहीं जानते हैं (उदाहरण के लिए सरकारी मुद्दे) जो उन परिकल्पनाओं को अमान्य कर सकता है जिन पर S3 SLA नंबर 99.99 ... पर आधारित है। जब आपके डेटा का बैकअप लेने सहित कुछ भी लंबे समय तक किया जाता है , तो विविधीकरण एक अच्छा अभ्यास है, अगर कोई शर्त नहीं होनी चाहिए
lajarre

2
मैं निश्चित रूप से सहमत हूं कि आपके बिंदु मान्य हैं। लेकिन ओपी द्वारा दिए गए विकल्पों के आधार पर (समस्या के लिए एडब्ल्यूएस विकल्प सहित उनमें से सभी बहुत सुंदर), मुझे नहीं लगता कि "एस 3 मुद्दा" उतना व्यापक होगा जितना आप लोग विस्तार कर रहे हैं। कुछ व्यापक विचारों को देखने के लिए अच्छा है, हालांकि।
विकारी

4
पुराना उत्तर, लेकिन मुझे ऐसा लगता है जैसे मुझे हाल की (-ish) घटनाओं का उल्लेख करने की आवश्यकता है। "जिस दिन अमेज़ॅन ने वेब को तोड़ दिया", एक तकनीक ने गलती से अपने एस 3 सर्वर का एक बड़ा हिस्सा हटा दिया । उन 24 घंटों के दौरान भी, समस्या सुलभ थी। डेटा हानि नहीं। पूरी तरह से कोई डेटा हानि नहीं थी, यहां तक ​​कि बड़ी मात्रा में सर्वर हटा दिए गए थे, और वे अभी भी अपने SLA के भीतर अच्छी तरह से आने में कामयाब रहे
Oberst

14

आप निम्न विधियों का उपयोग करके अपने S3 डेटा का बैकअप ले सकते हैं

  1. एडब्ल्यूएस डेटापलाइन का उपयोग करके बैकअप प्रक्रिया को शेड्यूल करें, यह नीचे वर्णित 2 तरीकों से किया जा सकता है:

    ए। डेटापिपलाइन की कॉपीऐक्टिविटी का उपयोग करके आप एक s3 बाल्टी से दूसरे s3 बाल्टी में कॉपी कर सकते हैं।

    बी Datapipeline और "S3distcp" के शेलएक्टिविटी का उपयोग करके बाल्टी से दूसरे (समानांतर में) पुनरावर्ती s3 फ़ोल्डरों की पुनरावर्ती प्रतिलिपि बनाने के लिए आदेश।

  2. डेटा के विभिन्न संस्करण को बनाए रखने के लिए S3 बाल्टी के अंदर संस्करण का उपयोग करें

  3. अपने डेटा के बैकअप के लिए ग्लेशियर का उपयोग करें (इसका उपयोग तब करें जब आपको बैकअप को मूल बाल्टियों में तेज़ी से पुनर्स्थापित करने की आवश्यकता न हो (ग्लेशियर से डेटा वापस लेने में कुछ समय लगता है क्योंकि डेटा संकुचित प्रारूप में संग्रहीत होता है) या जब आप सहेजना चाहते हैं किसी अन्य s3 बाल्टी मेंड बैकअप का उपयोग करने से परहेज करके कुछ लागत), यह विकल्प आसानी से s3 बकेट फ्रेट पर जीवन चक्र नियम का उपयोग करके सेट किया जा सकता है जिसे आप बैकअप लेना चाहते हैं।

विकल्प 1 आपको अधिक सुरक्षा दे सकता है यदि आप गलती से अपने मूल s3 बाल्टी को हटा दें तो एक और लाभ यह है कि आप अपने बैकअप को किसी अन्य s3 बाल्टी में दिनांकवार फ़ोल्डरों में संग्रहीत कर सकते हैं, इस तरह से आप जानते हैं कि आपके पास किसी विशेष तिथि पर कौन सा डेटा है और क्या कर सकते हैं किसी विशिष्ट दिनांक बैकअप को पुनर्स्थापित करें। यह सब आपके द्वारा उपयोग किए गए मामले पर निर्भर करता है।


@ डेविड: जैसा कि नीचे दिए गए समाधान में david ने सुझाव दिया था, कि एक स्क्रिप्ट हो सकती है जो s3 बाल्टी को दैनिक या साप्ताहिक रूप से देती है, यह मेरे पहले बिंदु (AWS datapipeline-) से आसानी से प्राप्त किया जा सकता है, जो आपको बैकअप प्रक्रिया को शेड्यूल करने की क्षमता प्रदान करता है -daily , साप्ताहिक आदि)। मैं aws datapipeline पर लुकअप करने की सलाह दूंगा।
वरुण

यह कुछ वादे दिखाता है, क्योंकि यह आउटमोडेड दृष्टिकोणों पर भरोसा नहीं करता है जो बादल के सबसे बनाने में उत्कृष्टता प्राप्त नहीं करते हैं (पढ़ें: क्रोन)। डेटा पाइपलाइन में स्वचालित रीट्रीज़ भी हैं, और एक प्रबंधित (सर्वर रहित) सेवा है।
फेलिप अल्वारेज

13

S3 बाल्टियों पर आसानी से उपलब्ध क्रॉस क्षेत्र प्रतिकृति सुविधा का उपयोग करने के बारे में कैसे ? यहाँ फीचर के बारे में कुछ उपयोगी लेख दिए गए हैं


यदि आप एक क्षेत्र में किसी फ़ाइल को हटाते हैं, तो उसे दूसरे में दोहराया नहीं जाना चाहिए?
michelem

S3 विलोपन को दोहराता नहीं है, इस लिंक को देखें docs.aws.amazon.com/AmazonS3/latest/dev/…
at देवमबरीस

9

आपको लगता है कि एक अलग क्षेत्र पर कुछ प्रकार के वृद्धिशील बैकअप रखने के लिए अब तक एक आसान तरीका होगा।

ऊपर दिए गए सभी सुझाव वास्तव में सरल या सुरुचिपूर्ण समाधान नहीं हैं। मैं वास्तव में ग्लेशियर को एक विकल्प नहीं मानता, क्योंकि मुझे लगता है कि एक अभिलेखीय समाधान तो एक बैकअप समाधान है। जब मुझे लगता है कि मुझे लगता है कि मुझे लगता है कि एक जूनियर डेवलपर से आपदा वसूली एक बाल्टी या शायद अपने ऐप में एक शोषण या बग को हटाना है जो s3 से सामान हटाता है।

मेरे लिए, सबसे अच्छा समाधान एक लिपि होगी जो सिर्फ एक बाल्टी को दूसरे क्षेत्र में, एक दैनिक और एक साप्ताहिक को वापस करती है ताकि यदि कुछ भयानक होता है तो आप क्षेत्रों को बदल सकते हैं। मेरे पास इस तरह का कोई सेटअप नहीं है, मैंने देखा है कि ऐसा करने के लिए बस आसपास नहीं गया है क्योंकि यह ऐसा करने के लिए थोड़ा प्रयास करेगा, यही कारण है कि मैं चाहता हूं कि उपयोग करने के लिए कुछ स्टॉक समाधान था।


माना। यह दिलचस्प है जब आप S3 में खुदाई करते हैं (यहां तक ​​कि सीआरआर - प्रतिकृति में निर्मित) आपदा वसूली के लिए बड़े छेद हैं। उदाहरण के लिए, आप कभी भी एक बाल्टी को पुनर्स्थापित नहीं कर सकते, फ़ाइल संस्करण इतिहास, मेटाडेटा (esp अंतिम संशोधित तिथियां) आदि। वर्तमान में उपलब्ध सभी पुनर्प्राप्ति परिदृश्य आंशिक पुनर्प्राप्ति हैं।
पॉल जोवेट

7

जबकि यह प्रश्न कुछ समय पहले पोस्ट किया गया था, मैंने अन्य समाधानों के साथ एमएफए डिलीट प्रोटेक्शन का उल्लेख करना महत्वपूर्ण समझा । ओपी डेटा के आकस्मिक विलोपन के लिए हल करने की कोशिश कर रहा है । बहु-कारक प्रमाणीकरण (MFA) यहां दो अलग-अलग परिदृश्यों में प्रकट होता है -

  1. ऑब्जेक्ट संस्करणों को स्थायी रूप से हटाना - बाल्टी के संस्करण पर MFA को सक्षम करें।

  2. दुर्घटनावश बाल्टी को हटाना - MFA प्रमाणीकरण के बिना हटाए जाने से इनकार करते हुए एक बाल्टी नीति सेट करें।

डेटा हानि के जोखिम को कम करने और पुनर्प्राप्ति परिदृश्यों को बेहतर बनाने के लिए क्रॉस-रीजन प्रतिकृति और संस्करण के साथ युगल ।

यहाँ इस विषय पर एक ब्लॉग पोस्ट अधिक विवरण के साथ है।


0

यदि, हमारे पास बहुत अधिक डेटा है। यदि आपके पास पहले से ही एक बाल्टी है तो पहली बार सिंक में बहुत अधिक समय लगेगा, मेरे मामले में, मेरे पास 400GB था। इसमें पहली बार 3hr का समय लगा। तो मुझे लगता है कि हम कर सकते हैं प्रतिकृति S3 बाल्टी बैकअप के लिए एक अच्छा समाधान है।


मैं लगभग 7TBs एक बाल्टी में स्थानांतरित करने जा रहा हूं और सबसे अच्छा विकल्प जानने की कोशिश कर रहा हूं ... मुझे लगता है कि मुझे सिंक से बेहतर कुछ चाहिए। मैं सोच रहा था कि क्या ग्लेशियर के जीसीएस संस्करण में डेटा को कॉपी करने के लिए एक पाइपलाइन का उपयोग करना सबसे अच्छा समग्र सुरक्षा प्रदान कर सकता है?
ब्रेंडन व्हाले

AWS DataSync यहां एक विकल्प हो सकता है।
फेलिप अल्वारेज
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.