ZFS अंतहीन रेज़लवरिंग


29

मेरे पास डेबियन पर एक बड़ा (> 100TB) ZFS (FUSE) पूल है जिसमें दो ड्राइव खो गए हैं। जब ड्राइव विफल हो गई, तो मैंने उन्हें पुर्जों के साथ बदल दिया जब तक कि मैं एक आउटेज शेड्यूल नहीं कर सका और शारीरिक रूप से खराब डिस्क को बदल दिया।

जब मैंने सिस्टम को नीचे ले लिया और ड्राइव को बदल दिया, तो पूल उम्मीद के अनुसार फिर से शुरू हो गया, लेकिन जब यह लगभग 80% पूरा हो जाता है (इसे आमतौर पर लगभग 100 घंटे लगते हैं) फिर से शुरू होता है।

मुझे यकीन नहीं है कि अगर रेस ड्राइव को एक बार में दो ड्राइव की जगह दी जाती है, या अगर पूल के आकार के कारण रेजिलवर को इतना लंबा समय लगता है कि अन्य सिस्टम प्रक्रियाएं इसे बाधित कर रही हैं और इसे पुनरारंभ करने का कारण बन रही हैं, लेकिन इसमें कोई स्पष्ट संकेत नहीं है 'zpool स्थिति' या सिस्टम लॉग के परिणाम एक समस्या की ओर इशारा करते हैं।

मैंने तब से संशोधित किया है कि मैं इन पूलों को फिर से तैयार करने के प्रदर्शन में सुधार करने के लिए कैसे लेट गया हूं, लेकिन इस प्रणाली को उत्पादन में वापस लाने के लिए कोई भी लीड या सलाह की सराहना की जाती है।

झूल स्थिति आउटपुट (पिछली बार जाँच के बाद से त्रुटियाँ नई हैं):

  pool: pod
 state: ONLINE
status: One or more devices has experienced an error resulting in data
    corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
    entire pool from backup.
   see: http://www.sun.com/msg/ZFS-8000-8A
 scrub: resilver in progress for 85h47m, 62.41% done, 51h40m to go
config:

    NAME                                                 STATE     READ WRITE CKSUM
    pod                                                  ONLINE       0     0 2.79K
      raidz1-0                                           ONLINE       0     0 5.59K
        disk/by-id/wwn-0x5000c5003f216f9a                ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0CWPK    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQAM    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BPVD    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQ2Y    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0CVA3    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQHC    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BPWW    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F09X3Z    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQ87    ONLINE       0     0     0
        spare-10                                         ONLINE       0     0     0
          disk/by-id/scsi-SATA_ST3000DM001-1CH_W1F20T1K  ONLINE       0     0     0  1.45T resilvered
          disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F09BJN  ONLINE       0     0     0  1.45T resilvered
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQG7    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQKM    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQEH    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F09C7Y    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0CWRF    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQ7Y    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0C7LN    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQAD    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0CBRC    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BPZM    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BPT9    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQ0M    ONLINE       0     0     0
        spare-23                                         ONLINE       0     0     0
          disk/by-id/scsi-SATA_ST3000DM001-1CH_W1F226B4  ONLINE       0     0     0  1.45T resilvered
          disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0CCMV  ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0D6NL    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0CWA1    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0CVL6    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0D6TT    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BPVX    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F09BGJ    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0C9YA    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F09B50    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0AZ20    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BKJW    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F095Y2    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F08YLD    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQGQ    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0B2YJ    ONLINE       0     0    39  512 resilvered
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQBY    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0C9WZ    ONLINE       0     0     0  67.3M resilvered
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQGE    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0BQ5C    ONLINE       0     0     0
        disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0CWWH    ONLINE       0     0     0
    spares
      disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F0CCMV      INUSE     currently in use
      disk/by-id/scsi-SATA_ST3000DM001-9YN_Z1F09BJN      INUSE     currently in use

errors: 572 data errors, use '-v' for a list

कृपया के उत्पादन प्रदानzpool status
longneck

यदि आप उपयोग करते हैं तो यह क्या रिपोर्ट करता है -v?
बॉबी

"त्रुटियाँ: निम्न फ़ाइलों में स्थायी त्रुटियों का पता लगाया गया है:" और फिर लगभग 12 फ़ाइलों की एक सूची जिसमें त्रुटियां हैं।
जसॉन्ग्लिकसन

'देखें:' भाग के लिए, आप यहां अधिक विस्तृत विवरण पढ़ सकते हैं: illumos.org/msg/ZFS-8000-8A
रेमंड ताउ

जवाबों:


56

बधाई और उह-ओह। आपने ZFS के बारे में बेहतर चीजों में से एक को ठोकर मार दी है, लेकिन एक कॉन्फ़िगरेशन पाप भी किया है।

सबसे पहले, जब से आप raidz1 का उपयोग कर रहे हैं, आपके पास केवल एक डिस्क है जो समता डेटा के लायक है। हालाँकि, आपके पास दो ड्राइव समकालीन रूप से विफल थे। यहां एकमात्र संभावित परिणाम डेटा हानि है । किसी भी तरह की रिवाइवलिंग को ठीक नहीं किया जाएगा।

आपके पुर्जों ने आपको यहां थोड़ी मदद की और आपको पूरी तरह से विपत्तिपूर्ण विफलता से बचाया। मैं यहां एक अंग पर जा रहा हूं और कहता हूं कि जो दो ड्राइव विफल हुए, वे एक ही समय में विफल नहीं हुए और दूसरा ड्राइव विफल होने से पहले पहला स्पेयर केवल आंशिक रूप से फिर से जमा हुआ।

जिसका पालन करना कठिन लगता है। यहाँ एक तस्वीर है:

घटनानुक्रम

यह वास्तव में एक अच्छी बात है क्योंकि यदि यह एक पारंपरिक RAID सरणी होती, तो आपका पूरा सरणी दूसरी ड्राइव के विफल होते ही बस ऑफ़लाइन हो जाता और आपके पास इन-प्लेस रिकवरी का कोई मौका नहीं होता। लेकिन क्योंकि यह ZFS है, यह अभी भी उसके पास मौजूद टुकड़ों का उपयोग करके चला सकता है और केवल उन टुकड़ों के लिए ब्लॉक या फ़ाइल स्तर त्रुटियों को वापस नहीं करता है।

यहां बताया गया है कि आप इसे कैसे ठीक करते हैं: लघु-अवधि, क्षतिग्रस्त फ़ाइलों की एक सूची प्राप्त करें zpool status -vऔर उन फ़ाइलों को बैकअप से उनके मूल स्थानों पर कॉपी करें। या फ़ाइलों को हटा दें। यह रेज़लवर को फिर से शुरू करने और पूरा करने की अनुमति देगा।

यहां आपका कॉन्फ़िगरेशन पाप है: आपके पास रैडज़ समूह में बहुत अधिक ड्राइव हैं।

दीर्घकालिक: आपको अपनी ड्राइव को फिर से कॉन्फ़िगर करने की आवश्यकता है। 5 ड्राइव के छोटे समूहों में या raidz1 में ड्राइव को व्यवस्थित करने के लिए एक अधिक उपयुक्त कॉन्फ़िगरेशन होगा। ZFS उन छोटे समूहों में स्वचालित रूप से पट्टी कर देगा। जब ड्राइव विफल हो जाता है तो यह रेजिलवर समय को काफी कम कर देता है क्योंकि इन सभी के बजाय केवल 5 ड्राइव को भाग लेने की आवश्यकता होती है। ऐसा करने की आज्ञा कुछ इस प्रकार होगी:

zpool create tank raidz da0 da1 da2 da3 da4 \
                  raidz da5 da6 da7 da8 da9 \
                  raidz da10 da11 da12 da13 da14 \
                  spare da15 spare da16

विस्तृत और जानकारीपूर्ण उत्तर के लिए आपका बहुत-बहुत धन्यवाद @ Longneck! आप घटनाओं के अनुक्रम के बारे में हाजिर हैं, और मैंने डिवाइस कॉन्फ़िगरेशन पर आपकी सलाह पहले ही ले ली है (मैंने जो दूसरा डिवाइस बनाया है वह लगभग उसी तरह से कॉन्फ़िगर किया गया है, जैसा कि कुछ अतिरिक्त विचारों के साथ हार्डवेयर में फैले प्रत्येक छापे को रखने के लिए है। बैकप्लेन की विफलता, आदि के कारण एक पूरे छापे को खोने की संभावना कम करें)।
जसॉन्गुलिकसन

दूषित फ़ाइलों को हटाने के बाद, "zfs स्टेटस" अब फ़ाइल नाम के बजाय हेक्स मान लौटाता है; मुझे लगता है कि यह खत्म हो जाएगा जब स्क्रब आखिरकार खत्म हो जाएगा?
जसॉन्गुलिकसन

@ajongullickson केवल तभी यदि फ़ाइल सिस्टम का मेटाडेटा भी बरकरार है। जब आप मेटाडाटा की रक्षा करने की बात करते हैं तो ZFS बहुत आक्रामक होता है इसलिए आप शायद अच्छे होंगे। केवल समय ही बताएगा।
लॉन्गनेक

मैं व्यक्तिगत रूप से मेटाडेटा भ्रष्टाचार की घटना के लिए नहीं चला हूं, इसलिए इससे पहले कि मुझे नहीं पता कि त्रुटि घटनाओं के मामले में क्या दिखेगा।
लॉन्गनेक

1
@ लॉन्गनेक गोत्चा, तब हम सहमति में हैं - यह निश्चित रूप से एक बुरा विचार है कि एक RAID-Z समूह काफी बड़ा है कि आप एक रेज़िलर को टटोल रहे हैं और इसे धीमा कर रहे हैं। और बड़े समूहों का दूसरा बड़ा जोखिम है, रिसिल्वर के दौरान विफल होने वाले एक दूसरे उपकरण की बढ़ी हुई कठिनाई - समता डिस्क की एक बढ़ी हुई संख्या (RAID-Z2 या 3 के साथ) विश्वसनीयता समस्याओं के साथ मदद करेगी, लेकिन फिर भी लचीलेपन की गति के साथ नहीं ।
शेन मैडेन
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.