फ्रीबीएसडी पर जेडएफएस: डेटा भ्रष्टाचार से वसूली


44

मेरे पास एक ज़ूल में बहुत मूल्यवान व्यक्तिगत डेटा के कई टीबी हैं जो मैं डेटा भ्रष्टाचार के कारण नहीं पा सकता हूं। पूल को मूल रूप से 2009 में स्थापित किया गया था या एक उबंटू 8.04 सिस्टम के शीर्ष पर एक VMWare वर्चुअल मशीन के अंदर चल रहे FreeBSD 7.2 सिस्टम पर। फ्रीबीएसडी वीएम अभी भी उपलब्ध है और ठीक चल रहा है, केवल होस्ट ओएस अब डेबियन 6. में बदल गया है। हार्ड ड्राइव को अतिथि वीएम द्वारा VMWare जेनेरिक SCSI उपकरणों के माध्यम से सुलभ बनाया गया है, कुल 12।

2 पूल हैं:

  • zpool01: 2x 4x 500GB
  • zpool02: 1x 4x 160GB

जो काम करता है वह खाली है, टूटा हुआ सभी महत्वपूर्ण डेटा रखता है:

[user@host~]$ uname -a
FreeBSD host.domain 7.2-RELEASE FreeBSD 7.2-RELEASE #0: \
  Fri May  1 07:18:07 UTC 2009                          \
  root@driscoll.cse.buffalo.edu:/usr/obj/usr/src/sys/GENERIC  amd64

[user@host ~]$ dmesg | grep ZFS
WARNING: ZFS is considered to be an experimental feature in FreeBSD.
ZFS filesystem version 6
ZFS storage pool version 6

[user@host ~]$ sudo zpool status
  pool: zpool01
 state: UNAVAIL
 scrub: none requested
config:

    NAME        STATE     READ WRITE CKSUM
    zpool01     UNAVAIL      0     0     0  insufficient replicas
      raidz1    UNAVAIL      0     0     0  corrupted data
        da5     ONLINE       0     0     0
        da6     ONLINE       0     0     0
        da7     ONLINE       0     0     0
        da8     ONLINE       0     0     0
      raidz1    ONLINE       0     0     0
        da1     ONLINE       0     0     0
        da2     ONLINE       0     0     0
        da3     ONLINE       0     0     0
        da4     ONLINE       0     0     0

  pool: zpool02
 state: ONLINE
 scrub: none requested
config:

    NAME        STATE     READ WRITE CKSUM
    zpool02     ONLINE       0     0     0
      raidz1    ONLINE       0     0     0
        da9     ONLINE       0     0     0
        da10    ONLINE       0     0     0
        da11    ONLINE       0     0     0
        da12    ONLINE       0     0     0

errors: No known data errors

मैं कुछ हफ़्ते पहले पूल का उपयोग करने में सक्षम था। तब से, मुझे होस्ट मशीन के सभी हार्डवेयर को बदलना पड़ा और कई होस्ट ऑपरेटिंग सिस्टम को स्थापित करना पड़ा।

मेरा संदेह यह है कि इन OS संस्थापनों में से एक ने 500GB ड्राइव में से एक (पहले) को बूटलोडर (या जो कुछ भी) लिखा था और कुछ ज़ूलर मेटाडेटा (या जो कुछ भी) को नष्ट कर दिया - 'या जो भी' का अर्थ है कि यह सिर्फ एक बहुत ही अस्पष्ट विचार है और यह विषय वास्तव में मेरा मजबूत पक्ष नहीं है ...


ZFS के बारे में बहुत सारी वेबसाइट, ब्लॉग, मेलिंग लिस्ट आदि है। मैं इस सवाल को यहां इस उम्मीद में पोस्ट करता हूं कि यह मेरे डेटा को वापस पाने के लिए एक समझदार, संरचित, नियंत्रित, सूचित, जानकार दृष्टिकोण के लिए पर्याप्त जानकारी इकट्ठा करने में मदद करता है - और उम्मीद है कि उसी स्थिति में किसी और की मदद करें।


पहला खोज परिणाम जब 'zfs पुनर्प्राप्त' के लिए googling, Solaris ZFS प्रशासन गाइड से ZFS समस्या निवारण और डेटा रिकवरी अध्याय है। पहले ZFS विफलता मोड अनुभाग में, यह 'भ्रष्ट ZFS डेटा' पैराग्राफ में कहता है:

डेटा भ्रष्टाचार हमेशा स्थायी होता है और मरम्मत के दौरान विशेष विचार की आवश्यकता होती है। यहां तक ​​कि अगर अंतर्निहित उपकरणों की मरम्मत या प्रतिस्थापित किया जाता है, तो मूल डेटा हमेशा के लिए खो जाता है।

कुछ हद तक निराशाजनक।

हालांकि, दूसरा Google खोज परिणाम मैक्स ब्रूनिंग का वेबलॉग है और वहां, मैंने पढ़ा

हाल ही में, मुझे किसी ऐसे व्यक्ति से एक ईमेल भेजा गया था जिसके पास 15 साल का वीडियो और संगीत 10TB ZFS पूल में संग्रहीत था, जो कि बिजली की विफलता के बाद दोषपूर्ण हो गया। दुर्भाग्य से उनके पास बैकअप नहीं था। वह फ्रीबीएसडी 7 पर जेडएफएस संस्करण 6 का उपयोग कर रहा था [...] डिस्क पर डेटा की जांच करने में लगभग 1 सप्ताह बिताने के बाद, मैं मूल रूप से यह सब बहाल करने में सक्षम था।

तथा

आपके डेटा को खोने वाले ZFS के लिए, मुझे संदेह है। मुझे संदेह है कि आपका डेटा वहां मौजूद है, लेकिन आपको इसे प्राप्त करने का सही तरीका खोजने की आवश्यकता है।

(यह बहुत अधिक लगता है जैसे मैं सुनना चाहता हूँ ...)

पहला कदम : वास्तव में समस्या क्या है?

मैं यह कैसे निदान कर सकता हूं कि वास्तव में झूले को भ्रष्ट क्यों बताया गया है? मैं देखता हूं कि zdb है जो वेब पर कहीं भी आधिकारिक रूप से सन या ओरेकल द्वारा प्रलेखित नहीं लगता है। इसके मैन पेज से:

NAME
       zdb - ZFS debugger

SYNOPSIS
       zdb pool

DESCRIPTION
       The  zdb  command is used by support engineers to diagnose failures and
       gather statistics. Since the ZFS file system is  always  consistent  on
       disk  and is self-repairing, zdb should only be run under the direction
       by a support engineer.

       If no arguments are specified, zdb, performs basic  consistency  checks
       on  the pool and associated datasets, and report any problems detected.

       Any options supported by this command are internal to Sun  and  subject
       to change at any time.

इसके अलावा, बेन रॉकवुड ने एक विस्तृत लेख पोस्ट किया है और 28 जून, 2008 को प्राग में ओपन सोलारिस डेवलपर सम्मेलन में मैक्स ब्रूनिंग के बारे में बात करते हुए (और एमडीबी) का एक वीडियो है।

टूटी हुई ज़ूल पर रूट के रूप में रनिंग zdb निम्नलिखित आउटपुट देता है:

[user@host ~]$ sudo zdb zpool01
    version=6
    name='zpool01'
    state=0
    txg=83216
    pool_guid=16471197341102820829
    hostid=3885370542
    hostname='host.domain'
    vdev_tree
        type='root'
        id=0
        guid=16471197341102820829
        children[0]
                type='raidz'
                id=0
                guid=48739167677596410
                nparity=1
                metaslab_array=14
                metaslab_shift=34
                ashift=9
                asize=2000412475392
                children[0]
                        type='disk'
                        id=0
                        guid=4795262086800816238
                        path='/dev/da5'
                        whole_disk=0
                        DTL=202
                children[1]
                        type='disk'
                        id=1
                        guid=16218262712375173260
                        path='/dev/da6'
                        whole_disk=0
                        DTL=201
                children[2]
                        type='disk'
                        id=2
                        guid=15597847700365748450
                        path='/dev/da7'
                        whole_disk=0
                        DTL=200
                children[3]
                        type='disk'
                        id=3
                        guid=9839399967725049819
                        path='/dev/da8'
                        whole_disk=0
                        DTL=199
        children[1]
                type='raidz'
                id=1
                guid=8910308849729789724
                nparity=1
                metaslab_array=119
                metaslab_shift=34
                ashift=9
                asize=2000412475392
                children[0]
                        type='disk'
                        id=0
                        guid=5438331695267373463
                        path='/dev/da1'
                        whole_disk=0
                        DTL=198
                children[1]
                        type='disk'
                        id=1
                        guid=2722163893739409369
                        path='/dev/da2'
                        whole_disk=0
                        DTL=197
                children[2]
                        type='disk'
                        id=2
                        guid=11729319950433483953
                        path='/dev/da3'
                        whole_disk=0
                        DTL=196
                children[3]
                        type='disk'
                        id=3
                        guid=7885201945644860203
                        path='/dev/da4'
                        whole_disk=0
                        DTL=195
zdb: can't open zpool01: Invalid argument

मुझे लगता है कि अंत में 'अमान्य तर्क' त्रुटि तब होती है क्योंकि zpool01 वास्तव में मौजूद नहीं है: यह वर्किंग zpool02 पर नहीं होता है, लेकिन आगे कोई आउटपुट भी नहीं लगता है ...

ठीक है, इस स्तर पर, लेख को बहुत लंबा होने से पहले इसे पोस्ट करना बेहतर है।

हो सकता है कि कोई मुझे यहां से आगे बढ़ने के बारे में कुछ सलाह दे सकता है और जब मैं एक प्रतिक्रिया की प्रतीक्षा कर रहा हूं, तो मैं वीडियो देखूंगा, ऊपर दिए गए zdb आउटपुट के विवरण के माध्यम से जाऊंगा, Bens लेख पढ़ूंगा और यह पता लगाने की कोशिश करूंगा कि क्या है क्या...


20110806-1600 + 1000

अद्यतन 01:

मुझे लगता है कि मुझे मूल कारण मिल गया है: मैक्स ब्रूनिंग काफी जल्दी से मेरा एक ईमेल का जवाब देने के लिए पर्याप्त था, आउटपुट के लिए पूछ रहा था zdb -lll। पूल के 'अच्छे' raidz1 आधा में 4 हार्ड ड्राइव में से किसी पर, आउटपुट मैं ऊपर पोस्ट के समान है। हालाँकि, 'टूटी हुई' आधी में 4 ड्राइव के पहले 3 पर, लेबल 2 और 3 के लिए zdbरिपोर्ट failed to unpack label। पूल में चौथा ड्राइव ठीक लगता है, zdbसभी लेबल दिखाता है।

Googling कि त्रुटि संदेश इस पोस्ट को लाता है । उस पोस्ट की पहली प्रतिक्रिया से:

ZFS के साथ, कि प्रत्येक भौतिक vdev पर 4 समान लेबल हैं, इस मामले में एक ही हार्ड ड्राइव है। VV की शुरुआत में L0 / L1, और V2 के अंत में L2 / L3।

पूल में सभी 8 ड्राइव एक ही मॉडल हैं, सीगेट बाराकुडा 500GB । हालांकि, मुझे याद है कि मैंने 4 ड्राइव के साथ पूल शुरू किया था, फिर उनमें से एक की मृत्यु हो गई और सीगेट द्वारा वारंटी के तहत प्रतिस्थापित किया गया। बाद में, मैंने एक और 4 ड्राइव जोड़ी। उस कारण से, ड्राइव और फर्मवेयर पहचानकर्ता अलग हैं:

[user@host ~]$ dmesg | egrep '^da.*?: <'
da0:  <VMware, VMware Virtual S 1.0> Fixed Direct Access SCSI-2 device 
da1:  <ATA ST3500418AS CC37> Fixed Direct Access SCSI-5 device 
da2:  <ATA ST3500418AS CC37> Fixed Direct Access SCSI-5 device 
da3:  <ATA ST3500418AS CC37> Fixed Direct Access SCSI-5 device 
da4:  <ATA ST3500418AS CC37> Fixed Direct Access SCSI-5 device 
da5:  <ATA ST3500320AS SD15> Fixed Direct Access SCSI-5 device 
da6:  <ATA ST3500320AS SD15> Fixed Direct Access SCSI-5 device 
da7:  <ATA ST3500320AS SD15> Fixed Direct Access SCSI-5 device 
da8:  <ATA ST3500418AS CC35> Fixed Direct Access SCSI-5 device 
da9:  <ATA SAMSUNG HM160JC AP10> Fixed Direct Access SCSI-5 device 
da10: <ATA SAMSUNG HM160JC AP10> Fixed Direct Access SCSI-5 device 
da11: <ATA SAMSUNG HM160JC AP10> Fixed Direct Access SCSI-5 device 
da12: <ATA SAMSUNG HM160JC AP10> Fixed Direct Access SCSI-5 device 

मुझे याद है कि हालांकि सभी ड्राइव का आकार समान था। अब ड्राइव को देखते हुए, यह दर्शाता है कि आकार उनमें से तीन के लिए बदल गया है, वे 2 एमबी से सिकुड़ गए हैं:

[user@host ~]$ dmesg | egrep '^da.*?: .*?MB '
da0:   10240MB (20971520  512 byte sectors: 255H 63S/T 1305C)
da1:  476940MB (976773168 512 byte sectors: 255H 63S/T 60801C)
da2:  476940MB (976773168 512 byte sectors: 255H 63S/T 60801C)
da3:  476940MB (976773168 512 byte sectors: 255H 63S/T 60801C)
da4:  476940MB (976773168 512 byte sectors: 255H 63S/T 60801C)
da5:  476938MB (976771055 512 byte sectors: 255H 63S/T 60801C) <--
da6:  476938MB (976771055 512 byte sectors: 255H 63S/T 60801C) <--
da7:  476938MB (976771055 512 byte sectors: 255H 63S/T 60801C) <--
da8:  476940MB (976773168 512 byte sectors: 255H 63S/T 60801C)
da9:  152627MB (312581808 512 byte sectors: 255H 63S/T 19457C)
da10: 152627MB (312581808 512 byte sectors: 255H 63S/T 19457C)
da11: 152627MB (312581808 512 byte sectors: 255H 63S/T 19457C)
da12: 152627MB (312581808 512 byte sectors: 255H 63S/T 19457C)

तो इसके लुक के अनुसार, यह ओएस इंस्टॉलेशन में से एक नहीं था कि 'एक ड्राइव के लिए एक बूटलोडर लिखा था' (जैसा कि मैंने पहले मान लिया था), यह वास्तव में नया मदरबोर्ड ( एएसयूएस P8P67 LE ) था जो 2 एमबी होस्ट बना रहा था मेरे ZFS मेटाडेटा को गड़बड़ करने वाले तीन ड्राइव के अंत में संरक्षित क्षेत्र

इसने सभी ड्राइव्स पर HPA क्यों नहीं बनाया? मेरा मानना ​​है कि यह इसलिए है क्योंकि HPA निर्माण केवल पुराने ड्राइव पर बग के साथ किया जाता है जिसे बाद में Seagate हार्ड ड्राइव BIOS अद्यतन द्वारा तय किया गया था: जब यह पूरी घटना कुछ हफ़्ते पहले शुरू हुई थी, तो मैं जाँचने के लिए Seagate SeaTools चला। ड्राइव के साथ शारीरिक रूप से कुछ भी गलत (अभी भी पुराने हार्डवेयर पर) और मुझे एक संदेश मिला जिसमें बताया गया था कि मेरे कुछ ड्राइव में BIOS अपडेट की आवश्यकता है। जैसा कि मैं अब उस संदेश के सटीक विवरण और फ़र्मवेयर अपडेट डाउनलोड के लिंक को पुन: प्रस्तुत करने की कोशिश कर रहा हूं, ऐसा लगता है कि जब से मदरबोर्ड ने एचपीए को बनाया है, दोनों सीटोस डॉस संस्करणों को प्रश्न में हार्डड्राइव का पता लगाने में विफल होते हैं - एक त्वरित invalid partitionया कुछ इसी तरह का जब वे शुरू करते हैं, तब तक यह चमकता है। विडंबना यह है कि वे सैमसंग ड्राइव का एक सेट पाते हैं, हालांकि।

(मैंने एक गैर-नेटवर्क प्रणाली पर एक फ्रीडोस शेल में चारों ओर पंगा लेने के दर्दनाक, समय लेने वाली और अंततः फल रहित विवरणों पर छोड़ दिया है।) अंत में, मैंने सीटल्स विंडोज को चलाने के लिए एक अलग मशीन पर विंडोज 7 स्थापित किया। संस्करण 1.2.0.5। DOS SeaTools के बारे में बस एक अंतिम टिप्पणी: उन्हें स्टैंडअलोन बूट करने की कोशिश करने से परेशान न हों - इसके बजाय, कुछ मिनटों का निवेश करें और भयानक अल्टिमेट बूट सीडी के साथ एक बूट करने योग्य USB स्टिक बनाएं - जो कि DOS SeaTools के अलावा आपको कई सारे सच भी देता है उपयोगी उपकरण।

जब प्रारंभ किया गया, तो Windows के लिए SeaTools इस संवाद को लाते हैं:

SeaTools फर्मवेयर अपडेट संवाद

लिंक सीरियल नंबर चेकर की ओर ले जाते हैं (जो किसी कारण से कैप्चा द्वारा संरक्षित होता है - मेरा 'इनवेसिव यूजर्स' था) और फर्मवेयर अपडेट के बारे में ज्ञान का आधार लेख । हार्ड ड्राइव मॉडल और कुछ डाउनलोड के लिए संभवतः विशिष्ट लिंक हैं और क्या नहीं, लेकिन मैं फिलहाल उस रास्ते का पालन नहीं करूंगा:

मैं एक बार में तीन ड्राइव के फर्मवेयर को अपडेट करने में जल्दबाजी नहीं करूंगा, जिसमें विभाजन अलग हो गए हैं और टूटे हुए स्टोरेज पूल का हिस्सा हैं। वह मुसीबत पूछ रहा है। शुरुआत के लिए, फर्मवेयर अपडेट सबसे अधिक संभावना से पूर्ववत नहीं हो सकता है - और यह मेरे डेटा को वापस पाने के लिए मेरे अवसरों को पूरी तरह से बर्बाद कर सकता है।

इसलिए, मैं जो सबसे पहली चीज करने जा रहा हूं वह है ड्राइव्स की इमेज और कॉपियों के साथ काम करना, इसलिए अगर आपको कुछ भी गलत लगे तो वापस जाने का ऑरिजनल है। यह एक अतिरिक्त जटिलता का परिचय दे सकता है, क्योंकि ZFS शायद नोटिस करेगा कि ड्राइव को स्वैप किया गया था (ड्राइव सीरियल नंबर के माध्यम से या फिर एक और UUID या जो भी हो), भले ही यह उसी हार्ड ड्राइव मॉडल पर बिट-सटीक dd प्रतियां हो। इसके अलावा, ज़ूल भी लाइव नहीं है। लड़का, यह मुश्किल हो सकता है।

हालांकि दूसरा विकल्प मूल के साथ काम करना और मिरर किए गए ड्राइव को बैकअप के रूप में रखना होगा, लेकिन तब मैं शायद जटिलता से ऊपर जाऊंगा जब कुछ मूल के साथ कुछ गलत हुआ। ना, अच्छा नहीं।

टूटे हुए पूल में बग्गी BIOS के साथ तीन ड्राइव के लिए imaged रिप्लेसमेंट के रूप में काम करने वाली तीन हार्ड ड्राइव को खाली करने के लिए, मुझे उस सामान के लिए कुछ स्टोरेज स्पेस बनाने की आवश्यकता है जो अभी वहां पर है, इसलिए मैं गहरी खुदाई करूँगा हार्डवेयर बॉक्स और कुछ पुराने ड्राइव से एक अस्थायी झूले को इकट्ठा करें - जो कि मैं यह परीक्षण करने के लिए भी उपयोग कर सकता हूं कि ZFS कैसे स्वैपिंग डीडीए ड्राइव के साथ काम करता है।

इसमें कुछ समय लग सकता है...


20111213-1930 + 1100

अद्यतन 02:

यह वास्तव में कुछ समय लगा। मैंने अपने डेस्क पर कई खुले कंप्यूटर मामलों के साथ कई महीने बिताए हैं जिसमें हार्डड्राइव स्टैक्स बाहर लटकाए गए हैं और इयरप्लग के साथ कुछ रातों को सोया है, क्योंकि मैं बिस्तर पर जाने से पहले मशीन को बंद नहीं कर सकता था क्योंकि यह कुछ लंबा महत्वपूर्ण ऑपरेशन चला रहा था। । हालाँकि, मैं पिछले पर प्रबल! :-) मैंने भी इस प्रक्रिया में बहुत कुछ सीखा है और मैं उस ज्ञान को एक समान स्थिति में किसी के लिए भी साझा करना चाहूंगा।

यह आलेख पहले से ही किसी से अधिक लंबा है ZFS फ़ाइल सर्वर के साथ कार्रवाई से बाहर पढ़ने का समय है, इसलिए मैं यहां विवरणों में जाऊंगा और नीचे आवश्यक निष्कर्षों के साथ उत्तर दूंगा।

मैं अप्रचलित हार्डवेयर बॉक्स में गहरी खोदता हूं ताकि 500 ​​जीबी ड्राइव से सामान को स्थानांतरित करने के लिए पर्याप्त स्टोरेज स्पेस इकट्ठा हो सके जिसमें दोषपूर्ण ड्राइव मिरर किए गए थे। मुझे उनके यूएसबी मामलों में से कुछ हार्ड ड्राइव को चीरना पड़ा, इसलिए मैं उन्हें सीधे SATA से जोड़ सकता था। इसमें कुछ और, असंबंधित मुद्दे शामिल थे और कुछ पुराने ड्राइव विफल होने लगे, जब मैंने उन्हें वापस एक बदले की जगह की आवश्यकता के लिए कार्रवाई में डाल दिया, लेकिन मैं उस पर छोड़ दूंगा।

युक्ति: किसी स्तर पर, इसमें लगभग 30 हार्ड ड्राइव शामिल थे। उस बहुत हार्डवेयर के साथ, उन्हें ठीक से स्टैक्ड करने में बहुत मदद मिलती है; आपके डेस्क से गिरने वाली ढीली या हार्ड ड्राइव निश्चित रूप से प्रक्रिया में मदद नहीं करेगी और आपके डेटा अखंडता को और नुकसान पहुंचा सकती है।

मैंने कुछ मेक-शिफ्ट कार्डबोर्ड हार्ड ड्राइव जुड़नार बनाने में कुछ मिनट बिताए जो वास्तव में चीजों को क्रमबद्ध रखने में मदद करते हैं:

कुछ मेक-शिफ्ट स्टोरेज स्पेस बस शिकंजा का एक गुच्छा प्लस कुछ कार्डबोर्ड प्रशंसक बिल्कुल आवश्यक नहीं है, स्टैक पहले की एक परियोजना से है दूरी के टुकड़े या तो आवश्यक नहीं हैं ...

विडंबना यह है कि जब मैंने पहली बार पुरानी ड्राइव को कनेक्ट किया था, तो मुझे एहसास हुआ कि वहाँ एक पुरानी ज़ूलप है जो मैंने कुछ पुराने संस्करण के साथ परीक्षण के लिए बनाई होगी, लेकिन सभी व्यक्तिगत डेटा जो गायब हो गए हैं, इसलिए नहीं, जबकि डेटा हानि थी कुछ हद तक कम, इसका मतलब फाइलों के आगे-पीछे स्थानांतरण।

अंत में, मैंने समस्याग्रस्त ड्राइव को बैकअप ड्राइव पर प्रतिबिंबित किया, जो कि ज़ूल के लिए इस्तेमाल किया और मूल वाले को काट दिया। बैकअप ड्राइव में एक नया फर्मवेयर है, कम से कम SeaTools किसी भी आवश्यक फर्मवेयर अपडेट की रिपोर्ट नहीं करता है। मैंने एक डिवाइस से दूसरे डिवाइस पर एक साधारण dd के साथ मिररिंग किया, जैसे

sudo dd if=/dev/sda of=/dev/sde

मेरा मानना ​​है कि ZFS हार्डवेयर परिवर्तन (कुछ हार्ड ड्राइव UUID या जो भी हो) द्वारा नोटिस करता है, लेकिन इसकी परवाह नहीं करता है।

हालाँकि, ज़ूलप अभी भी उसी स्थिति में था, अपर्याप्त प्रतिकृतियां / दूषित डेटा।

जैसा कि पहले उल्लेख किए गए HPA विकिपीडिया लेख में उल्लेख किया गया है, एक मेजबान संरक्षित क्षेत्र की उपस्थिति की रिपोर्ट तब की जाती है जब लिनक्स बूट और एचडीपीआर का उपयोग करके जांच की जा सकती है । जहाँ तक मुझे पता है, FreeBSD पर कोई hdparm टूल उपलब्ध नहीं है, लेकिन इस समय तक, मेरे पास वैसे भी FreeBSD 8.2 और डेबियन 6.0 दोहरे-बूट सिस्टम के रूप में स्थापित था, इसलिए मैंने लिनक्स में बूट किया:

user@host:~$ for i in {a..l}; do sudo hdparm -N /dev/sd$i; done

   ...
/dev/sdd:
 max sectors   = 976773168/976773168, HPA is disabled
/dev/sde:
 max sectors   = 976771055/976773168, HPA is enabled
/dev/sdf:
 max sectors   = 976771055/976773168, HPA is enabled
/dev/sdg:
 max sectors   = 976771055/976773168, HPA is enabled
/dev/sdh:
 max sectors   = 976773168/976773168, HPA is disabled
   ...

तो समस्या स्पष्ट रूप से यह थी कि नए मदरबोर्ड ने ड्राइव के अंत में मेगाबाइट के एक जोड़े का एचपीए बनाया था जो ऊपरी दो जेडएफएस लेबल को छिपाता था, अर्थात जेडएफएस को देखने से रोकता था।


एचपीए के साथ डबिंग एक खतरनाक व्यवसाय लगता है। HDParm मैन पेज से, पैरामीटर -N:

Get/set max visible number of sectors, also known as the Host Protected Area setting.
  ...
To change the current max (VERY DANGEROUS, DATA LOSS IS EXTREMELY LIKELY), a new value
should be provided (in base10) immediately following the -N option.
This value is specified as a count of sectors, rather than the "max sector address"
of the drive. Drives have the concept of a temporary (volatile) setting which is lost on
the next hardware reset, as well as a more permanent (non-volatile) value which survives
resets and power cycles.  By default, -N affects only the temporary (volatile) setting.
To change the permanent (non-volatile) value, prepend a leading p character immediately
before the first digit of the value. Drives are supposed to allow only a single permanent
change per session. A hardware reset (or power cycle) is required before another
permanent -N operation can succeed.
  ...

मेरे मामले में, एचपीए को इस तरह हटा दिया जाता है:

user@host:~$ sudo hdparm -Np976773168 /dev/sde

/dev/sde:
 setting max visible sectors to 976773168 (permanent)
 max sectors   = 976773168/976773168, HPA is disabled

और एक HPA के साथ अन्य ड्राइव के लिए उसी तरह। यदि आपको गलत ड्राइव या आपके द्वारा निर्दिष्ट आकार पैरामीटर के बारे में कुछ पता नहीं है, तो एचडीपीआर आंकड़ा के लिए पर्याप्त स्मार्ट है:

user@host:~$ sudo hdparm -Np976773168 /dev/sdx

/dev/sdx:
 setting max visible sectors to 976773168 (permanent)
Use of -Nnnnnn is VERY DANGEROUS.
You have requested reducing the apparent size of the drive.
This is a BAD idea, and can easily destroy all of the drive's contents.
Please supply the --yes-i-know-what-i-am-doing flag if you really want this.
Program aborted.

उसके बाद, मैंने फ्रीबीएसडी 7.2 वर्चुअल मशीन को फिर से शुरू किया, जिस पर मूल रूप से ज़ूलप बनाया गया था और ज़ूलू स्थिति ने एक कामकाजी पूल को फिर से रिपोर्ट किया था। वाह! :-)

मैंने वर्चुअल सिस्टम पर पूल का निर्यात किया और इसे होस्ट फ्रीबीएसडी 8.2 सिस्टम पर फिर से आयात किया।

कुछ और प्रमुख हार्डवेयर अपग्रेड, एक और मदरबोर्ड स्वैप, एक ZFS पूल अपडेट ZFS 4/15 के लिए, एक पूरी तरह से स्क्रबिंग और अब मेरे ज़ूल में 8x1TB प्लस 8x500GB raidz2 भागों शामिल हैं:

[user@host ~]$ sudo zpool status
  pool: zpool
 state: ONLINE
 scrub: none requested
config:

NAME        STATE     READ WRITE CKSUM
zpool       ONLINE       0     0     0
  raidz2    ONLINE       0     0     0
    ad0     ONLINE       0     0     0
    ad1     ONLINE       0     0     0
    ad2     ONLINE       0     0     0
    ad3     ONLINE       0     0     0
    ad8     ONLINE       0     0     0
    ad10    ONLINE       0     0     0
    ad14    ONLINE       0     0     0
    ad16    ONLINE       0     0     0
  raidz2    ONLINE       0     0     0
    da0     ONLINE       0     0     0
    da1     ONLINE       0     0     0
    da2     ONLINE       0     0     0
    da3     ONLINE       0     0     0
    da4     ONLINE       0     0     0
    da5     ONLINE       0     0     0
    da6     ONLINE       0     0     0
    da7     ONLINE       0     0     0

errors: No known data errors

[user@host ~]$ df -h
Filesystem         Size    Used   Avail Capacity  Mounted on
/dev/label/root     29G     13G     14G    49%    /
devfs              1.0K    1.0K      0B   100%    /dev
zpool              8.0T    3.6T    4.5T    44%    /mnt/zpool

एक अंतिम शब्द के रूप में, यह मुझे लगता है कि ZFS पूल बहुत, मारने के लिए बहुत कठिन हैं। सन के लोग, जिन्होंने उस सिस्टम को बनाया है, के पास सभी कारण हैं जो इसे फाइल सिस्टम में अंतिम शब्द कहते हैं। आदर करना!


2
इससे पहले कि आप कुछ भी करें, उन ड्राइव को छवि दें! यदि आप इसे खराब करते हैं, तो अपने 'भ्रष्ट' डेटा का बैकअप लें।
मिकीबी

हाँ, यह एक बहुत अच्छी बात है! और यह भी कारण है कि मैंने अपनी प्रगति के साथ इस लेख को अभी तक अपडेट नहीं किया है - अभी भी प्रतिस्थापन हार्ड ड्राइव को हटाने में व्यस्त है ...
ssc

जवाबों:


24

समस्या यह थी कि नए मदरबोर्ड के BIOS ने ड्राइव्स में से कुछ पर एक होस्ट प्रोटेक्टेड एरिया (HPA) बनाया, जो सिस्टम रिकवरी उद्देश्यों के लिए OEM द्वारा उपयोग किया जाने वाला एक छोटा सेक्शन है, जो आमतौर पर हार्डड्राइव के अंत में स्थित होता है।

ZFS विभाजन मेटा जानकारी के साथ 4 लेबल रखता है और HPA ZFS को ऊपरी दो को देखने से रोकता है।

समाधान: बूट लिनक्स, HPA निरीक्षण और HPA को हटाने के लिए उपयोग करें। बहुत सावधान रहें, यह आपके डेटा को अच्छे के लिए आसानी से नष्ट कर सकता है। विवरण के लिए लेख और hdparm मैन पेज (पैरामीटर-एन) से परामर्श करें।

समस्या केवल नए मदरबोर्ड के साथ नहीं हुई, ड्राइव को एसएएस कंट्रोलर कार्ड से कनेक्ट करते समय मेरे पास एक समान मुद्दा था। समाधान वही है।


5

सबसे पहली बात जो मैं आपको सुझाऊँगा वह यह है कि आप कुछ और हार्ड ड्राइव प्राप्त करें और उन 8 ड्राइव्स की डुप्लिकेट प्रतियां बनाएँ, जो आपके डेटा के साथ हैं, ddकमांड का उपयोग करके । इस तरह, यदि आप उन्हें पुनर्प्राप्त करने के अपने प्रयासों में आप चीजों को बदतर बना रहे हैं, तो आप अभी भी इस आधार रेखा पर वापस जा सकते हैं।

मैंने पहले भी ऐसा किया है और कई बार मुझे इसकी आवश्यकता नहीं थी, लेकिन जिस समय मुझे इसकी आवश्यकता थी, इसे पूरी तरह से प्रयास के लायक बनाया।

बिना नेट के काम न करें।


वास्तव में, मैं सलाह ddrescueदूंगा dd। यह वास्तव में बहुत अलग तरह से काम नहीं करता है जब ड्राइव पूरी तरह से काम कर रहे हैं (लेकिन यह आपको एक अच्छी प्रगति का संकेत देता है) लेकिन अगर कोई समस्याग्रस्त क्षेत्र या ऐसा कुछ है, तो ddrescue dd की तुलना में कहीं बेहतर स्थिति को संभालता है (या इसलिए मैं 'बताया गया है।
एक सीवीएन

2

आप इसे हल करने के लिए ट्रैक पर हैं। यदि आप एक और संभव नया दृष्टिकोण चाहते हैं, तो आप सोलारिस 11 एक्सप्रेस लाइव सीडी की कोशिश कर सकते हैं। वहाँ एक बहुत नया कोड चलने की संभावना है (सोलारिस में ज़ूल अब संस्करण 31 पर है, जबकि आप संस्करण 6 पर हैं) और यह बेहतर पुनर्प्राप्ति संभावनाओं की पेशकश कर सकता है। zpool upgradeअगर आप फ्रीबीएसडी के तहत पूल को माउंट रखना चाहते हैं, तो सोलारिस के तहत न चलाएं ।


उस टिप के लिए धन्यवाद! :-) मैं 2009 में OpenSolaris में देख रहा था या जब मैंने इस पूरे ZFS व्यवसाय को शुरू किया था, लेकिन दुर्भाग्य से, यह मेरे द्वारा उपयोग किए जा रहे नियंत्रकों का समर्थन नहीं करता था - यह सब के बाद उपभोक्ता ग्रेड हार्डवेयर है। अभी हाल ही में, मैंने ओपनइंडियाना को भी देखा है, लेकिन मुझे यकीन नहीं है कि स्थिति बदल गई है। मैं नियंत्रकों को किसी चरण में एसएएस में अपग्रेड कर सकता हूं और फिर माइग्रेट करने पर विचार कर सकता हूं।
ssc

मुझे लगता है कि ओपनइंडियाना एक नए रूप के लायक हो सकता है। यदि और कुछ नहीं, तो वे ओरेकल की तुलना में "सस्ते" हार्डवेयर के लिए अधिक अनुकूल हो सकते हैं ... मैंने लाइव सीडी की सिफारिश की क्योंकि इसे आज़माना आसान है - आप इसे वीएम में भी चला सकते हैं।
जैकब बोर्ग

1

FreeBSD मेलिंग सूची आपकी खोज के लिए एक अच्छा प्रारंभिक बिंदु हो सकती है। मुझे याद है कि FreeBSD-Stable और -Current पर इसी तरह के अनुरोध चलते हैं। अपने डेटा के महत्व के आधार पर, आप एक पेशेवर रिकवरी फर्म से संपर्क करना चाह सकते हैं, हालांकि, दुर्गम डेटा स्टोरेज पूल के साथ छेड़छाड़ करने से चीजें बदतर होने का अच्छा मौका होता है।


1

मैंने FreeBSD 10.3 से 11.1 पर अपग्रेड करने के बाद इसी तरह के मुद्दे का अनुभव किया, बाद में ज़ूलप को दोषपूर्ण किया गया और डेटा को पुनर्प्राप्त करने का कोई तरीका नहीं था, भले ही zdb -lllसभी चार लेबल वैध लौटे।

यह पता चला है कि किसी भी तरह से अपडेट ने इंटेल स्टोरेज मैनेजमेंट ड्राइवरों को डिस्क से बाहर एक सॉफ्टवेर मिरर बनाने के लिए प्रेरित किया (शायद यह सक्षम था लेकिन geomपोस्ट-अपडेट तक इंटेल के प्रदाता द्वारा समर्थित नहीं है ?) और इसने डिस्क को बढ़ते हुए ZFS को अवरुद्ध कर दिया।

इंटेल आरएसटी बूट-टाइम फर्मवेयर के साथ उन्हें दूसरे पीसी में संलग्न करना और सॉफ्टएयर को अक्षम करना ( बहुत महत्वपूर्ण: सॉफ्टड्रैक को तोड़ने के लिए दो तरीके हैं , जिनमें से डिफ़ॉल्ट डिस्क को इनिशियलाइज़ करता है (उर्फ प्रारूप!) आपको विकल्प चुनने की आवश्यकता है। इसके बजाय डेटा को छूने के बिना अक्षम करें) फिर ZFS को दर्पण में पहली डिस्क को पहचानने दें, हालांकि मैंने जो कुछ भी नहीं किया था, वह शेष डिस्क की पहचान करने की अनुमति देगा जो मशीन पूर्व-अद्यतन में थीं। सौभाग्य से यह एक प्रतिबिंबित झोपड़ी थी और मैं पूछताछ में पूल में डिस्क को बस अलग करने और रीटच करने में सक्षम था और बिना किसी घटना के पूरा हुआ रेजिलवर।

साइड नोट: मेरे मामले में, hdparm(एक लाइव उबंटू सर्वर आईएसओ से चलने) ने सूचना दी कि एचबीए सभी डिस्क पर अक्षम था और मदद करने में सक्षम नहीं था।


-2

अगर यह किसी तरह का विभाजन मुद्दा था तो मैं ड्राइव विभाजन + MBR को dd करूँगा और विभाजन को सही आकार दे सकता हूँ ...

यदि आप विभाजन तालिका को बनाते या बदलते हुए विभाजन को प्रारूपित नहीं करते हैं, तो इससे कुछ भी प्रभावित नहीं होता है (इसलिए आप उसे वापस ले सकते हैं!) जब तक कोई प्रारूप नहीं होता है तब तक नया विभाजन सम्मिलित होने पर अधिकांश डेटा अभी भी उपलब्ध / सुलभ है। ड्राइव के अंत में आपके पास वहां भ्रष्ट फाइलें हो सकती हैं, जहां नया सामान मुश्किल से लिखा जाता है, इसलिए उस ट्रिक के लिए आपका एकमात्र अच्छा तरीका है, जब तक कि आप प्रारूप (नई mbr, फ़ाइल तालिका आदि) ...

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.