"ई" राज्य में ड्राइव के साथ Synology NAS पर एक mdadm सरणी कैसे पुनर्प्राप्त करें?


12

Synology में md ड्राइवर और mdadm टूलसेट का एक अनुकूलित संस्करण है जो कर्नेल में rdev-> झंडे संरचना में एक 'DriveError' ध्वज जोड़ता है।

शुद्ध प्रभाव - यदि आप एक सरणी विफलता (पहली ड्राइव) प्राप्त करने के लिए दुर्भाग्यपूर्ण हैं, तो दूसरी ड्राइव पर एक त्रुटि के साथ - यह सरणी आपको मरम्मत नहीं करने / फिर से संगठित करने की स्थिति में आ जाती है, भले ही ड्राइव से रीड काम कर रहे हों। ठीक।

इस बिंदु पर, मैं वास्तव में इस प्रश्न के बारे में चिंतित नहीं हूं क्योंकि यह पहले से ही मैंने सामग्री को हटा दिया है और फिर से बनाने का इरादा कर रहा हूं, लेकिन भविष्य में इसके लिए एक संकल्प मार्ग की इच्छा से अधिक , क्योंकि यह दूसरी बार है जब मैं इसके द्वारा बिट गया हूं, और मुझे पता है कि मैंने दूसरों को मंचों में इसी तरह के प्रश्न पूछते देखा है।

Synology समर्थन सहायक (और ज्यादातर गैर-उत्तरदायी) से कम रहा है, और बॉक्स पर छापे से निपटने के लिए किसी भी जानकारी को साझा नहीं करेगा।

/ खरीद / mdstat की सामग्री:

ds1512-ent> cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md2 : active raid5 sdb5[1] sda5[5](S) sde5[4](E) sdd5[3] sdc5[2]
      11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUE]

md1 : active raid1 sdb2[1] sdd2[3] sdc2[2] sde2[4] sda2[0]
      2097088 blocks [5/5] [UUUUU]

md0 : active raid1 sdb1[1] sdd1[3] sdc1[2] sde1[4] sda1[0]
      2490176 blocks [5/5] [UUUUU]

unused devices: <none>

Mdadm से स्थिति --detail / dev / md2:

/dev/md2:
        Version : 1.2
  Creation Time : Tue Aug  7 18:51:30 2012
     Raid Level : raid5
     Array Size : 11702126592 (11160.02 GiB 11982.98 GB)
  Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
   Raid Devices : 5
  Total Devices : 5
    Persistence : Superblock is persistent

    Update Time : Fri Jan 17 20:48:12 2014
          State : clean, degraded
 Active Devices : 4
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 64K

           Name : MyStorage:2
           UUID : cbfdc4d8:3b78a6dd:49991e1a:2c2dc81f
         Events : 427234

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       21        1      active sync   /dev/sdb5
       2       8       37        2      active sync   /dev/sdc5
       3       8       53        3      active sync   /dev/sdd5
       4       8       69        4      active sync   /dev/sde5

       5       8        5        -      spare   /dev/sda5

जैसा कि आप देख सकते हैं - / dev / sda5 को पुनः सरणी में जोड़ा गया है। (यह ड्राइव है कि एकमुश्त विफल रहा था) - लेकिन भले ही md ड्राइव को एक अतिरिक्त के रूप में देखता है, यह इसके लिए पुनर्निर्माण नहीं करेगा। / dev / sde5 इस मामले में (E) DiskError स्थिति के साथ समस्या ड्राइव है।

मैंने md डिवाइस को रोकने की कोशिश की है, बल reassembles चला रहा हूं, डिवाइस / आदि से sda5 को हटा रहा हूं। व्यवहार में कोई बदलाव नहीं।

मैं निम्नलिखित कमांड के साथ सरणी को पूरी तरह से पुनः बनाने में सक्षम था:

mdadm --stop /dev/md2
mdadm --verbose \
   --create /dev/md2 --chunk=64 --level=5 \
   --raid-devices=5 missing /dev/sdb5 /dev/sdc5 /dev/sdd5 /dev/sde5

जो इस राज्य में सरणी वापस लाए:

md2 : active raid5 sde5[4] sdd5[3] sdc5[2] sdb5[1]
      11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]

मैंने फिर से जोड़ा / देव / sda5:

mdadm --manage /dev/md2 --add /dev/sda5

जिसके बाद इसका पुनर्निर्माण शुरू हुआ:

md2 : active raid5 sda5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
      11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
      [>....................]  recovery =  0.1% (4569508/2925531648) finish=908.3min speed=53595K/sec

लापता स्लॉट की सटीक स्थिति से मेल खाते "लापता" ड्राइव की स्थिति पर ध्यान दें।

एक बार जब यह खत्म हो जाता है, तो मुझे लगता है कि मैं शायद संदिग्ध ड्राइव खींचूंगा और इसे फिर से बनाऊंगा।

मैं किसी भी सुझाव की तलाश कर रहा हूं कि क्या इस मरम्मत को करने के लिए कोई "कम डरावना" तरीका है - या अगर कोई व्यक्ति किसी Synology सरणी के साथ इस अनुभव से गुजरा है और जानता है कि इसे md डिवाइस को ऑफ़लाइन लेने के अलावा अन्य के लिए कैसे बाध्य किया जाए और खरोंच से सरणी को फिर से बनाना।


मैं खुद को एक ऐसी ही स्थिति में पाता हूं। क्या आपने इसे सफलतापूर्वक हल किया?
ड्वोरक

हाँ, मैं ऊपर दिए गए चरणों के बाद सरणी पुनर्निर्मित करने में सक्षम था। मैंने R5 से R6 तक क्लीयरिंग और चेंजिंग के साथ इसका अनुसरण किया, हालांकि - इस बिंदु पर कारण, मैं गंभीर रूप से "टैंक द अरैंज ऑफ सिंटोलॉजी" व्यवहार से दुखी हूं, जिसे मैं एक से अधिक ड्राइव को सहन करना सुनिश्चित करना चाहता था। "। हमारे मामले में, "गड़बड़" त्रुटि वाली दूसरी ड्राइव ने एक भी मुद्दे के बिना विस्तारित स्मार्ट परीक्षण पारित किए।
नाथन न्यूलिंगर

मददगार गाइड के लिए धन्यवाद। मैं इस सब के साथ बहुत आश्वस्त नहीं हूं, मैं कोई छापा विशेषज्ञ नहीं हूं। अब मैं एक ही मुद्दे का सामना करता हूं लेकिन मेरे मामले में, मेरे पास एक एकल डिस्क है RAID 1 सरणी (/ देव / md3) / देव / sde3 के साथ खूंखार [ई] के साथ चिह्नित है। मुझे लगता है कि मेरे लिए आपके द्वारा किए गए चरणों का पालन करना संभव होगा, लेकिन चूंकि यह सरणी की एकल डिस्क है, मुझे नहीं पता कि यह क्या करेगी; ;-) किसी भी तरह mdadm --stop / dev / md3 कमांड विफल (डिवाइस या संसाधन व्यस्त)। मुझे लगता है कि मैं Google को थोड़ा लंबा करूँगा .. =)
dSebastien

यदि आप सरणी को रोक नहीं सकते हैं, तो ऐसा लगता है कि कुछ उपयोग कर रहा है - यानी यह माउंट किया गया है, या उस डिवाइस के खिलाफ कोई अन्य कार्य चल रहा है।
नाथन नेउलिंगर

2
सौभाग्य से मेरे लिए Synology ने मुझे इस समस्या को ठीक करने में मदद की। वे काफी दयालु थे जो मुझे आदेश देते थे कि वे दौड़ें। मैंने अपने ब्लॉग पर किसी और के इस मामले में चलने की जानकारी डाल दी है: dsebastien.net/2015/05/19/…
dSebastien

जवाबों:


3

मेरे द्वारा एक ही मुद्दे का अनुभव करने के बाद मुझे जो समाधान मिला, वह इसके अतिरिक्त। मैंने dSebastien के ब्लॉग पोस्ट का अनुसरण करके सरणी को फिर से कैसे बनाया जाए:

मैंने पाया कि सरणी को फिर से बनाने का यह तरीका इस उपरोक्त विधि से बेहतर काम करता है। हालांकि सरणी को फिर से बनाने के बाद, वॉल्यूम अभी भी वेब इंटरफ़ेस पर नहीं दिखा रहा था। मेरे लुन का कोई नहीं दिखा रहा था। मूल रूप से कॉन्फ़िगर किए गए कुछ भी नहीं के साथ एक नई सरणी दिखा रहा है। मैंने Synology समर्थन से संपर्क किया, और उन्होंने समस्या को ठीक करने के लिए उपाय किया। दुर्भाग्य से, वे सांत्वना से दूर होने के दौरान मैं निरूपित हुआ। मैंने हालांकि सत्र पर कब्जा करने का प्रबंधन किया, और उन्होंने जो किया, उसके माध्यम से देखा। जबकि मेरे कुछ डेटा को पुनर्प्राप्त करने की कोशिश में, ड्राइव फिर से दुर्घटनाग्रस्त हो गया, और मैं उसी स्थिति में वापस आ गया था। मैंने dSebastien के ब्लॉग के रूप में सरणी को फिर से बनाया और फिर उनके अद्यतन को करने के लिए समानार्थक सत्र के माध्यम से देखा। नीचे दिए गए आदेशों को चलाने के बाद, मेरा सरणी और LUN वेब इंटरफ़ेस पर दिखाई दिया, और मैं उनके साथ काम करने में सक्षम था। मेरे पास लिनक्स में व्यावहारिक रूप से शून्य अनुभव है, लेकिन ये वे कमांड थे जो मैंने अपनी स्थिति में किए थे। आशा है कि यह किसी और की मदद कर सकता है, लेकिन कृपया अपने जोखिम पर इसका उपयोग करें। Synology सहायता से संपर्क करना और उन्हें आपके लिए इसे ठीक करना सबसे अच्छा होगा, क्योंकि यह स्थिति आपसे अलग हो सकती है

DiskStation> synocheckiscsitrg
synocheckiscsitrg: Pass 

DiskStation> synocheckshare
synocheckshare: Pass SYNOICheckShare()
synocheckshare: Pass SYNOICheckShareExt()
synocheckshare: Pass SYNOICheckServiceLink()
synocheckshare: Pass SYNOICheckAutoDecrypt()
synocheckshare: Pass SYNOIServiceShareEnableDefaultDS()

DiskStation> spacetool --synoblock-enum
****** Syno-Block of /dev/sda ******
//I've removed the output. This should display info about each disk in your array

DiskStation> vgchange -ay
  # logical volume(s) in volume group "vg1" now active

DiskStation> dd if=/dev/vg1/syno_vg_reserved_area of=/root/reserved_area.img
24576+0 records in
24576+0 records out

DiskStation> synospace --map_file -d
Success to dump space info into '/etc/space,/tmp/space'

DiskStation> synocheckshare
synocheckshare: Pass SYNOICheckShare()
synocheckshare: Pass SYNOICheckShareExt()
synocheckshare: Pass SYNOICheckServiceLink()
synocheckshare: Pass SYNOICheckAutoDecrypt()
synocheckshare: Pass SYNOIServiceShareEnableDefaultDS()

DiskStation> synocheckiscsitrg
synocheckiscsitrg: Not Pass, # conflict 

DiskStation> synocheckiscsitrg
synocheckiscsitrg: Pass 

1

एक और इसके अलावा: मैं अपने एक डिस्क / RAID स्तर 0 डिवाइस के साथ एक समान मुद्दे को हिट कर चुका हूं।

Synology समर्थन बहुत मददगार था और उसने मेरी डिवाइस को पुनर्स्थापित किया। यहाँ क्या हुआ, आशा है कि यह दूसरों की मदद करता है:

मेरी डिस्क ने एक विशेष ब्लॉक पर त्रुटियों को पढ़ा था, सिस्टम लॉग में संदेश dmesgथे ( ):

[4421039.097278] ata1.00: read unc at 105370360
[4421039.101579] lba 105370360 start 9437184 end 5860528064
[4421039.106917] sda3 auto_remap 0
[4421039.110097] ata1.00: exception Emask 0x0 SAct 0x2 SErr 0x0 action 0x6
[4421039.116744] ata1.00: edma_err_cause=00000084 pp_flags=00000003, dev error, EDMA self-disable
[4421039.125410] ata1.00: failed command: READ FPDMA QUEUED
[4421039.130767] ata1.00: cmd 60/00:08:b8:d2:47/02:00:06:00:00/40 tag 1 ncq 262144 in
[4421039.130772]          res 41/40:00:f8:d2:47/00:00:06:00:00/40 Emask 0x409 (media error) <F>
[4421039.146855] ata1.00: status: { DRDY ERR }
[4421039.151064] ata1.00: error: { UNC }
[4421039.154758] ata1: hard resetting link
[4421039.667234] ata1: SATA link up 3.0 Gbps (SStatus 123 SControl F300)
[4421039.887286] ata1.00: configured for UDMA/133
[4421039.891777] ata1: UNC RTF LBA Restored
[4421039.895745] ata1: EH complete

कुछ सेकंड बाद मुझे Volume 1 has crashedअपने डिवाइस से भयानक मेल प्राप्त हुआ ।

- अस्वीकरण: अपने द्वारा डिवाइस नाम को बदलना सुनिश्चित करें और इन आदेशों को केवल कॉपी और पेस्ट न करें, क्योंकि इससे चीजें खराब हो सकती हैं! -

Smb को रोकने के बाद मैं केवल पढ़ने के लिए विभाजन को फिर से माउंट करने में सक्षम था और बैडब्लॉक चेक ( -c) के साथ e2fsk चला रहा था :

umount /dev/md2
e2fsck -C 0 -v -f -c /dev/md2

(एक भी e2fsck -C 0 -p -v -f -c /dev/md2संभव के रूप में चलाने के लिए उपयोग कर सकते हैं , हालांकि यह मेरे मामले में काम नहीं किया, क्योंकि त्रुटियों को मैन्युअल रूप से तय किया जाना था। इसलिए मुझे e2fsck को फिर से शुरू करना पड़ा। Conclusio: -p में बहुत अर्थ नहीं है। डिस्क त्रुटि का मामला)

हालाँकि e2fsck त्रुटियों को ठीक करने में सक्षम था और smartctl ने Raw_Read_Error_Rate में कोई अधिक वृद्धि नहीं दिखाई, लेकिन वॉल्यूम अभी भी डिवाइस द्वारा रीड-राइट मोड में माउंट नहीं होगा। DSM ने अभी भी "वॉल्यूम क्रैश" दिखाया

इसलिए मैंने समर्थन से एक टिकट खोला। पहले चीजों को प्राप्त करने में काफी समय लगता था, लेकिन अंत में उन्होंने RAID सरणी को फिर से बनाकर इसे ठीक किया:

synospace --stop-all-spaces
syno_poweroff_task -d 
mdadm -Sf /dev/md2
mdadm -AfR /dev/md2 /dev/sda3

कुछ भी करने से पहले अपने डिवाइस के नाम ( /dev/mdXऔर /dev/sdaX) को अवश्य देखें । cat /proc/mdstatप्रासंगिक जानकारी दिखाएगा।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.