Synology में md ड्राइवर और mdadm टूलसेट का एक अनुकूलित संस्करण है जो कर्नेल में rdev-> झंडे संरचना में एक 'DriveError' ध्वज जोड़ता है।
शुद्ध प्रभाव - यदि आप एक सरणी विफलता (पहली ड्राइव) प्राप्त करने के लिए दुर्भाग्यपूर्ण हैं, तो दूसरी ड्राइव पर एक त्रुटि के साथ - यह सरणी आपको मरम्मत नहीं करने / फिर से संगठित करने की स्थिति में आ जाती है, भले ही ड्राइव से रीड काम कर रहे हों। ठीक।
इस बिंदु पर, मैं वास्तव में इस प्रश्न के बारे में चिंतित नहीं हूं क्योंकि यह पहले से ही मैंने सामग्री को हटा दिया है और फिर से बनाने का इरादा कर रहा हूं, लेकिन भविष्य में इसके लिए एक संकल्प मार्ग की इच्छा से अधिक , क्योंकि यह दूसरी बार है जब मैं इसके द्वारा बिट गया हूं, और मुझे पता है कि मैंने दूसरों को मंचों में इसी तरह के प्रश्न पूछते देखा है।
Synology समर्थन सहायक (और ज्यादातर गैर-उत्तरदायी) से कम रहा है, और बॉक्स पर छापे से निपटने के लिए किसी भी जानकारी को साझा नहीं करेगा।
/ खरीद / mdstat की सामग्री:
ds1512-ent> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sdb5[1] sda5[5](S) sde5[4](E) sdd5[3] sdc5[2]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUE]
md1 : active raid1 sdb2[1] sdd2[3] sdc2[2] sde2[4] sda2[0]
2097088 blocks [5/5] [UUUUU]
md0 : active raid1 sdb1[1] sdd1[3] sdc1[2] sde1[4] sda1[0]
2490176 blocks [5/5] [UUUUU]
unused devices: <none>
Mdadm से स्थिति --detail / dev / md2:
/dev/md2:
Version : 1.2
Creation Time : Tue Aug 7 18:51:30 2012
Raid Level : raid5
Array Size : 11702126592 (11160.02 GiB 11982.98 GB)
Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent
Update Time : Fri Jan 17 20:48:12 2014
State : clean, degraded
Active Devices : 4
Working Devices : 5
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Name : MyStorage:2
UUID : cbfdc4d8:3b78a6dd:49991e1a:2c2dc81f
Events : 427234
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 21 1 active sync /dev/sdb5
2 8 37 2 active sync /dev/sdc5
3 8 53 3 active sync /dev/sdd5
4 8 69 4 active sync /dev/sde5
5 8 5 - spare /dev/sda5
जैसा कि आप देख सकते हैं - / dev / sda5 को पुनः सरणी में जोड़ा गया है। (यह ड्राइव है कि एकमुश्त विफल रहा था) - लेकिन भले ही md ड्राइव को एक अतिरिक्त के रूप में देखता है, यह इसके लिए पुनर्निर्माण नहीं करेगा। / dev / sde5 इस मामले में (E) DiskError स्थिति के साथ समस्या ड्राइव है।
मैंने md डिवाइस को रोकने की कोशिश की है, बल reassembles चला रहा हूं, डिवाइस / आदि से sda5 को हटा रहा हूं। व्यवहार में कोई बदलाव नहीं।
मैं निम्नलिखित कमांड के साथ सरणी को पूरी तरह से पुनः बनाने में सक्षम था:
mdadm --stop /dev/md2
mdadm --verbose \
--create /dev/md2 --chunk=64 --level=5 \
--raid-devices=5 missing /dev/sdb5 /dev/sdc5 /dev/sdd5 /dev/sde5
जो इस राज्य में सरणी वापस लाए:
md2 : active raid5 sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
मैंने फिर से जोड़ा / देव / sda5:
mdadm --manage /dev/md2 --add /dev/sda5
जिसके बाद इसका पुनर्निर्माण शुरू हुआ:
md2 : active raid5 sda5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
[>....................] recovery = 0.1% (4569508/2925531648) finish=908.3min speed=53595K/sec
लापता स्लॉट की सटीक स्थिति से मेल खाते "लापता" ड्राइव की स्थिति पर ध्यान दें।
एक बार जब यह खत्म हो जाता है, तो मुझे लगता है कि मैं शायद संदिग्ध ड्राइव खींचूंगा और इसे फिर से बनाऊंगा।
मैं किसी भी सुझाव की तलाश कर रहा हूं कि क्या इस मरम्मत को करने के लिए कोई "कम डरावना" तरीका है - या अगर कोई व्यक्ति किसी Synology सरणी के साथ इस अनुभव से गुजरा है और जानता है कि इसे md डिवाइस को ऑफ़लाइन लेने के अलावा अन्य के लिए कैसे बाध्य किया जाए और खरोंच से सरणी को फिर से बनाना।