मैं अपने NAS पर OMV 3.0.99 चला रहा हूं। मैंने एक RAID5 (mdadm के साथ) स्थापित किया है जिसमें तीन 5TB WD RED ड्राइव हैं। मैंने दिन (2016) में वापस OMV GUI का उपयोग करके RAID की स्थापना की है।
हाल ही में डिस्क में से एक विफल हो गया है (इस्तेमाल किया / देव / sdd)। जब मैं घर गया तो मैंने देखा कि यह शुरू होने पर अजीब लगता है और यह कि अब लिनक्स में इसे मान्यता नहीं मिली है। डिवाइस शारीरिक रूप से टूट गया लगता है और मैंने एक आरएमए स्थापित किया है क्योंकि मेरे पास अभी भी ड्राइव पर वारंटी है। अब मैं रिप्लेसमेंट ड्राइव का इंतजार कर रहा हूं और खुद से पूछ रहा हूं कि जब मेरा ड्राइव रिकवर करने के लिए नई ड्राइव यहां है तो मुझे क्या करना चाहिए।
मेरे ड्राइव पर कुछ नोट:
- / देव / एसडीए मेरी प्रणाली ड्राइव है
- RAID डिस्क / dev / sdb, sdc और sdd से सम्मिलित है। ड्राइव / देव / sdd विफल रहा और इसे NAS केस से भौतिक रूप से हटा दिया गया।
- अब / dev / sdd को मेरी बैकअप डिस्क को सौंपा गया था (RAID डिस्क के विफल होने से पहले उपयोग किया जाना था)
यहाँ मेरे सिस्टम के कुछ महत्वपूर्ण आउटपुट हैं:
uname -a
उत्पादन
Linux homenas 4.9.0-0.bpo.6-amd64 #1 SMP Debian 4.9.88-1+deb9u1~bpo8+1 (2018-05-13) x86_64 GNU/Linux
cat /proc/mdstat
:
Personalities : [raid6] [raid5] [raid4]
md127 : active raid5 sdb[0] sdc[1]
9767278592 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
unused devices: <none>
blkid
:
/dev/sda1: UUID="911053a9-f06c-4479-becb-cb8faa2a5783" TYPE="ext4" PARTUUID="2c92f843-01"
/dev/sda5: UUID="28ae7474-1d14-48a6-9e8e-2ed31e060803" TYPE="swap" PARTUUID="2c92f843-05"
/dev/sdb: UUID="bb8b3798-d160-71b4-cc60-bc8fdc8e0761" UUID_SUB="e52bb12c-23e1-7c8f-a7f7-d52d4b2b46a9" LABEL="HomeNAS:NAS" TYPE="linux_raid_member"
/dev/sdc: UUID="bb8b3798-d160-71b4-cc60-bc8fdc8e0761" UUID_SUB="d9eac207-7167-d19e-c1de-8c7525b77d48" LABEL="HomeNAS:NAS" TYPE="linux_raid_member"
/dev/sdd1: UUID="523cffe7-115d-49b4-95e0-7549aecdf064" TYPE="ext4" PARTUUID="fba4a7ee-026a-497f-9b3d-bbdec92cb0d6"
/dev/md127: UUID="bd5ef96f-5587-4211-95c0-10219985ff6d" TYPE="ext4"
fdisk -l | grep "Disk "
:
Disk /dev/sda: 29,8 GiB, 32017047552 bytes, 62533296 sectors
Disk identifier: 0x2c92f843
Disk /dev/sdb: 4,6 TiB, 5000981078016 bytes, 9767541168 sectors
Disk /dev/sdc: 4,6 TiB, 5000981078016 bytes, 9767541168 sectors
Disk /dev/sdd: 1,8 TiB, 2000394706432 bytes, 3907020911 sectors
Disk identifier: C0401C51-A74A-4675-935E-AF9BF6706166
Disk /dev/md127: 9,1 TiB, 10001693278208 bytes, 19534557184 sectors
cat /etc/mdadm/mdadm.conf
:
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
# Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
# To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
# used if no RAID devices are configured.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# definitions of existing MD arrays
ARRAY /dev/md/NAS metadata=1.2 name=HomeNAS:NAS UUID=bb8b3798:d16071b4:cc60bc8f:dc8e0761
# instruct the monitoring daemon where to send mail alerts
MAILADDR <<<<REMOVED FOR PRIVACY RESONS>>>>
mdadm --detail --scan --verbose
:
ARRAY /dev/md127 level=raid5 num-devices=3 metadata=1.2 name=HomeNAS:NAS UUID=bb8b3798:d16071b4:cc60bc8f:dc8e0761
devices=/dev/sdb,/dev/sdc
mdadm --detail /dev/md127
:
/dev/md127:
Version : 1.2
Creation Time : Sat Mar 12 17:22:49 2016
Raid Level : raid5
Array Size : 9767278592 (9314.80 GiB 10001.69 GB)
Used Dev Size : 4883639296 (4657.40 GiB 5000.85 GB)
Raid Devices : 3
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Jan 27 13:11:42 2019
State : clean, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Name : HomeNAS:NAS
UUID : bb8b3798:d16071b4:cc60bc8f:dc8e0761
Events : 305
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
4 0 0 4 removed
मैंने इंटरनेट पर खोज की है और विभिन्न चरणों को पाया है, लेकिन मुझे नहीं पता कि मेरी स्थिति में कौन से आवश्यक हैं:
- चिह्न डिस्क विफल के रूप में
- सरणी से डिस्क निकालें
- नए प्रतिस्थापन ड्राइव में सरणी के एक शेष डिस्क के विभाजन तालिका की प्रतिलिपि बनाएँ
- सरणी में फिर से जोड़ें (-> पुनर्निर्माण स्वचालित रूप से शुरू किया जाएगा)
चूंकि डिस्क पूरी तरह से विफल रही और लिनक्स में मौजूद नहीं थी, इसलिए मैं इसे विफल के रूप में चिह्नित नहीं कर सका और इसे सरणी से हटा दिया। मुझे सरणी से डिस्क हटाने के लिए निम्न कमांड मिली है जो अब मौजूद नहीं है:
mdadm /dev/md127 -r detached
क्या नई ड्राइव को स्थापित करने से पहले इस कमांड का उपयोग करने की सिफारिश की गई है? या क्या मेरे मामले में ड्राइव को सरणी से निकालना आवश्यक नहीं है?
मैं वास्तव में आपके मार्गदर्शन की सराहना करूंगा! अग्रिम में धन्यवाद