RAID डिस्क को पूर्ण डिस्क विफलता के बाद हटा दिया गया - अब क्या करें?


3

मैं अपने NAS पर OMV 3.0.99 चला रहा हूं। मैंने एक RAID5 (mdadm के साथ) स्थापित किया है जिसमें तीन 5TB WD RED ड्राइव हैं। मैंने दिन (2016) में वापस OMV GUI का उपयोग करके RAID की स्थापना की है।

हाल ही में डिस्क में से एक विफल हो गया है (इस्तेमाल किया / देव / sdd)। जब मैं घर गया तो मैंने देखा कि यह शुरू होने पर अजीब लगता है और यह कि अब लिनक्स में इसे मान्यता नहीं मिली है। डिवाइस शारीरिक रूप से टूट गया लगता है और मैंने एक आरएमए स्थापित किया है क्योंकि मेरे पास अभी भी ड्राइव पर वारंटी है। अब मैं रिप्लेसमेंट ड्राइव का इंतजार कर रहा हूं और खुद से पूछ रहा हूं कि जब मेरा ड्राइव रिकवर करने के लिए नई ड्राइव यहां है तो मुझे क्या करना चाहिए।

मेरे ड्राइव पर कुछ नोट:

  1. / देव / एसडीए मेरी प्रणाली ड्राइव है
  2. RAID डिस्क / dev / sdb, sdc और sdd से सम्‍मिलित है। ड्राइव / देव / sdd विफल रहा और इसे NAS केस से भौतिक रूप से हटा दिया गया।
  3. अब / dev / sdd को मेरी बैकअप डिस्क को सौंपा गया था (RAID डिस्क के विफल होने से पहले उपयोग किया जाना था)

यहाँ मेरे सिस्टम के कुछ महत्वपूर्ण आउटपुट हैं:

uname -a उत्पादन

Linux homenas 4.9.0-0.bpo.6-amd64 #1 SMP Debian 4.9.88-1+deb9u1~bpo8+1 (2018-05-13) x86_64 GNU/Linux

cat /proc/mdstat:

Personalities : [raid6] [raid5] [raid4] 
md127 : active raid5 sdb[0] sdc[1]
        9767278592 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
unused devices: <none>

blkid:

/dev/sda1: UUID="911053a9-f06c-4479-becb-cb8faa2a5783" TYPE="ext4" PARTUUID="2c92f843-01"
/dev/sda5: UUID="28ae7474-1d14-48a6-9e8e-2ed31e060803" TYPE="swap" PARTUUID="2c92f843-05"
/dev/sdb: UUID="bb8b3798-d160-71b4-cc60-bc8fdc8e0761" UUID_SUB="e52bb12c-23e1-7c8f-a7f7-d52d4b2b46a9" LABEL="HomeNAS:NAS" TYPE="linux_raid_member"
/dev/sdc: UUID="bb8b3798-d160-71b4-cc60-bc8fdc8e0761" UUID_SUB="d9eac207-7167-d19e-c1de-8c7525b77d48" LABEL="HomeNAS:NAS" TYPE="linux_raid_member"
/dev/sdd1: UUID="523cffe7-115d-49b4-95e0-7549aecdf064" TYPE="ext4" PARTUUID="fba4a7ee-026a-497f-9b3d-bbdec92cb0d6"
/dev/md127: UUID="bd5ef96f-5587-4211-95c0-10219985ff6d" TYPE="ext4"

fdisk -l | grep "Disk ":

Disk /dev/sda: 29,8 GiB, 32017047552 bytes, 62533296 sectors
Disk identifier: 0x2c92f843
Disk /dev/sdb: 4,6 TiB, 5000981078016 bytes, 9767541168 sectors
Disk /dev/sdc: 4,6 TiB, 5000981078016 bytes, 9767541168 sectors
Disk /dev/sdd: 1,8 TiB, 2000394706432 bytes, 3907020911 sectors
Disk identifier: C0401C51-A74A-4675-935E-AF9BF6706166
Disk /dev/md127: 9,1 TiB, 10001693278208 bytes, 19534557184 sectors

cat /etc/mdadm/mdadm.conf:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
        ​
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
# Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
# To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
# used if no RAID devices are configured.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# definitions of existing MD arrays
ARRAY /dev/md/NAS metadata=1.2 name=HomeNAS:NAS UUID=bb8b3798:d16071b4:cc60bc8f:dc8e0761
​
# instruct the monitoring daemon where to send mail alerts
MAILADDR <<<<REMOVED FOR PRIVACY RESONS>>>>

mdadm --detail --scan --verbose:

ARRAY /dev/md127 level=raid5 num-devices=3 metadata=1.2 name=HomeNAS:NAS UUID=bb8b3798:d16071b4:cc60bc8f:dc8e0761
      devices=/dev/sdb,/dev/sdc

mdadm --detail /dev/md127:

/dev/md127:
          Version : 1.2
Creation Time : Sat Mar 12 17:22:49 2016
       Raid Level : raid5
       Array Size : 9767278592 (9314.80 GiB 10001.69 GB)
  Used Dev Size : 4883639296 (4657.40 GiB 5000.85 GB)
   Raid Devices : 3
  Total Devices : 2
    Persistence : Superblock is persistent
        ​
            Update Time : Sun Jan 27 13:11:42 2019
                  State : clean, degraded 
         Active Devices : 2
        Working Devices : 2
         Failed Devices : 0
          Spare Devices : 0
        ​
                 Layout : left-symmetric
             Chunk Size : 512K
        ​
                   Name : HomeNAS:NAS
                   UUID : bb8b3798:d16071b4:cc60bc8f:dc8e0761
                 Events : 305
        ​
            Number   Major   Minor   RaidDevice State
               0       8       16        0      active sync   /dev/sdb
               1       8       32        1      active sync   /dev/sdc
               4       0        0        4      removed

मैंने इंटरनेट पर खोज की है और विभिन्न चरणों को पाया है, लेकिन मुझे नहीं पता कि मेरी स्थिति में कौन से आवश्यक हैं:

  1. चिह्न डिस्क विफल के रूप में
  2. सरणी से डिस्क निकालें
  3. नए प्रतिस्थापन ड्राइव में सरणी के एक शेष डिस्क के विभाजन तालिका की प्रतिलिपि बनाएँ
  4. सरणी में फिर से जोड़ें (-> पुनर्निर्माण स्वचालित रूप से शुरू किया जाएगा)

चूंकि डिस्क पूरी तरह से विफल रही और लिनक्स में मौजूद नहीं थी, इसलिए मैं इसे विफल के रूप में चिह्नित नहीं कर सका और इसे सरणी से हटा दिया। मुझे सरणी से डिस्क हटाने के लिए निम्न कमांड मिली है जो अब मौजूद नहीं है: mdadm /dev/md127 -r detached

क्या नई ड्राइव को स्थापित करने से पहले इस कमांड का उपयोग करने की सिफारिश की गई है? या क्या मेरे मामले में ड्राइव को सरणी से निकालना आवश्यक नहीं है?

मैं वास्तव में आपके मार्गदर्शन की सराहना करूंगा! अग्रिम में धन्यवाद


1
स्टैक एक्सचेंज साइटों पर पाठ को ठीक से कैसे प्रारूपित करें, इसके बारे में जानने के लिए कृपया प्रारूपण सहायता की समीक्षा करें ।
डैनियल बी

1
आपको 9tb डिस्क के साथ RAID5 का उपयोग करना चाहिए - पुनर्निर्माण के दौरान दूसरी विफलता की संभावना अधिक है। भविष्य में वॉनसाइडर को RAID10 में परिवर्तित करना
davidgo

जवाबों:


3

मूल रूप से यह सिर्फ एक सरल है

mdadm /dev/md127 --add /dev/newdrive

और फिर watch cat /proc/mdstatऔर / या dmesg -wप्रगति या विफलता के पुनर्निर्माण के लिए।

जितनी जल्दी आप सरणी में एक नई ड्राइव जोड़ते हैं, उतना ही बेहतर होगा। यदि आप प्रतीक्षा करते समय कोई अन्य ड्राइव विफल हो जाता है, तो यह बात है। यदि आपके पास अपने डेटा का बैकअप नहीं है, तो एक ASAP बनाएं।

आम तौर पर आप पहले ड्राइव पर एक विभाजन तालिका भी बनाएंगे और फिर RAID के लिए विभाजन का उपयोग करेंगे, और सीधे ड्राइव नहीं। लेकिन यह आपके मामले में संभव नहीं है, क्योंकि आपके पास पहले से ही आपके सरणी में अविभाजित ड्राइव हैं, और अब एक विभाजन तालिका जोड़कर, आकार अब मेल नहीं खाएगा।

विभाजन तालिका के बिना ड्राइव चलाना डेटा हानि का एक संभावित कारण है। वहाँ बहुत सॉफ्टवेयर है कि मदद से आप के लिए एक विभाजन तालिका बनाता है अगर यह एक नहीं दिखता है, यह भी गलती से यह अपने आप करना आसान है।


आपके उत्तर के लिए धन्यवाद। मैंने एनएएस को तब तक के लिए बंद कर दिया है जब तक मेरे पास रिप्लेसमेंट ड्राइव नहीं है। मेरे पास मेरे महत्वपूर्ण डेटा का बैकअप है। RAIDDevice 4 के बारे में क्या ev हटाए जाने के रूप में दिखाया गया है? क्या मुझे नई डिस्क जोड़ने से पहले इसे सरणी से निकालना होगा?
bash0r1988
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.