तीसरी डिस्क जोड़कर एक तीन डिस्क सॉफ्टवेयर RAID कैसे बनाएं?


3

सर्वर CentOS चला रहा है और यह सफलतापूर्वक एक दो डिस्क सॉफ्टवेयर RAID चला रहा है। मैं अतिरेक के लिए इसमें एक तीसरी डिस्क जोड़ना चाहता हूं, इसलिए जब एक डिस्क विफल हो जाती है, तब भी सिस्टम में दो डिस्क का संचालन होता है जब तक कि असफल डिस्क के लिए एक प्रतिस्थापन नहीं आता है।

DVD-ROM से CentOS स्थापित करते समय, मैंने पिछले दिनों सॉफ़्टवेयर दो डिस्क RAID स्थापित किया है। लेकिन आप मौजूदा सिस्टम में मौजूदा दो डिस्क सॉफ़्टवेयर RAID में तीसरी डिस्क कैसे जोड़ते हैं?


अधिक जानकारी की आवश्यकता है - आप किस RAID स्तर पर चल रहे हैं?
Mikey T.K.

जवाबों:


1

2 डिस्क और अतिरेक का सुझाव है कि RAID1 का उपयोग पहले से ही किया गया है। अतिरेक बढ़ाने के लिए मुझे नहीं लगता कि RAID5 एक विकल्प है क्योंकि यह अधिक स्थान प्रदान करता है लेकिन - 3 डिस्क के साथ यह 2 के साथ RAID1 के समान है और एक डिस्क खोने की अनुमति देता है।

तो मान लिया जाए RAID1:

mdadm --add /dev/mdX /dev/sdY
mdadm --grow --raid-devices=3 /dev/mdX

Lvm2 (या तो दर्पण या डीएम-छापे) का उपयोग करना यह होगा:

vgextend VG /dev/sdY
lvconvert -m2 VG/LV

0

आप चाहते हैं कि नयी आकृति प्रदान करना आपका RAID -1 तीन-डिस्क RAID-5 सेटअप में। md, सॉफ्टवेयर RAID आप शायद उपयोग कर रहे हैं, सौभाग्य से पुनर्वसन का समर्थन करता है।

WARNING WARNING सुनिश्चित करें कि आपने अपने डेटा का बैकअप सिर्फ उसी स्थिति में लिया है जब कुछ भयावह रूप से गलत हो जाता है (संभावना नहीं है, लेकिन हमेशा एक संभावना है)।


पूर्ण उदाहरण

आपने अपने सेटअप के बारे में कोई विवरण नहीं दिया है, इसलिए मैं किसी से भी कोशिश कर सकता हूं।

RAID-1 सेट करें

root@node51 [/tmp]# truncate -s 1G 1.img
root@node51 [/tmp]# truncate -s 1G 2.img
root@node51 [/tmp]# losetup /dev/loop1 1.img
root@node51 [/tmp]# losetup /dev/loop2 2.img
root@node51 [/tmp]# mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 /dev/loop{1,2}
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: size set to 1048000K
Continue creating array? yes
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

सरणी RAID -1 के रूप में कैसे दिखती है:

root@node51 [/tmp]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Mar  9 15:30:18 2016
     Raid Level : raid1
     Array Size : 1048000 (1023.61 MiB 1073.15 MB)
  Used Dev Size : 1048000 (1023.61 MiB 1073.15 MB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Wed Mar  9 15:30:24 2016
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : node51:0  (local to host node51)
           UUID : 9f03708b:dfe27926:16485757:02cbc146
         Events : 17

    Number   Major   Minor   RaidDevice State
       0       7        1        0      active sync   /dev/loop1
       1       7        2        1      active sync   /dev/loop2

एक फाइल सिस्टम और / या विभाजन जोड़ें (वैकल्पिक)

मैं एक साधारण फाइलसिस्टम सेटअप प्रदर्शित करूंगा और यहां पर आकार दूंगा, लेकिन आप कहीं और विस्तृत विवरण युक्तियां पा सकते हैं (इस उत्तर के निचले भाग में "अतिरिक्त संसाधन" देखें)।

root@node51 [/tmp]# mkfs.ext4 /dev/md0
mke2fs 1.42.9 (4-Feb-2014)
Discarding device blocks: done
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
65536 inodes, 262000 blocks
13100 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=268435456
8 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376

Allocating group tables: done
Writing inode tables: done
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done

root@node51 [/tmp]# mount /dev/md0 /mnt
root@node51 [/tmp]# df -hT /mnt
Filesystem     Type  Size  Used Avail Use% Mounted on
/dev/md0       ext4  992M  1.3M  923M   1% /mnt

तीसरी डिस्क जोड़ें

root@node51 [/tmp]# truncate -s 1G 3.img
root@node51 [/tmp]# losetup /dev/loop3 3.img
root@node51 [/tmp]# mdadm --add /dev/md0 /dev/loop3
mdadm: added /dev/loop3

एक बार जब आप तीसरी डिस्क जोड़ लेते हैं, तो आपको इसे एक स्पेयर के रूप में देखना चाहिए:

root@node51 [/tmp]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Mar  9 15:30:18 2016
     Raid Level : raid1
     Array Size : 1048000 (1023.61 MiB 1073.15 MB)
  Used Dev Size : 1048000 (1023.61 MiB 1073.15 MB)
   Raid Devices : 2
  Total Devices : 3
    Persistence : Superblock is persistent

    Update Time : Wed Mar  9 15:31:10 2016
          State : clean
 Active Devices : 2
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 1

           Name : node51:0  (local to host node51)
           UUID : 9f03708b:dfe27926:16485757:02cbc146
         Events : 18

    Number   Major   Minor   RaidDevice State
       0       7        1        0      active sync   /dev/loop1
       1       7        2        1      active sync   /dev/loop2

       2       7        3        -      spare   /dev/loop3

RAID-1 को RAID-5 में बदलें

root@node51 [/tmp]# mdadm --grow /dev/md0 --level=5 --raid-devices=3
mdadm: level of /dev/md0 changed to raid5
mdadm: Need to backup 128K of critical section..

इसमें लंबा समय लग सकता है। आप देख सकते हैं cat /proc/mdstat प्रगति देखने के लिए:

root@node51 [/tmp]# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md0 : active raid5 loop3[2] loop2[1] loop1[0]
      1048000 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
      [=====>...............]  reshape = 25.0% (262208/1048000) finish=0.1min speed=87360K/sec

unused devices: <none>

अब आपके पास RAID-5 है!

root@node51 [/tmp]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Mar  9 15:30:18 2016
     Raid Level : raid5
     Array Size : 2096000 (2047.22 MiB 2146.30 MB)
  Used Dev Size : 1048000 (1023.61 MiB 1073.15 MB)
   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent

    Update Time : Wed Mar  9 15:31:49 2016
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           Name : node51:0  (local to host node51)
           UUID : 9f03708b:dfe27926:16485757:02cbc146
         Events : 41

    Number   Major   Minor   RaidDevice State
       0       7        1        0      active sync   /dev/loop1
       1       7        2        1      active sync   /dev/loop2
       2       7        3        2      active sync   /dev/loop3

अपने फ़ाइल सिस्टम और / या विभाजन का आकार बढ़ाएँ (वैकल्पिक)

यहाँ, आप के बारे में मेरी फाइलसिस्टम देख सकते हैं 1GiB बनना 2GiB ext4 की ऑनलाइन विस्तार सुविधा द्वारा:

root@node51 [/tmp]# df -hT /mnt
Filesystem     Type  Size  Used Avail Use% Mounted on
/dev/md0       ext4  992M  1.3M  923M   1% /mnt
root@node51 [/tmp]# resize2fs /dev/md0
resize2fs 1.42.9 (4-Feb-2014)
Filesystem at /dev/md0 is mounted on /mnt; on-line resizing required
old_desc_blocks = 1, new_desc_blocks = 1
The filesystem on /dev/md0 is now 524000 blocks long.

root@node51 [/tmp]# df -hT /mnt
Filesystem     Type  Size  Used Avail Use% Mounted on
/dev/md0       ext4  2.0G  1.5M  1.9G   1% /mnt

परिदृश्यों को आकार देने वाले अन्य फाइल सिस्टम के लिए, इस उत्तर के अंत में "अतिरिक्त संसाधन" देखें।

उदाहरण क्लीनअप (वैकल्पिक)

नीचे दिए गए उदाहरण को फाड़ने और हटाने का तरीका बताया गया है:

root@node51 [/tmp]# umount /mnt
root@node51 [/tmp]# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
root@node51 [/tmp]# losetup -d /dev/loop1
root@node51 [/tmp]# losetup -d /dev/loop2
root@node51 [/tmp]# losetup -d /dev/loop3
root@node51 [/tmp]# rm -fv /tmp/{1,2,3}.img
removed ‘/tmp/1.img’
removed ‘/tmp/2.img’
removed ‘/tmp/3.img’

अतिरिक्त संसाधन

मैंने फाइलसिस्टम को आकार देते हुए कुछ अन्य उत्तर लिखे। आप अपने RAID में फाइल सिस्टम को विकसित करने के लिए उसी अवधारणा का उपयोग कर सकते हैं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.