RAID1 सरणी के साथ mdadm का आकार कैसे बदलें?


12

मैंने Ubuntu 11.04 (कर्नेल 2.6.38-11) चलाया है। मैंने 2x160GB को 2x500GB ड्राइव से बदल दिया। उन्हें RAID1 के रूप में कॉन्फ़िगर किया गया है।

विभाजन तालिका सही आकार दिखाती हैं। यहाँ sfdisk है:

# sfdisk -d /dev/sdb
# partition table of /dev/sdb
unit: sectors

/dev/sdb1 : start=       63, size=   192717, Id=fd, bootable
/dev/sdb2 : start=   192780, size=  7807590, Id=fd
/dev/sdb3 : start=  8000370, size=968767695, Id=fd
/dev/sdb4 : start=        0, size=        0, Id= 0

और fdisk:

# fdisk -l /dev/sdb

Disk /dev/sdb: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0006c78f

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          12       96358+  fd  Linux raid autodetect
/dev/sdb2              13         498     3903795   fd  Linux raid autodetect
/dev/sdb3             499       60801   484383847+  fd  Linux raid autodetect

लेकिन मैं नई जगह नहीं देख रहा हूँ:

root@green:~# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/md2              143G  134G  8.3G  95% /


root@green:~# mdadm --examine /dev/sdb3
/dev/sdb3:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : b8f83980:f60d820c:74c46fbf:0baa68bc
  Creation Time : Sun Mar 29 18:48:46 2009
     Raid Level : raid1
  Used Dev Size : 152247936 (145.19 GiB 155.90 GB)
     Array Size : 152247936 (145.19 GiB 155.90 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 2

    Update Time : Mon Oct 10 19:22:36 2011
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 7b5debb7 - correct
         Events : 10729526


      Number   Major   Minor   RaidDevice State
this     0       8       19        0      active sync   /dev/sdb3
   0     0       8       19        0      active sync   /dev/sdb3
   1     1       8        3        1      active sync   /dev/sda3

मैंने mdadm और resize2fs की कोशिश की:

# mdadm --grow /dev/md2 --size=max
mdadm: component size of /dev/md2 has been set to 152247936K

# resize2fs /dev/md2 
resize2fs 1.41.14 (22-Dec-2010)
The filesystem is already 38061984 blocks long.  Nothing to do!

कोई विचार?

अनुरोध के अनुसार जोड़ा गया

# cat /proc/mdstat 
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdb3[0] sda3[1]
      152247936 blocks [2/2] [UU]

md0 : active raid1 sdb1[0] sda1[1]
      96256 blocks [2/2] [UU]

md1 : active raid1 sdb2[0] sda2[1]
      3903680 blocks [2/2] [UU]

unused devices: <none>

विभाजन

# cat /proc/partitions 
major minor  #blocks  name

   8        0  488386584 sda
   8        1      96358 sda1
   8        2    3903795 sda2
   8        3  152248005 sda3
   8       16  488386584 sdb
   8       17      96358 sdb1
   8       18    3903795 sdb2
   8       19  152248005 sdb3
   9        1    3903680 md1
   9        0      96256 md0
   9        2  152247936 md2

जुदा:

# parted
GNU Parted 2.3
Using /dev/sda
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) print all                                                        
Model: ATA WDC WD5000AAKX-0 (scsi)
Disk /dev/sda: 500GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number  Start   End     Size    Type     File system     Flags
 1      32.3kB  98.7MB  98.7MB  primary  ext3            boot, raid
 2      98.7MB  4096MB  3997MB  primary  linux-swap(v1)  raid
 3      4096MB  500GB   496GB   primary  ext3            raid


Model: ATA WDC WD5000AAKS-4 (scsi)
Disk /dev/sdb: 500GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number  Start   End     Size    Type     File system     Flags
 1      32.3kB  98.7MB  98.7MB  primary  ext3            boot, raid
 2      98.7MB  4096MB  3997MB  primary  linux-swap(v1)  raid
 3      4096MB  500GB   496GB   primary  ext3            raid


Model: Linux Software RAID Array (md)
Disk /dev/md1: 3997MB
Sector size (logical/physical): 512B/512B
Partition Table: loop

Number  Start  End     Size    File system     Flags
 1      0.00B  3997MB  3997MB  linux-swap(v1)


Model: Linux Software RAID Array (md)
Disk /dev/md0: 98.6MB
Sector size (logical/physical): 512B/512B
Partition Table: loop

Number  Start  End     Size    File system  Flags
 1      0.00B  98.6MB  98.6MB  ext3


Model: Linux Software RAID Array (md)
Disk /dev/md2: 156GB
Sector size (logical/physical): 512B/512B
Partition Table: loop

Number  Start  End    Size   File system  Flags
 1      0.00B  156GB  156GB  ext3

ईमेल के माध्यम से टिप्पणी करें:

समस्या मेटाडेटा में है, आपको बस पैरामीटर के साथ छापे सरणी को इकट्ठा करने की आवश्यकता है --update devicesize

और उसके बाद-जी / देव / एमडी? -z अधिकतम काम हो जाएगा :)


का आउटपुट क्या है cat /proc/mdstat? कैसे के बारे में cat /proc/partitions?
स्टीवन मंडे

ऊपर आउटपुट जोड़ा गया।
पॉल श्रेइबर

आपने उल्लेख नहीं किया है कि आपने अपने डेटा को नए डिस्क पर कैसे कॉपी किया है। हालाँकि, यह उत्तर को बहुत प्रभावित कर सकता है।
कवच

मुझे नए डिस्क पर sfdisk के साथ विभाजन करके, mdadm --add का उपयोग करके और डेटा को सिंक करने की अनुमति देकर डेटा कॉपी किया गया।
पॉल श्रेइबर

@Paul Schreiber, sfdiskआप कहते हैं (?) ... क्या आपके कहने का मतलब यह है कि आपने डिस्क विभाजन स्कीमा की प्रतिलिपि बनाई है?
4

जवाबों:


9

महज प्रयोग करें

mdadm --grow --size max /dev/md2

तब आप उपयोग कर पाएंगे

resize2fs /dev/md2

फाइल सिस्टम को छापे के आकार से मिलान करने के लिए। वह सब भी md2 को अनमाउंट किए बिना ऑनलाइन किया जाता है।


1
पूरी कमांड:resize2fs -p /dev/md2
मिलन केर्स्लेगर

@MilanKerslager, -pवहाँ क्या कर रहा है ?
जेम हैबटलजेल

1
@JaimeHablutzel -p प्रतिशत पूर्णता बार है, तो आप जानते हैं कि क्या चल रहा है, क्योंकि इसमें कुछ समय लग सकता है (मूल उत्तर पहले से तय हो गया है)।
मिलन केर्स्लेगर

2

मैं नियमित रूप से mdadm का उपयोग करता हूं और इसे सबसे खतरनाक लिनक्स उपयोगिताओं में से एक मानता हूं। हालांकि, अगर आप सही सुरक्षा सावधानियों को रोजगार आप संभावित डेटा हानि के अधिकांश मामलों से बच सकते हैं अपने सभी डेटा बैकअप !!! मुझे अतीत में दो बार mdadm द्वारा काट लिया गया है, 700GB से अधिक डेटा खो दिया है और इसमें से बहुत कम ही बरामद किया जा सका है, आपको चेतावनी दी गई है।

एक बहुत अच्छा मौका है कि आपको RAID सरणी को फिर से बनाने की आवश्यकता होगी क्योंकि mdadm ड्राइव के लिए अचानक अपेक्षा या क्षतिपूर्ति नहीं करता है। यह छापे सुपरब्लॉक में बताए गए आकार का उपयोग करेगा न कि स्वयं ड्राइव का। बशर्ते कि ड्राइव पहले से ही सिंक हो, आपको कई समस्याएं नहीं होनी चाहिए।

याद रखें कि यदि आप इसे बूट करना चाहते हैं तो सुपरब्लॉक संस्करण 0.9 का उपयोग करें।

संपादित करें

यह है कि मैं यह कैसे करेंगे, निष्कलंक !

एक लापता डाइव के साथ एक RAID1 बनाएं ताकि हम जल्दी से परीक्षण कर सकें कि डेटा की एक प्रति के साथ एक और ड्राइव होने के दौरान डेटा रहता है, आपका पुराना मेटाडेटा 0.90 था इसलिए हम यहां एक ही संस्करण रखेंगे।

mdadm --create /dev/md2 --level=mirror --metadata=0.90 --raid-devices=2 missing /dev/sdb3

यह परीक्षण करने के लिए माउंट करें कि सब कुछ काम करता है

mkdir /mnt/test
mount /dev/md2 /mnt/test

अपना डेटा जांचें

   ls -l /mnt/test

यदि यह सब ठीक लग रहा है, तो ड्राइव को अनमाउंट करें और आकार बदलें।

unmount /mnt/md2
resize2fs /dev/md2

एक बार जब यह सब ठीक हो जाता है, तो आप अन्य ड्राइव को सरणी में जोड़ सकते हैं।

mdadm --add /dev/md2 /dev/sdb3

और ड्राइव के लिए resync की प्रतीक्षा करें

cat / proc / mdstat


क्या आपके पास कोई विशिष्ट सुझाव है? मेरे लिए कदम उठाने के लिए?
पॉल श्रेइबर

ऊपर मेरे संपादन को देखें
सिल्वरफायर

/ dev / md2 पहले से मौजूद है। मैं इसे फिर से क्यों बनाना चाहता हूं? और: मुझे ऐसा करने के लिए एक बचाव डिस्क को बंद करना होगा? क्या कोई तरीका है जिससे मैं इस लाइव का आकार बदल सकता हूँ?
पॉल श्राइबर

लाइव, शायद नहीं, लेकिन आप इसे पुनः आरंभ करने में सक्षम हो सकते हैं, यदि आप उस सरणी से प्राथमिक बूट ड्राइव को निकालते हैं, तो आप उस पर एक नया सरणी बना सकते हैं (नाम / dev / md3 या कुछ) एक लापता ड्राइव के साथ, तब सिस्टम नई ड्राइव / छापे की सरणी से बूट होगा और फिर आप पुराने को जोड़ सकते हैं
सिल्वरफायर

क्या शायद सबसे आसान होगा, हालांकि एक नए सरणी पर बैकअप से बस को पुनर्स्थापित करना है।
Silverfire

2

पर देख रहे हैं से / proc / विभाजन , यह linux सोचता है कि स्पष्ट है sda3 और sdb3 की तुलना में वे कर रहे हैं छोटे होते हैं।

विभाजन के आकार

8       17      96358 sdb1
8       18    3903795 sdb2
8       19  152248005 sdb3

और आपको डिस्क के आकार से बहुत कम नंबर मिलेगा।

8       16  488386584 sdb

1024 बाइट्स के 152248005 ब्लॉक आकार के अनुरूप हैं mdadm --growऔर md2 केresize2fs लिए रिपोर्ट कर रहे हैं ।

क्या आपने शुरू में इन विभाजनों को छोटे आकार के साथ बनाया था, फिर बाद में उन्हें बाकी डिस्क का उपयोग करने के लिए फिर से बनाया? यदि ऐसा है, तो रिबूटिंग को कर्नेल को विभाजन तालिका को फिर से पढ़ने की अनुमति देनी चाहिए। उसके बाद, RAID डिवाइस को बढ़ाना और फाइल सिस्टम का आकार बदलना चाहिए।


हां, ठीक यही मैंने किया।
पॉल श्रेइबर

मशीन रिबूट पर लटका दी गई। बंद जांच करने के लिए ...
पॉल Schreiber
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.