डिस्क को हटाकर RAID सिकोड़ें?


14

मेरे पास 12 बैलों के साथ एक Synology NAS है। प्रारंभ में, हमने एक ही RAID -6 मात्रा के लिए सभी 12 डिस्क आवंटित करने का निर्णय लिया, लेकिन अब हम केवल 10 डिस्क का उपयोग करने के लिए और दो HDD को पुर्जों के रूप में उपयोग करने के लिए वॉल्यूम को सिकोड़ना चाहेंगे।

वॉल्यूम प्रबंधक मार्ग आसानी से हार्ड डिस्क जोड़कर मात्रा का विस्तार कर सकते हैं, लेकिन मैं करने के लिए कोई रास्ता नहीं पाया है हार्ड डिस्क को हटाने के द्वारा मात्रा हटना । पूरे सिस्टम को फिर से व्यवस्थित किए बिना मैं ऐसा कैसे कर सकता हूं?


यहाँ लक्ष्य क्या है? वर्तमान में दो डिस्क को समानता के रूप में उपयोग किया जाता है, और इसलिए सरणी दो विफलताओं को सहन कर सकती है। यदि आप दो पुर्जों को चाहते हैं, तो आप बस उन्हें पास छोड़ सकते हैं और समान सहनशीलता रख सकते हैं, लेकिन अधिक डिस्क स्थान के साथ।
पॉल

ज़रूर, लेकिन मुझे कार्यालय जाना है, एक डिस्क को बाहर निकालना और एक प्रतिस्थापन डिस्क डालना है। एक अतिरिक्त होने से यह दूरस्थ रूप से करने की अनुमति देता है।
पियरे अरनौद

क्या आपके Synology में MDADM बनाया गया है, यदि आप इसे करना चाहते हैं?
पॉल

हां, मैं mdadm टूल का उपयोग कर रहा हूं।
पियरे अरनौद

जवाबों:


20

इसके लिए मैं मान रहा हूँ कि सरणी में 12 डिस्क हैं, और प्रत्येक 1TB बड़ा है।

मतलब इसमें 10TB स्टोरेज है। यह उदाहरण के लिए है, बशर्ते आप 6 से अधिक डिस्क्स (6TB) मूल्य के स्टोरेज का उपयोग नहीं कर रहे हों, तो इससे कोई फर्क नहीं पड़ता कि वे किस आकार के हैं।

Oblig अस्वीकरण: इसमें से कोई भी Synology द्वारा समर्थित नहीं हो सकता है, इसलिए मैं उनके साथ जांच करूंगा कि क्या यह दृष्टिकोण समस्याओं का कारण बन सकता है, पहले से बैकअप कर सकता है, और पहले से किसी भी synology सेवाओं को बंद कर सकता है। जहाँ तक मुझे पता है, Synology मानक md raid सरणियों का उपयोग करते हैं, और वे सुलभ होते हैं यदि डिस्क मानक सर्वर पर ले जाया जाता है जो md का समर्थन करता है - तो कोई समस्या नहीं होनी चाहिए

अवलोकन

अनुक्रम इस प्रकार है:

  1. फाइलसिस्टम का आकार कम करें
  2. लॉजिकल वॉल्यूम का आकार कम करें
  3. सरणी का आकार कम करें
  4. फ़ाइल सिस्टम को वापस आकार दें
  5. स्पेयर डिस्क को गर्म पुर्जों में परिवर्तित करें

फाइल सिस्टम

मुख्य विभाजन का पता लगाएं df -h, इसका उपयोग करते हुए , इसे कुछ इस तरह देखना चाहिए:

Filesystem                Size      Used Available Use% Mounted on
/dev/vg1/volume_1         10T       5T   5T         50% /volume1

इस कमांड का उपयोग उस अधिकतम आकार के लिए करें, जिसकी आवश्यकता है और अधिक नहीं:

umount /dev/vg1/volume_1
resize2fs -M /dev/vg1/volume_1

अब जांचें:

mount /dev/vg1/volume_1 /volume1
df -h

Filesystem                Size      Used Available Use% Mounted on
/dev/vg1/volume_1         5T       5T    0T        100% /volume1

आयतन

वॉल्यूम का आकार कम करने के लिए, lvreduce का उपयोग करें (इसे केवल मामले में थोड़ा बड़ा करें):

umount /dev/vg1/volume_1
lvreduce -L 5.2T /dev/vg1/volume_1

अब जबकि तार्किक आयतन कम हो गया है, भौतिक आयतन के आकार को कम करने के लिए pvresize का उपयोग करें:

pvresize --setphysicalvolumesize 5.3T /dev/md0

यदि आकार विफल हो जाता है, तो डेटा के उन हिस्सों को स्थानांतरित करने के लिए यह अन्य प्रश्न देखें, जो शुरुआत में भौतिक वॉल्यूम के अंत में आवंटित किए गए थे।

अब हमारे पास 10T सरणी पर 5.3T वॉल्यूम है, इसलिए हम सरणी आकार को 2T तक सुरक्षित रूप से कम कर सकते हैं।

सरणी

Md डिवाइस का पता लगाएं:

 pvdisplay -C
 PV         VG      Fmt  Attr PSize   PFree
 /dev/md0   vg1     lvm2 a--  5.3t    0.1t

पहला कदम सरणी आकार (बढ़ने के साथ) को कम करने के लिए mdadm बताना है:

mdadm --grow -n10 /dev/md0
mdadm: this change will reduce the size of the array.
       use --grow --array-size first to truncate array.
       e.g. mdadm --grow /dev/md0 --array-size 9683819520

यह कह रहा है कि 10 डिस्क पर वर्तमान सरणी को फिट करने के लिए, हमें सरणी आकार को कम करने की आवश्यकता है।

 mdadm --grow /dev/md0 --array-size 9683819520

अब यह छोटा है, हम डिस्क की संख्या कम कर सकते हैं:

 mdadm --grow -n10 /dev/md0 --backup-file /root/mdadm.md0.backup

यह एक लंबा समय लगेगा, और यहां निगरानी की जा सकती है:

 cat /proc/mdstat

Personalities : [raid6] [raid5] [raid4]
md4 : active raid6 sda4[0] sdb4[1] sdc4[2] sdd4[3] sde4[4] sdf4[5] sdg4[6] sdh4[7] sdi4[1] sdj4[1] 
      [>....................]  reshape =  1.8% (9186496/484190976)
                              finish=821.3min speed=9638K/sec [UUUUUUUUUU__]

लेकिन हमें इंतजार करने की जरूरत नहीं है।

अधिकतम करने के लिए PV, LV और फाइल सिस्टम का आकार बदलें:

pvresize /dev/md0
lvextend -l 100%FREE /dev/vg1/volume_1
e2fsck -f /dev/vg1/volume_1
resize2fs /dev/vg1/volume_1

स्पेयर डिस्क को पुर्जों के रूप में सेट करें

यहां करने के लिए कुछ भी नहीं है, एक सरणी में किसी भी अतिरिक्त डिस्क स्वचालित रूप से पुर्जों हैं। एक बार जब आपका आकार पूरा हो जाए, तो स्थिति जांचें:

cat /proc/mdstat

Personalities : [raid6] [raid5] [raid4]
md4 : active raid6 sda4[0] sdb4[1] sdc4[2] sdd4[3] sde4[4] sdf4[5] sdg4[6] sdh4[7] sdi4[S] sdj4[S] 

इन विस्तृत निर्देशों के लिए बहुत बहुत धन्यवाद। मैं पहले एक HDD (कुल क्षमता: 17.86 टीबी, यह कुछ समय ले रहा है) को बदलने के बाद अपने RAID सरणी के पुनर्निर्माण के लिए इंतजार करूंगा।
पियरे अरनौद

Mdadm चीट शीट ( ducea.com/2009/03/08/mdadm-cheat-bheet ) पर भी एक नज़र डालें ।
पियरे अरनौद

@Paul - superuser.com/questions/1274328/… यदि आप उपयोगकर्ता की मदद कर सकते हैं तो निर्धारित करने के बाद हटाने के लिए इस टिप्पणी को चिह्नित करें
रामहुड

सावधान रहें! मुझे लगता है कि इस उत्तर से डेटा हानि हो सकती है, जैसा कि है: कोई जाँच नहीं है कि lvm lv वास्तव में pv की शुरुआत में है! (जो lvm के साथ गारंटी नहीं है)। देखें unix.stackexchange.com/questions/67702/... (और unix.stackexchange.com/questions/67702/... त्रुटि के मामले में) एक तरह से पीवी के अंत सुनिश्चित करने के लिए है shrinked जा करने के लिए स्वतंत्र।
एकेल

@ ईकलेग धन्यवाद, इस टिप्पणी को याद किए जाने के मामले में उत्तर के भाग के रूप में बेहतर रखा जाएगा
पॉल
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.