मेरे RAID / dev / md1 को / dev / md126 के रूप में क्यों दिखाया जा रहा है? क्या mdadm.conf की अनदेखी की जा रही है?


26

मैंने एक RAID बनाया:

sudo mdadm --create --verbose /dev/md1 --level=mirror --raid-devices=2 /dev/sdb1 /dev/sdc1
sudo mdadm --create --verbose /dev/md2 --level=mirror --raid-devices=2 /dev/sdb2 /dev/sdc2

sudo mdadm --detail --scan रिटर्न:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

जो मैंने इसे जोड़ा है /etc/mdadm/mdadm.conf, नीचे देखें:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Mon, 29 Oct 2012 16:06:12 -0500
# by mkconf $Id$
ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat रिटर्न:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdb2[0] sdc2[1]
      208629632 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md रिटर्न:

brw-rw----   1 root disk      9,   1 Oct 30 11:06 md1
brw-rw----   1 root disk      9,   2 Oct 30 11:06 md2

इसलिए मुझे लगता है कि सब अच्छा है और मैं रिबूट करता हूं।


रिबूट के बाद, / dev / md1 अब / dev / md126 और / dev / md2 अब / देव / md127 है ?????

sudo mdadm --detail --scan रिटर्न:

ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat रिटर्न:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md126 : active raid1 sdc2[1] sdb2[0]
      208629632 blocks super 1.2 [2/2] [UU]

md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md रिटर्न:

drwxr-xr-x   2 root root          80 Oct 30 11:18 md
brw-rw----   1 root disk      9, 126 Oct 30 11:18 md126
brw-rw----   1 root disk      9, 127 Oct 30 11:18 md127

सब खो नहीं है, मैं:

sudo mdadm --stop /dev/md126
sudo mdadm --stop /dev/md127
sudo mdadm --assemble --verbose /dev/md1 /dev/sdb1 /dev/sdc1
sudo mdadm --assemble --verbose /dev/md2 /dev/sdb2 /dev/sdc2

और सब कुछ सत्यापित करें:

sudo mdadm --detail --scan रिटर्न:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat रिटर्न:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdb2[0] sdc2[1]
      208629632 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md रिटर्न:

brw-rw----   1 root disk      9,   1 Oct 30 11:26 md1
brw-rw----   1 root disk      9,   2 Oct 30 11:26 md2

इसलिए एक बार फिर, मुझे लगता है कि सब अच्छा है और मैं रिबूट करता हूं।


फिर से, रिबूट के बाद, / देव / md1 है / देव / md126 और / देव / md2 है / देव / md127 ?????

sudo mdadm --detail --scan रिटर्न:

ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

cat /proc/mdstat रिटर्न:

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md126 : active raid1 sdc2[1] sdb2[0]
      208629632 blocks super 1.2 [2/2] [UU]

md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1]
      767868736 blocks super 1.2 [2/2] [UU]

unused devices: <none>

ls -la /dev | grep md रिटर्न:

drwxr-xr-x   2 root root          80 Oct 30 11:42 md
brw-rw----   1 root disk      9, 126 Oct 30 11:42 md126
brw-rw----   1 root disk      9, 127 Oct 30 11:42 md127

मुझे यहां क्या समझ नहीं आ रहा है?

जवाबों:


26

मैं यहाँ जवाब मिला, RAID md127 के बजाय md0 पर शुरू हो रहा है । संक्षेप में, मैंने अपनी /etc/mdadm/mdadm.conf परिभाषाएँ काट दीं:

ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

सेवा मेरे:

ARRAY /dev/md1 UUID=aa1f85b0:a2391657:cfd38029:772c560e
ARRAY /dev/md2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb

और भाग गया:

sudo update-initramfs -u

मैं इस पर एक विशेषज्ञ से बहुत दूर हूं , लेकिन मेरी समझ यह है ...

कर्नेल एरे को इकट्ठा करने के लिए सामान्य समय से पहले सरणियों को इकट्ठा करता है। जब कर्नेल सरणियों को इकट्ठा करता है, तो यह mdadm.conf का उपयोग नहीं करता है। चूंकि विभाजन पहले से ही कर्नेल द्वारा इकट्ठे किए गए थे, सामान्य सरणी असेंबली जो mdadm.conf का उपयोग करती है, उसे छोड़ दिया गया था।

कॉलिंग sudo update-initramfs -uबताता है कि कर्नेल को सिस्टम पर फिर से विचार करना है कि कैसे शुरू करना है।

मुझे यकीन है कि बेहतर ज्ञान वाला कोई मुझे सही करेगा / इस बारे में विस्तार से बताएगा।

आपके सिस्टम पर मौजूद प्रत्येक संबंधित कर्नेल के लिए initrd को अद्यतन करने के लिए निम्न पंक्ति का उपयोग करें:

sudo update-initramfs -k all -u

3
हां, वास्तव में यह कर्नेल के लिए initrd को फिर से बनाएगा और इसमें MD-RAID कॉन्फ़िगरेशन के लिए प्रासंगिक कॉन्फ़िगरेशन फ़ाइल शामिल होगी। इसका मतलब यह है कि जिस समय डिवाइस तैयार हो जाते हैं, कर्नेल को पता चल जाएगा कि आपकी सेटिंग के अनुसार उन्हें कैसे नाम देना है। अच्छी पकड़। +1 ... btw: ध्यान दिया गया कि यह लिंक किए गए फ़ोरम विषय में भी बताया गया है।
0xC0000022L

अरे, इस जवाब ने मेरे आर्क लिनक्स सिस्टम पर एक धीमी RAID आरंभीकरण समस्या को हल किया। RAID0 सरणी प्राप्त करने और बूट करते समय चलने में 5 सेकंड का समय लगेगा। वर्णित के रूप में mdadm.conf बदलने और mkinitcpio चलाने के बाद, यह नगण्य समय लगता है!
rep_movsd

इसके बिना बूट करने के लिए Ubuntu 12.04 (मिंट 13) नहीं मिल सका। मैं अपने रूट FS को initramfs शेल से माउंट करने के लिए भी नहीं मिल सका। माउंट-लीनियर त्रुटियों और माउंट करने के लिए 'खराब सुपरब्लॉक' त्रुटियों का एक समूह था। मैंने अपने md0 डिवाइस का नाम 0 पर भी रखना सुनिश्चित किया, और md1 डिवाइस को 1. मुझे पता नहीं है कि क्या इसकी आवश्यकता थी।
cmcginty

6
sudo update-initramfs -u

क्या मुझे इसे ठीक करने की ज़रूरत थी मैंने /etc/mdadm/mdadm.conf में कुछ भी संपादित नहीं किया।


1

मेरी भी यही समस्या थी।

यह समाधान मेरी समस्या का समाधान करता है: http://aubreykloppers.wordpress.com/2012/07/06/mdadm-devmod127/


4
उबंटू पूछने के लिए आपका स्वागत है। कृपया उत्तर में लिंक से प्रासंगिक चरणों को शामिल करें।
चाक

0

मैं निम्नलिखित तरीके से समस्या को दोहराने में कामयाब रहा:

जब "सॉफ़्टवेयर अपडेटर" ने पूछा कि क्या मैं पैकेज (उबंटू आधार सहित) और कर्नेल अपडेट करना चाहता हूं, तो मैंने कहा: ठीक है। नए इंस्टॉल किए गए कर्नेल ने वर्तमान कर्नेल / सिस्टम की सेटिंग्स का उपयोग किया। मैंने तब सरणी बनाई थी। केवल वर्तमान में चल रहे कर्नेल को अपडेट किया गया था। नई RAID सेटिंग्स के साथ। एक बार जब मैंने रिबूट किया, तो नए कर्नेल को छापे के बारे में कुछ भी नहीं पता था, और इसे md127 नाम दिया!

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.