मेरे पास एक होम मीडिया सर्वर है जो 12.2 पर खुला है। मैं एक RAID-10 कॉन्फ़िगरेशन में आठ 2TB ड्राइव का उपयोग कर रहा हूं। मैंने जानबूझकर दो अलग-अलग प्रकार की ड्राइव खरीदी: चार सीगेट बाराकुडा ग्रीन और चार वेस्टर्न डिजिटल रेड। मेरा लक्ष्य RAID को कॉन्फ़िगर करना है जैसे कि सरणी के भीतर प्रत्येक प्रतिबिंबित जोड़ी में डिस्मिलर ड्राइव (यानी, एक सीगेट ड्राइव और एक डब्ल्यूडी ड्राइव) शामिल होंगे। YaST2 पार्टिशनर ने दुर्भाग्य से मुझे सरणी की संरचना में पसंद का यह स्तर नहीं दिया, इसलिए अब मैं यह पता लगाने की कोशिश कर रहा हूं कि डिफ़ॉल्ट RAID10 संरचना कैसी दिखती है।
मुझे निम्नलिखित पता है:
- sdc, sdd, sde, और sdf सभी WD ड्राइव हैं
- sdg, sdh, sdi, और sdj सभी सीगेट ड्राइव हैं
RAID बनाते समय मैंने डिफ़ॉल्ट 'n2' लेआउट चुना। इन दो स्रोतों से मिली जानकारी के आधार पर मेरा अनुमान है कि आसन्न ड्राइव मिरर किए गए हैं (जैसे, sdc == sdd, sde == sdf, आदि), लेकिन मैं निश्चित रूप से जानना चाहता हूं:
- http://en.wikipedia.org/wiki/Non-standard_RAID_levels#Linux_MD_RAID_10
- /server/200725/mirrored-and-stripped-hd-drives-in-raid10
यहाँ 'mdadm --detail / dev / md0' का आउटपुट दिया गया है:
/dev/md0: Version : 1.0 Creation Time : Sat Mar 16 12:55:11 2013 Raid Level : raid10 Array Size : 7814045696 (7452.05 GiB 8001.58 GB) Used Dev Size : 1953511424 (1863.01 GiB 2000.40 GB) Raid Devices : 8 Total Devices : 8 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Sat Mar 16 13:09:37 2013 State : active, resyncing Active Devices : 8 Working Devices : 8 Failed Devices : 0 Spare Devices : 0 Layout : near=2 Chunk Size : 2048K Resync Status : 1% complete Name : aldaris:0 (local to host aldaris) UUID : c6cc3943:97394500:b77d44cd:f02ed876 Events : 149 Number Major Minor RaidDevice State 0 8 33 0 active sync /dev/sdc1 1 8 49 1 active sync /dev/sdd1 2 8 65 2 active sync /dev/sde1 3 8 81 3 active sync /dev/sdf1 4 8 97 4 active sync /dev/sdg1 5 8 113 5 active sync /dev/sdh1 6 8 129 6 active sync /dev/sdi1 7 8 145 7 active sync /dev/sdj1
और यहाँ / proc / mdstat की सामग्री हैं:
Personalities : [raid10] md0 : active raid10 sdj1[7] sdi1[6] sdh1[5] sdg1[4] sdf1[3] sde1[2] sdd1[1] sdc1[0]
7814045696 blocks super 1.0 2048K chunks 2 near-copies [8/8] [UUUUUUUU]
[>....................] resync = 4.8% (375163456/7814045696) finish=1206.5min speed=102751K/sec
bitmap: 57/59 pages [228KB], 65536KB chunk
unused devices: <none>
तो मेरे सवाल हैं:
- मैं कैसे बताऊं कि कौन से ड्राइव एक दूसरे के दर्पण हैं?
- क्या इसे बदलने का कोई तरीका है, या क्या मुझे बस तारों को चारों ओर स्वैप करना चाहिए (क्योंकि इससे ड्राइव अक्षर स्वैप होंगे) और फिर RAID को फिर से बनाना होगा?
अग्रिम में धन्यवाद।
स्पर्शरेखा नोट, किसी के लिए भी ऐसा करने के लिए मेरा तर्क जानना चाहता है: एक ही मॉडल और बैच की ड्राइव, समान उपयोग भार के तहत संचालित, अपटाइम, और तापमान में थोड़ा व्यवस्थित बदलाव होता है, और ड्राइव के बीच विफलता के लिए समय में अंतर मुख्य रूप से संचालित होगा। विनिर्माण प्रक्रिया में यादृच्छिक भिन्नता द्वारा। इससे एक ही बार में कई ड्राइव मरने का खतरा बढ़ जाता है। न केवल विभिन्न बैचों बल्कि पूरी तरह से अलग-अलग निर्माताओं से ड्राइव खरीदकर, मैं अपने सरणी में व्यवस्थित बदलाव ला रहा हूं, इस प्रकार यह प्रभावित करता है कि ड्राइव समान समय में विफल हो जाएगी।
RaidDevice
कॉलम देख सकते हैं । यह (0,1), (2,3), (4,5), (6,7) जितना सरल हो सकता है। इससे मुझे लगता है कि आपको RAIDDevice को WD / Sea / WD / Sea / etc जैसे बनाने की जरूरत है ... लेकिन मैं इसके बारे में 100% निश्चित नहीं हूं।