क्या RAID 1 में दो से अधिक ड्राइव हो सकते हैं?


9

हाल ही में मेरी एक शिक्षक के साथ चर्चा हुई। वह दावा कर रहा था कि आप RAID 1 को पांच ड्राइव के साथ सेट कर सकते हैं और इन सभी ड्राइव्स पर डेटा मिरर किया जाएगा।

मैंने उससे कहा कि एक RAID 5 ड्राइव के साथ ऐसा काम नहीं करेगा। यह दो ड्राइव के साथ एक RAID 1 होगा और अन्य तीन ड्राइव को हॉट स्पेयर के रूप में उपयोग करेगा।

उन्होंने यह भी कहा कि RAID 6 RAID 5 के समान है, लेकिन आप एक ही ड्राइव पर सभी समता की जाँच कर सकते हैं। मुझे लगा कि RAID 6 एक RAID 5-जैसा समाधान था जहां दो ड्राइव जहां समता के लिए उपयोग किए जाते थे।

कौन सही है, फिर?

जवाबों:


17

आप RAID1 के लिए जितनी चाहें उतनी ड्राइव का उपयोग कर सकते हैं। वे सभी एक ही समय में प्रतिबिंबित, और लिखे जाएंगे, और एक दूसरे की सटीक प्रतियां होंगे। तथ्य यह है कि वहाँ एक कार्ड नहीं है कि एक्स ड्राइव से अधिक करना अवधारणा के बारे में कुछ भी मतलब नहीं है। RAID1 केवल आपके डिस्क को मिरर कर रहा है, और आपके पास जितने चाहें उतने दर्पण हो सकते हैं।

इसके अलावा, RAID5 / 6 का आपका दृष्टिकोण गलत है। समता को सभी ड्राइव पर वितरित किया जाता है, उसके लिए एक समर्पित ड्राइव नहीं है। Raid5 की तुलना में, raid6 एक अतिरिक्त समता ब्लॉक जोड़ता है , जिसे वितरित भी किया जाता है।

आप विकिपीडिया पर अधिक जानकारी पा सकते हैं ।


मेरे पास कभी भी एक छापा-कार्ड नहीं था जो 1 तो अधिक 2 ड्राइव के साथ छापे को संभाल सकता था। तो ... और मेरे छापे -6 में क्या गलत है ??? मैं यह कहने की कोशिश कर रहा था कि छापे -5 में अपनी समानता के लिए एक ड्राइव है, और छापे -6 में समानता के लिए 2 ड्राइव हैं। जैसा कि विकिपीडिया कहता है: RAID 5: वितरित समता के साथ ब्लॉक-स्तरीय स्ट्रिपिंग। RAID 6: डबल वितरित समानता के साथ ब्लॉक-स्तरीय स्ट्रिपिंग।
Mad_piggy

मैं अपना जवाब अपडेट करूंगा।
m4573r

मैंने एक छापे 1 में 8 ड्राइव का उपयोग करके mdadm (linux सॉफ्टवेयर छापे) का एक उदाहरण देखा है, या एक छापे के रूप में 8 ड्राइव पर पहला छोटा विभाजन 1। यह सिस्टम ड्राइव संग्रहीत करता है। प्रत्येक ड्राइव पर बड़ा विभाजन एक RAID 6 सरणी में समूहीकृत था। मैंने एक linux distro नहीं देखा है जो किसी सॉफ़्टवेयर छापे से बूट होगा 5 या 6.
BeowulfNode42

0

दो संभावनाएँ हैं:

उपयोग

  • छापे के लिए सभी 5 ड्राइव 1, अन्य ड्राइव की सटीक प्रतिलिपि के रूप में हर ड्राइव के साथ
  • दर्पण (उदाहरण) 3 ड्राइव और अन्य दो डिस्क को स्पेयर के रूप में उपयोग करें (यदि पहले 3 डिस्क में से एक विफल रहता है, तो 4 वां स्थान अपनी जगह बना लेगा)

मैं दूसरा समाधान पसंद करता हूं (2 + 1 ड्राइव या 3 + 1 के साथ)

6 छापे के बारे में आपकी धारणा गलत है :)


0

मैंने कुछ LenovoEMC PX4-NAS के साथ काम किया है जिसमें 4 या 12 डिस्क थे। प्रत्येक ड्राइव के पहले 50 GB का उपयोग OS के लिए एक RAID1 के रूप में किया गया था, और प्रत्येक डिस्क का शेष उपयोगकर्ता डेटा के लिए था।

इसलिए इसमें रूट ड्राइव के लिए 4 या 12-रास्ता raid1 और इस ड्राइव पर एक छोटी स्वैप फ़ाइल है। तो हाँ इसकी पूरी तरह से संभव और व्यावहारिक है, और व्यावसायिक समाधान द्वारा उत्पादन में उपयोग किया जाता है।

जब तक कम से कम एक डिस्क अभी भी काम करती है तब तक वह बूट और नेटवर्क होगा। यदि आप सभी डिस्क को बदलते हैं, तो OS को पुनः स्थापित करने के लिए NAS को USB ड्राइव से बूट करने की आवश्यकता है।

यहाँ 4 बे NAS पुनर्निर्माण एक डिस्क स्वैप के बाद है, इसलिए नहीं sdd

root@px4-300r-THYAQ42E9:/nfs/# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md0 : active raid1 sde1[4] sdc1[1] sda1[3] sdb1[2]
      20964480 blocks super 1.1 [4/3] [UUU_]
      [===========>.........]  recovery = 58.1% (12188416/20964480) finish=7.2min speed=21337K/sec

md1 : active raid5 sde2[4] sdc2[1] sda2[3] sdb2[2]
      5797200384 blocks super 1.1 level 5, 512k chunk, algorithm 2 [4/3] [_UUU]

/ Proc / mdstat आउटपुट एक पुराने ईमेल में पाया गया था - डिवाइस लंबे समय तक हार्डवेयर के बाद चले गए हैं, इसलिए मैं एक hdparm या बोनी परीक्षण आसानी से नहीं कर सकता, क्षमा करें।
क्रिग्गी

0

RAID स्तरों की बहुत गलतफहमी है।

JBoD सिर्फ एक बंच ऑफ ड्राइव है, जहां आप एक ही बॉक्स में कई ड्राइव देख सकते हैं, यह एक सबसे भ्रमित गैर-छापा शब्द है।

कुछ साल पहले, कुछ RAID निर्माता अपने RAID इंजन के साथ वास्तव में JBOD नहीं बना सकते थे, वे SPAN (BIG) को JBoD कहते हैं।

RAID1 एक मिरर RAID है और इसे एक दूसरे को मिरर करने के लिए दो HDD की जरूरत होती है। जबकि CLONE एक ही मात्रा के साथ एक मल्टीपल डुप्लिकेट HDD है, उदाहरण के लिए DAT ऑप्टिक के eBOX, sBOX (हार्डवेयर RAID)। हार्डवेयर RAID बॉक्स आमतौर पर RAID 0, 1, 5, CLONE, लार्ज और हॉट स्पेयर प्रदान करते हैं।

RAID 5/6 के लिए, दोनों में RAID5 के लिए एक ड्राइव के बराबर समानता और RAID6 के लिए दो ड्राइव हैं।

सबसे आम गलत ज्ञान यह है कि समता डेटा एक समर्पित ड्राइव (ओं) में स्थित है। यह गलत है। पार्टी स्पेस को RAID सदस्य HDDs के बीच समान रूप से विभाजित किया गया है।

उदाहरण: पांच HDD से RAID5, प्रत्येक ड्राइव में समता के लिए आवंटित अंतरिक्ष का 1/5 हिस्सा होगा, जबकि RAID6 के लिए, प्रत्येक ड्राइव में समता के लिए आवंटित अंतरिक्ष का 2/5 हिस्सा होगा।

उन लोगों के लिए जो बहस करना चाहते हैं, अगर कोई समर्पित समता ड्राइव है, तो मान लेते हैं कि अगर समर्पित समता अभियान विफल होता है तो RAID का क्या होता है? RAID का पुनर्निर्माण नहीं किया जा सकता है क्योंकि पुनर्निर्माण के लिए आवश्यक डेटा अब नहीं है।


1
ध्यान दें कि आपकी अंतिम टिप्पणी यह ​​कहती है कि समर्पित समता ड्राइव के साथ RAID5 ड्राइव विफलता से उबर नहीं सका। भले ही RAID5 को पूरी तरह से एक ड्राइव पर समता की जानकारी के साथ लागू किया गया था, फिर भी यह किसी एक ड्राइव की विफलता से उबरने में सक्षम होगा। यदि आपका तर्क सही था, तो इसका अर्थ यह होगा कि वितरित समता के साथ, किसी भी ड्राइव के विफल होने पर आपके डेटा का 1/5 वां हिस्सा अपरिवर्तनीय होगा, क्योंकि आपने उस ड्राइव के 1/5 वें हिस्से पर मौजूद समता की जानकारी खो दी थी। वह तर्क सिर्फ गलत है।
मकेन

1
"RAID5 एक समर्पित समता ड्राइव के साथ" RAID 4 है। RAID 4 और RAID 5 के बीच अंतर यह है कि RAID 4 में एक समर्पित समता ड्राइव है और RAID 5 में समता को सभी डिस्क में वितरित किया गया है। यदि समर्पित पैरिटी ड्राइव RAID 4 कॉन्फ़िगरेशन पर विफल हो जाता है, तो समानता को डेटा से फिर से संगठित किया जा सकता है, ठीक वैसे ही जैसे RAID 5 सरणी के विफल ड्राइव पर खोई गई सभी समानता को होता है।
डेविड श्वार्ट्ज
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.