VMware VMFS5 और LUN साइज़िंग - कई छोटे डेटास्टोर्स, या 1 बड़ा डेटास्टोर?


10

VMFS5 के साथ अब VMFS वॉल्यूम के लिए 2TB की सीमा नहीं है, मैं विचार कर रहा हूं कि कौन सा परिदृश्य समग्र रूप से अधिक फायदेमंद होगा: -

  • बड़े आकार के कम LUN, या
  • छोटे आकार के अधिक LUN।

मेरे मामले में, मेरे पास 600GB डिस्क के साथ एक नया 24-डिस्क स्टोरेज सरणी है। मैं RAID10 का उपयोग करूंगा, इसलिए लगभग 7.2TB, और यह तय करने की कोशिश कर रहा हूं कि 1 बड़ा 7TB डेटास्टोर, या 1TB के कई स्टोर के साथ जाना है या नहीं।

प्रत्येक दृष्टिकोण के पेशेवरों और विपक्ष क्या हैं?

अद्यतन : बेशक, मैंने अपनी गणना में गर्म पुर्जों को शामिल करने की उपेक्षा की है, इसलिए यह सिर्फ 7.2TB के तहत होगा, लेकिन सामान्य विचार समान है। :-)

अपडेट 2 : 60 वीएम और 3 होस्ट हैं। हमारे कोई भी वीएम विशेष रूप से I / O गहन नहीं हैं। उनमें से ज्यादातर वेब / ऐप सर्वर हैं, और मॉनिटरिंग (मुनिन / नागिओस), 2 विंडोज डीसी जैसे न्यूनतम लोड और भी चीजें हैं। DB सर्वरों का शायद ही कभी वर्चुअलाइजेशन किया जाता है जब तक कि उनके पास बहुत कम I / O आवश्यकताएं न हों। अभी मुझे लगता है कि हमारे पास एकमात्र वर्चुअल DB सर्वर है जो MSSQL बॉक्स है और उस बॉक्स पर DB <1GB है।

अद्यतन 3 : सरणी और FC कनेक्टिविटी पर कुछ और जानकारी। सरणी एक IBM DS3524 है, प्रत्येक 2GB कैश के साथ 2 नियंत्रक हैं। 4x 8Gbit एफसी बंदरगाहों प्रति नियंत्रक। प्रत्येक ESXi होस्ट में 2x 4Gbit FC HBA होता है।


1
क्या आपको StorageDRS का उपयोग करने के लिए लाइसेंस प्राप्त है?
चॉपर

@ चॉपर 3: वर्तमान में हमारे पास नियमित रूप से एंटरप्राइज लाइसेंस हैं, प्लस नहीं, इसलिए फिलहाल कोई StorageDRS नहीं है।
ThatGraemeGuy

@ThatGraemeGuy इसका क्या संकल्प था?
13

@ नया: दुख की बात है, मुझे याद नहीं आ रहा है। यह बहुत पहले था और मैं एक साल पहले ही उस नौकरी से दूर हो गया। :-( मैं अस्पष्ट रूप से 24-डिस्क सरणी के अनुसार 4 समान आकार के वीएमएफएस डेटा स्टोर बनाना याद रखता हूं और मुझे पता है कि नए सरणियों,
एफडब्ल्यूआईडब्ल्यू

जवाबों:


4

आपने निर्दिष्ट नहीं किया कि आपके पास कितने वीएम हैं या वे क्या करने जा रहे हैं। यहां तक ​​कि उस जानकारी के बिना, मैं एक बड़ा LUN बनाने से बचता हूं जो कि blockize / प्रदर्शन, विवाद और लचीलेपन के कारणों के लिए एक बड़ा LUN हो।


2

मुझे लगता है कि आप सर्वरों को वर्चुअलाइज करने जा रहे हैं, डेस्कटॉप नहीं, सब ठीक है? आगे मैं मान रहा हूँ कि आप अपने भंडारण तक पहुँचने के लिए कई ESX / ESXi सर्वर का उपयोग करने जा रहे हैं और उन्हें vCenter सर्वर द्वारा प्रबंधित किया जा रहा है।

LUN आकार और VMFS की संख्या पर निर्णय लेते समय आप कई कारकों को संतुलित कर रहे हैं: प्रदर्शन, कॉन्फ़िगरेशन लचीलापन, और संसाधन उपयोग, जबकि आपके बुनियादी ढांचे के अधिकतम कॉन्फ़िगरेशन द्वारा समर्थित है।

आपको 1 VM से 1 LUN / VMFS मैपिंग के साथ सर्वश्रेष्ठ प्रदर्शन मिल सकता है। एक ही वीएमएफएस पर मशीनों के बीच कोई प्रतिस्पर्धा नहीं है, कोई लॉकिंग विवाद नहीं है, प्रत्येक लोड को अलग किया जाता है और सभी को goood कहा जाता है। समस्या यह है कि आप LUN की एक ungodly राशि का प्रबंधन करने जा रहे हैं, अधिकतम सीमा तक हिट कर सकते हैं, VMFS आकार बदलने और माइग्रेशन के साथ सिरदर्द का सामना कर सकते हैं, संसाधनों को कम कर दिया है (VMFS पर एकल प्रतिशत मुक्त स्थान जोड़ता है) और आम तौर पर एक ऐसी चीज़ बनाते हैं जो प्रबंधन के लिए अच्छा नहीं है।

अन्य चरम सब कुछ होस्ट करने के लिए नामित एक बड़ा VMFS है। आपको इस तरह से सर्वोत्तम संसाधनों का उपयोग मिलेगा, यह तय करने में कोई समस्या नहीं होगी कि क्या तैनात किया जाए और वीएमएफएस एक्स के साथ एक गर्म स्थान होने पर समस्या हो, जबकि वीएमएफएस वाई निष्क्रिय है। लागत एकत्रित प्रदर्शन होगा। क्यों? ताला लगाने के कारण। जब कोई ESX किसी दिए गए VMFS को लिख रहा होता है, तो अन्य को उस समय के लिए बंद कर दिया जाता है जब IO को पूरा करने में समय लगता है और फिर से प्रयास करना पड़ता है। इससे प्रदर्शन पर खर्च होता है। खेल के मैदान / परीक्षण और विकास के वातावरण के बाहर यह भंडारण विन्यास के लिए गलत दृष्टिकोण है।

स्वीकृत अभ्यास, कई वीएम को होस्ट करने के लिए डेटास्टोर्स को पर्याप्त रूप से बनाने के लिए है, और उपलब्ध भंडारण स्थान को उचित आकार के खंडों में विभाजित करना है। वीएम की संख्या वीएम पर निर्भर करती है। आप वीएमएफएस पर एक या दो महत्वपूर्ण प्रोडक्शन डेटा बेस चाहते हैं, लेकिन एक ही डेटास्टोर पर तीन या चार दर्जन टेस्ट और डेवलपमेंट मशीन की अनुमति दे सकते हैं। प्रति डेटास्टोर पर वीएम की संख्या आपके हार्डवेयर (डिस्क आकार, आरपीएम, कंट्रोलर्स कैश आदि) और एक्सेस पैटर्न (किसी भी दिए गए प्रदर्शन स्तर के लिए आप मेल सर्वरों की तुलना में एक ही वीएमएफएस पर बहुत अधिक वेब सर्वर होस्ट कर सकते हैं) पर निर्भर करती है।

छोटे डेटास्टोर्स का एक और लाभ भी है: वे आपको भौतिक रूप से प्रति डेटास्टोर बहुत अधिक वर्चुअल मशीनों को cramming करने से रोकते हैं। आधे-टेराबाइट स्टोरेज पर प्रबंधन दबाव की कोई भी मात्रा वर्चुअल डिस्क के अतिरिक्त टेराबाइट पर फिट नहीं होगी (कम से कम जब तक वे पतले प्रावधान और कटौती के बारे में नहीं सुनते हैं)।

एक और बात: जब उन डेटास्टोर्स को बनाना एक एकल ब्लॉक आकार पर मानकीकृत होता है। यह बाद में बहुत सी चीजों को सरल करता है, जब आप डेटासोर्स पर कुछ करना चाहते हैं और बदसूरत "संगत नहीं" त्रुटियों को देखते हैं।

अपडेट : DS3k में सक्रिय / निष्क्रिय नियंत्रक होंगे (अर्थात किसी दिए गए LUN को नियंत्रक ए या बी द्वारा सेवा दी जा सकती है, गैर-मालिक नियंत्रक नियंत्रक प्रदर्शन दंड के माध्यम से LUN तक पहुंच सकते हैं), इसलिए यह LUN की समान संख्या के लिए भुगतान करेगा। , समान रूप से नियंत्रकों के बीच वितरित किया जाता है।

मैं कल्पना कर सकता हूं कि 15 वीएम / एलयूएन के साथ अंतरिक्ष में 20 या तो बढ़ने की शुरुआत हो सकती है।


अभी तक वीएमएफएस 5 के साथ पहले की तुलना में कहीं कम लॉकिंग विवाद है।
चॉपर

VMs और स्टोरेज सिस्टम पर कुछ अतिरिक्त जानकारी जोड़ी गई।
ThatGraemeGuy

1

आपके प्रश्न का संक्षिप्त उत्तर है: यह सब इस बात पर निर्भर करता है कि आपके IO पैटर्न क्या हैं, और यह आपके पर्यावरण के लिए अद्वितीय होगा।

मेरा सुझाव है कि आप यहाँ एक नज़र है http://www.yellow-bricks.com/2011/07/29/vmfs-5-lun-sizing/ क्योंकि इससे आपको अपने प्रत्याशित IOPS पर विचार करने में मदद मिल सकती है और कितने LUNS उपयुक्त हो सकते हैं। उस ने कहा, यदि आपकी सावधानी के पक्ष में गलत थे, तो कुछ लोग कई LUNS होने की सलाह देंगे (यदि पिछले उत्तर के लिए मेरा सुधार स्वीकृत है, तो मेरी टिप्पणियों को सरणी पक्ष पर LUN IO कतारें देखें)। मैं सहमत हूं, लेकिन फिर एक एकल / कुछ वीएमएफएस संस्करणों में उन्हें एक साथ सीमित करने के लिए आगे बढ़ना होगा (एक्सयूडी के बारे में विश्वास न करें, और अन्य वीएमएफएस सीमाएं http://virtualgeek.typepad.com/virtual_geek/2009/03 /vmfs-best-practices-and-counter-fud.html)। इससे vSphere के भीतर एकल / कुछ डेटास्टोर्स के प्रबंधन का लाभ होगा, क्योंकि vSphere स्वचालित रूप से प्रत्येक सीमा के पहले ब्लॉक से शुरू होने वाले उपलब्ध extents पर VMs को संतुलित करता है, प्रदर्शन लाभ आपके IO को कई Ls पर फैला रहा है।

विचार करने के लिए कुछ और ... आप कहते हैं कि वीएम में से कोई भी विशेष रूप से IO गहन नहीं है। इसे देखते हुए, आप दोनों दुनिया (स्थान और गति) का सर्वश्रेष्ठ प्राप्त करने के लिए, RAID5 और RAID10 के संयोजन पर विचार करना पसंद कर सकते हैं।

इसके अलावा, यदि आपके वीएम कई वीएमडीकेके के साथ कॉन्फ़िगर किए गए हैं, तो ओएस और एप्लिकेशन आईओ पैटर्न उन वर्चुअल टूक्स (यानी ओएस, वेब, डीबी, लॉग्स, आदि प्रत्येक एक अलग वीएमडीके पर) के साथ फैलते हैं, तो आप अपने वीएमडीके का पता लगा सकते हैं। उस भौतिक LUN की IO क्षमताओं से मिलान करने के लिए एक अलग डेटास्टोर (उदा। RAID5 पर OS, RAID10 पर लॉग)। अंतर्निहित डिस्कों के यांत्रिक व्यवहार का लाभ उठाने के लिए इसके समान IO पैटर्न को एक साथ रखने के बारे में सभी, ताकि, उदाहरण के लिए, एक VM में लॉग लिखता है दूसरे वीएम में आपके वेब पढ़ने की दर को प्रभावित नहीं करता है।

FYI करें ... आप DB सर्वर को सफलतापूर्वक वर्चुअलाइज कर सकते हैं, आपको बस IO पैटर्न और IOPS दरों का विश्लेषण करने और एक उपयुक्त LUN के लिए IO को लक्षित करने की आवश्यकता है; IO पैटर्न और IOPS के बारे में सभी जानते हुए भी कि LUN पहले से ही कर रहा है। यही कारण है कि कई डीबीए खराब डीबी प्रदर्शन के लिए वर्चुअलाइजेशन को दोष देते हैं ... क्योंकि उन्होंने आईओ / आईओपीएस की सावधानीपूर्वक गणना नहीं की थी कि जब वे एक साझा एलयूएन पर डालते हैं तो कई सर्वर उत्पन्न होंगे (यानी यह एडिंस की गलती है, वर्चुअलाइजेशन की गलती नहीं है। )।


0

प्रत्येक वॉल्यूम (LUN) की अपनी कतार की गहराई है, इसलिए IO विवाद से बचने के लिए, बहुत सारे कार्यान्वयन अधिक छोटे LUN का उपयोग करते हैं। उस ने कहा, आप डेटासोर स्पैन LUN को काफी आसानी से बना सकते हैं। बड़े (और कम) VMWare डेटास्टोर्स का नुकसान, जहाँ तक मुझे पता है, कि आप VMs की संख्या पर कुछ सीमाओं में चल सकते हैं जो एक साथ हो सकते हैं।


0

एक और विचार नियंत्रक प्रदर्शन है। मैं आपके SAN को विशेष रूप से नहीं जानता, लेकिन सबसे अधिक अगर सभी SAN को यह आवश्यक नहीं है कि एक LUN एक समय में एक ही नियंत्रक के स्वामित्व में है। आप सिस्टम पर पर्याप्त LUN रखना चाहते हैं ताकि आप नियंत्रकों के बीच अपने कार्यभार को संतुलित कर सकें।

उदाहरण के लिए, यदि आपके पास केवल एक LUN था, तो आप केवल एक समय में एक सक्रिय नियंत्रक का उपयोग करेंगे। दूसरा बेकार बैठ जाएगा क्योंकि उसके पास करने के लिए कुछ नहीं होगा।

यदि आपके पास दो LUN थे, लेकिन एक दूसरे की तुलना में बहुत अधिक व्यस्त था, तो आप दोनों नियंत्रकों का उपयोग कर रहे होंगे, लेकिन समान रूप से नहीं। जब आप अधिक LUN जोड़ते हैं तो नियंत्रक कार्यभार को अधिक समान रूप से साझा करते हैं।

आपके लिए विशिष्ट सलाह:

प्रदर्शन आवश्यकताओं के संदर्भ में आपके वीएम सभी अपेक्षाकृत समान हैं। मैं दो LUN बनाऊंगा, एक प्रति नियंत्रक। वीएम को पहले LUN पर रखना शुरू करें, और समय के साथ अपने I / O विलंबता और कतार की गहराई को मापें क्योंकि VMs में बसते हैं। अभी तक LUN का उपयोग न करें। LUN 1 भरना जारी रखें। आप या तो एक बिंदु पर पहुंच जाएंगे, जहां आपको प्रदर्शन संकेतक दिखाई देने लगेंगे कि LUN भरा हुआ है, या आपने अपने आधे VM को उस LUN में स्थानांतरित कर दिया है, और अभी भी प्रदर्शन बनाए रखा है।

यदि आपको प्रदर्शन संबंधी समस्याएं दिखाई देती हैं, तो मैं 30% VMs को LUN 1 से हटाकर उन्हें LUN 2 में ले जाऊंगा। फिर उसी तरह LUN 2 को भरना शुरू करें। यदि आवश्यक हो तो LUN 3 पर जाएं ... क्या इसका कोई मतलब है? विचार किसी दिए गए LUN पर अधिकतम वीएम घनत्व प्राप्त करने के साथ-साथ ठगना कमरे के लिए लगभग 30% ओवरहेड है।

मैं किसी भी भारी मार वीएम के लिए "उच्च प्रदर्शन" LUN की एक जोड़ी भी बनाऊंगा। फिर से, कार्यभार साझा करने के लिए एक प्रति नियंत्रक।


-1

ऊपर आपके स्पष्टीकरण के आधार पर, आपको 1 डेटास्टोर के साथ ठीक होना चाहिए। 60 vm के 3 होस्ट्स खराब नहीं हैं (20: 1)। हालाँकि, मैं आपको HBA को 8Gb में अपग्रेड करने की सलाह दूंगा, अगर कम से कम एक होस्ट पर आर्थिक रूप से संभव हो, बशर्ते आपका फाइबर स्विच न्यूनतम 8Gb स्विच हो।

यह कहा जा रहा है, मैं कम से कम 2 बनाऊंगा अगर 3 डेटासोर्स नहीं है सरणी पर। 1 डेटास्टॉर प्रति होस्ट, सभी सर्वर vMotion के लिए दूसरों को एक्सेस करने के साथ। मुझे आईबीएम सरणी के बारे में ज्यादा जानकारी नहीं है; EMC के साथ मैं प्रत्येक डेटास्टोर के लिए 3 LUN के साथ एक एकल RAID10 समूह बनाऊंगा। इस सेटअप के साथ, 8Gb HBA के साथ होस्ट आपके उच्च I / O सिस्टम के लिए बहुत अच्छा होगा।

आप 1 डेटास्टोर / सर्वर कर सकते हैं, और कुछ उदाहरण हैं जो मैं खुद करता हूं, लेकिन मैं केवल ऐसा करता हूं कि विशेष सर्वर के लिए SAN प्रतिकृति। जब आप इसे सेट करते हैं, तो vMotion के लिए 9 सर्वरों पर 87 विभिन्न डेटास्टोर्स का प्रबंधन करना दूभर हो जाता है! मेरे vm के अधिकांश साझा डेटास्टोर्स में 5-10 सर्वर हैं, जिनके आधार पर उन्हें कितनी जगह की आवश्यकता है।

एक अंतिम नोट। यदि आपके पास किसी भी प्रकार के सर्वर फेलओवर जोड़ी / क्लस्टर या लोड संतुलित हैं, तो आप उन्हें अलग-अलग डेटास्टोर्स में चाहते हैं। आप नहीं चाहते कि डेटास्टोर विफल हो, और फिर कोई सर्वर नहीं छोड़ा जाए। बेशक, यदि आप सरणी खो देते हैं, तो आप सब कुछ खो चुके हैं, लेकिन यही कारण है कि हम बैकअप लेते हैं, है ना?


2
मुझे यह विश्वास करने में कठिन समय है कि ओपी को 2x4Gb बैंडविड्थ या 1x 4Gb से अधिक की आवश्यकता होगी। क्या आप बता सकते हैं कि यह अपग्रेड इसके लायक क्यों होगा, एक तरफ से "अधिक हमेशा बेहतर होता है"? इसके अलावा, 3 डेटास्टोर्स बनाना एक अच्छा संतुलन लगता है, लेकिन यह कहना "एक प्रति होस्ट" भ्रामक है, क्योंकि जाहिर है कि सभी डेटास्टोर्स सभी होस्ट द्वारा सुलभ होंगे। अन्यथा आप स्टोरेज vMotion, vMotion या HA ... का उपयोग नहीं कर सकते हैं ...
जेरेमी

मैं नहीं कह रहा हूँ कि बोर्ड में 8Gb जोड़ें, जैसा कि मैंने कहा, यह एक सिफारिश है, आवश्यकता नहीं है। 2x4Gb महान है, और मैं कभी भी 1x4Gb नहीं करूंगा क्योंकि आपको अनावश्यक पथ की आवश्यकता है। ऐसा होने पर किसी भी उच्चतर I / O सिस्टम के विस्तार की अनुमति मिलती है। हेक, मैं वर्तमान में 2x4Gb HBA के साथ हमारे एक्सचेंज सिस्टम को चलाता हूं, लेकिन उनके पास प्रति होस्ट केवल 3-4 वीएम है।
ARivera3483
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.