यहाँ प्रश्न में सिर्फ ESXi की तुलना में बहुत अधिक है,
- प्रत्येक VM 4GBs + "ओवरहेड" का उपभोग करेगा, जिसे यहां प्रलेखित किया गया है । यह वीसीपीयू, + मेमोरी आवंटित पर निर्भर करता है। न्यूनतम प्रत्येक वीएम 4261.98 एमबी (4096 + 165.98) का उपयोग करेगा
- ESXi की अपनी मेमोरी ओवरहेड है, यह हार्डवेयर पर निर्भर है। सबसे आसान विकल्प vSphere क्लाइंट में सिस्टम मेमोरी उपयोग को देखना है । मेमोरी से मुझे याद है कि यह 1.3GB के निशान के आसपास है, लेकिन जैसा कि कहा गया है कि यह हार्डवेयर पर बहुत निर्भर है।
स्मृति आबंटन और अतिग्रहण की व्याख्या
ध्यान दें कि हाइपरविजर उस मेमोरी अपफ्रंट को आवंटित नहीं करेगा , यह VM के उपयोग पर निर्भर है। हालाँकि, यह समझने योग्य है कि क्या होगा वीएम को आवंटित करने और उन्हें आवंटित स्मृति का उपयोग करने का प्रयास करना चाहिए।
आपके वीएम + होस्ट का उपयोग करने की अधिकतम कोशिश लगभग होगी, 55 जीबी का मील भिन्न हो सकता है
- ESXi द्वारा उपयोग किए गए 1.3 जीबी
- 4261.98 एमबीएम * 13 वीएम द्वारा उपयोग किया जाता है
खाते में लेने के लिए एक और पहलू है और वह है मेमोरी थ्रेसहोल्ड। डिफ़ॉल्ट रूप से VMware का लक्ष्य 6% निःशुल्क (उच्च मेमोरी थ्रेशोल्ड) होगा। तो 55 जीबी की इस्तेमाल की गई मेमोरी को घटाकर ~ 45 जीबी करने की जरूरत है
इसका मतलब है कि मेजबान के पास लगभग 10,500 एमबी की मेमोरी होगी, जिसे वीएम को आवंटित की गई मेमोरी का उपयोग करना चाहिए। ईएसएक्स तीन चीजें हैं जो अतिरिक्त 10.5 जीबी का पता लगाने के लिए करता है।
मेमोरी रिक्लेमेशन मेथड्स
- पारदर्शी पेज साझा करना
- मेमोरी बैलूनिंग
- हाइपरवाइजर स्वैपिंग
आपको VMware® ESX ™ सर्वर में मेमोरी रिसोर्स मैनेजमेंट को समझना और पढ़ना चाहिए ।
बड़ी संख्या में कारकों के आधार पर, सभी तीन वसीयत / एक से अधिक प्रतिबद्ध मेजबान पर हो सकता है। ओवर कमिटिंग के प्रभाव को समझने के लिए आपको अपने एनवायरमेंट का परीक्षण करने और इन मेट्रिक्स की निगरानी करने की आवश्यकता है।
कुछ मोटे नियम जो जानने लायक हैं (उपरोक्त सभी कागजों और अन्य स्रोतों में)।
- पारदर्शी पृष्ठ साझाकरण VMs के लिए नहीं होता है जो 2/4 MB पृष्ठों का उपयोग करते हैं। जैसा कि आपने अपने विंडोज वीएम को 4096 एमबी आवंटित किया है, वे डिफ़ॉल्ट रूप से 2/4 एमबी पृष्ठों का उपयोग करेंगे (पीएई निर्भर)। केवल मेमोरी के दबाव में VMware 4 केबी पेजों के बड़े पेजों को तोड़ देगा जिन्हें साझा किया जा सकता है। TPS एक निश्चित दर पर बेकार सीपीयू साइकिल का उपयोग करने और मेमोरी पेज स्कैन करने पर निर्भर करता है। यह स्मृति को अपेक्षाकृत धीरे-धीरे लौटाता है (मिनट के बजाय एक घंटा सोचें)। तो एक बूट तूफान का मतलब है कि टीपीएस आपकी मदद नहीं करेगा। तीनों में से, इसका प्रदर्शन सबसे कम है। दस्तावेज़ से अधिक,
हार्डवेयर-असिस्टेड मेमोरी वर्चुअलाइजेशन में (उदाहरण के लिए, इंटेल ईपीटी हार्डवेयर असिस्ट और एएमडी आरवीआई हार्डवेयर असिस्ट [6]) सिस्टम, ईएसएक्स स्वचालित रूप से बड़े होस्ट फिजिकल पेज (2 एमबी सन्निहित मेमोरी क्षेत्र) के साथ नियमित पेजों के लिए 4KB के बजाय अतिथि भौतिक पेज वापस करेगा। टीएलबी की कमी के कारण बेहतर प्रदर्शन। ऐसी प्रणालियों में, ESX उन बड़े पृष्ठों को साझा नहीं करेगा क्योंकि: 1) समान सामग्री वाले दो बड़े पृष्ठों को खोजने की संभावना कम है, और 2) 2MB पृष्ठ के लिए बिट-बाय-बिट तुलना करने का ओवरहेड इससे कहीं अधिक बड़ा है एक 4KB पेज के लिए। हालाँकि, ESX अभी भी प्रत्येक बड़े पृष्ठ के भीतर 4KB पृष्ठों के लिए हैश बनाता है। चूंकि ESX होस्ट स्वैपिंग के दौरान बड़े पृष्ठों को स्वैप नहीं करेगा, बड़े पृष्ठ को छोटे पृष्ठों में तोड़ा जाएगा, ताकि इन पूर्व-निर्मित हैश का उपयोग छोटे पृष्ठों को साझा करने से पहले किया जा सके। संक्षेप में, हम तब तक हार्डवेयर असिस्टेड मेमोरी वर्चुअलाइजेशन सिस्टम के लिए किसी भी पेज शेयरिंग का अवलोकन नहीं कर सकते हैं, जब तक कि होस्ट मेमोरी ओवरकमलाइज नहीं हो जाती है।
अगले में बैलूनिंग किक (थ्रेसहोल्ड कॉन्फ़िगर करने योग्य हैं, डिफ़ॉल्ट रूप से यह तब होता है जब होस्ट में 6% से अधिक मेमोरी फ्री (उच्च और सॉफ़्टवेयर के बीच) है। सुनिश्चित करें कि आप ड्राइवर स्थापित करते हैं, और जावा और प्रबंधित अनुप्रयोगों के लिए सामान्य रूप से देखते हैं। ओएस के पास कचरा कलेक्टर क्या करेगा इसके बारे में कोई जानकारी नहीं है और यह उन पृष्ठों को मार देगा जो डिस्क पर स्वैप किए गए हैं। यह उन सर्वरों के लिए असामान्य अभ्यास नहीं है जो जावा अनुप्रयोगों को विशेष रूप से स्वैप करने के लिए पूरी तरह से निष्क्रिय कर देते हैं ताकि यह सुनिश्चित न हो। VSphere Memory Management, Specjbb के पेज 17 पर एक नजर डालें
तीन तरीकों से हाइपरवाइजर स्वैपिंग , केवल एक ही है जो निर्धारित समय में हाइपरवाइजर के लिए "मेमोरी" की गारंटी देता है । इसका उपयोग तब किया जाएगा जब 1 और 2 हार्ड थ्रेसहोल्ड (2% मुक्त मेमोरी के डिफ़ॉल्ट) के नीचे बने रहने के लिए पर्याप्त मेमोरी न दें । जब आप प्रदर्शन मेट्रिक्स के माध्यम से पढ़ते हैं (अपना खुद का), तो आपको एहसास होगा कि यह तीनों में से सबसे खराब प्रदर्शन है। हर कीमत पर इससे बचने के उद्देश्य से प्रदर्शन प्रभाव लगभग सभी अनुप्रयोगों के दोहरे अंक प्रतिशत पर बहुत ध्यान देने योग्य होगा
निम्न के बारे में पता करने के लिए एक और राज्य है (डिफ़ॉल्ट रूप से 1%)। मैनुअल से यह आपके प्रदर्शन में भारी कटौती कर सकता है,
एक दुर्लभ मामले में जहां होस्ट फ्री मेमोरी कम सीमा से नीचे चला जाता है, हाइपरवाइजर स्वैपिंग और मेमोरी कम्प्रेशन के माध्यम से मेमोरी को पुनः प्राप्त करना जारी रखता है, और इसके अलावा सभी वर्चुअल मशीनों के निष्पादन को अवरुद्ध करता है जो अपने लक्ष्य मेमोरी आवंटन से अधिक मेमोरी का उपभोग करते हैं।
सारांश
तनाव का मुख्य बिंदु यह है कि व्हाइटपॉपर से यह अनुमान लगाना असंभव है कि आपका वातावरण कैसा व्यवहार करेगा।
- TPS आपको कितना दे सकता है? (यह निर्भर करता है कि आपके VM उनके OS, सर्विस पैक और रनिंग एप्लिकेशन के समान कैसे हैं)
- आपके वीएम आपकी मेमोरी को कितनी जल्दी आवंटित करते हैं? जितनी जल्दी वे करते हैं, उतनी ही अधिक संभावना है कि कम प्रभावशाली स्मृति पुनर्स्मरण योजना से पहले आप अगली सीमा तक जा सकते हैं।
- आवेदन के आधार पर, प्रत्येक मेमोरी रिक्लेमेशन स्कीम का व्यापक रूप से अलग-अलग प्रभाव होगा।
अपने औसत परिदृश्यों का परीक्षण करें, आप ९ ५% प्रतिशत परिदृश्य हैं, और अंत में अधिकतम समझने के लिए कि आपका वातावरण कैसे चलेगा।
संपादित करें 1
वर्थ 4 (या 4.1 को याद नहीं कर सकते) के साथ वर्थ जोड़ना, अब हाइपवाइज़र स्वैप को स्थानीय डिस्क पर रखना संभव है, लेकिन फिर भी वीएम को विमोशन करना। यदि आप साझा संग्रहण का उपयोग कर रहे हैं, तो मैं आपको हाइपरवाइजर स्वैप फ़ाइल को स्थानीय डिस्क पर डिफ़ॉल्ट रूप से ले जाने की दृढ़ता से सलाह देता हूं। यह सुनिश्चित करता है कि जब एक मेजबान गंभीर स्मृति दबाव में होता है, तो यह एक ही साझा भंडारण पर अन्य सभी vSphere होस्ट / वीएम को प्रभावित करने का अंत नहीं करता है।
संपादित करें 2
टिप्पणियों के आधार पर, तथ्य यह है कि ESX बोल्ड में मेमोरी अपफ्रंट आवंटित नहीं करता है ...
संपादित करें 3
मेमोरी थ्रेसहोल्ड के बारे में थोड़ा और समझाया।