आंशिक रूप से पूर्ण RAM लैग का कारण क्यों बनता है?


53

आंशिक रूप से पूर्ण रैम (चलो 80% कहते हैं), डिवाइस को बहुत अधिक अंतराल देता है, भले ही अधिक डेटा संग्रहीत करने के लिए कुछ स्थान उपलब्ध हो? मुझे उम्मीद है कि यह 99% तक अच्छा काम करता रहेगा।

मुझे लगता है कि मोबाइल पर पीसी की तुलना में अधिक है, क्योंकि इसमें छोटी रैम है, जैसे मेरे मोबाइल में 2 जीबी रैम है; जब मेरे पास 1 जीबी से कम रैम मुफ्त है, तो यह बहुत अधिक है! ऐसा क्यों होता है, भले ही अभी भी इसका उपयोग करने के लिए ~ 1 जीबी है?


28
मुझे संदेह था कि आप मान रहे हैं कि जो रैम उपलब्ध है उसका उपयोग नहीं किया जा रहा है। इसलिए आप 20% RAM उपलब्ध देखें और सोचें कि केवल 80% RAM का उपयोग किया जा रहा है। यह गलत है, रैम का उपयोग और उपलब्ध दोनों किया जा सकता है। (उदाहरण के लिए, अब मैं जिस मशीन का उपयोग कर रहा हूं उसमें 32 जीबी रैम और 21.1 जीबी उपलब्ध हैं, लेकिन केवल 1.8 जीबी ही मुफ्त हैं।)
डेविड श्वार्ट्ज

2
आप मेरे RAM के साथ मेरे HDD मुक्त स्थान का मतलब है? वास्तव में नहीं।
मोहम्मद नौरेलिन

3
उन्हें बदला जा सकता है, निश्चित। लेकिन इससे प्रदर्शन पर भारी नकारात्मक प्रभाव पड़ेगा - ठीक वैसे ही जैसे आप देख रहे हैं। यदि काम करने वाला सेट रैम से अधिक है, तो प्रदर्शन भयानक होगा, चाहे कितनी भी रैम उपलब्ध हो।
डेविड श्वार्ट्ज

3
आपको क्या लगता है कि यह रैम प्रतिशत है जो डिवाइस को शिथिल बना देता है?
enkryptor

4
@MohammedNoureldin मुझे लगता है कि एक कारण होना चाहिए कि आपकी रैम व्यस्त है (कई प्रक्रियाएं काम कर रही हैं और कुछ कर रही हैं)। यह एक ही कारण हो सकता है कि डिवाइस क्यों पिछड़ रहा है। रैम लोडिंग सिर्फ एक लक्षण हो सकता है, न कि इसका कारण।
enkryptor

जवाबों:


70

यहां बहुत कुछ शामिल है, लेकिन मैं इसे केवल एक ओएस के बारे में लागू करने के लिए और बस एक तरह से समझाने की कोशिश करूंगा।

यहाँ 2 मूल सिद्धांत हैं:

  1. सब कुछ जो राम में होने की आवश्यकता है और उन चीजों का योग जो राम में होने से लाभ होगा, लगभग हमेशा राम के आकार से अधिक होता है। रैम में जिन चीज़ों से लाभ होगा, उनमें प्रोसेस वर्किंग सेट और स्टैंडबाई सूची शामिल हैं। उत्तरार्द्ध में डेटा और कोड होता है जो एक समय सक्रिय उपयोग में था लेकिन तब से निष्क्रियता में है। इसका बहुत अधिक उपयोग फिर से किया जाएगा, कुछ जल्द ही। इसलिए इसे रैम में रखना फायदेमंद है। यह मेमोरी एक प्रकार के कैश के रूप में कार्य करती है लेकिन वास्तव में आवश्यक नहीं है इसलिए उपलब्ध मेमोरी की श्रेणी में है। मुफ्त मेमोरी की तरह इसे किसी भी प्रोग्राम को जल्दी से दिया जा सकता है, जिसे इसकी आवश्यकता है। प्रदर्शन के हितों में स्टैंडबाय मेमोरी बड़ी होनी चाहिए।

  2. मेमोरी ब्लॉकों के उपयोग की आवृत्ति यादृच्छिक से दूर है लेकिन काफी सटीकता के साथ भविष्यवाणी की जा सकती है। मेमोरी को ब्लॉकों में विभाजित किया जाता है, अक्सर 4K बाइट्स। कुछ ब्लॉकों को प्रति सेकंड कई बार एक्सेस किया जाता है जबकि अन्य को कई मिनटों, घंटों, दिनों, या हफ्तों तक भी एक्सेस नहीं किया गया है, अगर सिस्टम लंबे समय से उपलब्ध है। इन 2 चरम सीमाओं के बीच उपयोग की एक विस्तृत श्रृंखला है। मेमोरी मैनेजर को पता है कि हाल ही में कौन से ब्लॉक एक्सेस किए गए हैं और कौन से नहीं। यह एक उचित धारणा है कि एक मेमोरी ब्लॉक जिसे हाल ही में एक्सेस किया गया है, जल्द ही फिर से आवश्यक होगा। ऐसी मेमोरी जिसे हाल ही में एक्सेस नहीं किया गया है, उसकी आवश्यकता शायद कभी भी नहीं होगी। लंबे अनुभव ने इसे एक मान्य सिद्धांत साबित किया है।

स्मृति प्रबंधक दूसरे सिद्धांत का लाभ उठाता है ताकि पहले के अवांछनीय परिणामों को कम किया जा सके। ऐसा करने के लिए यह रैम में हाल ही में एक्सेस किए गए डेटा को रखने का एक संतुलन कार्य करता है, जबकि मूल फ़ाइलों या पेजफाइल में शायद ही कभी डेटा का उपयोग किया जाता है।

जब रैम भरपूर होता है तो यह संतुलन कार्य आसान होता है। हाल ही में उपयोग किए गए अधिकांश डेटा को रैम में नहीं रखा जा सकता है। यह एक अच्छी स्थिति है।

काम का बोझ बढ़ने पर चीजें और अधिक जटिल हो जाती हैं। उपयोग में डेटा और कोड का कुल योग बड़ा है लेकिन रैम का आकार समान है। इसका मतलब है कि इसका एक छोटा सबसेट रैम में रखा जा सकता है। हाल ही में उपयोग किए गए कुछ कम डेटा अब रैम में नहीं हो सकते हैं, लेकिन उन्हें डिस्क पर छोड़ दिया जाना चाहिए। स्मृति प्रबंधक सक्रिय उपयोग और उपलब्ध स्मृति में स्मृति के बीच एक अच्छा संतुलन बनाए रखने के लिए बहुत प्रयास करता है। लेकिन वर्कलोड बढ़ने पर मेमोरी मैनेजर रनिंग प्रक्रियाओं को अधिक उपलब्ध मेमोरी देने के लिए मजबूर हो जाएगा। यह एक अच्छी स्थिति नहीं है लेकिन मेमोरी मैनेजर के पास कोई विकल्प नहीं है।

समस्या यह है कि प्रोग्राम चलाने में रैम को रैम और डेटा से समय लगता है। जब रैम भरपूर होता है तो यह बहुत बार नहीं होता है और इस पर ध्यान भी नहीं जाता है। लेकिन जब RAM का उपयोग उच्च स्तर तक पहुंच जाता है तो यह बहुत अधिक बार होता है। स्थिति इतनी खराब हो सकती है कि रैम से डेटा को स्थानांतरित करने के लिए अधिक समय खर्च किया जाता है और वास्तव में इसका उपयोग करने में खर्च किया जाता है। यह जोर देने वाली बात है, मेमोरी मैनेजर बचने की बहुत कोशिश करता है लेकिन उच्च कार्यभार के साथ अक्सर इसे टाला नहीं जा सकता है।

स्मृति चर आपके पक्ष में है, हमेशा प्रतिकूल परिस्थितियों में भी इष्टतम प्रदर्शन को बनाए रखने के लिए सबसे अच्छा है। लेकिन जब काम का बोझ बढ़िया होता है और उपलब्ध मेमोरी कम चलती है तो उसे काम करते रहने के लिए बुरा काम करना चाहिए। यह वास्तव में सबसे महत्वपूर्ण बात है। प्राथमिकता पहले चीजों को चालू रखने की है, फिर जितनी जल्दी हो सके बनाने की है।


1
आपके उत्तर ने मुझे बहुत मदद की, धन्यवाद! यह memory mangerमेरे OSअधिकार का एक हिस्सा है ? इसलिए अगर मैं पॉइंटर्स और इन बहुत निचले स्तर की चीजों से निपट रहा हूं, तो क्या यह अभी भी पेजिंग कर पाएगी?
मोहम्मद नोरेल्डिन

7
मेमोरी मैनेजर OS का हिस्सा है। पेजिंग मेमोरी मैनेजर का एक मूल कार्य है और यह आपके लिए आवश्यक है क्योंकि श्वास आपके लिए है और मैं इसे रोक नहीं सकता।
LMiller7

2
@MohammedNoureldin: जब आप उपयोगकर्ता-स्पेस एप्लिकेशन (जिनकी मेमोरी दृश्य कर्नेल और अन्य प्रक्रियाओं से अलग-थलग हैं) लिख रहे हैं, तो आप सीधे भौतिक मेमोरी तक नहीं पहुँच सकते । आप जो भी एक्सेस कर सकते हैं वह मेमोरी पर एक व्यू है जिसे मैनेज किया गया है - आपने अनुमान लगाया है - मेमोरी मैनेजर जिसमें पेजिंग भी शामिल है। मेमोरी पॉइंटर्स केवल मेमोरी व्यू के एड्रेस स्पेस में पॉइंट्स को संदर्भित करते हैं। वे एक भाषा अवधारणा हैं जिसका उपयोग कर्नेल और यूजर स्पेस कोड दोनों में किया जाता है लेकिन इसका मतलब यह नहीं है कि दोनों मेमोरी दृश्य समान हैं। कर्नेल MM के साथ स्मृति प्रबंधन प्रक्रिया को भ्रमित न करें!
डेविड फ़ॉस्टर

6
यह 'स्पष्ट' या 'अच्छी तरह से जाना जाता है', लेकिन शायद अभी भी इस उत्तर में जोड़ा जाना चाहिए: मेमोरी (रैम) हार्ड ड्राइव की तुलना में 1000x तेज क्रम में है (अच्छी तरह से, बहुत सी चीजों पर निर्भर है, उदाहरण के लिए ssd / ide / sata, आदि)। ओएस रैम (+ कैश) से कोड निष्पादित करता है, डिस्क से नहीं। जब मेमोरी कम हो जाती है, और ओएस को मेमोरी से डिस्क तक "अप्रयुक्त" ("अप्रयुक्त") भागों के "स्वैप" करने की आवश्यकता होती है, तो राम को कुछ और निष्पादित करने के लिए, यह समय का बहुत कुछ लेगा (स्वैपिंग), और यदि ऐसा अक्सर होता है (उदाहरण: आपके पास कई कार्यक्रम हैं, तो प्रत्येक को अपने कोड को मेमोरी में लोड करने के लिए स्वैप की आवश्यकता होती है), यह चीजों को बहुत धीमा कर देगा।
ओलिवियर दुलैक

3
हम आमतौर पर "स्वैप" शब्द का उपयोग मेमोरी में कोड लोड करने के लिए नहीं करते हैं। यह आमतौर पर एक "गलती" कहा जाता है। आमतौर पर, "स्वैप" शब्द का उपयोग केवल उन सूचनाओं के लिए किया जाता है जिन्हें रैम से बाहर निकालने से पहले डिस्क पर लिखना होता है।
डेविड श्वार्ट्ज

29

सभी आधुनिक ऑपरेटिंग सिस्टम कैशिंग डेटा के लिए अन्यथा अप्रयुक्त मेमोरी का उपयोग करते हैं ताकि इसे धीमी मेमोरी के बजाय फास्ट रैम से एक्सेस किया जा सके। वे आम तौर पर इसे मुफ्त मेमोरी के रूप में रिपोर्ट करेंगे, क्योंकि एप्लिकेशन कैश को साफ कर सकते हैं और यदि आवश्यक हो तो इसका उपयोग कर सकते हैं, लेकिन यह अभी भी वास्तव में उपयोग किया जा रहा है। इसमें से कम है, कम डेटा कैश किया जा सकता है, और कंप्यूटर धीमा हो जाएगा।


11
वास्तव में, अनुप्रयोगों को कैश को "साफ़" करने की आवश्यकता नहीं है। वे बस ओएस से रैम का अनुरोध करते हैं। ओएस, यह देखते हुए कि इसमें कोई अप्रयुक्त रैम नहीं है, फ़ाइल कैश का कुछ हिस्सा साफ कर देगा और एप्लिकेशन को अब जीरो-आउट रैम देगा। एप्लिकेशन यह नहीं बता सकता है कि रैम कहां से आया है।
MSALERS

5
@MSalters हाँ, मैं सहमत हूँ, एप्लिकेशन RAM के लिए पूछता है और यदि आवश्यक हो तो OS कैश को साफ़ करता है। मैं इसे सरल बनाए रखने की कोशिश कर रहा था।
माइक स्कॉट

यह कुछ स्पष्ट था, लेकिन मैं विवरणों के बारे में थोड़ा अधिक जागरूक हूं, इसलिए मुझे लगता है कि कुछ याद आ रहा है और मुझे अधिक विवरण की आवश्यकता है @Liller उत्तर ने मुझे वास्तव में मदद की, यह बहुत अच्छा होगा यदि आप संशोधित कर सकते हैं इसमें जानकारी।
मोहम्मद नौरेलिन

4

यह उत्तर ज्यादातर संरचना को पुनर्गठित करने और संदेश को स्पष्ट करने के लिए फिर से लिखा गया है। मैंने इसे एक सामुदायिक विकि उत्तर के रूप में भी खोला है; बेझिझक संपादित करें।

पेजिंग एक मेमोरी मैनेजमेंट स्कीम है, जिसके माध्यम से मेमोरी के फिक्स्ड-साइज ब्लॉक्स में उन्हें सौंपी गई प्रक्रिया होती है। जब मेमोरी का उपयोग उच्च स्तर (यानी 80% क्षमता) तक बढ़ जाता है, तो रैम से vRAM (वर्चुअल रैम) तक पेजिंग शुरू हो जाती है।

vRAM सिस्टम स्टोरेज में स्थित है, आमतौर पर हार्ड ड्राइव या अन्य बड़े स्टोरेज स्टोरेज के भीतर।

प्रक्रियाओं को मेमोरी के रूप में चलाने के लिए आपकी हार्ड ड्राइव का हिस्सा सौंपा गया है और वे अपने सेक्शन को RAM के रूप में मानेंगे। यह एक पूरी तरह से सामान्य प्रक्रिया है, हालांकि, जब वीआरएएम से डेटा को स्थानांतरित करने के लिए समय व्यतीत होता है, तो सिस्टम प्रदर्शन कम हो जाता है।

जबकि समर्पित रैम को सीधे सीपीयू से मदरबोर्ड के माध्यम से एक्सेस किया जाता है, जो एक तेज कनेक्शन प्रदान करता है, वर्चुअल रैम को बोर्ड और वीआरएएम के स्थान के बीच केबल बिछाना चाहिए।

हालांकि, यह केवल मामूली प्रदर्शन प्रभाव का कारण बनता है। जब वीआरएएम के लिए पेजिंग की दर में तेजी से वृद्धि होती है (जब रैम समर्पित होता है), तो थ्रेशिंग होती है।

थ्रैशिंग आपके वर्चुअल मेमोरी में मेमोरी के पृष्ठों को जल्दी और तेजी से स्थानांतरित करने का अभ्यास है। यह प्रदर्शन पर एक बड़ा टोल लेता है क्योंकि डेटा प्राप्त करने और संबोधित करने में अधिक समय लगाना पड़ता है।

कहते हैं, आप 30 अंकों की लंबी संख्या लिखना चाहते हैं। आप या तो अपने नोटपैड के साथ अपनी स्क्रीन के बगल में बैठ सकते हैं और इसे लिख सकते हैं (समर्पित मेमोरी का उपयोग करके), या आप 5 के विखंडन को याद करते हैं, अगले कमरे में दौड़ते हैं और इसे अपने नोटपैड पर वहां (वर्चुअल मेमोरी का उपयोग करके) लिखते हैं। दोनों को काम मिल जाता है, लेकिन जो जल्दी होने वाला है?

यहाँ thashing के बारे में और अधिक जानकारी प्राप्त करें !

इस उत्तर के योगदानकर्ताओं के लिए एक बड़ा धन्यवाद , जिसमें डैनियल बी , ज़ेनॉइड और जॉन बेंटले शामिल हैं


3
ऐसा नहीं है कि पिटाई जानबूझकर नहीं की गई है। यह भौतिक स्मृति के लिए पेजिंग और प्रतियोगिता का सिर्फ एक साइड-इफेक्ट है। इसके अलावा, वर्चुअल मेमोरी पेजेज टू डिस्क पर जाकर "बनाया" नहीं जाता है।
डैनियल बी

थ्रैशिंग एक उप-उत्पाद है, सच है, लेकिन कई बार इसकी बेहद उपयोगी है जहां प्रक्रियाएं चलती हैं, जो ग्रिडलॉक को रोकने में मदद करती है। और हां, वर्चुअल मेमोरी बनाई जाने के बजाय कब्जे में है। मैं इसे संपादित करूंगा।
विल

8
नहीं, आप भ्रामक और पेजिंग भ्रमित कर रहे हैं। ट्रैशिंग सिर्फ पैथोलॉजिक हो रहा है।
xenoid

@xenoid पेजिंग एक स्मृति प्रबंधन योजना है; यह कहना पसंद है कि मैं अपनी कार और राजमार्ग प्रणाली के साथ एक हिरण को मारने में भ्रमित हूं। थ्रैशिंग वह प्रक्रिया है जो प्रदर्शन में इस गिरावट का कारण बनती है; हालाँकि, मैं आपसे सहमत हूँ कि यह पेजिंग प्रणाली का एक परिणाम है।
विल

1
टिप्पणियाँ शामिल, विकि उत्तर में, संपादित करने के लिए स्वतंत्र महसूस।
विल

1

ऐसा इसलिए है क्योंकि ओएस को आपके सॉफ़्टवेयर को चालू रखने के लिए बहुत सारे पेजिंग (सक्रिय कार्यक्रमों के लोडिंग पार्ट्स) और स्वैपिंग (रैम में एचडी और इसके विपरीत डेटा चलना) करना पड़ता है। जब नए पृष्ठों को लोड करने की आवश्यकता होती है, जो कि उपलब्ध 20% से अधिक स्थान की आवश्यकता हो सकती है, तो ओएस को रैम में मौजूदा पृष्ठों को स्वैप करना होगा जो इसे जल्द ही उपयोग किए जाने की कम संभावना मानते हैं। विशेष रूप से अन्य कार्यक्रमों की शुरुआत में। पेजों में स्वैपिंग और बैक करने में बहुत समय लगता है और आपके पीसी के प्रदर्शन को काफी धीमा कर देता है क्योंकि अब आप एचडी की गति पर काम कर रहे हैं, रैम पर नहीं।

यह आपके HD पर एक विशेष विभाजन बनाने के लिए HDD पर थोड़ी मदद करता है और इसे समर्पित "स्वैप" के रूप में निर्दिष्ट करता है (इसका उपयोग "वास्तविक" फ़ाइलों के लिए न करें) इसलिए स्वैपिंग एचडीएस विखंडन से कम प्रभावित होता है।


ROM सिर्फ HD के लिए नामकरण है जब कैशिंग, पेजिंग, आदि के बारे में बात कर रहे हैं। और ROM आमतौर पर RAM की तुलना में धीमी होती है, लगभग हमेशा से। पुराने कंप्यूटरों ने बूट करते समय ROM से RAM (ROM शैडोइंग) के डेटा को कॉपी किया क्योंकि यह तेजी से काम करता था।
गिलेस लेस्सेयर

1
ज़रूर, लेकिन ROM और RAM को गैर-वाष्पशील बनाम अस्थिर मेमोरी के रूप में भी उपयोग किया जाता है? BTW ROM आमतौर पर धीमी है, प्रदर्शन लाभ के लिए ROM को RAM (ROM Shadowing) पर बूटअप में कॉपी किया जाता है। लेकिन यकीन है, मैं आपके नाइटपैकिंग को ठीक करने के लिए एक संदर्भ बदल दूँगा। ;)
गिलेस लेस्सेयर

1

याद रखें, हार्ड ड्राइव परिमाण के एक आदेश हैं धीमी रैम की तुलना में, और खुद को राम सब उस के साथ शुरू करने के लिए तेजी से नहीं है (समग्र वास्तुकला में)। पहुंच की गति के क्रम में (जहां प्रत्येक रग आपके ऊपर एक से अधिक परिमाण का एक क्रम है)

  1. प्रोसेसर रजिस्टर - व्यावहारिक शब्दों में, 1 प्रोसेसर चक्र के भीतर रजिस्टर उपलब्ध हैं । यह देखते हुए कि प्रोसेसर अरबों चक्रों को एक सेकंड (3 GHz = 3 बिलियन चक्र प्रति सेकंड) करते हैं, यह तेजी से पागल है।
  2. प्रोसेसर कैश - स्तर पर निर्भर करता है, लेकिन ये अभी भी बहुत तेज़ हैं (एल 1 कैश के लिए 3-5 चक्र उपलब्धता)।
  3. रैंडम एक्सेस मेमोरी (RAM) - यादृच्छिक भाग का मतलब है कि आप यह नहीं जानते कि जब आप इसे एक्सेस करते हैं तो यह किस स्थिति में है। एक पैकेज डिलीवरी मैन के बारे में सोचें जिसे रोकना है, पैकेज उठाएं, दरवाजे पर जाएं और दरवाजे की घंटी बजाएं और प्रतिक्रिया की प्रतीक्षा करें। हो सकता है कि आप बिलकुल प्रतीक्षा न करें, या हो सकता है कि आप श्रीमती स्मिथ के लिए घर के पीछे के दरवाजे पर फेरबदल करने के लिए एक या दो मिनट प्रतीक्षा करें। व्यावहारिक रूप से, हम 14-27 चक्रों से कहीं भी बात कर रहे हैं (यह इस बात पर निर्भर करता है कि रैम कब हमारे पास थी)।
  4. हार्ड डिस्क ड्राइव - अब यहां एक भौतिक प्रक्रिया है और यह जितनी जल्दी हो सके उतनी तेजी से होता है कि आप सिर को स्थानांतरित करने के लिए इंतजार कर रहे हैं और उन सिर के नीचे स्थानांतरित करने के लिए ट्रैक करते हैं। व्यावहारिक रूप से, 7,200 आरपीएम एचडीडी 3 गीगाहर्ट्ज प्रोसेसर के लिए लगभग 4 एमएस , या कहीं-कहीं 750,000 चक्रों में एक क्रांति को पूरा कर सकता है । वह धीमा है।

वर्चुअल मेमोरी मैनेजर एक जुआरी है। यह शर्त लगाता है कि आपको अपनी सभी समय की रैम की आवश्यकता नहीं है, इसलिए यह एक शिक्षित अनुमान लगाता है और आपके दस्तावेज़ कार्यक्रम (जो आपने इसे पढ़ा है, जो पिछले 10 मिनट से पृष्ठभूमि में रहा है) का पासा रोल करता है। वास्तव में महत्वपूर्ण है और यह इसे एचडीडी को हिलाता है।

लेकिन फिर आप दस्तावेज़ पर वापस क्लिक करते हैं! अब VMM को HDD से उस सभी डेटा को वापस लोड करना होगा। इससे भी बदतर, अगर आप RAM पर कम हैं, तो अब अन्य डेटा (अधिक जुए) को HDD को उपयोग करने योग्य स्थान को मुक्त करने के लिए धक्का देना होगा। लिनक्स यहाँ किनारे पर रहना पसंद करता है। यह अक्सर उपयोग किए जाने वाले डेटा (कुछ प्रक्रियाओं के साथ सर्वर के लिए महान) के साथ राम के विशाल बहुमत को भर देगा।


1
हां, मेमोरी मैनेजर एक जुआरी है लेकिन यह बहुत आसानी से गलत समझा जा सकता है। यदि मेमोरी एक्सेस वास्तव में यादृच्छिक थी, तो मेमोरी मैनेजर अक्सर सही के रूप में गलत होगा और पूरी प्रणाली टूट जाएगी। लेकिन कार्यक्रम संदर्भ के एक मजबूत इलाके का प्रदर्शन करते हैं। यह है कि ज्यादातर मेमोरी एक्सेस मेमोरी के अपेक्षाकृत छोटे क्षेत्र में स्थानीयकृत हो जाते हैं। सिस्टम के काम करने के लिए वे चारों ओर घूमते हैं लेकिन धीमी गति से। स्मृति प्रबंधकों के पक्ष में बाधाओं का ढेर लगाया जाता है और गलतियों को जल्दी से ठीक किया जाता है। यह दशकों के अनुभव पर साबित हुआ है
LMiller7

रैंडम एक्सेस रैंडम में रैंडम से तात्पर्य इस तथ्य से है कि आप इसे बेतरतीब ढंग से एक्सेस कर सकते हैं। (जैसा कि हार्ड ड्राइव या टेप में रीड हेड्स के नीचे से डेटा के गुजरने का इंतजार करने के लिए विरोध किया जाता है, और फिर क्रमिक रूप से डेटा एक्सेस किया जाता है।)
फिल

0

थ्रेशिंग जवाब देता है बहुत ज्यादा कील यह। यदि आप सक्षम हैं, तो आप कम कर सकते हैं कि स्वैग को कम करने से यह कितनी जल्दी होता है (स्पेस को स्वैप करने के लिए चीजों को स्थानांतरित करने से पहले सिस्टम कितना रैम का उपयोग करने की अनुमति देगा)। मैं स्वैप से बाहर रहने के लिए सिस्टम सेट करना पसंद करता हूं जब तक कि सर्वर अनुप्रयोगों के लिए रैम 99% तक नहीं पहुंचता है क्योंकि डिफ़ॉल्ट रूप से प्रभावी रूप से इसका मतलब होगा कि मुझे केवल 80% राम का उपयोग करने के लिए कोड का उपयोग करने की आवश्यकता होगी, बिना किसी धक्का दिए कैशिंग का लाभ उठाने के लिए। स्वैप स्पेस में सिस्टम।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.