यह इसलिए है क्योंकि विलंबता को कम करने के लिए DRAM की बैंडविड्थ को बढ़ाना आसान और सस्ता है। राम की एक खुली पंक्ति से डेटा प्राप्त करने के लिए, एक गैर तुच्छ राशि आवश्यक है।
स्तंभ पते को डीकोड करने की आवश्यकता होती है, जो पंक्तियों का चयन करने के लिए किन पंक्तियों का उपयोग करने की आवश्यकता होती है, उन्हें संचालित करने की आवश्यकता होती है, और डेटा को चिप से आउटपुट बफ़र्स तक ले जाने की आवश्यकता होती है। इसमें थोड़ा समय लगता है, विशेष रूप से यह देखते हुए कि एसडीआरएएम चिप्स उच्च राम घनत्व के अनुरूप प्रक्रिया पर निर्मित होते हैं और लॉजिक गति नहीं। DDR (1,2,3 या 4) का उपयोग करके बैंडविड्थ को बढ़ाने के लिए, अधिकांश तर्क या तो चौड़े या पाइपलाइन किए जा सकते हैं, और पिछली पीढ़ी की तरह ही गति से काम कर सकते हैं। केवल एक चीज जो तेज होनी चाहिए वह है DDR पिन के लिए I / O ड्राइवर।
इसके विपरीत, विलंबता को कम करने के लिए पूरे ऑपरेशन को फैलाने की आवश्यकता होती है, जो बहुत कठिन है। सबसे अधिक संभावना है, राम के हिस्सों को उच्च गति सीपीयू के समान प्रक्रिया पर बनाया जाना चाहिए, लागत में काफी वृद्धि करना (उच्च गति प्रक्रिया अधिक महंगी है, साथ ही प्रत्येक चिप को 2 अलग-अलग प्रक्रियाओं से गुजरना होगा)।
यदि आप RAM और हार्ड डिस्क / SSD के साथ CPU कैश की तुलना करते हैं, तो स्टोरेज बड़ा होने, और स्टोरेज तेज़ होने के बीच एक उलटा संबंध है। एक L1 $ बहुत तेज़ है, लेकिन केवल 32 और 256kB डेटा के बीच पकड़ बना सकता है। इसका कारण इतना तेज़ है क्योंकि यह छोटा है:
- इसका उपयोग करके इसे सीपीयू के बहुत करीब रखा जा सकता है, जिसका अर्थ है कि इसे प्राप्त करने के लिए डेटा को कम दूरी तय करनी होगी
- इस पर तारों को छोटा किया जा सकता है, जिसका अर्थ है कि डेटा को उस पार यात्रा करने में कम समय लगता है
- यह बहुत अधिक क्षेत्र या कई ट्रांजिस्टर नहीं लेता है, इसलिए यह एक गति अनुकूलित प्रक्रिया पर बना है और प्रति बिट संग्रहीत शक्ति का उपयोग करना बहुत महंगा नहीं है
जैसा कि आप पदानुक्रम को आगे बढ़ाते हैं प्रत्येक भंडारण विकल्प क्षमता में बड़ा हो जाता है, लेकिन क्षेत्र में भी बड़ा होता है और इसका उपयोग करने वाले उपकरण से दूर होता है, जिसका अर्थ है कि डिवाइस को धीमा होना चाहिए।