प्रोसेसर कैश L1, L2 और L3 सभी SRAM से बने हैं?


10

क्या प्रोसेसर L1, L2 और L3 सभी SRAM से बने हैं? यदि सही है, तो L1 L2 से अधिक तेज क्यों है और L2 L3 से अधिक तेज है? जब मैंने उनके बारे में पढ़ा तो मुझे यह हिस्सा समझ नहीं आया।


संबंधित प्रश्न: हमें कैश मेमोरी के कई स्तरों की आवश्यकता क्यों है? । कुछ हद तक संबंधित: प्रोसेसर में वास्तव में बहुस्तरीय कैश क्या है? । आपकी टिप्पणी से मुझे लगता है कि आपको पहले ही उत्तरार्द्ध प्रश्न मिल गया था।
पॉल ए। क्लेटन

जवाबों:


12

सामान्य तौर पर वे सभी SRAM के साथ कार्यान्वित किए जाते हैं।

(आईबीएम की पॉवर और zArchitecture चिप्स L3 के लिए DRAM मेमोरी का उपयोग करते हैं। इसे एम्बेडेड DRAM कहा जाता है क्योंकि इसे तर्क के रूप में एक ही प्रकार की प्रक्रिया तकनीक में लागू किया जाता है, जिससे फास्ट लॉजिक को DRAM के रूप में एक ही चिप में एकीकृत किया जा सकता है। POWER4 के लिए। चिप L3 ने eDRAM का उपयोग किया; POWER7 में L3 उसी चिप पर है जिस पर प्रसंस्करण कोर है।)

हालांकि वे SRAM उपयोग करते हैं, वे सभी का उपयोग नहीं करते ही SRAM डिजाइन। L2 और L3 के लिए SRAM को आकार के लिए अनुकूलित किया गया है (दी गई क्षमता को सीमित विनिर्माण योग्य चिप आकार बढ़ाने या किसी दिए गए क्षमता की लागत को कम करने के लिए) जबकि L1 के लिए SRAM की गति के लिए अनुकूलित होने की अधिक संभावना है।

इससे भी महत्वपूर्ण बात, पहुंच का समय भंडारण के भौतिक आकार से संबंधित है। जो दो आयामी लेआउट के साथ एक भौतिक अभिगम विलंबता होने की उम्मीद कर सकते हैं मोटे तौर पर क्षमता का वर्गमूल के लिए आनुपातिक। (गैर-समान कैश आर्किटेक्चर निम्न विलंबता पर कैश का सबसेट प्रदान करने के लिए इसका उपयोग करता है। हाल के इंटेल प्रोसेसर के L3 स्लाइस पर एक समान प्रभाव पड़ता है; स्थानीय स्लाइस में एक हिट में काफी कम विलंबता होती है।) यह प्रभाव ड्रैम को तेज कर सकता है। उच्च क्षमता पर SRAM कैश की तुलना में क्योंकि DRAM शारीरिक रूप से छोटा है।

एक अन्य कारक यह है कि अधिकांश L2 और L3 कैश टैग और डेटा के सीरियल एक्सेस का उपयोग करते हैं जहां अधिकांश L1 कैश समानांतर में टैग और डेटा एक्सेस करते हैं। यह एक पावर ऑप्टिमाइज़ेशन है (L2 मिस ​​रेट्स L1 मिस रेट्स से अधिक हैं, इसलिए डेटा एक्सेस के बर्बाद होने की संभावना अधिक होती है; L2 डेटा एक्सेस में आमतौर पर अधिक ऊर्जा की आवश्यकता होती है - क्षमता से संबंधित; और L2 कैश में आमतौर पर उच्च एसोसिएटिविटी होती है। जिसका अर्थ है कि अधिक डेटा प्रविष्टियों को सट्टा पढ़ना होगा)। जाहिर है, डेटा तक पहुँचने से पहले टैग मिलान के लिए प्रतीक्षा करने के लिए डेटा को पुनः प्राप्त करने के लिए आवश्यक समय जोड़ देगा। (L2 पहुंच भी आम तौर पर केवल L1 मिस की पुष्टि होने के बाद शुरू होती है, इसलिए L1 मिस डिटेक्शन की विलंबता L2 की कुल पहुंच विलंबता में जोड़ी जाती है ।)

इसके अलावा, L2 कैश फाँसी इंजन से शारीरिक रूप से अधिक दूर है। एल 1 डेटा कैश को निष्पादन इंजन के करीब रखना (ताकि एल 1 हिट का आम मामला तेज हो) आमतौर पर इसका मतलब है कि एल 2 को दूर रखा जाना चाहिए।


बहुत बढ़िया जवाब। लेकिन मैं आपके कथन से सहमत नहीं हूं कि L2 मिस ​​रेट L1 मिस रेट्स से अधिक हैं। जैसे-जैसे हम मेमोरी पदानुक्रम में कम होते जाते हैं, हमारे पास बड़ी संरचनाएँ होती हैं, जो कम यादों को प्रदान करती हैं, लेकिन बढ़ी हुई विलंबता के साथ।
हर्षवर्धन रमन्ना

@ हर्षवर्धनरामन्ना हाँ क्षमता में वृद्धि करते हैं और सहानुभूति मिस रेट को बढ़ाने में मदद करते हैं, लेकिन निचले स्तर के फिल्टर एक्सेस (एल 2 से पूरे ब्लॉक का पारंपरिक स्थानांतरण ब्लॉक के भीतर अल्पकालिक स्थानिक इलाके को फ़िल्टर करता है; हिट केवल एल 2 में एक एक्सेस के लिए मायने रखता है जबकि ब्लॉक को अतिरिक्त पहुंच के लिए L1 में हिट प्रदान करने की संभावना है)। कुल याद आती दर (जैसे, एक सभ्य 80% हिट दर के साथ एक एल 2 और 95% हिट दर के साथ एक एल 1 कुल 99% हिट दर हो जाता है) नीचे चला जाता है।
पॉल ए। क्लेटन
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.